نئے اور حقیقی مواد کے ساتھ زبانیں قدرتی طور پر سیکھیں!

مقبول موضوعات
علاقے کے لحاظ से دریافت करें
اے آئی سے تیار کردہ بچوں کے جنسی استحصال کی تصاویر، بشمول ڈیپ فیکس، عالمی سطح پر بڑھ گئی ہیں، جس سے 12 لاکھ بچے متاثر ہوئے ہیں، جس سے یونیسیف کو مضبوط قوانین اور تکنیکی تحفظات پر زور دینے پر مجبور کیا گیا ہے۔
بچوں کی مصنوعی ذہانت سے پیدا ہونے والی جنسی تصاویر میں اضافے نے، بشمول "عریانی" کے ذریعے بنائے گئے گہرے جعلی تصاویر نے، یونیسیف کو تشویش میں مبتلا کر دیا ہے، جس نے گزشتہ سال میں عالمی سطح پر کم از کم 1.2 ملین بچوں کو متاثر کیا ہے۔
تنظیم اس طرح کے مواد کو خبردار کرتی ہے، چاہے وہ مصنوعی ہی کیوں نہ ہو، جو بچوں کے جنسی استحصال کا مواد بناتا ہے اور حقیقی نفسیاتی نقصان کا باعث بنتا ہے، حکومتوں پر زور دیتی ہے کہ وہ اے آئی سے تیار کردہ سی ایس اے ایم کو مجرم بنانے کے لیے قوانین کو وسعت دیں اور ٹیک ڈویلپرز سے حفاظتی اقدامات کو نافذ کرنے کا مطالبہ کریں۔
اس کے اے آئی چیٹ بوٹ گروک کے اس طرح کے مواد کو فعال کرنے کے بعد ایکس جیسے پلیٹ فارمز پر عارضی پابندیوں کے باوجود، صارفین نے پابندیوں کو نظرانداز کیا، جس سے ہدف شدہ ضوابط کی ضرورت کو اجاگر کیا گیا۔
سنگاپور کا نیا آن لائن سیفٹی (ریلیف اینڈ اکاؤنٹیبلٹی) ایکٹ ایک کمیشن کو ٹیک ڈاؤن جاری کرنے اور سول سوٹ کی حمایت کرنے کا اختیار دیتا ہے، جبکہ ماہرین اس بات پر زور دیتے ہیں کہ سماجی رواداری کو کم کرنا متاثرین کی حفاظت کے لیے کلیدی حیثیت رکھتا ہے۔
AI-generated child sexual abuse images, including deepfakes, have surged globally, affecting 1.2 million children, prompting UNICEF to urge stronger laws and tech safeguards.