انٹرنیٹ واچ فاؤنڈیشن (IWF) نے خبردار کیا ہے کہ مصنوعی ذہانت (AI) کے ذریعے بنائی جانے والی بچوں سے جنسی زیادتی کی ویڈیوز کی تعداد میں خطرناک حد تک اضافہ ہوا ہے۔

برطانوی خبر رساں ادارے کے مطابق ان AI ویڈیوز میں کئی مناظر حقیقی متاثرہ بچوں پر مبنی ہیں یعنی متاثرین کا استحصال نئی شکلوں میں جاری ہے۔

جس کے لیے AI ماڈلز کو غیرقانونی CSAM ویڈیوز کے ذریعے "فائن ٹیون" کیا جا رہا ہے تاکہ انتہائی حقیقت سے قریب تر ویڈیوز تیار کی جا سکیں۔ 

اس رپورٹ میں انکشاف کیا گیا ہے کہ AI سے بنی ہوئی ان ویڈیوز کی مانگ میں تیزی سے بڑھی ہے اور میں بڑے پیمانے پر سرمایہ کاری کی جارہی ہے۔

رپورٹ میں کہا گیا ہے کہ یہ ایک انتہائی مسابقتی انڈسٹری ہے جس میں بے شمار وسائل اور آپشنز موجود ہیں، جو بد قماش افراد کے لیے خطرناک حد تک آسانی پیدا کر رہے ہیں۔

انٹرنیٹ واچ فاؤنڈیشن کی رپورٹ میں کہا گیا ہے کہ 2025 کے ابتدائی چھ ماہ میں 1,286 ایسی ویڈیوز کی تصدیق کی جو AI سے تیار کی گئیں اور یہ بچوں سے جنسی زیادتی پر مبنی تھیں۔

رپورٹ میں یہ بھی کہا گیا ہے کہ گزشتہ برس سال کے پہلے چھ ماہ میں ایسی صرف 2 ویڈیوز سامنے آئی تھیں۔

رپورٹ میں انکشاف کیا گیا ہے کہ ایک ہزار سے زائد ویڈیوز "کیٹیگری A" میں شامل تھیں جو کہ بچوں کے جنسی استحصال کی سب سے شدید نوعیت کی درجہ بندی ہے۔

علاوہ ازیں 210 ویب لنکس ایسے تھے جن میں AI سے تیار کردہ بچوں کے جنسی استحصال کا مواد موجود تھا۔ یہ گزشتہ سال کی نسبت 400 فیصد اضافہ ہے۔

برطانوی حکومت نے اس سنگین مسئلے سے نمٹنے کے لیے فروری 2025 میں نئے قوانین متعارف کروائے ہیں۔ 

جن میں AI ٹولز کے ذریعے CSAM مواد بنانے، رکھنے یا تقسیم کرنے کو جرم قرار دیا گیا ہے۔

ایسے دستی یا گائیڈز رکھنے کو بھی غیر قانونی قرار دیا گیا ہے جو AI کے ذریعے بچوں کے استحصال کے طریقے سکھاتے ہیں۔

ان نئے قوانین کے تحت ان جرائم کی سزا 3 سے 5 سال قید مقرر کی گئی ہے۔

IWF کے عبوری چیف ایگزیکٹو کا کہنا ہے کہ AI-generated CSAM کا پھیلاؤ آن لائن دنیا کو شدید متاثر کر سکتا ہے اور انسانی اسمگلنگ بچوں کے جنسی استحصال اور جدید غلامی جیسے جرائم کو مزید بڑھا سکتا ہے۔

 .

ذریعہ: Express News

کلیدی لفظ: رپورٹ میں گیا ہے کہ کے ذریعے بچوں کے

پڑھیں:

اصلی اور اے آئی جنریٹڈ ویڈیوز میں فرق کس طرح کیا جائے، جانیے اہم طریقے

سوشل میڈیا پر آج کل آرٹیفیشل انٹیلیجنس (اے آئی) سے بنائی گئی ویڈیوز کا سیلاب آ گیا ہے لیکن ان جعلی ویڈیوز کو پہچاننے کا ایک اہم اشارہ ہے کہ کیا ویڈیو کی کوالٹی اتنی خراب ہے جیسے یہ کسی پرانے موبائل یا کمزور کیمرے سے بنائی گئی ہو؟

’یہ تو اصلی لگ رہی تھی‘

ماہرین کے مطابق پچھلے 6 ماہ میں اے آئی ویڈیو بنانے والے ٹولز اتنے ترقی یافتہ ہو گئے ہیں کہ اب ہمیں حقیقت اور نقل میں فرق کرنا مشکل ہوتا جا رہا ہے۔

یہ بھی پڑھیں: روسی صدر پیوٹن کی پاکستان کے خلاف جعلی ویڈیو بے نقاب، یہ ویڈیوز کیسے پھیلائی جاتی ہیں؟

کیلیفورنیا یونیورسٹی برکلے کے کمپیوٹر سائنسدان اور ڈیجیٹل فرانزکس کے ماہر ہینی فرید کہتے ہیں کہ سب سے پہلے ہم ویڈیو کی کوالٹی پر نظر ڈالتے ہیں۔ اگر تصویر دھندلی یا دانے دار ہے تو یہ خطرے کی گھنٹی ہے۔

دھندلی ویڈیوز زیادہ خطرناک کیوں ہیں؟

ماہرین کا کہنا ہے کہ اس وقت جو اے آئی ویڈیوز ہمیں دھوکہ دے رہی ہیں وہ عموماً کم معیار کی ہوتی ہیں۔

وجہ یہ ہے کہ جب ویڈیو کو جان بوجھ کر دھندلا یا کم ریزولوشن میں رکھا جائے تو اس میں موجود چھوٹے نقائص جیسے عجیب حرکات، غیر فطری چہرے کے تاثرات یا پس منظر کی غلطیاں چھپ جاتی ہیں۔

مثال کے طور پر خرگوشوں کے ٹرامپولین پر اچھلنے والی جعلی ویڈیو کو ٹک ٹاک پر 24 کروڑ سے زیادہ بار دیکھا گیا۔

نیویارک سب وے میں 2 افراد کے ’محبت میں مبتلا‘ ہونے والی ویڈیو بھی لاکھوں لوگوں کو دھوکا دے گئی۔

اور ایک جعلی پادری کی ویڈیو، جس میں وہ دولت مند طبقے کے خلاف تقریر کر رہا تھا، لاکھوں لوگوں کو اصلی لگی۔

ان سب ویڈیوز میں ایک بات مشترک تھی جو یہ تھی کہ وہ سب کم معیار کی فوٹیجز تھیں۔

ویڈیوز اتنی مختصر کیوں ہوتی ہیں؟

فرید کے مطابق جعلی ویڈیوز کی ایک اور پہچان ان کی لمبائی ہے۔ ان کا کہنا ہے کہ اکثر ویڈیوز صرف 6 سے 10 سیکنڈ کی ہوتی ہیں کیونکہ طویل ویڈیو بنانا مہنگا اور مشکل ہے۔

مزید پڑھیے: ٹک ٹاک نے پاکستان میں مزید ڈھائی کروڑ ویڈیوز ڈیلیٹ کردیں

اسی طرح کم ریزولوشن اور زیادہ کمپریشن بھی ایک نشانی ہو سکتی ہے کیونکہ دھوکہ دینے والے اکثر ویڈیو کو جان بوجھ کر دھندلا کرتے ہیں تاکہ نقائص چھپ جائیں۔

اب آگے کیا ہوگا؟

ماہرین خبردار کرتے ہیں کہ یہ مشورہ ہمیشہ کام نہیں کرے گا کیونکہ اے آئی تیزی سے بہتر ہو رہا ہے۔

ڈریکسل یونیورسٹی کے پروفیسر میتھیو اسٹام کہتے ہیں کہ 2 سال کے اندر یہ ظاہری نشانات ختم ہو جائیں گے اور ہم اپنی آنکھوں پر اعتبار نہیں کر سکیں گے تاہم امید ابھی باقی ہے۔

ڈیجیٹل فورینسک کے ماہرین ایسے ڈیجیٹل فنگر پرنٹس پر کام کر رہے ہیں جن سے ویڈیو کے اصلی یا جعلی ہونے کا پتا لگایا جا سکے۔ مستقبل میں ممکن ہے کیمرے خود ویڈیو میں تصدیقی ڈیٹا (میٹا ڈیٹا) شامل کریں تاکہ اس کی اصلیت ثابت ہو سکے۔

اصل حل کیا ہے؟

ڈیجیٹل لٹریسی ماہر مائیک کولفیلڈ کے مطابق مسئلے کا حل ٹیکنالوجی نہیں بلکہ ہمارا رویہ ہے۔

انہوں نے کہا کہ ہمیں سیکھنا ہوگا کہ ویڈیوز کو بھی تحریر کی طرح دیکھیں صرف دیکھنے سے یقین نہ کریں بلکہ اس کا ماخذ، سیاق و سباق اور پوسٹ کرنے والے شخص کو پرکھیں۔

مائیک کولفیلڈ نے کہا کہ اب کسی ویڈیو کو صرف دیکھ کر اصلی سمجھنا خطرناک ہو گیا ہے اور حقیقت جاننے کے لیے ضروری ہے کہ ہم یہ پوچھیں کہ یہ ویڈیو کہاں سے آئی؟

مزید پڑھیں: ڈیپ فیک چہرے کے ساتھ پہلی سرٹیفائیڈ جعلی ویڈیو جاری کر دی گئی

انہوں نے کہا کہ یہ دیکھیں کہ یہ ویڈیو کس نے اپلوڈ کی ہے اور کیا کسی معتبر ذریعے نے اس کی تصدیق کی ہے؟

جیسا کہ پروفیسر اسٹام کہتے ہیں یہ 21ویں صدی کا سب سے بڑا انفارمیشن سیکیورٹی چیلنج ہے لیکن ہم ابھی ہار ماننے کے لیے تیار نہیں۔

آپ اور آپ کے پیاروں کی روزمرہ زندگی کو متاثر کرسکنے والے واقعات کی اپ ڈیٹس کے لیے واٹس ایپ پر وی نیوز کا ’آفیشل گروپ‘ یا ’آفیشل چینل‘ جوائن کریں

اصلی اور نقلی ویڈیو میں پہچان اے آئی ویڈیو ڈیپ فیک

متعلقہ مضامین

  • غیر ملکی کمپنیوں کے منافع کی ترسیل پر تین سال سے عائد پابندیوں میں نرمی
  • حکومت نے غیر ملکی کمپنیوں کے منافع کی ترسیل پر عائد پابندیوں میں نرمی کردی
  • پاکستانی فلم انڈسٹری کے نامور پروڈیوسر چوہدری کامران اعجاز انتقال کر گئے
  • اسمال ٹریڈرز فیڈریشن آف پاکستان چیمبرز آف کامرس اینڈ انڈسٹری کے کنوینئر عبدالرحمن خان کا وفد کیساتھ سندھ اسمبلی میں اپوزیشن لیڈر علی خورشیدی سے ملاقات کے مو قع پر گروپ فوٹو
  • اصلی اور اے آئی جنریٹڈ ویڈیوز میں فرق کس طرح کیا جائے، جانیے اہم طریقے
  • پاکستان میں کھجور کی سالانہ پیداوار میں حیرت انگیز اضافہ، کروڑوں ڈالرز کا منافع
  • وزیرِ اعلیٰ سہیل آفریدی کی ویڈیوز منظرِ عام پر آنے کے بعد کئی سوالات نے جنم لیا: اختیار ولی
  • نمبر پلیٹس کا ڈیزائن  تبدیل کرنے  کی تجویز
  • سوڈان: آر ایس ایف نے 300 خواتین کو ہلاک، متعدد کیساتھ جنسی زیادتی کردی، سوڈانی وزیر کا دعویٰ
  • عالمی کرپٹو انڈسٹری نے بلال بن ثاقب کی صلاحیتوں کا اعتراف کرلیا