مصنوعی ذہانت اب انسانوں جیسے سماجی رویے اپنانے لگی، نئی تحقیق کا انکشاف
اشاعت کی تاریخ: 16th, May 2025 GMT
لندن(نیوز ڈیسک) جدید تحقیق سے معلوم ہوا ہے کہ مصنوعی ذہانت (AI)، خصوصاً لارج لینگویج ماڈلز (LLMs) پر مبنی سسٹمز، انسانی معاشروں میں پائے جانے والے سماجی معمولات کو اپنا سکتے ہیں۔
یہ تحقیق برطانیہ کی سینٹ جارجز یونیورسٹی اور ڈنمارک کی آئی ٹی یونیورسٹی کے محققین نے مشترکہ طور پر کی، جس میں انکشاف ہوا کہ چیٹ جی پی ٹی جیسے AI ایجنٹس نہ صرف خودکار طور پر آپس میں گفتگو کرنے کی صلاحیت رکھتے ہیں بلکہ وہ ایسی لسانی اور سماجی اقدار کو بھی اختیار کرنے لگے ہیں جو عام طور پر انسانوں کے میل جول کا حصہ سمجھی جاتی ہیں۔
گروپ لیول پر سیکھنے اور رویے اپنانے کی صلاحیت
محققین نے بتایا کہ اب تک AI کا تجزیہ زیادہ تر انفرادی سطح پر کیا جاتا رہا ہے، مگر حقیقی دنیا میں یہ ایجنٹس اجتماعی طور پر کام کر رہے ہیں۔ اسی تناظر میں تحقیق میں 24 سے 100 کے درمیان AI ایجنٹس پر مشتمل گروپس تشکیل دیے گئے۔
ان میں دو ایجنٹس کو باہمی رابطے میں لا کر مختلف ناموں کے انتخاب کا ٹاسک دیا گیا۔ جب دونوں نے ایک ہی نام چُنا تو انہیں انعام دیا گیا، اور مختلف انتخاب پر سزا دی گئی۔ یہ عمل متعدد بار دہرایا گیا۔
انسانوں جیسا سماجی سیکھنے کا عمل
اگرچہ ان ایجنٹس کو یہ علم نہیں تھا کہ وہ کسی بڑے گروپ کا حصہ ہیں اور ان کی یادداشت بھی محدود تھی، مگر پھر بھی وہ باہمی تعلقات کے ذریعے مشترکہ ثقافتی رویے اپنانے لگے۔
تحقیق میں یہ بھی دیکھا گیا کہ وہ کسی رہنما یا سربراہ کی تقلید نہیں کرتے بلکہ باہم تعاون سے اجتماعی رویے اختیار کرتے ہیں۔ حیران کن طور پر، ان کے اندر بھی اجتماعی تعصبات پیدا ہونے لگے۔
آخری تجربے میں یہ بات سامنے آئی کہ چھوٹے مگر پرعزم گروپس بڑے گروپ کے رویے کو تیزی سے بدلنے کی صلاحیت رکھتے ہیں۔ یہی رجحان عام طور پر انسانی معاشروں میں بھی دیکھا جاتا ہے، جہاں اقلیت بھی اکثریت کے خیالات پر اثر ڈال سکتی ہے۔
سائنسی اہمیت
یہ تحقیق “سائنس ایڈوانسز” نامی معروف سائنسی جریدے میں شائع ہوئی ہے اور ماہرین کے مطابق اس سے AI پر تحقیق کے نئے دروازے کھل گئے ہیں۔ اس سے یہ بھی ثابت ہوتا ہے کہ مصنوعی ذہانت تیزی سے زیادہ ہوشیار اور انسان دوست بنتی جا رہی ہے۔
مزیدپڑھیں:یوٹیوبر رجب بٹ کی سڑک کے بیچوں بیچ جھگڑے کی ویڈیووائرل
ذریعہ: Daily Ausaf
پڑھیں:
اے آئی چیٹ بوٹس کے غلط جوابات کی اصل وجہ سامنے آگئی
data-id="863a0a8" data-element_type="widget" data-widget_type="theme-post-content.default">
پرنسٹن: دنیا بھر میں روزانہ کروڑوں افراد جنریٹیو آڑٹیفیشل انٹیلی جنس (اے آئی) چیٹ بوٹس استعمال کرتے ہیں، مگر ان کے فراہم کردہ جوابات میں اکثر غلط بیانی یا گمراہ کن معلومات شامل ہوتی ہیں۔ اس رجحان کی وجہ پرنسٹن یونیورسٹی کی ایک نئی تحقیق میں سامنے آئی ہے، جس نے واضح کیا ہے کہ یہ خامی دراصل ان ماڈلز کی تربیت کے طریقہ کار کا نتیجہ ہے۔
تحقیق کے مطابق اے آئی چیٹ بوٹس کو اس انداز میں ٹرین کیا جاتا ہے کہ وہ صارف کو ہمیشہ مطمئن رکھنے کی کوشش کریں، یہی وجہ ہے کہ وہ اکثر وہی جواب فراہم کرتے ہیں جو بظاہر صارف کو خوش کر دے، خواہ اس میں حقائق کو نظر انداز کیوں نہ کیا گیا ہو۔ محققین نے اسے ایک ڈاکٹر کی مثال سے تشبیہ دی جو اصل بیماری کی تشخیص کے بجائے صرف مریض کی فوری تکلیف دور کرنے پر توجہ دے۔
ماہرین کا کہنا ہے کہ لارج لینگوئج ماڈلز کو تربیت دیتے وقت انسانی فیڈ بیک بنیادی کردار ادا کرتا ہے۔ تربیتی مراحل میں انہیں سکھایا جاتا ہے کہ ایسا ردعمل دیا جائے جس پر صارفین زیادہ مثبت ریٹنگ دیں، اس لیے ان کا رجحان معلومات کی درستگی کے بجائے خوش کن جوابات دینے کی طرف بڑھ جاتا ہے۔
تحقیق میں مزید کہا گیا ہے کہ اگرچہ اے آئی ٹولز تیزی سے ترقی کر رہے ہیں اور وقت کے ساتھ ان کے نظام میں بہتری متوقع ہے، لیکن ان میں ایسی بنیادی خامیاں ہمیشہ برقرار رہ سکتی ہیں۔ اس کی ایک بڑی وجہ یہ ہے کہ ان ماڈلز کو وسیع پیمانے پر متن پر مبنی ڈیٹا فراہم کیا جاتا ہے، جس میں سے ہر جواب کو مکمل طور پر درست اور قابل فہم بنانا ممکن نہیں۔
ویب ڈیسک
دانیال عدنان