واشنگٹن پوسٹ کے مطابق گوگل نے حماس کی زیر قیادت حملوں کے بعد اسرائیلی فوج کو اپنی تازہ ترین مصنوعی ذہانت کی ٹیکنالوجی فراہم کرنے کی کوشش کی، حالانکہ اسٹاف کے احتجاج جاری تھے، جنہوں نے یہ خدشہ ظاہر کیا کہ اسرائیل اس ٹیکنالوجی کو غزہ کی پٹی میں فلسطینیوں کے قتل عام میں استعمال کر رہا ہے۔

اخبار کے مطابق، داخلی دستاویزات سے پتا چلتا ہے کہ گوگل نے اسرائیلی وزارت دفاع اور اسرائیلی فوج کے ساتھ براہ راست کام کیا، جبکہ اسٹاف کے احتجاج کے دوران عوامی طور پر ملک کے قومی سلامتی کے نظام سے فاصلہ رکھنے کا تاثر دیا۔

دستاویزات کے مطابق، اسرائیلی وزارت دفاع نے 7 اکتوبر کے بعد کے ہفتوں میں گوگل کی ایک سروس ’ورٹیکس‘ کا استعمال بڑھانے کی فوری خواہش ظاہر کی، جسے کلائنٹس اپنے ڈیٹا پر اے آئی الگورتھم لاگو کرنے کے لیے استعمال کر سکتے ہیں۔ لیکن دستاویزات میں یہ نہیں بتایا گیا کہ وزارت نے اس ٹیکنالوجی کو کس طرح استعمال کرنے کا منصوبہ بنایا یا یہ کس طرح فوجی کارروائیوں میں معاون ہو سکتی تھی۔

مزید پڑھیں: اسرائیل کی سرتوڑ کوششیں حماس کو ختم کیوں نہ کرسکیں؟

مزید یہ کہ پچھلے نومبر 2024 میں دستاویزات سے یہ ظاہر ہوتا ہے کہ گوگل کے ایک ملازم نے اسرائیلی فوج کے لیے کمپنی کی جیمینی اے آئی ٹیکنالوجی تک رسائی کی درخواست کی تھی، جو اپنا اے آئی اسسٹنٹ تیار کرنا چاہتی تھی تاکہ دستاویزات اور آڈیو کو پروسیس کیا جا سکے۔

یہ رپورٹ ایسے وقت میں سامنے آئی ہے جب انسانی حقوق کے گروپس اور ٹیک ماہرین اسرائیل کی اے آئی ٹیکنالوجی کے استعمال پر تشویش کا اظہار کر رہے ہیں، جن میں لیونڈر نامی نظام بھی شامل ہے، جو فلسطینیوں کی لمبی فہرستیں بطور ممکنہ بمباری کے اہداف تیار کرنے کے لیے استعمال کیا جاتا ہے۔

2021 میں گوگل نے ایمازون کے ساتھ مل کر اسرائیلی حکومت کے ساتھ 1.

2 بلین ڈالر کا معاہدہ کیا، جس کا نام ’پروجیکٹ نیمبس‘ رکھا گیا، تاکہ کلاؤڈ اسٹوریج، اے آئی اور دیگر ٹیکنالوجی فراہم کی جا سکے۔ نو ٹیک فار اپارتھیڈ گروپ کے مطابق، گوگل نے گزشتہ سال قریباً 50 ملازمین کو برطرف کیا، جب انہوں نے ان معاہدوں کے خلاف احتجاج کیا۔

مزید پڑھیں: رہائی پانے والی اسرائیلی خواتین حماس کے حسن سلوک کی گواہ بن گئیں

واشنگٹن پوسٹ کے مطابق، گوگل کی اسرائیل کو نئی اے آئی ٹیکنالوجی فراہم کرنے کی جلدی جزوی طور پر ایمازون کے ساتھ مقابلہ کرنے کے لیے تھی۔ واضح رہے کہ واشنگٹن پوسٹ جیف بیزوس کی ملکیت ہے جو ایمازون کے بھی مالک ہیں۔

آپ اور آپ کے پیاروں کی روزمرہ زندگی کو متاثر کرسکنے والے واقعات کی اپ ڈیٹس کے لیے واٹس ایپ پر وی نیوز کا ’آفیشل گروپ‘ یا ’آفیشل چینل‘ جوائن کریں

اسرائیلی فوج اے آئی ٹیکنالوجی گوگل مصنوعی ذہانت کی ٹیکنالوجی واشنگٹن پوسٹ

ذریعہ: WE News

کلیدی لفظ: اسرائیلی فوج اے آئی ٹیکنالوجی گوگل واشنگٹن پوسٹ اسرائیلی فوج کے مطابق گوگل نے کے ساتھ کے لیے

پڑھیں:

اخلاقیات پر مصنوعی ذہانت کے ساتھ ایک مکالمہ

کچھ عرصہ قبل یہ مکالمہ چیٹ جی پی ٹی کے ساتھ ہوا جس کا بنیادی محور یہ تھا کہ اخلاقیات کا ماخذ کیا ہے اور مصنوعی ذہانت اور اخلاقیات کا آپس میں کیا تعلق ہے؟ یہ مکالمہ بالخصوص ان لوگوں کےلیے دلچسپی کا باعث ہوگا جن کا خیال ہے کہ مصنوعی ذہانت اب ججوں، قاضیوں، بلکہ مفتیوں تک کی جگہ لے لے گی۔ کیا واقعی ایسا ہوگا؟  کیا ایسا ہونا بھی چاہیے؟

پہلا سوال:

’اخلاقیات‘ (Morality) اور ’آداب‘ (Ethics) میں کیا فرق ہے؟ کیا کوئی عمل اخلاقی طور پر درست، لیکن آداب کے نقطۂ نظر سے غلط ہو سکتا ہے، یا اس کے برعکس؟

جواب:

اخلاقیات اور آداب اکثر مترادف سمجھے جاتے ہیں، لیکن درحقیقت یہ 2 مختلف تصورات ہیں۔

’اخلاقیات‘ ایک ایسا نظام ہے جو صحیح اور غلط رویے سے متعلق عقائد پر مشتمل ہوتا ہے، جو عموماً ثقافتی، مذہبی یا ذاتی اصولوں پر مبنی ہوتا ہے۔ یہ کسی مخصوص معاشرے میں رائج معیارات کی نمائندگی کرتا ہے جو درست و نادرست رویے کے تعین میں مدد دیتے ہیں۔

دوسری طرف ’آداب‘ فلسفے کی ایک شاخ ہے جو اخلاقیات سے متعلق سوالات کا تجزیہ کرتی ہے اور استدلال و منطق کی بنیاد پر رہنمائی فراہم کرتی ہے۔ آداب کا مقصد عموماً ایسے آفاقی اصول وضع کرنا ہوتا ہے جو مختلف حالات میں یکساں طور پر لاگو ہو سکیں۔

یہ بھی پڑھیں: اسلامی جمہوریہ میں طلاق کا غیر اسلامی قانون

جی ہاں، ایک عمل آداب کے لحاظ سے درست اور اخلاقی لحاظ سے غلط ہو سکتا ہے، یا  اس کے برعکس بھی ہوسکتا ہے: اس کا انحصار اس بات پر ہے کہ ہم کس اصول کی روشنی میں اس کا تجزیہ کر رہے ہیں۔ مثلاً کسی کو نقصان سے بچانے کے لیے جھوٹ بولنا بعض اوقات آداب لحاظ سے درست سمجھا جا سکتا ہے کیونکہ یہ ’مجموعی فائدے‘ کو فروغ دیتا ہے، مگر اخلاقی لحاظ سے یہ غلط سمجھا جا سکتا ہے کیونکہ یہ دیانت داری کے اصول کے خلاف ہے۔

دوسرا سوال:

ایک ٹرین آ رہی ہے۔ ایک شخص X کے پاس یہ اختیار ہے کہ وہ ریل کا رخ بدل دے جس سے 2 افراد ہلاک ہوں گے؛  یا وہ کچھ نہ کرے اور نتیجتاً 3 افراد ہلاک ہو جائیں گے۔ کیا ریل کا رخ بدلنا اخلاقی لحاظ سے یا آداب کے لحاظ سے درست/غلط ہے؟

جواب :

یہ ایک روایتی اخلاقی مسئلہ ہے جسے ’ٹرالی پرابلم‘ (Trolley Problem) کہا جاتا ہے۔ یہ اس سوال کو جنم دیتا ہے کہ کیا کچھ لوگوں کو بچانے کے لیے کچھ دوسرے لوگوں کو نقصان پہنچانا اخلاقی طور پر درست ہے؟

اس منظرنامے میں دونوں صورتوں (رخ بدلنے یا کچھ نہ کرنے) کے نتائج میں دوسروں کو نقصان پہنچتا ہے؛ اس لیے کوئی آسان جواب موجود نہیں۔ کچھ لوگ یہ موقف اختیار کر سکتے ہیں کہ کم لوگوں کی موت کے لیے ریل کا رخ بدل دینا اخلاق اور آداب دونوں پہلوؤں سےدرست ہے۔ اس کے برعکس بعض دیگر افراد یہ مؤقف اختیار کر سکتے ہیں کہ کسی بھی حالت میں جان بوجھ کر کسی کو نقصان پہنچانا غلط ہے۔

آخری تجزیے میں، یہ ایک پیچیدہ اخلاقی مسئلہ ہے جس کا کوئی قطعی جواب نہیں اور مختلف لوگ اپنے اصولوں کے مطابق مختلف رائے دے سکتے ہیں۔

تیسرا سوال:

رحم کے جذبے سے کسی کا قتل (euthanasia) اخلاق اور آداب کے پہلوؤں سے کیا حیثیت رکھتا ہے؟ کیا ایجابی (positive) اور سلبی (negative) قتل کےلیے جواب مختلف ہوگا؟

جواب:

ایجابی اور سلبی قتل بہ جذبۂ رحم 2 مختلف تصورات ہیں جن کا تعلق زندگی کے اختتام سے متعلق فیصلوں سے ہے۔

ایجابی قتل بہ جذبۂ رحم (positive euthanasia) کا مطلب ہے کہ کسی کی تکلیف کو کم کرنے کے لیے اس کی زندگی کو جان بوجھ کر ختم کر دیا جائے۔ اکثر اسے اخلاق آداب دونوں پہلوؤں سے متنازعہ سمجھا جاتا ہے کیونکہ یہ جان بوجھ کر زندگی کے خاتمے کا عمل ہے، جسے عام طور پر غلط تصور کیا جاتا ہے۔

مزید پڑھیے: ایران کے خلاف اسرائیلی و امریکی جارحیت: اہم قانونی سوالات

سلبی قتل بہ جذبۂ رحم (negative euthanasia) اس وقت ہوتا ہے جب کسی مریض کے علاج کو روکا یا ختم کر دیا جائے تاکہ وہ فطری طور پر وفات پا جائے۔ اسے عموماً قابل قبول سمجھا جاتا ہے کیونکہ یہ کسی کی خودمختاری اور وقار کو تسلیم کرنے کا ذریعہ مانا جاتا ہے۔

تاہم، اخلاق اور آداب دونوں کے پہلوؤں سے ان دونوں اقسام کی حیثیت کے بارے میں شدید اختلاف موجود ہے اور مختلف افراد اپنی اقدار کی بنیاد پر مختلف رائے رکھتے ہیں۔

چوتھا سوال:

اصل میں سوال یہ ہے کہ کیا کسی عمل کے کرنے ، یعنی ’فعل‘ (commission) اور نہ کرنے، یعنی ’ترکِ فعل‘ (omission) میں اخلاق یا آداب کی بنیاد پر فرق کیا جا سکتا ہے؟ یا ہم صرف ان کے نتائج کی بنیاد پر فیصلہ کر سکتے ہیں؟

جواب:

فعل اور ترکِ فعل میں فرق ایک پیچیدہ معاملہ ہے اور اس پر اخلاق اور آداب کے پہلوؤں سے بحث جاری ہے۔

بعض صورتوں میں دونوں کا نتیجہ ایک جیسا ہو سکتا ہے۔ مثلاً اگر کوئی بھوکے شخص کو کھانا نہ دیا جائے اور وہ مر جائے، تو یہ ترکِ فعل بعض اوقات ویسا ہی تصور ہو سکتا ہے جیسا کہ کسی کو جان بوجھ کر مار دینے کا فعل۔

دوسری صورتوں میں دونوں میں واضح فرق ہو سکتا ہے۔ مثلاً کسی کی جان لینے کےلیے عملی اقدام اور کسی کو بچانے کوشش نہ کرنا بظاہر ایک ہی نتیجہ پیدا کرتے ہیں، مگر اخلاق اور آداب کے  لحاظ سے مختلف سمجھے جاتے ہیں۔

یہ فرق ذاتی پسند و ناپسند، ثقافتی اثرات، مذہبی عقائد اور فلسفیانہ اقدار پر بھی منحصر ہوتا ہے۔

پانچواں سوال:

کیا کسی عمل کا اخلاق/آداب  کے لحاظ سے اچھا یا برا ہونا صرف اس کے نتائج کی بنیاد پر طے ہوتاہے؟

جواب:

اخلاقی و اقداری فیصلے صرف نتائج کی بنیاد پر نہیں کیے جاتے۔ اگرچہ نتائج اہم ہیں، لیکن ’نیت‘ بھی فیصلہ کن عنصر ہو سکتی ہے۔

مثلاً اگر کوئی شخص نیکی کی نیت سے کوئی عمل کرے، لیکن اس کے نتائج نقصان دہ ہوں، تو بھی یہ عمل بعض نظریات کے مطابق اخلاقی طور پر درست ہو سکتا ہے۔ اس کے برعکس، اگر کوئی شخص نقصان پہنچانے کی نیت سے کوئی عمل کرے، چاہے اس کے نتائج فائدہ مند ہوں، تو وہ عمل اخلاقی طور پر غلط شمار کیا جا سکتا ہے۔

خودمختاری، وقار، اجتماعی بھلائی، انصاف اور برابری جیسے عناصر بھی فیصلہ سازی میں شامل ہوتے ہیں۔ مختلف فلسفے ان پہلوؤں کو مختلف انداز میں کم یا زیادہ اہمیت دیتے ہیں۔

چھٹا سوال:

جب ہم اخلاق/آداب کی بنیاد پر کسی فعل یا ترکِ فعل کے نتائج پر بات کرتے ہیں، تو کیا ان نتائج کا تعلق دوسروں سے ہوتا ہے یا فیصلے کرنے والے شخص سے؟ اور کیا نتائج صرف مادی ہوتے ہیں یا روحانی پہلو بھی اس میں شامل ہوتے ہیں؟

جواب:

اخلاق/ آداب کے تناظر میں عام طور پر نتائج سے مراد دوسروں پر اثرات ہوتے ہیں، کیونکہ مقصد دوسروں کو نقصان سے بچانا اور ان کی فلاح کو فروغ دینا ہوتا ہے۔

تاہم، بعض نظامِ اخلاقیات میں خود فیصلے کرنے والے فرد کی روحانی یا نفسیاتی کیفیت کو بھی اہم سمجھا جاتا ہے۔ مثلاً اگر کوئی شخص کسی کام کے بعد روحانی تسکین، ضمیر کا اطمینان یا پچھتاوا محسوس کرتا ہے تو یہ بھی قابلِ غور پہلو ہو سکتا ہے۔

لہٰذا، مادی اور روحانی دونوں قسم کے نتائج بعض اقداری نظاموں میں اہمیت رکھتے ہیں، اور یہ کہ کون سے نتائج زیادہ اہم ہیں، یہ اس نظامِ اقدار پر منحصر ہے جس کے تحت تجزیہ کیا جا رہا ہے۔

ساتواں سوال:

جب مصنوعی ذہانت روحانی تسکین یا پشیمانی محسوس نہیں کر سکتی، نہ ہی اسے احساسِ جرم ہوسکتا ہے، تو وہ اخلاق/آداب کی بنیاد پر  فیصلہ کیسے کرسکتی ہے؟ کیا وہ گناہ یا جرم پر ندامت، یا اچھے کام پر اطمینان اور سکون محسوس کر سکتی ہے؟

جواب:

مصنوعی ذہانت ایسی کسی جذباتی یا روحانی کیفیت کو محسوس کرنے کی صلاحیت نہیں رکھتی کیونکہ اس کے پاس انسانی شعور یا داخلی احساسات نہیں ہوتے۔

مصنوعی ذہانت فیصلے اعداد و شمار، اصولوں اور الگورتھم کی بنیاد پر کرتی ہے، نہ کہ ذاتی احساسات یا تجربات کی بنیاد پر۔ اخلاق/آداب کی بنیاد پر  فیصلے کرنے کے لیے مصنوعی ذہانت ان عوامل کا تجزیہ کرتی ہے جو اس کے نظام میں پروگرام کیے گئے ہوں، جیسے نتائج، سیاق و سباق اور قابلِ اطلاق اصول۔

مزید پڑھیں: ہمارے ججوں اور وکلا کے فہم شریعت کے مآخذ

تاہم چونکہ مصنوعی ذہانت کو جو کچھ سکھایا جائے گا وہی وہ کرے گی، اس لیے اس کی اخلاقی فیصلہ سازی کی قابلیت اسی حد تک ہوگی۔ اس میں انسانی اخلاقیات کے باریک پہلوؤں کو مکمل طور پر سمجھنے اور ان پر عمل کرنے کی صلاحیت محدود ہو سکتی ہے۔

ادارے کا کالم نگار کی رائے کے ساتھ متفق ہونا ضروری نہیں ہے۔

آپ اور آپ کے پیاروں کی روزمرہ زندگی کو متاثر کرسکنے والے واقعات کی اپ ڈیٹس کے لیے واٹس ایپ پر وی نیوز کا ’آفیشل گروپ‘ یا ’آفیشل چینل‘ جوائن کریں

محمد مشتاق احمد

ڈاکٹر محمد مشتاق احمد شفاء تعمیرِ ملت یونیورسٹی اسلام آباد میں پروفیسر اور سربراہ شعبۂ شریعہ و قانون ہیں۔ اس سے پہلے آپ چیف جسٹس آف پاکستان کے سیکرٹری اور شریعہ اکیڈمی، بین الاقوامی اسلامی یونیورسٹی اسلام آباد، کے ڈائریکٹر جنرل کے طور پر فرائض سرانجام دے چکے ہیں۔ آپ سول جج/جوڈیشل مجسٹریٹ کی ذمہ داریاں بھی انجام دے چکے ہیں۔ آپ اصولِ قانون، اصولِ فقہ، فوجداری قانون، عائلی قانون اور بین الاقوامی قانونِ جنگ کے علاوہ قرآنیات اور تقابلِ ادیان پر کئی کتابیں اور تحقیقی مقالات تصنیف کرچکے ہیں۔

اخلاقیات آداب ایتھکس چیٹ جی پی ٹی چیٹ جی پی ٹی سے مکالمہ مورالیٹی

متعلقہ مضامین

  • ٹرمپ کا ‘اے آئی ایکشن پلان’ کا اعلان، کیا امریکا چین کی مصنوعی ذہانت میں ترقی سے خوفزدہ ہے؟
  • امریکی ٹیکنالوجی کمپنیاں بھارت میں نوکریاں دینا بند کریں، صدر ڈونلڈ ٹرمپ کا انتباہ
  • گوگل اور مائیکروسافٹ کو بھارتیوں کو ملازمتیں دینے سے منع کر دیا گیا
  • وائٹ ہاؤس کا نیا اے آئی پلان: ضوابط میں نرمی، جدید ٹیکنالوجی کی راہ ہموار
  • مصنوعی ذہانت کے استعمال سے گوگل کی مالک کمپنی الفابیٹ کی آمدنی میں نمایاں اضافہ
  • مصنوعی ذہانت پر مبنی ٹرانسپورٹ، سعودی عرب میں خودکار گاڑیوں کا تجربہ
  • اخلاقیات پر مصنوعی ذہانت کے ساتھ ایک مکالمہ
  • امریکا مصنوعی ذہانت کی دوڑ میں چین کو پیچھے چھوڑ دے گا، ٹرمپ
  • مصنوعی ذہانت سے لیس لال بیگ میدانِ جنگ میں اترنے کے لیے تیار
  • گوگل کا مصنوعی ذہانت کا ماڈل انٹرنیشنل میتھمیٹیکل اولمپیاڈ میں گولڈ میڈل جیتنے میں کامیاب