مصنوعی ذہانت! | انسانوں کی معدومیت کا باعث بن سکتی ہے؟

Towseef
8 Min Read

ٹیکنالوجی

کرس والنس

اوپن اے آئی اور گوگل ڈیپ مائنڈ کے سربراہان سمیت متعدد ماہرین نے خبردار کیا ہے کہ مصنوعی ذہانت انسانیت کے خاتمے کا باعث بن سکتی ہے۔درجنوں افراد نے سینٹر فار اے آئی سیفٹی کے ویب پیج پر شائع ہونے والے ایک بیان کی حمایت کی ہے۔اس میں لکھا گیا ہے کہ’ ’مصنوعی ذہانت سے انسانوں کے خاتمے کے خطرے کو کم کرنا دیگر سماجی سطح کے خطرات جیسا کہ وبائی امراض اور ایٹمی جنگ کے ساتھ ساتھ ایک عالمی ترجیح ہونی چاہیے۔‘‘تاہم دیگر افراد کا کہنا ہے کہ اب اس حوالے سے خوف ختم ہو گیا ہے۔

چیٹ جی پی ٹی بنانے والی کمپنی اوپن اے آئی کے چیف ایگزیکٹیو سیم آلٹ مین، گوگل ڈیپ مائنڈ کے چیف ایگزیکٹیو ڈیمس ہسابیس اور اینتھروپک کے ڈاریو آمودی سبھی نے اس بیان کی حمایت کی ہے۔سینٹر فار اے آئی سیفٹی ویب سائٹ کئی ممکنہ تباہی کے منظرناموں کو کچھ اس طرح پیش کرتی ہے۔

مصنوعی ذہانت کو ہتھیار بنایا جا سکتا ہے،مثلاً، منشیات کی دریافت کے اوزار کیمیائی ہتھیار بنانے کے لیے استعمال کئے جا سکتے ہیں۔مصنوعی ذہانت اے آئی کی طاقت تیزی سے چند ہاتھوں تک مرکوز ہو سکتی ہے، جس سےحکومتوں کو وسیع نگرانی اور جابرانہ سنسرشپ کے ذریعے تنگ نظر اقدار کے نفاذ کے قابل بنایا جا سکتا ہے۔انسانوں کا مصنوعی ذہانت پر ضرورت سے زیادہ انحصار، انسانوں کو کمزور کر سکتا ہے۔ڈاکٹر جیفری ہنٹن، جنھوں نے انتہائی ذہین مصنوعی ذہانت سے خطرات کے بارے میں پہلے خبردار کیا تھا ،نے سینٹر فار اے آئی سیفٹی کی تنبیہہ کی حمایت کی ہے۔یونیورسٹی آف مونٹریال میں کمپیوٹر سائنس کے پروفیسر یوشوا بینجیو نے بھی اس پر دستخط کئے ہیں۔ڈاکٹر ہنٹن، پروفیسر بینجیو اور این وائے یو کے پروفیسر یان لیکیون کو اکثر مصنوعی ذہانت کے اس شعبے میں ان کے اہم کارناموں کی وجہ سے’ ’مصنوعی ذہانت کے گاڈ فادرز‘‘ کے طور پر متعارف کروایا جاتا ہے۔ان تینوں پروفیسرز نے مشترکہ طور پر سنہ 2018 کا ’’ٹوئرنگ ایوارڈ‘‘ جیتا، جو کمپیوٹر سائنس میں ان کی خدمات کا اعتراف ہے۔تاہم پروفیسر لیکیون، جو کہ میٹا میں بھی کام کرتے ہیں، نے کہا ہے کہ اس حوالے سے جاری کئے جانے والے انتباہ ضرورت سے زیادہ بڑھا چڑھا کر پیش کئے جاتے ہیں۔اسی طرح بہت سے دوسرے ماہرین کا خیال ہے کہ مصنوعی ذہانت کے باعث انسانیت کی معدومیت کے خدشات غیر حقیقی ہیں اور نظام میں تعصب جیسے مسائل سے جڑے ہیں جو پہلے سے ہی ایک مسئلہ ہے۔

پرنسٹن یونیورسٹی کے کمپیوٹر سائنس دان اروند نارائنن نے بتایا تھا کہ سائنسی افسانے جیسے تباہی کے منظرنامے غیر حقیقی ہیں۔ ’’موجودہ مصنوعی ذہانت ان خطرات کو حقیقت میں بدلنے کے قابل بالکل بھی نہیں ہے۔‘‘ان کے مطابق اس طرح کی پیش گوئیوں کی وجہ سے مصنوعی ذہانت کے فوری خطرات سے نمٹنے جیسے نقصانات سے توجہ ہٹ جاتی ہے۔آکسفورڈ کے انسٹیٹیوٹ فار ایتھکس میں مصنوعی ذہانت کی سینیئر ریسرچ ایسوسی ایٹ الزبتھ رینیرس کا کہنا ہے کہ وہ اس ٹیکنالوجی سے جڑے فوری خطرات کے بارے میں زیادہ فکر مند ہیں۔انھوں نے کہا کہ ’’مصنوعی ذہانت میں ترقی خودکار فیصلہ سازی کے پیمانے کو بڑھا دے گی جو کہ متعصب، امتیازی، خارجی یا بصورت دیگر غیر منصفانہ ہے جبکہ یہ ناقابل تسخیر اور ناقابل اعتراض بھی ہے۔ وہ غلط معلومات کے حجم اور پھیلاؤ میں غیر معمولی اضافہ کریں گے، اس طرح حقیقت سے دور لے جائیں گے اور عوامی اعتماد کو ختم کریں گے اور مزید عدم مساوات کا سبب بنیں گے۔‘‘

الزبتھ رینیرس کے مطابق بہت سے اے آئی ٹولز بنیادی طور پرآج تک کے انسانی تجربے پر بھاری ہیں۔انھوں نے بتایا کہ بہت سے لوگوں کو انسانی تخلیق کردہ مواد، متن، آرٹ اور موسیقی پر تربیت دی جاتی ہے جس کے بعد وہ نقل کر سکتے ہیں اور ان کے تخلیق کاروں نے ’’عوامی حلقوں سے بڑی دولت اور طاقت کو مؤثر طریقے سے چند ہاتھوں یعنی نجی اداروں تک مرکوز کر دیا ہے۔‘‘لیکن سینٹر فار اے آئی سیفٹی کے ڈائریکٹر ڈین ہینڈریکس کا کہنا ہے کہ مستقبل کے خطرات اور موجودہ خدشات کو ’’مخالفانہ انداز میں نہیں دیکھا جانا چاہیے۔‘‘انھوں نے کہا کہ آج کچھ مسائل کو حل کرنا بعد میں آنے والے بہت سے خطرات سے نمٹنے کے لیے مفید ہو سکتا ہے۔‘سپرانٹیلیجنس پر مبنی کوششیں

مارچ 2023 سے مصنوعی ذہانت کی طرف سے ’لاحق‘ خطرات میڈیا کی زینت بن گئے ہیں۔ جب ٹیسلا اور ٹوئٹر کے مالک ایلون مسک سمیت ماہرین نے ایک کھلے خط پر دستخط کئے تھے جس میں اے آئی ٹیکنالوجی کی اگلی نسل کی ترقی کو روکنے پر زور دیا گیا تھا۔اس خط میں پوچھا گیا کہ کیا ہمیں ’’غیر انسانی یعنی مصنوعی ذہنوں کو تیار کرنا چاہیے جو کہ آخر کار ہماری تعداد سے کہیں زیادہ ہو جائیں اور ہماری جگہ لے لیں۔‘‘اس کے برعکس، نئے انتباہ میں بہت مختصر سا بیان دیا گیا ہے، جس کا مقصد اس پر بحث کو چھیڑا جا سکے۔

اس بیان میں ایٹمی جنگ سے لاحق خطرے کا موازنہ کیا گیا ہے۔ اوپن اے آئی نے حال ہی میں ایک بلاگ میں تجویز دی ہے کہ سپر انٹیلیجنس کو جوہری توانائی کی طرح ریگولیٹ کیا جا سکتا ہے۔ بیان میں کہا گیا ہے کہ ’ہمیں ممکنہ طور پر سپر انٹیلیجنس کوششوں کے لیے آئی اے ای اے (انٹرنیشنل اٹامک انرجی ایجنسی) جیسی کسی ریگولیٹری تنظیم کی ضرورت ہو گی۔سیم آلٹمین اور گوگل کے چیف ایگزیکٹو سندر پچائی دونوں ان ٹیکنالوجی رہنماؤں میں شامل ہیں، جنھوں نے برطانوی وزیر اعظم کے ساتھ اے آئی ریگولیشن پر تبادلہ خیال کیا ہے۔مصنوعی ذہانت کے خطرے سے متعلق تازہ ترین انتباہ کے بارے میں صحافیوں سے بات کرتے ہوئے برطانوی وزیر اعظم نے معیشت اور معاشرے کے لیے فوائد پر زور دیا ہے۔انھوں نے کہا کہ آپ نے دیکھا ہے کہ حال ہی میں یہ مفلوج لوگوں کو چلنے پھرنے میں مدد دے رہی ہے، نئی اینٹی بائیوٹکس دریافت کر رہی ہے، لیکن ہمیں یہ یقینی بنانا ہوگا کہ یہ اس طرح سے کیا جائے، جو محفوظ ہو۔اُن کے مطابق ’اب یہی وجہ ہے کہ میں نے بڑی اے آئی کمپنیوں کے سی ای اوز سے ملاقات کی تھی تاکہ اس بات پر تبادلہ خیال کیا جا سکے کہ ہمیں کون سے حفاظتی اقدامات اٹھانے کی ضرورت ہے اور ہمارے تحفظ کے لیے کس قسم کے ضابطے کو نافذ کیا جانا چاہیے۔(بی بی سی)

Share This Article