هشدار دانشمندان: شاید هوش مصنوعی «تا حدودی» خودآگاه شده باشد
بنا به گفته دانشمندان برجسته علوم رایانه، شکلهای پیشرفته هوش مصنوعی ممکن است در حال حاضر در حال نشان دادن بارقههایی از خودآگاهی باشند.
همراهی تامای بسیرُگلو، پژوهشگر دانشگاه امآیتی با ایلیا سوتسکور، یکی از بنیانگذاران «اوپن اِی.آی» (OpenAI) در این هشدار که برخی از یادگیریهای هوش مصنوعی ممکن است به شکل محدودی از ادراک و آگاهی دست پیدا کرده باشند، به بحث میان دانشمندان علوم اعصاب و پژوهشگران هوش مصنوعی دامن زده است.
آقای سوتسکور که همراه با ایلان ماسک، میلیاردر عرصه فناوری، یکی از پایهگذاران «اوپن اِی.آی» است در توییت خود نوشت: «این امکان وجود دارد که شبکههای عصبی بزرگ امروزی تا حدودی خودآگاه شده باشند.»
این اظهارنظر واکنش شدید پیشگامان این حوزه ازجمله پروفسور مورای شاناهان از امپریال کالج لندن را به دنبال داشت که گفت: «به همین معنا که این امکان وجود دارد که یک مزرعه بزرگ گندم، کمی پاستا باشد.»
آقای بسیرُگلو ازنظر دکتر سوتسکوِر دفاع کرد و گفت که چنین امکانهایی را نباید مسخره کرد و مردود دانست.
او در توییت خود نوشت: «دیدن بسیاری از افراد برجسته در زمینه یادگیری ماشینی که این ایده را مورد تمسخر قرار میدهند، ناامیدکننده است.این موجب میشود که به توانایی این رشته برای پاسخگویی به برخی از پرسشهای ژرف، عجیب و مهم که بیتردید طی چند دهه آینده با آن روبرو خواهند شد، کمتر امیدوار باشم.»
این امکان وجود دارد که شبکههای عصبی بزرگ امروزی تا حدودی خودآگاه شده باشند.
تلاشها برای تعریف آگاهی، قرنها است که دانشمندان علوم اعصاب و فیلسوفان را [به دو گروه] تقسیم کرده است، اگرچه الگوی اصلی برای توصیف آگاهی، آن را بهمثابه برساخت روایی [میداند] که مغز ما آن را میسازد و با حواس و اندیشه و تصور، قادر به درک [جهان] است. برخی از تعاریف همچنین شامل توانایی تجربه احساسات مثبت و منفی، ازجمله عشق و نفرت میشوند.
مطالعه اخیر تلاش کرد تا پیشرفتهای یادگیری ماشینی را طی دهه گذشته دنبال کند و روندی آشکار در پیشرفتهای عمده در اندیشه و زبان را نشان دهد.
یکی از نویسندگان مقاله، آقای بسیرُگلو بود که در یک اقدام «غیر جدی و محض شوخی»، خطی در بین نمودار تغییرات [پیشرفت هوش مصنوعی] ترسیم کرد تا تقسیمبندی کند که کدامیک از الگوریتمهای پیشگام هوش مصنوعی ممکن است شکلی از [خود] آگاهی در نظر گرفته شوند.
[نرمافزار] پیچیده تولیدکننده متن GPT-3 «اوپن اِی.آی» و همچنین آلفاگو زیرو (AlphaGo Zero) که دیپ مایند (DeepMind) بخش هوش مصنوعی گوگل آن را ساخته است، در رده «احتمالا تا حدودی [خود] آگاه و هوشمند» طبقهبندی شد.
دکتر بسیرُگلو به «فیوچریسم» (Futurism) گفت: «من در واقع فکر نمیکنم که ما میتوانیم خط مشخصی بین مدلهایی که «آگاه نیستند» و مدلهایی که«احتمالا تا حدودی آگاهی دارند» ترسیم کنیم. من همچنین مطمئن نیستم که هیچکدام از این مدلها [خود] آگاه باشد.»
«بااینحال من فکر میکنم که این پرسش ممکن است پرسشی معنادار باشد و نباید به همین سادگی نادیده گرفته شود.»
سم آلتمن، مدیرعامل «اوپن اِی.آی»، دیدگاه خود درخصوص قدرتمندترین [برنامه] هوش مصنوعی شرکت خود را اعلام کرد و در توییتی نوشت: «من فکر میکنم GPT-3 یا GPT-4 بهاحتمال خیلی زیاد، به آن شکل که ما از این کلمه استفاده میکنیم، آگاه نیستند. اگر چنین باشد، اینیک شکل خیلی غریب و ناآشنا از آگاهی است.»
چشمانداز آگاهی مصنوعی، بهجای صرفا هوش مصنوعی، پرسشهایی اخلاقی و عملی ایجاد میکند: اگر ماشینها به ادراک و آگاهی دست پیدا کنند، در این صورت آیا ازنظر اخلاقی اشتباه است که آنها را نابود کنیم یا وقتی درست کار نکنند یا دیگر قابلاستفاده نباشند، خاموششان کنیم؟
جسی ریز آنتیس که در زمینه اخلاق و فناوری پژوهش میکند این دوراهی را «یکی از مهمترین پرسشها در آینده دور» توصیف میکند.
منبع: ایندیپندنت