» آخرین اخبار » فناوری » آیا نگرانی‌ درباره هوش مصنوعی جنجال تبلیغاتی است؟
آیا نگرانی‌ درباره هوش مصنوعی جنجال تبلیغاتی است؟

آیا نگرانی‌ درباره هوش مصنوعی جنجال تبلیغاتی است؟

خرداد ۱۴, ۱۴۰۲ 3۰



برخی از کارشناسان، از جمله جفری هینتون «پدرخوانده هوش مصنوعی»، هشدار داده‌­اند که هوش مصنوعی درست شبیه به بیماری­‌های همه­‌گیر و جنگ هسته‌­ای می‌تواند انسان را در معرض خطر انقراض قرار دهد.

به گزارش ایتنا و به نقل از ایندیپندنت، از رئیس شرکت سازنده «چت جی‌­پی‌­تی» گرفته تا رئیس آزمایشگاه هوش مصنوعی گوگل، بیش از ۳۵۰ نفر گفته­‌اند که مدیریت ریسک و مقابله با «خطر انقراض انسان با هوش مصنوعی» باید «اولویت جهانی» باشد.

هوش مصنوعی در عین حال که می‌تواند کارهای نجات‌بخشی کند- از جمله طراحی الگوریتم‌های بررسی تصویرهای پزشکی مانند پرتو ایکس و اسکن و سونوگرافی- قابلیت رشد سریع و استفاده گسترده‌تر از آن به نگرانی‌هایی نیز دامن زده است.

مقاله اسکای‌نیوز به برخی از نگرانی­‌های اصلی‌ از کاربرد هوش مصنوعی نگاهی انداخته و به این موضوع پرداخته است که چرا منتقدان برخی از این ترس‌ها را بیش از حد و بی‌مورد می‌دانند.

اطلاعات نادرست و تصویرهای جعلی ساخت هوش مصنوعی

برنامه­‌های کاربردی هوش مصنوعی در وب‌سایت‌های رسانه‌های اجتماعی منتشر و پربازدید شده‌اند. بسیاری از کاربران تصویرهایی جعلی از افراد مشهور و سیاستمداران منتشر می‌کنند و دانشجوها از «چت جی­‌پی‌­تی» و دیگر «الگوهای یادگیری زبان» برای تولید مقاله‌های

سامانه‌های هوش مصنوعی به‌نوعی شبیه‌سازی ماشینی از فرایندهای هوش انسان‌اند. اما آیا به‌راستی این خطر وجود دارد که این سامانه‌ها به اندازه‌ای پیشرفت کنند که از کنترل انسان خارج شوند؟

دانشگاهی استفاده می‌کنند.

یکی از نگرانی‌های کلی در مورد هوش مصنوعی و توسعه آن مربوط به اطلاعات نادرست تولید شده هوش مصنوعی است و اینکه این اطلاعات جعلی چگونه سبب سردرگمی در فضای آنلاین می­‌شود.

پروفسور استوارت راسل، دانشمند بریتانیایی، می‌گوید یکی از بزرگ‌ترین نگرانی‌­ها در مورد اطلاعات نادرست و به‌اصطلاح «دیپ‌فیک» (Deep Fake) است.

دیپ‌فیک به ویدیوها یا عکس‌هایی گفته می‌شود که در آن‌ها صورت یا بدن شخص به صورت دیجیتالی تغییر داده می‌شود و سر و بدن افراد متفاوت روی هم گذاشته می‌شود. این کار را معمولا از روی کینه‌توزی یا برای انتشار عمدی اطلاعات نادرست می‌کنند.

پروفسور راسل می‌­گوید تولید اطلاعات نادرست از مدت‌ها پیش برای هدف‌های «تبلیغاتی» وجود داشته است، اما اکنون تفاوت در این است که مثلا او می‌تواند از چت‌بات آنلاین «جی‌­پی‌تی۴» بخواهد که سخنان یک مجری تلویزیونی را به‌کلی به نحو دیگری تغییر دهد.

هفته گذشته، یک تصویر جعلی که به نظر می‌رسید انفجاری در نزدیکی پنتاگون باشد برای مدت کوتاهی در رسانه‌های اجتماعی منتشر و به‌سرعت پربازدید شد. آن تصویر عده‌ای را به راستی‌آزمایی واداشت و خدمات آتش‌نشانی را نیز به واکنش و انتشار بیانیه‌ای در رد آن ادعا وادار کرد.

آن تصویر، که ظاهرا توده بزرگی از دود سیاه را در کنار مقر وزارت دفاع آمریکا نشان می‌داد، گویا با استفاده از فناوری هوش مصنوعی درست شده بود.

آن تصویر نخستین بار در توییتر منتشر شد و حساب‌های خبری تایید شده، اما جعلی، به‌سرعت آن را بازنشر کردند. اما راستی‌آزمایی آن خیلی زود ثابت کرد که هیچ انفجاری در پنتاگون رخ نداده است.

در عین حال، اقدام‌های دیگری نیز در این مورد در جریان است. در ماه نوامبر، دولت تایید کرد که

هفته گذشته، یک تصویر جعلی که به نظر می‌رسید انفجاری در نزدیکی پنتاگون باشد برای مدت کوتاهی در رسانه‌های اجتماعی منتشر و به‌سرعت پربازدید شد. آن تصویر عده‌ای را به راستی‌آزمایی واداشت و خدمات آتش‌نشانی را نیز به واکنش و انتشار بیانیه‌ای در رد آن ادعا وادار کرد.
آن تصویر، که ظاهرا توده بزرگی از دود سیاه را در کنار مقر وزارت دفاع آمریکا نشان می‌داد، گویا با استفاده از فناوری هوش مصنوعی درست شده بود.

به اشتراک‌گذاری هرزه‌نگاری‌های «دیپ فیک» بدون رضایت افراد بر اساس قانون جدید جرم محسوب می­‌شود.

پیشی گرفتن از هوش انسان

سامانه‌های هوش مصنوعی به‌نوعی شبیه‌سازی ماشینی از فرایندهای هوش انسان‌اند. اما آیا به‌راستی این خطر وجود دارد که این سامانه‌ها به اندازه‌ای پیشرفت کنند که از کنترل انسان خارج شوند؟

پروفسور اندرو بریگز از دانشگاه آکسفورد گفت که این هراس وجود دارد که در اثر قدرتمندتر شدن ماشین‌ها، روزی فرا برسد که ظرفیت هوش مصنوعی از انسان فراتر رود.

او می‌گوید که در حال حاضر هر چیزی را که ماشین باید بهینه کند انسان انتخاب می‌کند. ممکن است این انتخاب با هدف مثبت یا منفی صورت بگیرد. در حال حاضر، انسان است که درباره آن تصمیم می‌گیرد.

به گفته او، هراس اینجاست که وقتی ماشین‌ها مدام باهوش‌تر و قدرتمندتر می‌شوند، چه‌بسا روزی فرا برسد که ظرفیت هوش مصنوعی بسیار بیشتر از ظرفیت انسان‌ باشد و انسان‌ها توانایی کنترل آنچه را ماشین به دنبال بهینه‌سازی‌اش است از دست بدهند.

او می‌گوید که از همین رو، توجه به احتمال آسیب دیدن از هوش مصنوعی مهم است. بریگز اضافه می‌کند: ‌«این موضوع برای من یا هیچ‌یک از ما روشن نیست که آیا دولت‌­ها واقعا می‌دانند این موضوع را چگونه می‌توان به شکلی ایمن حل و فصل کرد یا نه.»

همچنین، نگرانی‌های بسیار دیگری نیز در مورد هوش مصنوعی وجود دارد- از جمله اثر آن بر آموزش. به‌خصوص، با در نظر گرفتن هشدارهایی که کارشناسان درباره انتشار مقاله‌ و از دست رفتن مشاغل طرح می‌کنند.

آخرین هشدار

در میان امضاکنندگان بیانیه «مرکز ایمنی هوش مصنوعی» نام هینتون و یوشوا بنجیو- دو تن از سه پدرخوانده هوش مصنوعی- نیز دیده می‌شود که به پاس کار خود در زمینه یادگیری عمیق، جایزه تورینگ ۲۰۱۸ را گرفتند.

اما این نخستین بار نیست که شاهد نگرانی کارشناسان فناوری در خصوص توسعه هوش مصنوعی هستیم.

در ماه مارس، ایلان ماسک و گروهی از کارشناسان هوش مصنوعی، به‌دلیل آنچه خطرهای احتمالی برای جامعه و بشر می‌خواندند، خواستار توقف آموزش سامانه‌های هوش مصنوعی قوی شدند.

در نامه‌ای که موسسه غیرانتفاعی «فیوچر آف لایف» تنظیم کرد و بیش از ۱۰۰۰ نفر آن را امضا کردند، امضاکنندگان در مورد خطرهای احتمالی سامانه‌های

در ماه مارس، ایلان ماسک و گروهی از کارشناسان هوش مصنوعی، به‌دلیل آنچه خطرهای احتمالی برای جامعه و بشر می‌خواندند، خواستار توقف آموزش سامانه‌های هوش مصنوعی قوی شدند.

هوش مصنوعی رقیب انسان برای جامعه و تمدن هشدار داده بود. در آن نامه آمده بود که هوش مصنوعی ممکن است در قالب اختلال‌های اقتصادی و سیاسی برای جامعه و تمدن خطرساز باشد.

این عده خواستار توقف شش ماهه «رقابت خطرناک» برای توسعه سامانه‌­های قدرتمندتر از «جی‌پی‌­تی۴» شده بودند، سامانه‌­ای که «اوپن‌­ای‌­آی» به‌تازگی راه‌اندازی کرده است.

همچنین، در اوایل این هفته، نخست‌وزیر بریتانیا ریشی سوناک با مدیر اجرایی گوگل ملاقات کرد تا در مورد «ایجاد تعادل مناسب» میان قوانین هوش مصنوعی از یک سو، و نوآوری از سوی دیگر صحبت کند. دفتر نخست‌وزیری گفت که نخست‌وزیر با «ساندار پیچای» در مورد اهمیت تضمین وجود «نرده‌­های محافظ» مناسب برای اطمینان از ایمنی فنی صحبت کرده است.

هشدارهای «بی‌مورد» یا خطری جدی؟

اگرچه برخی از کارشناسان با بیانیه مرکز ایمنی هوش مصنوعی موافق‌اند، برخی دیگر در این زمینه مفهوم «پایان تمدن بشری» را ادعایی «بی‌ربط و بی‌اساس» می‌خوانند.

پدرو دومینگوس، استاد علوم و مهندسی رایانه در دانشگاه واشنگتن، در توییتی نوشت: «یادآوری: بیشتر محققان هوش مصنوعی فکر می‌کنند این که هوش مصنوعی به تمدن بشری پایان می‌دهد بی‌ربط است.»

هینتون در ادامه پرسید که برنامه دومینگوس برای ایمنی هوش مصنوعی و اینکه هوش مصنوعی کنترل را از دست ما در نیاورد چیست. پروفسور دومینگوس پاسخ داد: «همین حالا هم هر روزه افرادی که حتی به اندازه شما باهوش نیستند شما را کنترل و بازیچه خودشان می‌کنند، اما به هر حال، هنوز سر جای‌ خودتان هستید و مشکلی ندارید. پس چرا فکر می‌کنید که این نگرانی بزرگ در مورد هوش مصنوعی موضوعی خاص و متفاوت است؟»



منبع

به این نوشته امتیاز بدهید!

ایتنا

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

×