چرا ایمنسازی هوش مصنوعی آنقدرها هم که فکر میکنید آسان نیست
متخصصان هوش مصنوعی معمولاً یکی از دو مکتب فکری را دنبال میکنند – یا زندگی ما را بسیار بهبود میبخشد یا همه ما را نابود میکند. اما چگونه میتوان هوش مصنوعی را ایمن کرد؟ در اینجا پنج مورد از چالشهای پیش رو آورده شده است.
به توافق رسیدن درباره چیستی هوش مصنوعی
دو سال طول کشیده است تا پارلمان اروپا تعریفی از یک سیستم هوش مصنوعی ارائه دهد – نرمافزاری که میتواند «برای مجموعه معینی از اهداف تعریف شده توسط انسان، خروجیهایی مانند محتوا، پیشبینیها، توصیهها یا تصمیماتی ایجاد کند که بر محیط هایی که با آنها در تعامل هستند، تاثیر بگذارد.»
رسیدن به توافق جهانی
ثنا خرقانی، رئیس سابق دفتر هوش مصنوعی بریتانیا اشاره میکند که این فناوری هیچ احترامی برای مرزها قائل نیست.
او میگوید: «ما باید در این زمینه همکاری بینالمللی داشته باشیم – میدانم که سخت خواهد بود. این یک موضوع داخلی نیست. این فناوریها در محدوده فقط یک کشور قرار نمیگیرند.»
• پیشنهادات اتحادیه اروپا سختگیرانهترین هستند و شامل درجهبندی محصولات هوش مصنوعی بسته به تأثیر آنها میشود – برای مثال، فیلتر هرزنامه ایمیل، مقررات سبکتری نسبت به ابزار تشخیص سرطان دارد
• بریتانیا مقررات هوش مصنوعی را درون تنظیمکنندگان فعلیاش مندرج میکند – مثلاً آنها که میگویند فناوری علیه آنها تبعیض روا داشته است، به کمیسیون برابری مراجعه میکنند
• ایالات متحده فقط دستورالعملهایی داوطلبانه دارد که قانونگذاران در یک جلسه استماع تازه کمیته هوش مصنوعی اذعان کردهاند که نگران هستند که صلاحیت انجام چنین کاری را ندارند
• چین قصد دارد شرکتها را وادار کند هر زمان که از الگوریتم هوش مصنوعی استفاده میشود به کاربران اطلاع دهند
تامین اعتماد عمومی
ژان مارک لکلرک، رئیس امور نظارتی و دولت اتحادیه اروپا در شرکت (IBM) میگوید: «اگر مردم به آن اعتماد کنند، از آن استفاده خواهند کرد».
فرصتهای بسیار زیادی برای هوش مصنوعی وجود دارد تا زندگی مردم را به روشهایی باورنکردنی بهبود بخشد.
هوش مصنوعی در حال حاضر قادر به انجام این کارهاست:
• کمک به کشف آنتیبیوتیکها
• کمک به دوباره راه رفتن افراد فلج
• پرداختن به مسائلی مانند تغییرات آب و هوا و بیماریهای همهگیر
اما در مورد بررسی صلاحیت متقاضیان کار یا پیشبینی میزان احتمال ارتکاب جرم توسط یک فرد چه؟
پارلمان اروپا میخواهد که مردم در مورد خطرات مربوط به هر محصول هوش مصنوعی آگاه شوند.
شرکتهایی که قوانین آن را زیر پا بگذارند ممکن است به میزان بیش از ۳۰ میلیون یورو یا ۶ درصد از گردش مالی سالانه جهانیشان جریمه شوند.
اما آیا توسعهدهندگان میتوانند نحوه استفاده از محصولشان را پیشبینی یا کنترل کنند؟
به گفته سام آلتمن، رئیس OpenAI خالق ChatGPT، شرکتهای بزرگ میگویند که با مقررات دولتی – که برای کاهش خطرات احتمالی بسیار مهم است – موافق هستند.
ولی آیا در صورتی که خیلی درگیر نوشتن این مقررات شوند اولویت سود مالیشان از مردم بیشتر خواهد بود؟
میتوانید شرط بندی کنید که آنها میخواهند تا حد امکان به قانونگذارانی که وظیفه تنظیم مقررات را دارند نزدیک باشند.
و بارونس لین فاکس، بنیانگذار Lastminute.com میگوید که مهم است تنها به شرکتها گوش نکنیم.
او میگوید: «ما باید جامعه مدنی، دانشگاهها، افرادی که تحت تأثیر این مدلها و دگرگونیهای مختلف هستند را در این امر دخالت دهیم.»
واکنش سریع
مایکروسافت که میلیادرها دلار در چتجیپیتی سرمایهگذاری کرده است میخواهد «سختکاری را از چرخه کار حذف کند.»
چتجیپیتی میتواند پاسخهای متنی و نثری شبیه انسان ایجاد کند، اما، آلتمن تذکر میدهد که این، «یک ابزار است، نه یک موجود».
قرار است چتباتها باعث بهرهوری بیشتر کارکنان شوند و در برخی از صنایع، هوش مصنوعی این ظرفیت را دارد که شغل ایجاد کند و دستیار قدرتمندی باشد.
اما بقیه تا همین الان هم کارکنانشان را از دست دادهاند – ماه پیش، بیتی اعلام کرد که هوش مصنوعی جایگزین ۱۰ هزار شغل خواهد شد.
چتجیپیتی کمی بیش از شش ماه پیش مورد استفاده عمومی قرار گرفت. اکنون میتواند مقاله بنویسد، برای تعطیلات مردم برنامهریزی کند و در امتحانات حرفهای قبول شود.
قابلیت این مدلهای زبانی مقیاس بزرگ با سرعتی خارق العاده در حال رشد است.
و دو تن از سه «پدرخوانده» هوش مصنوعی – جفری هینتون و پروفسور یوشوا بنجیو – از جمله کسانی بودند که هشدار دادند این فناوری پتانسیل زیادی برای آسیب رسانی دارد.
مارگرت وستاگر، رئیس فناوری اتحادیه اروپا میگوید قانون هوش مصنوعی حداقل تا سال ۲۰۲۵ اجرایی نخواهد شد – که «بسیار دیر است».
و در کنار ایالات متحده در حال تدوین یک دستورالعمل داوطلبانه موقت برای این بخش است.
منبع: بیبیسی