استعفای کمیته اخلاق شرکت “آکسون” در پی نظارت بر مدارس با پهپادها
۹ تن از اعضای کمیته اخلاق شرکت “آکسون” به خاطر طرح نظارت بر مدارس با پهپادها، استعفای خود را اعلام کردهاند.
به گزارش ایسنا و به نقل از تک کرانچ، ۹ نفر از ۱۲ عضو کمیته اخلاقی که توسط شرکت “آکسون”(Axon) برای مشاوره در مورد تصمیمات فناوری آن منصوب شده بودند، با استناد به برنامه این شرکت برای نصب پهپادهای مجهز به قابلیت نظارت فراگیر در مدارس، استعفا دادند.
آنها اعلام کردند: پس از چندین سال کار، شرکت اساسا در پذیرش ارزشهایی که ما سعی در القای آنها داشتهایم، شکست خورده است. ما ایمان خود را به توانایی آکسون به عنوان یک شریک مسئولیتپذیر از دست دادهایم.
شرکت آکسون در سالهای اخیر به یک غول نرمافزار و سختافزار تبدیل شده است و نه تنها سلاحهای الکتریکی، بلکه دوربینهای متصل شونده به بدن و پلتفرمهای دیجیتال ارائه میدهد. آکسون با در نظر گرفتن خطرات ذاتی خصوصیسازی چنین دستگاههایی، در مورد فناوری خود متفکر بوده است و توصیههایی را به جوامعی که این دستگاهها در آنها استفاده میشوند و همچنین نیروهای پلیس که آنها را به کار میبرند، ارائه میدهد.
“کمیته اخلاق هوش مصنوعی”(AI Ethics Board)، چند سال پیش تأسیس شد زیرا این موضوع مشخص شد که یادگیری ماشینی، فناوری بسیار ارزشمندی است اما همچنین میتوان از آن سوءاستفاده کرد. کمیته اخلاق هوش مصنوعی، مجموعهای از کارشناسان، دانشگاهیان و متخصصان صنعت هستند که دیدگاهی معتدل را در مورد فناوری ارائه میدهند که تدابیر حفاظتی، پاسخگویی و اقداماتی از این دست را پیشنهاد میکند.
اعضایی که استعفا دادهاند، در بیانیهای نوشتند: هر یک از ما با این باور که میتوانیم بر مسیر شرکت تأثیر بگذاریم و به کاهش آسیبهای فناوری کمک کنیم، به این هیئت پیوستیم. ما مدتی شاهد بودیم که این تأثیر در برخی از تصمیمات آکسون ظاهر میشود اما شواهدی مبنی بر متفاوت بودن مسیر را نیز مشاهده کردیم.
“ریچ اسمیت”(Rich Smith)، مدیرعامل اجرایی این شرکت گفت: فناوری قرار نیست که این مشکلات را برای ما حل کند اما این حقیقت دارد که بدون فناوری، برخی از مشکلات غیر قابل حل خواهند بود. شاید دوربینها و سایر تجهیزات ردیابی دیجیتال متعلق به پلیس خوب نباشند اما چگونه میتوان انتظار داشت که چنین رویدادهایی به طور سیستماتیک ثبت شوند؟ کسانی که این تجهیزات را تعریف میکنند، پلیس نیستند؛ بلکه شرکتهایی هستند که آنها را میسازند و آکسون تلاش کرده است تا خود را در این موقعیت قرار دهد.
در نامه اعضای کمیته اخلاق هوش مصنوعی آمده است: آکسون قصد دارد پهپادهایی را برای نظارت بر تیراندازی دسته جمعی در مدارس ارائه دهد و اهداف را با دوربینهای نظارتی و قابلیت پخش فوری ثبت کند.
کمیته اخلاق هوش مصنوعی به آکسون هشدار داده بود که اگر برنامههای مورد نظر آنها را پیگیری نکند، اعضای این کمیته استعفا خواهند داد. کار آکسون ادامه یافت و اعضا استعفا دادند.
اسمیت گفت: در پرتو بازخوردها، ما کار کردن روی این پروژه را متوقف میکنیم و برای کشف کامل بهترین مسیر رو به جلو، تمرکز مجددی را بر تعامل بیشتر با حوزههای مهم داریم. به کار گرفتن یک پهپاد بیخطر در مدارس که از راه دور کار میکند، یک ایده است، نه یک محصول و راهی طولانی برای ارائه آن در پیش داریم. ما باید بررسیهای زیادی انجام دهیم تا ببینیم آیا این فناوری قابل دوام آوردن است یا خیر و درک کنیم که آیا میتوان پیش از حرکت رو به جلو، به اندازه کافی به نگرانیهای عمومی پرداخت یا خیر.
همچنین اسمیت گفت که آنها روند جمعآوری نظرات جایگزین را ادامه میدهند. وی افزود: اعضای مستعفی کمیته اخلاقی، پیش از این که ما پرسشهای فنی آنها را بشنویم یا فرصتی برای رسیدگی به آنها داشته باشیم، تصمیم گرفتهاند که مستقیما در این موضوعات درگیر شوند.
“مکس آیزاکس”(Max Isaacs)، وکیل پروژه نظارت که با آکسون و کمیته اخلاق هوش مصنوعی روی این ایده کار میکند، اظهار داشت: کمیته اخلاق هوش مصنوعی بیش از یک سال با آکسون درگیر شد تا در مورد پارامترهای یک برنامه آزمایشی بحث کند. نقض این اقدام از سوی شرکت پیش از اتخاذ چنین تصمیمات مهمی و پذیرش نظارت گسترده مداوم نشان میدهد که آکسون به اندازه کافی به توسعه این فناوری به شیوهای مسئولانه متعهد نیست.
یکی از نمایندگان آکسون توضیح داد که نگرانی آنها در مورد به کار گرفتن پهپاد توسط پلیس برای استقرار در مدارس بسیار مهم است.
در هر صورت، فناوری همیشه نقش مهمی در ایمنی و اجرای قانون خواهد داشت اما حرکت سریعتر از حد تصور برای هیچکس سودمند نیست و ممکن است عواقب جدی داشته باشد.
انتهای پیام