» آخرین اخبار » فناوری » استعفای کمیته اخلاق شرکت “آکسون” در پی نظارت بر مدارس با پهپادها
استعفای کمیته اخلاق شرکت “آکسون” در پی نظارت بر مدارس با پهپادها

استعفای کمیته اخلاق شرکت “آکسون” در پی نظارت بر مدارس با پهپادها

خرداد ۱۷, ۱۴۰۱ 0۰


۹ تن از اعضای کمیته اخلاق شرکت “آکسون” به خاطر طرح نظارت بر مدارس با پهپادها، استعفای خود را اعلام کرده‌اند.

به گزارش ایسنا و به نقل از تک کرانچ، ۹ نفر از ۱۲ عضو کمیته اخلاقی که توسط شرکت “آکسون”(Axon) برای مشاوره در مورد تصمیمات فناوری آن منصوب شده بودند، با استناد به برنامه این شرکت برای نصب پهپادهای مجهز به قابلیت نظارت فراگیر در مدارس، استعفا دادند.

آنها اعلام کردند: پس از چندین سال کار، شرکت اساسا در پذیرش ارزش‌هایی که ما سعی در القای آنها داشته‌ایم، شکست خورده است. ما ایمان خود را به توانایی آکسون به عنوان یک شریک مسئولیت‌پذیر از دست داده‌ایم.

شرکت آکسون در سال‌های اخیر به یک غول نرم‌افزار و سخت‌افزار تبدیل شده است و نه تنها سلاح‌های الکتریکی، بلکه دوربین‌های متصل شونده به بدن و پلتفرم‌های دیجیتال ارائه می‌دهد. آکسون با در نظر گرفتن خطرات ذاتی خصوصی‌سازی چنین دستگاه‌هایی، در مورد فناوری خود متفکر بوده است و توصیه‌هایی را به جوامعی که این دستگاه‌ها در آنها استفاده می‌شوند و همچنین نیروهای پلیس‌ که آنها را به کار می‌برند، ارائه می‌دهد.

“کمیته اخلاق هوش مصنوعی”(AI Ethics Board)، چند سال پیش تأسیس شد زیرا این موضوع مشخص شد که یادگیری ماشینی، فناوری بسیار ارزشمندی است اما همچنین می‌توان از آن سوءاستفاده کرد. کمیته اخلاق هوش مصنوعی، مجموعه‌ای از کارشناسان، دانشگاهیان و متخصصان صنعت هستند که دیدگاهی معتدل را در مورد فناوری ارائه می‌دهند که تدابیر حفاظتی، پاسخگویی و اقداماتی از این دست را پیشنهاد می‌کند.

اعضایی که استعفا داده‌اند، در بیانیه‌ای نوشتند: هر یک از ما با این باور که می‌توانیم بر مسیر شرکت تأثیر بگذاریم و به کاهش آسیب‌های فناوری کمک کنیم، به این هیئت پیوستیم. ما مدتی شاهد بودیم که این تأثیر در برخی از تصمیمات آکسون ظاهر می‌شود اما شواهدی مبنی بر متفاوت بودن مسیر را نیز مشاهده کردیم.

“ریچ اسمیت”‌(Rich Smith)، مدیرعامل اجرایی این شرکت گفت: فناوری قرار نیست که این مشکلات را برای ما حل کند اما این حقیقت دارد که بدون فناوری، برخی از مشکلات غیر قابل حل خواهند بود. شاید دوربین‌ها و سایر تجهیزات ردیابی دیجیتال متعلق به پلیس خوب نباشند اما چگونه می‌توان انتظار داشت که چنین رویدادهایی به‌ طور سیستماتیک ثبت شوند؟ کسانی که این تجهیزات را تعریف می‌کنند، پلیس نیستند؛ بلکه شرکت‌هایی هستند که آنها را می‌سازند و آکسون تلاش کرده است تا خود را در این موقعیت قرار دهد.

در نامه اعضای کمیته اخلاق هوش مصنوعی آمده است: آکسون قصد دارد پهپادهایی را برای نظارت بر تیراندازی دسته جمعی در مدارس ارائه دهد و اهداف را با دوربین‌های نظارتی و قابلیت پخش فوری ثبت کند.

کمیته اخلاق هوش مصنوعی به آکسون هشدار داده بود که اگر برنامه‌های مورد نظر آنها را پیگیری نکند، اعضای این کمیته استعفا خواهند داد. کار آکسون ادامه یافت و اعضا استعفا دادند.

اسمیت گفت: در پرتو بازخوردها، ما کار کردن روی این پروژه را متوقف می‌کنیم و برای کشف کامل بهترین مسیر رو به جلو، تمرکز مجددی را بر تعامل بیشتر با حوزه‌های مهم داریم. به کار گرفتن یک پهپاد بی‌خطر در مدارس که از راه دور کار می‌کند، یک ایده است، نه یک محصول و راهی طولانی برای ارائه آن در پیش داریم. ما باید بررسی‌های زیادی انجام دهیم تا ببینیم آیا این فناوری قابل دوام آوردن است یا خیر و درک کنیم که آیا می‌توان پیش از حرکت رو به جلو، به اندازه کافی به نگرانی‌های عمومی پرداخت یا خیر.

همچنین اسمیت گفت که آنها روند جمع‌آوری نظرات جایگزین را ادامه می‌دهند. وی افزود: اعضای مستعفی کمیته اخلاقی، پیش از این که ما پرسش‌های فنی آنها را بشنویم یا فرصتی برای رسیدگی به آنها داشته باشیم، تصمیم گرفته‌اند که مستقیما در این موضوعات درگیر شوند.

“مکس آیزاکس”(Max Isaacs)، وکیل پروژه نظارت که با آکسون و کمیته اخلاق هوش مصنوعی روی این ایده کار می‌کند، اظهار داشت: کمیته اخلاق هوش مصنوعی بیش از یک سال با آکسون درگیر شد تا در مورد پارامترهای یک برنامه آزمایشی بحث کند. نقض این اقدام از سوی شرکت پیش از اتخاذ چنین تصمیمات مهمی و پذیرش نظارت گسترده مداوم نشان می‌دهد که آکسون به اندازه کافی به توسعه این فناوری به شیوه‌ای مسئولانه متعهد نیست.

یکی از نمایندگان آکسون توضیح داد که نگرانی آنها در مورد به کار گرفتن پهپاد توسط پلیس برای استقرار در مدارس بسیار مهم است.

در هر صورت، فناوری همیشه نقش مهمی در ایمنی و اجرای قانون خواهد داشت اما حرکت سریع‌تر از حد تصور برای هیچکس سودمند نیست و ممکن است عواقب جدی داشته باشد.

انتهای پیام



منبع

به این نوشته امتیاز بدهید!

ایسنا

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

×