بهگزارش خبرگزاری فرانسه (AFP)، براساس نتایج نظرسنجی از افراد مهم و تأثیرگذار حوزهی فناوری دربارهی سلاحهای مستقل کشنده و مرگبار، آمازون و مایکروسافت و اینتل سه غول بزرگ و برتر فناوری، با ساخت رباتهای قاتل، جهان را درمعرض خطر قرار میدهند. سازمان غیردولتی هلندی پکس (Dutch NGO Pax) شرکتها را با سه معیار رتبهبندی کرده است. این سه معیار عبارتاند از:
فرانک اسلیپر، نویسندهی اصلی گزارش منتشرشده گفت:
چرا شرکتهایی مانند مایکروسافت و آمازون انکار نمیکنند درحالحاضر، مشغول تولید چنین سلاحهای بسیار بحثبرانگیزی هستند که بدون دخالت مستقیم انسان میتوانند به کشتن افراد تصمیم بگیرند؟
استفاده از هوش مصنوعی در سیستمهای تسلیحاتی که بهطور مستقل به آنها اجازهی انتخاب و حمله به هدف داده میشود، بحثهای اخلاقی زیادی در سالهای اخیر برانگیخته است. منتقدان هشدار میدهند چنین اقداماتی میتواند امنیت بینالمللی را بهخطر بیندازد و پس از اختراع باروت و بمب اتمی، به انقلاب سوم در ساخت جنگافزارها منجر شود.روز چهارشنبهی گذشته، هیئتی از کارشناسان دولتی دربارهی سیاستهای مربوط به سلاحهای مستقل کشنده جلسهای در مقر سازمان ملل در ژنو ترتیب دادند تا دربارهی سلاحهای متعارف خاص بحث و تبادلنظر کنند.
برخلاف آمازون و مایکروسافت، گوگل که سال گذشته «اصول راهنما و پایهای جلوگیری از استفاده از هوش مصنوعی در سیستمهای تسلیحاتی» را منتشر کرده بود، در سوی دیگر این ردهبندی بههمراه سافت بانک ژاپن در زمرهی شرکتهایی با «بهترین عملکرد» قرار گرفته است. این در حالی است که ۲۲ شرکت در وضعیت «نگرانی متوسط» و ۲۱ شرکت دیگر در وضعیت «نگرانی شدید» قرار داشتند.
در این فهرست، نام دو شرکت بزرگ و نامآشنا، آمازون و مایکروسافت بهچشم میخورد که هر دو با پیشنهاد ۱۰ میلیارد دلاری پنتاگون برای تأمین زیرساختهای خدمات ابری برای ارتش ایالات متحده مواجه شدهاند. از دیگر شرکتهای بزرگ فناوری که در دستهی «نگرانی شدید» قرار دارند، میتوان به پلنتیر (Palantir) اشاره کرد. این شرکت در سازمان سرمایهگذاری موردحمایت سیا ریشه دارد و ۸۰۰ میلیون دلاری برای ساخت سیستم هوش مصنوعی به آن اعطا شده است که میتواند به سربازان کمک کند بهطور همزمان منطقهی نبرد را تحلیل کنند.
استوارت راسل، استاد علوم کامپیوتر در دانشگاه برکلی، به خبرگزاری AFP گفت:
سلاحهای مستقل بهناچار به سلاحهای مقیاس كشتار جمعی تبدیل خواهند شد؛ زیرا اگر به دخالت انسان در این حلقه نیاز نباشد، تنها با وجود یک فرد میتوان یکمیلیون سلاح یا صدمیلیون اسلحه شلیک كرد.
او افزود:
واقعیت این است که سلاحهای مستقل را شرکتها و نه دولتها تولید خواهند کرد. به همین دلیل، این شرکتها با بهراهانداختن کمپینهایی برای جلوگیری از متداولشدن سلاحهای خودکار، میتوانند نقش تعیینکنندهای ایفا کنند.
توسعهی هوش مصنوعی برای اهداف نظامی بحث و اعتراضهای بسیاری در این صنعت بهوجود آورده است. سال گذشته گوگل از تمدید قرارداد پنتاگون بهنام پروژهی هوش مصنوعی Maven امتناع کرد؛ پروژهای که از یادگیری ماشین برای تمایز افراد و اشیاء در فیلمهای پهپادی استفاده میکرد. همچنین، این غول دنیای جستوجو به برنامهی وزارت دفاع آمریکا موسوم به «برنامهی زیرساختهای دفاعی شرکتهای مشترک» (JEDI) خاتمه داد؛ درحالیکه آمازون و مایکروسافت امیدوار بودند از این برنامه برای قرارداد خدمات ابری خود استفاده کنند.
در این گزارش آمده است كاركنان مایکروسافت نیز با قرارداد ارتش آمریكا برای استفاده از هدست واقعیت افزوده و هولولنز (HoloLens) بهمنظور «افزایش قابلیت مرگآوری» در میدان نبرد مخالفت کردهاند.
بهگفتهی راسل، «هرآنچه درحالحاضر بهنوعی جنگافزار محسوب میشود، قابلیت تبدیل به سلاح خودکار را دارد؛ چراکه افراد و شرکتها در حال کار روی نسخههای مستقل و خودمختار، اعم از تانکها یا هواپیماهای جنگنده یا زیردریایی هستند.
باوجوداین، نگرانیهای بیشتر دربارهی ظهور دستههای جدید سلاحهای مستقل هنوز وجود ندارند. این سلاحهای جدید شامل پهپادهای کوچک مسلح هستند که در فیلم کوتاه «پهبادهای قاتل» (Slaughterbots) سال ۲۰۱۷ به نمایش گذاشته شد.
راسل بیان کرد:
میتوان یکمیلیون از آنها را در کانتینر یا هواپیمای باری بفرستید. این پهپادها ظرفیت مخربی بهاندازهی بمب هستهای دارند؛ هرچند ازنظر فیزیکی خرابی بهبار نمیآورند و حتی به ساختمانها آسیب نمیزنند.
با استفاده از فناوری تشخیص چهره، هواپیماهای بدون سرنشین میتوانند «تنها قوم یا جنسیت خاصی را از بین ببرند» یا با استفاده از اطلاعات رسانههای اجتماعی، میتوان همهی افراد دارای دیدگاه سیاسی خاص را از بین برد.
راسل درپایان گفت قدم بعدی باید در قالب ممنوعیت بینالمللی برای تولید و استفاده از هوش مصنوعی کشنده برداشته شود. میتوان بهطور خلاصه گفت توسعه و استقرار و حتی استفاده از تکنولوژی هوش مصنوعی که میتواند به کشتن انسان تصمیم بگیرد، باید متوقف شود.
پاسخ ها