شرکت OpenAI سیاستهای خود را تغییر داده است، و برخلاف گذشته، اکنون دیگر استفاده از فناوری هوش مصنوعی برای امور نظامی ممنوع نیست.
اخیراً تغییری در سیاستهای استفاده از مدلهای هوش مصنوعی OpenAI اعمال شده است که اجازه استفاده از این فناوریها در کاربردهای نظامی را میدهد. این شرکت قبلاً استفاده از محصولات خود برای امور نظامی را صراحتاً ممنوع اعلام کرده بود، اما حالا دیگر چنین ممنوعیتی وجود ندارد.
اولینبار وبسایت Intercept متوجه این تغییر شد که ظاهراً در 10 ژانویه اعمال شده است. OpenAI اخیراً از راهاندازی فروشگاه GPTها خبر داد، اما بعید است که این تغییر مربوط به این محصول جدید باشد.
تغییر بیسروصدای شرایط سرویسدهی توسط شرکتهای فناوری اتفاق نادری نیست و خیلی از شرکتها دست به انجام چنین کارهایی میزنند. بااینحال، تغییری که توسط سازنده ChatGPT اعمال شده، مهم است و نباید نادیده گرفته شود.
البته بهنظر میرسد که OpenAI بهطور کلی متن مربوط به سیاست مصرف مدلهای هوش مصنوعی خود را بازنویسی کرده است تا قابلفهمتر باشد. اما این که فهرست مشخص کاربردهای غیرمجاز حذف شده، در نوع خود عجیب است.
OpenAI در حال حاضر همچنان از کاربران فناوریهای خود میخواهد که از این ابزارها برای آسیبرساندن به خود و دیگران استفاده نکنند. بااینحال، باید منتظر بمانیم تا ببینیم در آینده این شرکت وارد حوزههایی خواهد شد که میتواند با امور نظامی مرتبط باشد یا خیر. بهعبارت دیگر، شاید این تغییر مقدمهای بر استفاده از هوش مصنوعی در حوزههای نظامی باشد.
در سالهای اخیر قراردادهای شرکتهای فناوری با سازمانهای دفاعی و نظامی جنجالهای زیادی را بهپا کرده است. حالا با توجه به تحولات عظیمی که ChatGPT در دنیای هوش مصنوعی و بهطور کلی در دنیای فناوری ایجاد کرده است، باید ببینیم که این ابزار و فناوریهای زیربنایی آن وارد حوزههای دفاعی خواهد شد یا خیر.
پیشتر نیویورک تایمز در گزارشی مدعی شده بود که ایالاتمتحده و چین میخواهند به ابزارهای هوش مصنوعی استقلال تصمیمگیری در کشتن اهداف انسانی را بدهند. انتشار این گزارش نگرانیهایی را در افکار عمومی بهوجود آورد.
پاسخ ها