
این فرد روی سناریوهایی تمرکز خواهد کرد که هوش مصنوعی میتواند در آنها خطرناک ظاهر شود.
OpenAI درحال استخدام فردی برای سمت رئیس واحد آمادگی (Preparedness) است. طبق توضیحات ارائهشده، این فرد بهطور کلی قرار است روی سناریوهایی تمرکز کند که در آنها هوش مصنوعی میتواند بهشکلی «بسیار بد» پیش برود.
«سم آلتمن»، مدیرعامل OpenAI در شبکه اجتماعی ایکس ضمن معرفی این موقعیت شغلی، تأکید کرده که سرعت پیشرفت مدلهای هوش مصنوعی «چالشهای واقعی» برای آنها ایجاد کرده است. او میگوید:
«ما درحال استخدام رئیس واحد آمادگی هستیم که نقش حیاتی در زمانی بسیار مهم خواهد داشت. مدلها با سرعت درحال پیشرفت هستند و اکنون کارهای فوقالعاده زیادی انجام میدهند، اما درعینحال برخی چالشهای واقعی را هم پیش روی ما گذاشتهاند. اثر احتمالی این مدلها بر سلامت روان، چیزی بود که پیشنمایش آن را در سال 2025 دیدیم؛ و حالا میبینیم که عملکرد مدلها در حوزه امنیت رایانهای خوب شده و شروع به پیدا کردن آسیبپذیریهای بحرانی کردهاند.»
در آگهی شغلی OpenAI گفته شده که این نقش مسئول چنین مأموریتی خواهد بود:
«ردیابی و آماده شدن برای قابلیتهایی که خطراتی با آسیبهای شدید ایجاد میکنند. شما مدیر و مسئول مستقیم ساخت و ارزیابی قابلیتها، مدلهای تهدید و راهکارهای کاهش ریسک خواهید بود؛ عناصری که یک زنجیره ایمنی منسجم، دقیق و مقیاسپذیر از نظر عملیاتی را شکل میدهند.»

آلتمن همچنین در ادامه پست خود نوشته است:
«اگر میخواهید به جهان در یافتن روشی بهمنظور توانمندسازی مدافعان امنیت سایبری با تواناییهای پیشرو کمک کنید و در حالت ایدهآل، با ایمنسازی تمامی سیستمها، مطمئن شوید که مهاجمان نمیتوانند از این تواناییها برای آسیبزدن به بقیه سوءاستفاده کنند، و بهشکلی مشابه به چگونگی عرضه تواناییهای بیولوژیکی و کسب اطمینان از ایمنی سیستمهایی کمک کنید که میتوانند خود را بهبود دهند، لطفاً برای این موقعیت شغلی دست به کار شوید.
این شغل پراسترس خواهد بود و عملاً از همان ابتدا وارد عمق ماجرا میشوید.»
این اقدام در شرایطی صورت گرفته که طی ماههای اخیر چند پرونده جنجالی درباره ارتباط چتباتها با خودکشی نوجوانان خبرساز شده بود. همانطور که نشریه ورج در گزارش خود اشاره کرده، به نظر میرسد کمی دیر است که تازه حالا فردی بهطور اختصاصی در OpenAI وظیفه تمرکز بر خطرات ناشی از این مدلها را برعهده بگیرد.
درهمینحال، نگرانیهای مربوط به چیزی که برخی از آن بهعنوان «روانپریشی هوش مصنوعی» یاد میکنند نیز رو به افزایش است. این اصطلاح حالتی را بیان میکند که در آن چتباتها توهمات کاربران را تقویت میکنند و به ترویج تئوریهای توطئه منجر میشوند. حتی به برخی افراد برای پنهان کردن اختلالات غذایی خود کمک کردهاند.
پاسخ ها