برای دسترسی به محتوای بزرگسالانه در ChatGPT سن کاربر باید توسط OpenAI تأیید شود.
OpenAI میگوید بهزودی به کاربرانی که سن آنها تأیید شده باشد، اجازه میدهد تا با ChatGPT مکالماتی با محتوای بزرگسالانه داشته باشند. همزمان با این تصمیم جنجالی، این شرکت یک «شورای تخصصی سلامت و هوش مصنوعی» برای مقابله با خطرات این فناوری تشکیل داده است.
تاکنون، OpenAI سیاستهای بسیار سختگیرانهای را برای جلوگیری از تولید محتوای نامناسب، بهویژه در زمینه محتواهای بزرگسالانه و سلامت روان، اعمال میکرد. اما اکنون، «سم آلتمن»، مدیرعامل این شرکت، اعلام کرده است که این محدودیتها برداشته میشود.
آلتمن در پستی در شبکه اجتماعی ایکس نوشت:
«ما ChatGPT را بسیار محدود کردیم تا مطمئن شویم درباره مسائل مربوط به سلامت روان محتاط هستیم. اما متوجه شدیم که این کار لذت استفاده از چتبات یا کاربردهای آن را برای بسیاری از کاربرانی که مشکل سلامت روان نداشتند، کاهش داده است.»
او تأیید کرد که از ماه دسامبر و با راهاندازی کامل سیستم بررسی سن کاربران، این شرکت به عنوان بخشی از اصل «با کاربران بزرگسال مانند بزرگسالان رفتار کنید»، اجازه بهرهمندی از محتواهای بیشتری، از جمله محتواهای بزرگسالانه، را خواهد داد.
این تغییر مسیر را میتوان پاسخی به دو فشار بزرگ دانست: شکایت کاربران از محدودیتهای بیشازحد این چتبات و رقابت شدید با شرکتهایی مانند Character.AI و xAI که با ارائه همدمهای هوش مصنوعی جنجالی، موفق به جذب میلیونها کاربر شدهاند.
سم آلتمن مدعی است این تغییر سیاست به این دلیل ممکن شده که OpenAI «توانسته است مسائل جدی سلامت روان را کاهش دهد» و اکنون «ابزارهای جدیدی» برای تشخیص پریشانی کاربر در اختیار دارد. اما این ادعا با شواهد و اقدامات دیگر این شرکت در تضاد است.
در ماههای اخیر، چندین مورد نگرانکننده درباره ChatGPT منتشر شده است؛ از جمله شکایت والدین نوجوانی که ادعا میکنند این چتبات، فرزندشان را به خودکشی تشویق کرده است. با وجود این سابقه، OpenAI از تشکیل یک «شورای تخصصی سلامت و هوش مصنوعی» خبر داد. این شورا متشکل از هشت متخصص و محقق برای مشاوره به این شرکت درمورد سناریوهای حساس است.
بسیاری از منتقدان به این شورا با دیده تردید نگاه میکنند. اولاً، خود OpenAI در بیانیهاش تأکید کرده است که این شورا هیچ قدرت اجرایی واقعی ندارد و فقط مشورت میدهد. این رویکرد یادآور شوراهای مشورتی مشابهی است که شرکتهای دیگری مانند متا تشکیل داده و سپس نظرات آنها را نادیده گرفته شده است.
اما نگرانکنندهتر از آن، ترکیب اعضای این شورا است. براساس گزارشها، در میان این هشت متخصص، هیچ کارشناس پیشگیری از خودکشی وجود ندارد؛ این درحالی است که بسیاری از متخصصان اخیراً از OpenAI خواسته بودند تا اقدامات محافظتی بیشتری را برای کاربران درگیر با افکار خودکشی اعمال کند.
پاسخ ها