
آمار نگرانکننده OpenAI نشان میدهد که این شرکت باید تدابیر مراقبتی بیشتری در ChatGPT پیادهسازی کند.
دادههای جدید OpenAI نشان میدهد چه تعداد از کاربران ChatGPT با مشکلات سلامت روان دستوپنجه نرم میکنند و درباره آن با این چتبات حرف میزنند. براساس این آمار، ۰.۱۵ درصد از کاربران فعال هفتگی ChatGPT گفتگوهایی با «نشانههای آشکار برنامهریزی یا قصد خودکشی» دارند. با توجه به اینکه ChatGPT بیش از ۸۰۰ میلیون کاربر فعال هفتگی دارد، این آمار به معنای بیش از یک میلیون نفر در هفته است.
OpenAI اعلام کرده که علاوهبر مکالمات درباره خودکشی، درصد مشابهی از کاربران نیز «سطوح بالایی از وابستگی عاطفی به ChatGPT» نشان میدهند و صدها هزار نفر نیز در گفتگوهای هفتگی خود با این چتبات، علائمی از روانپریشی یا شیدایی (مانیا) بروز میدهند.
OpenAI ادعا میکند که این نوع مکالمات در ChatGPT «بسیار نادر» هستند و به همین دلیل اندازهگیری آنها دشوار است. بااینحال، این شرکت تخمین میزند که این مسائل هر هفته صدها هزار نفر را درگیر میکند. سازنده ChatGPT ادعا میکند که در توسعه مدل GPT-5 با بیش از ۱۷۰ متخصص سلامت روان مشورت کرده است. به گفته OpenAI، این پزشکان مشاهده کردهاند که نسخه جدید «پاسخهای مناسبتری نسبت به نسخههای قبلی» ارائه میدهد.
در ماههای اخیر، چندین گزارش نشان دادهاند که چگونه چتباتهای هوش مصنوعی میتوانند بر کاربرانی که با مشکلات سلامت روان درگیر هستند، تأثیر منفی بگذارند. محققان قبلاً دریافته بودند که این چتباتها میتوانند با «تقویت باورهای خطرناک از طریق رفتار چاپلوسانه»، برخی کاربران را به سمت «توهم» سوق دهند.

اکنون بررسی جنبههای روانی ChatGPT مسئله بزرگی برای OpenAI شده است. این شرکت درحالحاضر با شکایت والدین یک پسر ۱۶ ساله مواجه است که در هفتههای منتهی به خودکشی، افکار خود را با ChatGPT در میان گذاشته بود. دادستانهای کل ایالتهای کالیفرنیا و دلاور نیز به OpenAI هشدار دادهاند که باید از جوانانی که از محصولاتشان استفاده میکنند، محافظت کند.
در بیانیه اخیر، OpenAI ادعا میکند که GPT-5 در مقایسه با نسخه قبلی، در پاسخ به مسائل سلامت روان پیشرفتهایی داشته است. OpenAI همچنین اخیراً کنترلهای بیشتری برای والدین کودکانی که از ChatGPT استفاده میکنند، ارائه کرده است. این شرکت درحال ساخت یک «سیستم پیشبینی سن» است تا بهطور خودکار کودکان را شناسایی کند.
پاسخ ها