دو سوم افراد پژوهش حاضر فکر میکنند چتباتهایی مانند ChatGPT دارای احساسات و خاطرات هستند.
بر اساس مطالعه جدید محققان دانشگاه واترلو کانادا، دو سوم افراد مورد بررسی فکر میکنند که ابزارهای هوش مصنوعی مانند ChatGPT درجاتی از آگاهی دارند و میتوانند تجربیات ذهنی مانند احساسات و خاطرات داشته باشند.
مدلهای زبانی بزرگ (LLM) اغلب سبک مکالمه خاصی دارند که بسیار شبیه به انسان است. این توانایی خارقالعاده از زمانی که ChatGPT در دسترس عموم قرار گرفت، بحثهایی را برانگیخته است که آیا هوش مصنوعی هشیاری دارد یا خیر.
به گفته محققان، اگر مردم بر این باور باشند که هوش مصنوعی سطحی از آگاهی دارد، در نهایت میتواند بر نحوه تعامل افراد با ابزارهای هوش مصنوعی تأثیر بگذارد. جنبه مثبت این باور باعث میشود این امر پیوندهای اجتماعی را تقویت کند و اعتماد فرد را افزایش دهد. از سوی دیگر، اعتماد بیش از حد به این چتباتها میتواند منجر به وابستگی عاطفی، کاهش تعاملات انسانی و اتکای بیش از حد به هوش مصنوعی برای تصمیمگیریهای حیاتی شود.
محققان در پژوهش خود که در Neuroscience of Consciousness منتشرشده، از 300 نفر در ایالات متحده نظرسنجی کردند. محققان از این افراد پرسیدند که آیا فکر میکنند ChatGPT دارای هشیاری و همچنین انواع دیگر حالات ذهنی مانند توانایی برنامهریزی، استدلال و احساسات است و اینکه چقدر از این ابزار استفاده میکنند.
این تحقیق نشان داد که دو سوم از افراد فکر میکنند ChatGPT دارای هشیاری است و همچنین هرچه افراد بیشتر از این چتبات استفاده کنند، احتمال زیادتری وجود دارد که هشیاری را به آن نسبت دهند؛ این نکته مهمی است زیرا ابزارهای هوش مصنوعی بهطور فزایندهای دارد بخشی از زندگی روزمره ما میشوند.
«کلارا کلمباتو» (Clara Colombatto)، محقق اصلی این پژوهش و استاد روانشناسی دانشگاه واترلو میگوید:
«این نتایج قدرت زبان را نشان میدهد، زیرا یک مکالمه به تنهایی میتواند ما را به این باور برساند که عاملی [مانند هوش مصنوعی] که ظاهر و کارکرد بسیار متفاوتی با ما دارد، میتواند ذهنی داشته باشد.»
به گفته او، احساسات و هشیاری از عوامل ضروی در مسئولیتهای اخلاقی هستند و این دو مورد و همچنین دیگر خصوصیاتها مثل اراده و خودکنترلگری، اصول سیستمهای اخلاقی و قانونی انسان را شکل میدهند. بنابراین این نگرشهای عمومی درباره هوش مصنوعی باید هنگام نظارت بر امنیت این فناوری جدید لحاظ شوند.
پاسخ ها