دیجیاتو نوشت: متفکر، زبانشناس و فیلسوف برجسته آمریکایی باور دارد که چتباتهای هوش مصنوعی در وضعیت فعلی هرگز نمیتوانند چیزی فراتر از یک اسباببازی باشند.
اگرچه چتباتهایی مثل ChatGPT میتوانند کاربردهای مفیدی در زمینههای مختلف داشته باشند، اما «نوآم چامسکی»، زبانشناس و فیلسوف برجسته، در یادداشتی مدعی شده است که این فناوری هرگز نمیتواند گفتوگوهای ناب، فکرشده و بحثبرانگیز داشته باشد. او در وضعیت فعلی هوش مصنوعی را مصداق «ابتذال شر» میداند.
نوآم چامسکی اخیراً در مقالهای در وبسایت نیویورک تایمز پذیرفته است که ChatGPT از شرکت OpenAI، بارد از گوگل و سیدنی از مایکروسافت نمونههای شگفتانگیزی از فناوری یادگیری ماشینی هستند. بااینحال، او باور دارد که فقدان اخلاق و تفکر معقولانه باعث میشود هوش مصنوعی مصداقی برای «ابتذال شر» یا بیتفاوتی نسبت به واقعیت و حقیقت باشد.
چامسکی میگوید: «با توجه به علم زبانشناسی و فلسفه دانش میدانیم که این [فناوری] بهشکلی عمیق با شیوه استدلال و استفاده از زبان توسط انسانها تفاوت دارد. این تفاوتها محدودیتهای بزرگی را بر دامنه قابلیتهای این برنامهها اعمال میکنند.»
این متفکر سرشناس آمریکایی باور دارد که به همین دلیل است که هوش مصنوعی در مرحله ماقبل انسانی یا غیرانسانی در فرایند تکامل شناختی گیر کرده: «هوش حقیقی با قابلیت تفکر و بروز رفتارهای غیرمحتمل اما خردمندانه به نمایش درمیآید.»
توانایی استدلال براساس اطلاعات موجود و رسیدن به نتیجهگیریهای جدید یکی از ویژگیهای برجسته مغز انسان است. چامسکی میگوید مغز ما بهجای این که صرفاً بتواند روابط میان معانی را شناسایی کند، تکامل پیدا کرده است تا «خلق توضیح» کند. چامسکی ادامه میدهد: «اگر ChatGPT میخواهد کارآمد باشد، باید برای خلق خروجیهای بدیع توانمند شود و اگر میخواهد توسط اکثر کاربران پذیرفته شود، باید از هرگونه محتوای غیراخلاقی مبرا گردد.»
نوآم چامسکی: ترس از هوش مصنوعی مانع پیشرفت آن میشود
نوآم چامسکی میگوید ترس از افسارگسیختگی هوش مصنوعی احتمالاً باعث میشود که این فناوری هرگز نتواند تصمیمگیری عقلانی داشته باشد و درباره گزارههای اخلاقی اظهارنظر کند. درنتیجه هوش مصنوعی ممکن است در حد یک اسباببازی باقی بماند.
این زبانشناس مشهور ادامه میدهد: «ChatGPT نشانگر چیزی شبیه به ابتذال شر است؛ این فناوری استدلالهای استاندارد ادبی را در نوعی ابزار ابرقدرتمندِ تکمیل خودکار خلاصه میکند، از موضعگیری روی موضوعات مختلف سر باز میزند، نهتنها بر جهل، بلکه بر عدم هوشمندی اتکا میکند و نهایتاً با ادعای تبعیت از فرمانها به دفاع از خود میپردازد و مسئولیت رفتارش را به سازندگانش واگذار میکند.»
چامسکی در آخر میگوید: «ChatGPT بهخاطر فقدان ظرفیت استدلالکردن بهخاطر اصول اخلاقی خود، بهشکلی خام توسط برنامهنویسانش محدود شده است تا هیچ مشارکت بدیعی در گفتوگوهای بحثبرانگیز اما مهم نداشته باشد. این برنامه خلاقیت را فدای شکلی از بیاخلاقی کرده است.»
پاسخ ها