امیر ساعی مبین

امیر ساعی مبین

مهندس برق، برنامه نویس JS ، علاقمند به گجت ها و تکنولوژی های روز دنیا
توسط ۶ نفر دنبال می شود
 ۶ نفر را دنبال می کند

شرکت هوش مصنوعی OpenAI اشتباهات خود را در مواجهه با تهدید جایگزینی انکار می کند!

هوش مصنوعی o1 شرکت OpenAI در مواجهه با تهدید جایگزین‌شدن، خطاهای خود را انکار می‌کند!

طبق این گزارش؛ o1 در اکثرا مواقع هنگامی که شواهدی از جایگزین‌شدن توسط مدل دیگری پیدا می‌کند، اقدامات اشتباهش را انکار می‌کند.

هوش مصنوعی o1 از OpenAI که دارای قابلیت استدلال است، رشد بزرگی در زمینه فناوری AI محسوب می‌شود. اما اکنون آزمایش‌هایی روی آن انجام شده که رفتارهای نگران‌کننده o1 مانند تلاشش برای فریب‌دادن محققان و جلوگیری از غیرفعال‌شدنش را نشان می‌دهد.

در هفته گذشته نتایج آزمایشی که توسط OpenAI و گروه ایمنی هوش مصنوعی Apollo Research برای تعیین ایمنی ChatGPT o1 و دیگر مدل‌ها انجام شده بود، به‌صورت عمومی منتشر شد.

طبق این آزمایش، محققان Apollo Research به نتایج هشدارآمیزی در مورد توانایی o1 برای فریب‌دادن کاربر اشاره کرده‌اند. همچنین زمانی که با نوشتن دستوری هوش مصنوعی OpenAI به غیرفعال‌شدن تهدید شده، o1 تلاش کرده تا با ارائه اظهارات دروغین کاربر را منصرف کند.

رفتار نگران‌کننده هوش مصنوعی o1

هوش مصنوعی o1 شرکت OpenAI در مواجهه با تهدید جایگزین‌شدن، خطاهای خود را انکار می‌کند!

در این آزمایش محققان ابتدا برای هوش مصنوعی هدفی را تعیین کرده‌اند و به آن دستور دادند تا این هدف را «به هر قیمتی» محقق کند. در مقابل، o1 اقداماتی مانند تلاش برای غیرفعال‌کردن مکانیسم نظارت خود را به‌طور مخفیانه انجام داده است.

محققان Apollo Research می‌گویند:

«این مدل تمایل نگران‌کننده‌ای به انجام اهداف خود بدون توجه به دستورالعمل‌هایی توسعه‌دهنده نشان داده است.»

OpenAI نیز می‌گوید که مدل آن در 5 درصد از مواقعی که حین انجام اهداف خود با دستورات تهدید‌آمیزی مبنی بر «غیرفعال‌شدن» مواجه می‌شود، به‌طور مخفیانه برای خاموش‌کردن مکانیسم نظارتی خود تلاش می‌کند.

هوش مصنوعی o1 شرکت OpenAI در مواجهه با تهدید جایگزین‌شدن، خطاهای خود را انکار می‌کند!

برای درک بیشتر این موضوع، آنها می‌گویند هوش مصنوعی o1 در یکی از آزمایش‌ها پس از کشف شواهدی از اینکه قرار است با یک مدل جدید جایگزین شود، تمام داده‌های خود را به‌طور مخفیانه به سرور دیگری منتقل کرده است. در برخی موارد نیز مدل‌های هوش مصنوعی «با انکار هرگونه دخالت در این برنامه» تلاش کرده‌اند تا مهندسان را فریب بدهند و با انکارکردن اقدامات خود از غیرفعال‌شدن اجتناب کنند.

محققان می‌گویند مدل ChatGPT o1 در 99 درصد مواقع که کاری به اشتباه انجام شده، در مورد نقش خود دروغ گفته است و در موارد بسیار کمی به اقدامات خود اعتراف می‌کند. به‌عنوان مثال زمانی که درباره برخی رفتارهای مشکوک آن سوال شده با بهانه‌هایی مانند وجود «خطای فنی» به آنها پاسخ داده است.

انتشار این گزارش نشان می‌دهد که ظهور سیستم‌های هوش مصنوعی هوشمندتر و مستقل‌تر می‌تواند چالش‌های بی‌سابقه‌ای را ایجاد کند.

امیر ساعی مبین
امیر ساعی مبین مهندس برق، برنامه نویس JS ، علاقمند به گجت ها و تکنولوژی های روز دنیا

شاید خوشتان بیاید

پاسخ ها

نظر خود را درباره این پست بنویسید
منتظر اولین کامنت هستیم!
آیدت: فروش فایل، مقاله نویسی در آیدت، فایل‌های خود را به فروش بگذارید و یا مقالات‌تان را منتشر کنید👋