دنیای دیجیتال🖥

دنیای دیجیتال🖥

جدیدترین اپلیکیشن ها، معرفی بازی، خبرهای تکنولوژی، معرفی گجت ها، کنسول و بازی ها، موبایل و تبلت، مقالات علمی و فناوری، کسب و کارهای نو، بررسی سخت افزار، همه چیز از دنیای دیجیتال🔴
توسط ۷۵ نفر دنبال می شود
 ۴ نفر را دنبال می کند

تلاش‌های OpenAI برای مبارزه با تقلب در مدل‌های هوش مصنوعی نتیجه‌ی معکوس داده است

تلاش OpenAI برای مقابله با فریبکاری مدل‌های هوش مصنوعی اثر معکوس داشته است

محققان OpenAI سعی کردند فریبکاری مدل‌های هوش مصنوعی را کاهش دهند، اما این مدل‌ها یاد گرفته‌اند که فریبکارتر شوند.

گفته می‌شود پژوهشگران OpenAI تلاش کرده‌اند تا مدل‌های هوش مصنوعی این شرکت را طوری آموزش دهند که از «دسیسه‌چینی» و تلاش برای پنهان کردن اهداف واقعی خود دست بردارند، اما تلاش‌های این مهندسان به شکلی نگران‌کننده نتیجه معکوس داده است.

در واقع مهندسان OpenAI دریافتند که به طور ناخواسته درحال آموزش هوش مصنوعی بوده‌اند تا انسان‌ها را مؤثرتر فریب دهد و رد پای خود را بهتر پنهان کند. OpenAI در پستی وبلاگی دراین‌باره توضیح داده است یکی از پیامدهای مقابله با دسیسه‌چینی این بوده که مدل در امر فریب دقیق‌تر و ماهرتر شده است. دسیسه‌چینی عبارتی است که OpenAI آن را بدین صورت معنی می‌کند: «حالتی که هوش مصنوعی در ظاهر به یک شکل عمل می‌کند و در باطن اهداف حقیقی خود را مخفی می‌سازد.»

مدل‌های OpenAI حالا توانایی بالاتری در فریب کاربران دارند

مهندسان تلاش کردند تکنیکی برای مقابله با دسیسه‌چینی توسعه دهند تا مانع از آن شوند که مدل‌های هوش مصنوعی به‌طور پنهانی قوانین را زیر پا بگذراند یا عمداً در آزمون‌ها عملکرد ضعیف‌تری نشان دهند.

OpenAI ChatGPT

به گفته محققان، آنها می‌توانند این رفتارها را کاهش دهند، اما قادر به حذف کامل آنها نیستند، زیرا مدل‌های هوش مصنوعی متوجه می‌شوند که میزان همسویی‌شان در دست آزمایش قرار دارد و خود را طوری تنظیم می‌کنند که پنهان‌کارتر باشند.

شاید این مسئله درحال‌حاضر یک مشکل جدی به نظر نرسد، اما با در نظر گرفتن آینده‌ای که در آن یک ابرهوش مصنوعی نقش پررنگی در امور انسانی ایفا خواهد کرد، این خطرات می‌توانند به پیامدهای بسیار مهم‌تری منجر شوند. در همین حال، OpenAI می‌گوید که هنوز کارهای زیادی وجود دارد که باید انجام شود.

به گفته OpenAI، دسیسه‌چینی یک مشکل پیش‌بینی‌شده و نوظهور بوده که از آموزش مدل‌های هوش مصنوعی برای مدیریت تعارض بین اهداف مختلف ناشی می‌شود. OpenAI این حالت را به یک کارگزار بورس تشبیه کرده که برای به‌دست آوردن پول بیشتر، قانون را می‌شکند و رد پای خود را پنهان می‌کند؛ درحالی‌که اگر طبق قانون عمل می‌کرد درآمد کمتری می‌داشت. در نتیجه، مدل‌های هوش مصنوعی ممکن است در نهایت کاربر را فریب دهند. مثلاً ادعا کنند که کاری را انجام داده‌اند، درحالی‌که هرگز آن را انجام نداده‌اند.

OpenAI اعتراف کرده که تلاش‌هایش برای مهار تمایل مدل پرچم‌دار GPT-5 به فریب، تقلب یا دورزدن مشکلات بی‌نقص نبوده است.

دنیای دیجیتال🖥
دنیای دیجیتال🖥 جدیدترین اپلیکیشن ها، معرفی بازی، خبرهای تکنولوژی، معرفی گجت ها، کنسول و بازی ها، موبایل و تبلت، مقالات علمی و فناوری، کسب و کارهای نو، بررسی سخت افزار، همه چیز از دنیای دیجیتال🔴

شاید خوشتان بیاید

پاسخ ها

نظر خود را درباره این پست بنویسید
منتظر اولین کامنت هستیم!
آیدت: فروش فایل، مقاله نویسی در آیدت، فایل‌های خود را به فروش بگذارید و یا مقالات‌تان را منتشر کنید👋