از سال گذشت، کارگروهی برای رسیدگی به نگرانیهای ChatGPT در اتحادیه اروپا تشکیل و حالا گزارشی توسط آنها منتشر شده است.
کارگروه نهاد ناظر بر حریم خصوصی اتحادیه اروپا گفته است که تلاشهای OpenAI برای تولید خروجیهای دقیق توسط چتبات هوش مصنوعی ChatGPT، هنوز برای اطمینان از انطباق کامل با قوانین داده در این منطقه کافی نیست.
در گزارش این گروه که توسط وبسایت آن منتشر شده، آمده است:
«اگرچه اقدامات انجامشده بهمنظور رعایت اصل شفافیت برای جلوگیری از تفسیر نادرست خروجی ChatGPT مفید بوده، اما برای مطابقت با اصل دقت داده کافی نیستند.»
این کارگروه سال گذشته و پس از آنکه تنظیمکنندههای ملی اتحادیه اروپا به رهبری مقامات ایتالیایی نگرانیهایی را در مورد سرویس هوش مصنوعی ChatGPT مطرح کردند، راهاندازی شد. سال گذشته، همچنین استفاده از ChatGPT در مقطعی بهدلیل نگرانیهای حریم خصوصی کاربران، در ایتالیا ممنوع شد.
در این گزارش گفتهشده که ناظران ملی حفظ حریم خصوصی برخی از کشورهای عضو اتحادیه اروپا همچنان درحال انجام تحقیقات مختلف روی ChatGPT هستند و ارائه شرح کاملی از نتایج آنها هنوز امکانپذیر نیست.
در بخش دیگری از گزارش آمده است:
«بهدلیل ماهیت احتمالی این سیستم، رویکرد آموزشی فعلی به مدلی منتهی خواهد شد که ممکن است خروجیهای سوگیرانه یا ساختگی ایجاد کند. علاوهبراین، خروجیهای ارائهشده توسط ChatGPT احتمالاً بدون توجه به دقت واقعی آنها، توسط کاربران نهایی دقیق تلقی میشوند.»
دقت دادهها یکی از اصول مجموعه قوانین حفاظت از داده در اتحادیه اروپا است. مقررات جدید حفظ حریم خصوصی اروپا که از سال 2018 اجرایی شدند، شرکتها را مجبور میکنند تا بیشتر مراقب نحوه مدیریت دادههای مشتریان خود باشند. همچنین بسیاری از حامیان حریم خصوصی از قانون جدید به عنوان الگویی برای حفاظت از دادههای شخصی در عصر اینترنت استقبال کرده و از سایر کشورها نیز خواستهاند تا از آن پیروی کنند.
هنوز مشخص نیست که OpenAI برای مطابقت ChatGPT با این قانون در نظر دارد چه اقداماتی انجام دهد.
پاسخ ها