کارشناسان امنیتی عقیده دارند که افشای اطلاعات کاربران در کنار ارائه پاسخهای نادرست ازجمله مهمترین خطرات ChatGPT و سرویسهای مشابه با آن هستند.
مرکز ملی امنیت سایبری بریتانیا (NCSC) بهتازگی نسبت به خطرات احتمالی سرویس ChatGPT به عموم هشدار داده است. این مدل هوش مصنوعی که در قالب چتبات ارائه میشود، در چند ماه گذشته توانسته است محبوبیت بالایی در نزد کاربران بهدست آورد و اکنون به شیوههای مختلفی قابل دسترس است.
بسیاری از افراد چتبات شرکت OpenAI را بهمنظور دریافت پاسخ سؤالات خود یا صرفهجویی در زمان جستجو مورد استفاده قرار میدهند. عملکرد این هوش مصنوعی در برقراری مکالمههای واقعی با افراد حیرتانگیز بوده است و یکی از دلایل اصلی محبوبیت آن به شمار میرود. همچنین اخیراً مدل زبانی GPT-4 برای چتبات مذکور ارائه شده است که از قابلیتهای بهبودیافته گوناگونی بهره میبرد.
بااینحال کارشناسان مرکز ملی امنیت سایبری بریتانیا در پست اخیر وبلاگ خود خطرات احتمالی ChatGPT و سایر مدلهای پردازش زبانی عظیم را به مردم گوشزد کردهاند. آنها در پژوهشهای صورتگرفته متوجه شدهاند که پاسخهای ارائهشده توسط این چتبات و سایر نمونههای مشابه آن میتواند گمراهکننده و نادرست باشد. همچنین احتمال دارد که برخی از پاسخها به پرسشهای کاربران بهصورت جهتدار، همراه با خشونت و نامناسب تلقی شود. به همین دلیل کاربران باید قبل استفاده از ابزارهای مبتنی بر هوش مصنوعی نسبت به مشکلات احتمالی آنها واقف باشند.
کارشناسان امنیتی معتقد هستند که افراد باید نسبت به اطلاعاتی که در سرویسهای مبتنی بر هوش مصنوعی به اشتراک میگذارند، حساسیت بیشتری نشان دهند. توصیه آنها عدم بهاشتراکگذاری دادههای حساس با ChatGPT یا سایر مدلهای پردازش زبانی است. شایان ذکر است که این سرویسها معمولاً دادههای کاربران خود را بهخوبی محافظت میکنند و در دید سایر افراد قرار نمیدهند؛ اما ذخیره حجم عظیمی از اطلاعات و دستورات در آنها میتواند موجب جلبتوجه هکرها جهت سرقت داده شود. به همین دلیل بهتر است از مطرحکردن سؤالات مرتبط با زندگی شخصی یا کاری خود در چنین پلتفرمهایی خودداری کنید.
پاسخ ها