OpenAI هماکنون به دنبال استخدام یک متخصص اجرای ایمنی کودکان است که بتواند با ایجاد سیاستهای جدیدی از آسیب کودکان جلوگیری کند.
OpenAI، استارتاپ سازنده ChatGPT، با وجود نظارت فعالان این حوزه و همچنین والدین، تیم جدیدی را تشکیل داده است که هدف آن مطالعه در مورد راههای جلوگیری از سوء استفاده از کودکان با کمک ابزارهای هوش مصنوعی است.
براساس گزارش تک کرانچ، OpenAI در صفحه آگهیهای شغلی خود به تیم امنیت کودکان اشاره کرده است و میگوید که این تیم با گروههای حقوقی، تحقیقاتی و قانونگذار OpenAI و همچنین شرکای خارجی همکاری میکند تا بتواند «فرایندها و حوادث» مربوط به کاربران زیر سن قانونی را مدیریت کند.
در حال حاضر این تیم به دنبال استخدام یک متخصص اجرای ایمنی کودکان است که وظیفه او اعمال سیاستهای OpenAI در زمینه محتوای تولیدشده توسط هوش مصنوعی و همچنین کار روی فرایندهای بررسی مرتبط با محتوای «حساس» (احتمالاً مربوط به کودکان) است.
کودکان و نوجوانان در حال حاضر بیشتر از قبل برای انجام تکالیف خود و همچنین مسائل شخصی از ابزارهای هوش مصنوعی استفاده میکنند. براساس یک نظرسنجی که توسط مرکز دموکراسی و فناوری انجام شده است، 20 درصد کودکان از ChatGPT برای مقابله با اضطراب یا مشکلات مربوط به سلامت روان، 22 درصد برای مشکلات خود با دوستان و 16 درصد برای درگیریهای خانوادگی کمک گرفتهاند.
با این حال، برخی افراد از این موضوع بهعنوان یک زنگ خطر یاد کردهاند.
تابستان گذشته، برخی مدارس و کالجها تلاش کردند تا استفاده از ChatGPT را به دلیل سرقت دبی و ترس ارائه اطلاعات نادرست ممنوع کنند. هرچند از آن زمان تاکنون برخی از این محدودیتها برداشته شداند، اما پتانسیل ابزارهای هوش مصنوعی برای ایجاد اطلاعات نادرست یا تصاویری که باعث ناراحتی دیگران میشود، همیشه عامل نگرانی بوده است.
OpenAI که با انتشار مدل هوش مصنوعی ChatGPT نام خود را به سر زبانها انداخت، در چند وقت گذشته با نگرانیهای زیادی از سوی فعالان و کارشناسان مواجه شده است. این شرکت در همین راستا اخیراً اعلام کرده بود برای تشخیص محتواهای ساختگی، به تصاویر DALL-E 3 واترمارک اضافه میکند.
پاسخ ها