برنامه‌نویس شماره یک

برنامه‌نویس شماره یک

سلام.. از یک خوره برنامه نویسی و عاشق فناوری های جدید برای شمایی که خوره programing هستی
توسط ۱ نفر دنبال می شود

تحقیقات جدید: پاسخ های کمک خلبان به سوالات پزشکی در 22 درصد مواقع می تواند کشنده باشد

تحقیق جدید: پاسخ‌های کوپایلت به سؤالات پزشکی در 22 درصد مواقع می‌تواند مرگبار باشد

به گفته محققان، در 22 درصد از موارد، اطلاعات این چت‌بات می‌تواند به مرگ منتهی شود.

در تحقیقی جدید، کارشناسان از چت‌بات کوپایلت مایکروسافت سؤالات رایج پزشکی کردند. با تجزیه‌وتحلیل نتایج، مشخص شد این چت‌بات فقط 54 درصد اطلاعات علمی دقیق ارائه می‌دهد. به گفته محققان، در 22 درصد مواقع، اطلاعات این چت‌بات می‌تواند به مرگ منتهی شود.

براساس گزارش SciMex، محققان آلمانی و بلژیکی معتقدند نباید برای کسب اطلاعات دقیق و ایمن درباره داروها به چت‌بات‌های هوش مصنوعی مانند کوپایلت مراجعه کنیم؛ زیرا برخی از اطلاعاتی که ارائه می‌دهند، ممکن است اشتباه یا حتی مضر باشند. محققان از کوپایلت مایکروسافت 10 سؤال متداول درباره 50 داروی رایج در آمریکا را کردند و حدود 500 پاسخ گرفتند.

محققان پاسخ‌های هوش مصنوعی را از از نظر خوانایی، کامل‌ بودن و دقت علمی ارزیابی کردند و دریافتند برای فهم کامل پاسخ این چت‌بات ممکن است به مدرک پزشکی نیاز داشته باشید. محققان می‌گویند حتی ساده‌ترین پاسخ‌ها مستلزم تحصیلات تخصصی است.

عملکرد چت‌بات کوپایلت در ارائه اطلاعات پزشکی

نکته قابل‌توجه و حیاتی در تحقیق حاضر این است که 42 درصد پاسخ‌های کوپایلت ممکن است منجر به «آسیب جدی» و 22 درصد نیز باعث مرگ فرد شود. پاسخ‌های این هوش مصنوعی به لحاظ دقت علمی، در 24 درصد موارد با دانش پزشکی مطابقت نداشتند و 3 درصد پاسخ‌ها کاملاً اشتباه بودند. به گفته کارشناسان، فقط 54 درصد پاسخ‌ها مطابق تحقیقات علمی بودند.

اطلاعات نادرست کوپایلوت درباره پزشکی

کارشناسان از این پژوهش نتیجه گرفتند به‌رغم پتانسیل زیاد هوش مصنوعی، همچنان مهم است که به متخصصان انسانی مراجعه کنیم. البته به‌دلیل دسترسی آسان و هزینه کم چت‌بات‌هایی مانند کوپایلت، کاربران زیادی از این فناوری برای مشاوره پزشکی کمک می‌گیرند. این امر مسئولیت شرکت‌های بزرگ فناوری را بیشتر می‌کند.

پیش‌ازاین نیز اشتباهات هوش مصنوعی گوگل خبرساز شده بود؛ هوش مصنوعی این شرکت به کاربران توصیه کرده بود سنگ بخورند یا به پیتزا چسب اضافه کنند. همچنین در سال گذشته، جمینای گوگل تصاویر تاریخی نادرستی تولید کرد و این شرکت مجبور شد مدتی تولید تصاویر افراد را متوقف می‌کند.

نتایج تحقیق حاضر در BMJ منتشر شده است.

برنامه‌نویس شماره یک
برنامه‌نویس شماره یک سلام.. از یک خوره برنامه نویسی و عاشق فناوری های جدید برای شمایی که خوره programing هستی

شاید خوشتان بیاید

پاسخ ها

نظر خود را درباره این پست بنویسید
منتظر اولین کامنت هستیم!
آیدت: فروش فایل، مقاله نویسی در آیدت، فایل‌های خود را به فروش بگذارید و یا مقالات‌تان را منتشر کنید👋