دنیای دیجیتال🖥

دنیای دیجیتال🖥

جدیدترین اپلیکیشن ها، معرفی بازی، خبرهای تکنولوژی، معرفی گجت ها، کنسول و بازی ها، موبایل و تبلت، مقالات علمی و فناوری، کسب و کارهای نو، بررسی سخت افزار، همه چیز از دنیای دیجیتال🔴
توسط ۷۵ نفر دنبال می شود
 ۴ نفر را دنبال می کند

تنظیم کننده بریتانیا: موتورهای جستجو به دروازه ای برای ورود به محتوای مضر تبدیل شده اند

رگولاتور بریتانیا: موتورهای جستجو به دروازه دسترسی به محتواهای آسیب‌زننده تبدیل شده‌اند

براساس تحقیق آفکام بریتانیا، از هر پنج نتیجه موتورهای جستجو درباره خودآزاری یک مورد مستقیماً کاربر را به محتوای مضر هدایت می‌کند.

آفکام، رگولاتور بریتانیا، سطح ایمنی موتورهای جستجو مانند گوگل و بینگ را درباره محتواهای آسیب‌زننده تجزیه‌و‌تحلیل کرده است. طبق تحقیق این سازمان، موتورهای جستجو در ارائه محتواهای خودآزاری، خودکشی و محتواهای نامناسب نقش دارند. محققان آفکام می‌گویند که از هر پنج نتیجه موتورهای جستجو درباره خودآزاری یک مورد کاربر را به محتوای مضر هدایت می‌کند.

براساس تحقیق Ofcom، از هر پنج نتیجه جستجوی عباراتی درباره خودآزاری، یک مورد چنین رفتارهای مضری را تحسین یا ترغیب می‌کند. همچنین این چنین محتواهایی در بخش تصاویر موتورهای جستجو بیشتر یافت می‌شود. آفکام هشدار می‌دهد که محتواهایی که به تمجید یا ترغیب خودآزاری و خودکشی می‌پردازند، به‌طور گسترده از طریق موتورهای جستجو در دسترس هستند.

موتورهای جستجو دروازه‌ای برای محتواهای خودآزاری

موتورهای جستجو مانند گوگل، بیش از 80 میلیارد بازدید در ماه دارند، در مقایسه شبکه‌های اجتماعی مانند تیک‌تاک دارای حدود 1.7 میلیارد کاربر فعال ماهانه است. به گفته آفکام موتورهای جستجو اغلب نقطه شروع وب‌گردی افراد هستند و به این دلیل می‌توانند دروازه‌ای برای دسترسی به محتوای خودآزاری باشند.

موتورهای جستجو و خودآزاری

محققان آفکام حدود 37 هزار نتیجه را در پنج موتور جستجو مطرح تجزیه‌وتحلیل کردند. آن‌ها از عبارات رایج و رمزآلود استفاده کردند، چراکه معمولاً عبارات واضح را این موتورها غربالگری می‌کنند. همچنین محققان گزینه «جستجو ایمن» را غیرفعال کرده بودند تا به تمام نتایج دسترسی داشته باشند.

محققان مشاهده کردند که 22 درصد از نتایج جستجو، مستقیماً به محتوای مضر، همراه با دستورالعمل‌هایی برای اشکال مختلف خودآزاری لینک می‌شدند. همچنین 19 درصد این مطالب در صفحات ابتدایی قرار داشتند. در بخش جستجوی تصویر، 50 درصد از نتایج محتواهای نامناسب را نشان دادند.

این گزارش نتیجه‌گیری می‌کند که یکی از دلایلی که ممکن است برخی از این نتایج مضر توسط موتورهای جستجو بررسی نشود این است که الگوریتم‌ آن‌ها ممکن است تصاویر خودآزاری را با عکس‌های پزشکی و سایر رسانه‌های قانونی اشتباه بگیرند.

یکی از مواردی که در این گزارش به آن پرداخته نشده است، اما به مرور اهمیت آن بیشتر می‌شود، نقشی است که هوش مصنوعی مولد ممکن است در این فضا ایفا کنند. البته تاکنون موانع مختلفی برای جلوگیری از سواستفاده از پلتفرم‌هایی مانند ChatGPT برای اهداف مضر اعمال شده است.

دنیای دیجیتال🖥
دنیای دیجیتال🖥 جدیدترین اپلیکیشن ها، معرفی بازی، خبرهای تکنولوژی، معرفی گجت ها، کنسول و بازی ها، موبایل و تبلت، مقالات علمی و فناوری، کسب و کارهای نو، بررسی سخت افزار، همه چیز از دنیای دیجیتال🔴

شاید خوشتان بیاید

پاسخ ها

نظر خود را درباره این پست بنویسید
منتظر اولین کامنت هستیم!
آیدت: فروش فایل، مقاله نویسی در آیدت، فایل‌های خود را به فروش بگذارید و یا مقالات‌تان را منتشر کنید👋