حمید پیمان فر

حمید پیمان فر

برنامه نویس ارشد در حوزه بازی سازی، ساکن هلند

نهاد نظارتی بریتانیا، اپل را به ارائه گزارش های نادرست درباره محتوای کودک آزاری متهم کرد

نهاد نظارتی بریتانیا اپل را به ارائه گزارش‌های غیرواقعی درباره محتواهای کودک‌آزاری متهم کرد

این نهاد می‌گوید گزارش‌هایی که اپل از کشف محتواهای مرتبط با سوءاستفاده از کودکان در سرویس‌های خود ارائه می‌کند، غیرواقعی است.

«انجمن ملی پیشگیری از خشونت علیه کودکان» در بریتانیا (NSPCC) اپل را به ارائه گزارش‌های ناکافی پیرامون گستردگی محتواهای مرتبط با سوءاستفاده جنسی از کودکان (CSAM) متهم کرده است. این انجمن می‌گوید سازنده آیفون در سال گذشته میلادی تنها کشف 267 مورد مشکوک CSAM در سراسر جهان را به «مرکز ملی کودکان گمشده یا تحت سوءاستفاده» بریتانیا (NCMEC) ارسال کرده، درحالی‌که این موارد باید خیلی بیشتر باشد.

به‌گزارش گاردین، NSPCC می‌گوید اپل آمار مربوط به محتواهای CSAM در محصولات خود را به‌درستی اعلام نکرده است. طبق داده‌های پلیس که به دست NSPCC رسیده است، سوءاستفاده‌گران در طول یک سال تنها در انگلیس و ولز بیشتر از آماری که توسط اپل برای کل جهان گزارش شده، از سرویس‌های این شرکت ازجمله آیکلود، آی‌مسج و فیس‌تایم برای ارسال یا ذخیره‌سازی این محتواهای غیرقانونی استفاده کرده‌اند.

محتواهای CSAM در سرویس‌های اپل باید بسیار بیشتر باشد

NSPCC می‌گوید اپل در حد فاصل آوریل 2022 تا مارس 2023 با بیش از 337 مورد CSAM در انگلیس و ولز مواجهه داشته است. این انجمن از طریق قانون آزادی دسترسی به اطلاعات این داده‌ها را از پلیس به‌دست آورده است. از سوی دیگر، گوگل و متا به‌ترتیب 1.47 و 30.6 میلیون مورد مشکوک جهانی را گزارش کرده‌اند که نسبت به آمار اپل بسیار بیشتر است.

نهاد نظارتی بریتانیا اپل را به ارائه گزارش‌های غیرواقعی درباره محتواهای کودک‌آزاری متهم کرد

اگرچه اپل از رمزنگاری سرتاسری در سرویس‌های خود استفاده می‌کند، اما واتس‌اپ نیز که سیستم مشابهی در پیام‌رسان خود دارد، در سال 2023 حدود 1.4 میلیون مورد مشکوک CSAM را به NCMEC گزارش کرده است. «ریچارد کالرد»، مدیر واحد سیاست‌های ایمنی آنلاین کودکان در NSPCC می‌گوید:

«اختلاف نگران‌کننده‌ای میان آمار جرایم تصویری سوءاستفاده از کودکان بریتانیایی در سرویس‌های اپل و آمار تقریباً قابل‌چشم‌پوشی خود اپل پیرامون گزارش‌های جهانی در خصوص محتواهای مربوط به سوءاستفاده، وجود دارد. اپل به‌وضوح در زمینه مقابل با سوءاستفاده جنسی از کودکان عقب‌تر از همتایان خود است.»

اپل در سال 2021 از برنامه‌ای برای اسکن تصاویر پیش از آپلود آن‌ها در آیکلود رونمایی کرد، اما به‌دلیل واکنش منفی کاربران و خطر تهدید حریم خصوصی، آن را لغو کرد. این شرکت حالا در واکنش به این گزارش جدید همان پاسخی را داده است که قبلاً در تجدیدنظر خود اعلام کرده بود: این شرکت بر استفاده از سایر استراتژی‌ها برای اولویت‌دادن به امنیت و حریم خصوصی کاربران تمرکز دارد.

حمید پیمان فر
حمید پیمان فر برنامه نویس ارشد در حوزه بازی سازی، ساکن هلند

شاید خوشتان بیاید

پاسخ ها

نظر خود را درباره این پست بنویسید
منتظر اولین کامنت هستیم!
آیدت: فروش فایل، مقاله نویسی در آیدت، فایل‌های خود را به فروش بگذارید و یا مقالات‌تان را منتشر کنید👋