این طرح به شرکتهای فناوری اجازه میدهد سیگنالهایی را به منظور شناسایی محتوای مربوط به خودکشی در پلتفرمهایشان برای یکدیگر بفرستند.
متا، اسنپچت و تیکتاک با هم همکاری میکنند تا در طرحی به نام Thrive محتواهای مضر درباره خودکشی و خودآزاری را در پلتفرمهایشان تشخیص دهند. عملکرد این برنامه به این صورت است که اگر متا چنین محتواهای مضری در پلتفرمهای خود شناسایی کرد، سیگنالی به دیگر شرکتها میفرستد تا وجود این محتوا را در اپلیکیشنهایشان بررسی کنند.
براساس اعلام متا، «ائتلاف سلامت روان» برای ایجاد برنامه Thrive به شرکتهای فناوری اجازه میدهد سیگنالهایی درباره تشخیص محتوای خودکشی یا خودآزاری به دیگر پلتفرمها بفرستند تا از انتشار آنها در پلتفرمهای مختلف جلوگیری شود. متا دراینباره میگوید:
«مانند بسیاری از انواع مختلف محتوای مشکلساز، محتوای خودکشی و خودآزاری به هیچ پلتفرمی محدود نیست… به همین دلیل با ائتلاف سلامت روان تلاش کردیم Thrive به وجود بیاید. این برنامه برای بهاشتراکگذاشتن سیگنالهای مربوط به نقض [قوانین درباره] محتوای خودکشی و خودآزاری است.»
هنگامی که شرکتی مانند متا محتوای مضری را در اپلیکیشنهای خود کشف میکند، هش (کد ناشناس مربوط به محتوای خودآزاری یا خودکشی) را با سایر شرکتهای فناوری به اشتراک میگذارد، تا آنها بتوانند پایگاه دادههایشان را برای جستوجوی همان محتوا بررسی کنند.
متا میگوید از آوریل تا ژوئن امسال (فروردین و خرداد)، بیش از 12 میلیون محتوای مربوط به خودکشی و خودآزاری در فیسبوک و اینستاگرام شناسایی کرده است. این شرکت اگرچه به کاربران اجازه میدهد درباره تجربیات خودکشی و خودآزاری خود صحبت کنند، وقتی این مطالب جنبه ترغیب دیگران به چنین کاری پیدا کند، محتوایی مضر شناسایی میشود.
یکی از مسائل دشوار تشخیص محتوای مضر در شبکههای اجتماعی این است که باید دائم تحت نظارت قرار بگیرند. هوش مصنوعی مطمئناً میتواند به برچسبگذاری خودکار این محتواهای مضر کمک کند اما بسیاری از این محتواها جزئیات ظریفی دارند که فقط انسان میتواند جنبه مضر آنها را تشخیص دهد. اکنون شرکتهای فناوری در برنامه Thrive گام مهمی برداشتهاند تا فرایند پیچیده یافتن و پاکسازی این محتواها کمی آسانتر شود.
پاسخ ها