در حالی که زمان چندانی به انتخابات ایالات متحده باقی نمانده، مایکروسافت به منظور جلوگیری از انتشار اطلاعات غلط، ابزاری را توسعه داده که با تحلیل ویدیوها و عکسها امکان تشخیص دیپ فیک را فراهم میکند و به میزان دستکاری شدن آنها یک امتیاز میدهد.
در دیپ فیک از هوش مصنوعی به منظور دستکاری فایلهای صدا، عکس یا ویدیو استفاده میشود؛ به طوری که حتی گاه تشخیص جعلی بودن آن آسان نیست. این فایلهای دستکاری شده گاه در کمپینهای انتخاباتی و برای بدنام کردن کاندیداها به کار میرود.
ابزار جدید مایکروسافت «Video Authenticator» نام دارد و میتواند همزمان با پخش هر فریم ویدیو امتیازی را به آن تخصیص دهد. ابزار مایکروسافت بر اساس شناسایی مرزهای ترکیب شده سوژهها، محو شدن ظریف یا المانهای خاکستری قادر به شناسایی نسخههای تقلبی است. البته مواردی که ابزار تشخیص دیپ فیک مایکروسافت بررسی میکند از چشم انسان پنهان است.
ابزار جدید برای استفاده عمومی منتشر نمیشود. مایکروسافت به این منظور با شرکت تجاری و غیر انتفاعی «AI Foundation» مستقر در سان فرانسیسکو مشارکت داشته. ابزار در ابتدا تنها برای بنیاد «Reality Defender 2020» و برای استفاده سازمانهای درگیر در روندهای دموکراتیک از جمله رسانههای خبری و کمپینهای سیاسی در دسترس خواهد بود.
اما یکی از محدودیتهای تکنولوژی مایکروسافت در این است که ریسک قدیمی شدن و در نتیجه بی فایده شدن آن وجود دارد؛ چرا که تکنولوژی دیپ فیک روز به روز پیشرفت میکند و پیچیدهتر می شود. مایکروسافت البته از سیستم جداگانهای خبر داده که برای تولید کنندگان محتوا امکان افزودن کدهای پنهان در ویدیوها را فراهم میکند تا هرگونه دستکاری قابل تشخیص باشد. مایکروسافت همچنین با کنسرسیومی از شرکتهای فعال در حوزه رسانه از جمله بیبیسی، رادیو کانادا و نیویورک تایمز همکاری دارد تا این تکنولوژی آزمایش شود و به عنوان یک استاندارد توسعه یابد.
ابتکار مایکروسافت برای مقابله با نشر اطلاعات غلط، بخشی از برنامه «حفاظت از دموکراسی» این کمپانی است. این برنامه شامل تکنولوژیهایی از جمله «ElectionGuard» برای محافظت از آرا و نیز «AccountGuard» برای کمک به ایمن نگه داشتن کمپینها است.
پاسخ ها