این ابزار میتواند 98.8 درصد از تصاویر ایجادشده توسط DALL-E 3 را بهدرستی شناسایی کند.
با نزدیکشدن به انتخابات 2024 آمریکا، حساسیت قانونگذاران درباره انتشار دیپفیکهای تصویری و صوتی بیشازپیش شده است. اکنون OpenAI ابزاری را منتشر میکند که میتواند محتوای ایجادشده توسط هوش مصنوعی مولد DALL-E را شناسایی کند.
براساس گزارش نیویورک تایمز، OpenAI ابزار تشخیص دیپفیک جدید خود را در اختیار گروه کوچکی از محققان حوزه اطلاعات جعلی قرار داده است تا بتوانند این ابزار را در موقعیتهای واقعی آزمایش کنند و آن را بهبود ببخشند. همچنین OpenAI گفته است که این ابزار میتواند 98.8 درصد از تصاویر ایجادشده توسط DALL-E 3 (آخرین نسخه هوش مصنوعی مولد تصویر این شرکت) را به درستی شناسایی کند.
OpenAI میگوید اگرچه ابزار جدید آن میتواند درصد بالایی از تصاویر ایجادشده توسط DALL-E 3 را تشخیص دهد، اما این ابزار برای شناسایی تصاویر تولیدشده توسط سایر هوش مصنوعیهای محبوب مانند میدجرنی و Stability طراحی نشده است.
بهطورکلی، مبارزه با اطلاعات جعلی و دیپفیکها به سادگی قابل انجام نیست و به همین دلیل شرکتهای بزرگ فناوری باید روشهای مختلفی را بررسی کنند. اکنون غولهای فناوری مانند گوگل، متا و OpenAI به کمیتهای موسم به «ائتلاف برای منشأ و اعتبار محتوا» یا C2PA پیوستهاند که هدف آن اعتبارسنجی محتواهای مختلف است. استاندارد C2PA شبیه به نوعی برچسب عمل میکند که در آن میتوان زمان و نحوه تولید یا تغییر تصاویر، ویدیوها، کلیپهای صوتی و فایلهای دیگر را مشاهده کرد.
OpenAI همچنین گفته است که درحال توسعه روشهایی برای نشانهگذاری روی صداهای تولیدشده توسط هوش مصنوعی است تا بتوان آنها را بهراحتی شناسایی کرد. این شرکت امیدوار است حذف این واترمارکها را دشوار کند.
اخیراً مدیرعامل ElevenLabs نیز گفته است قراردادن واترمارک دیجیتالی روی صداهای هوش مصنوعی میتواند راهحلی برای مقابله با دیپفیکهای صوتی باشد.
پاسخ ها