استارتاپ چینی دیپسیک به سرقت فناوریهای OpenAI متهم شده بود.
گزارشهای جدید حکایت از آن دارند که شرکت OpenAI درحال تقویت اقدامات امنیتی خود برای مقابله با سرقت داده و اطلاعات مدلها توسط رقبایی مانند DeepSeek است.
براساس گزارش جدید منتشرشده توسط فایننشال تایمز، OpenAI پس از آنکه استارتاپ چینی DeepSeek در ژانویه یک مدل رقیب منتشر کرد، اقدامات امنیتی خود را با سرعت بیشتری تقویت کرده است. OpenAI مدعی است که دیپسیک با استفاده از روشی به نام «تقطیر» بهطور غیرقانونی از مدلهای آن کپیبرداری میکند.
برخی از اقدامات امنیتی انجامشده توسط OpenAI شامل سیاستهای محدودسازی دسترسی به اطلاعات است که دسترسی کارکنان به الگوریتمها و محصولات حساس را محدود میکند. طبق گفته فایننشال تایمز، در زمان توسعه مدل o1 شرکت OpenAI، تنها اعضای تأییدشده تیم که در جریان جزئیات پروژه قرار گرفته بودند، اجازه داشتند درباره آن در فضاهای مشترک اداری گفتگو کنند.
OpenAI همچنین حالا فناوریهای اختصاصی خود را در کامپیوترهای آفلاین نگهداری میکند. این شرکت دسترسی به دفاتر را با استفاده از احراز هویت بیومتریک (از اسکن اثر انگشت کارکنان) کنترل میکند و بهصورت پیشفرض سیاست عدم دسترسی به اینترنت را اجرا کرده است، بهگونهای که هر شکلی از اتصال خارجی نیاز به تأیید مراجع بالاتر دارد.
فایننشال تایمز اشاره میکند که OpenAI حتی امنیت فیزیکی در مراکز داده خود را افزایش داده و تعداد کارکنان بخش امنیت سایبری را بالا برده است.
گفته میشود این تغییرات بخشی از تلاش OpenAI برای جلوگیری از سرقت اطلاعات و مدلهایش توسط رقبا انجام میگیرد. اما باتوجهبه جنگ جذب نیروی انسانی میان متا و OpenAI، ممکن است این شرکت هوش مصنوعی در تلاش برای حل مشکلات امنیت داخلی خود نیز باشد.
OpenAI تاکنون بارها شرکت چینی دیپسیک را به سرقت اطلاعات مدلهای خود متهم کرده است. البته در یک بررسی مشخص شد که نتایج ارائهشده توسط چتبات دیپسیک شباهت زیادی به پاسخهای رقبای غربی این چتبات چینی دارند.
پاسخ ها