آمازون از مهاجرت پردازشهای هوش مصنوعی به چیپهای اختصاصی «Inferentia» خبر داده که به معنای عدم استفاده از GPU انویدیا خواهد بود.
با این اقدام، بزرگترین سرویسهای آمازون مانند دستیار مجازی الکسا بجای GPU شرکتهای دیگر، روی سیلیکون اختصاصی و سریع پردازش میشوند. تا به امروز این کمپانی نزدیک به ۸۰ درصد از پردازشهای الکسا را به نمونههای «EC2 Inf1» منتقل کرده که از چیپهای Inferentia سرویسهای وب آمازون (AWS) استفاده میکند.
EC2 Inf1 در مقایسه با نمونههای G4 که از GPU سنتی استفاده میکند، تا ۳۰ درصد عملکرد بالاتری دارد و همچنین هزینهها را تا ۴۵ درصد کاهش میدهد. آمازون اعلام کرده که دارای بهترین نمونهها در بازار برای پردازش زبان طبیعی و صدا است.
در واقعیت الکسا روی اسپیکرهای هوشمند هیچ کاری انجام نمیدهد و پردازندههای AWS در فضای ابری تمام کارها را برعهده میگیرد. از نظر فنی، سیستم زمانی شروع به کار میکند که چیپ آن کلمه خاصی را تشخیص دهد. پس از این کار صدا به صورت همزمان به فضای ابری منتقل میشود و در دیتاسنتر این صدا به متن تبدیل خواهد شد.
در مرحله بعد منظور کاربر توسط متن فهمیده میشود و اقدامات لازم انجام خواهند شد و برای مثال کاربر به اطلاعاتی مانند شرایط آب و هوا دست پیدا میکند. الکسا برای اینکه چنین دیتایی را در اختیار شما قرار دهد، باید ارتباط برقرار کند.
این دستیار مجازی برای چنین کاری از اسکریپت ماژولار استفاده میکند و سپس این اسکریپت به فایل صوتی تبدیل شده و به اسپیکر هوشمند آمازون ارسال میشود. اسپیکر اکو این فایل صوتی را اجرا میکند و شما برای مثال از وضعیت هوا اطلاع پیدا میکنید.
در این فرایند، استنباط بخش بزرگی را تشکیل میدهد و به همین دلیل آمازون میلیونها دلار روی توسعه چنین چیپهایی سرمایهگذاری کرده است. چیپهای Inferentia از چهار «NeuronCores» تشکیل شده که هرکدام از آنها دارای تعداد بالایی واحد پردازش دیتای کوچک (DPU) هستند که اطلاعات را به صورت خطی و مستقل پردازش میکنند. هر چیپ Inferentia از حافظه کش بالایی بهره میبرد که تاخیرها را بهبود میدهد.
پاسخ ها