دیجیزا/ تسلا از تراشه D1 Dojo برای تعلیم هوش مصنوعی رونمایی کرد. این تراشه با فرایند ساخت ۷ نانومتری TSMC ساخته شده است و بیش از ۵۰ میلیارد ترانزیستور را در خود جای می‌دهد.
   
هوش مصنوعی  (AI) یکی از جنبه‌های جدید تکنولوژی به شمار می‌رود و طی سال‌های گذشته اقتباس‌های مختلفی به خود دیده است. تسلا که به‌عنوان یک شرکت فعال در حوزه خودروهای الکتریکی و خودران شناخته می‌شود، همیشه در جنبه‌های مختلف کسب‌و‌کار نگاه ویژه‌ای به هوش مصنوعی داشته و اخیرا به منظور افزایش بار کاری نرم‌افزارهای مرتبط با AI، از تراشه D1 Dojo برای تعلیم هوش مصنوعی رونمایی کرده است.

در حال حاضر شرکت‌های زیادی برای بار کاری هوش مصنوعی از تراشه‌های ASIC استفاده می‌کنند؛ از استارتاپ‌های کوچک گرفته تا شرکت‌های عظیمی همچون آمازون، بایدو، اینتل و انویدیا. اما شاید تعداد اندکی از این شرکت‌ها در نهایت موفق شوند روش مناسبی برای هر کاربرد پیاده‌سازی کنند. به همین خاطر است که تسلا به فکر توسعه تراشه ASIC برای تعلیم هوش مصنوعی افتاده است.

تراشه جدید که با نام D1 شناخته می‌شود، در واقع بخشی از ابرکامپیوتر Dojo است که برای تعلیم مدل‌های هوش مصنوعی در دفتر مرکزی تسلا به کار گرفته شده و بعدا در کاربردهای مختلف مورد استفاده قرار خواهد گرفت. تراشه مذکور با فرایند ساخت ۷ نانومتری TSMC  ساخته شده است و بیش از ۵۰ میلیارد ترانزیستور در دل خود جای داده که مساحت Die این تراشه را به ۶۴۵ میلی‌متر مربع رسانده‌اند.

تراشه D1 ادعاهای زیادی در زمینه عملکرد دارد و بر اساس گفته‌های تسلا، می‌تواند تا ۳۶۲ ترافلاپس وظیفه با دقت FP16/CFP8 یا حدود ۲۲٫۵ ترافلاپس وظیفه با دقت FP32 را به انجام برساند. با این اوصاف به نظر می‌رسد تراشه تسلا برای داده‌های نوع FP16 بهینه‌سازی شده است؛ چرا که اگر سطح عملکرد ادعاشده درست باشد، تسلا حتی قدرتمندترین بازیگر در زمینه قدرت پردازشی کامپیوتر یعنی انویدیا را با این تراشه پشت سر خواهد گذاشت. در حال حاضر پردازنده گرافیکی A100 Ampere انویدیا می‌تواند ۳۱۲ ترافلاپس وظیفه با دقت FP16 را به انجام برساند.

در مقیاس سیلیکونی، تسلا یک مش متشکل از واحدهای عملکرد (FU) ساخته است که به هم متصل شده‌اند تا این تراشه بزرگ را تشکیل بدهند. هر کدام از این واحدهای عملکرد، متشکل از یک پردازنده ۶۴ بیتی به همراه یک ISA سفارشی است و ۱٫۲۵ مگابایت حافظه محلی SRAM دارد. طراحی پردازنده نیز در واقع به صورت پیاده‌سازی سوپراسکالر (superscalar) انجام شده است. واحدهای عملکرد می‌توانند یک ترافلاپس وظیفه BF16 یا CFP8 یا ۶۴ گیگافلاپس پردازش FP32 را به انجام برسانند و پهنای باند آن‌ها در هرکدام از جهت‌های مش ۵۱۲ گیگابایت بر ثانیه است. مش به این صورت طراحی شده تا واحدهای عملکرد را در یک سیکل کلاک بپیماید و به همین دلیل، تأخیر کاهش و عملکرد بهبود می‌یابد.

شما در مورد آینده هوش مصنوعی چه نظری دارید؟ با توجه به فعالیت‌های متنوع شرکت‌های مختلف و جاه‌طلبی شرکت‌هایی همچون تسلا، چه آینده‌ای برای ادوات هوش مصنوعی متصور هستید؟