خانه / اخبار تکنولوژی / گوگل چگونه برای آموزش مدل‌های هوش مصنوعی اپل و جمینای تراشه می‌سازد؟

گوگل چگونه برای آموزش مدل‌های هوش مصنوعی اپل و جمینای تراشه می‌سازد؟

در آزمایشگاهی در مقر گوگل در مانتین ویو، کالیفرنیا، صدها قفسه سرور در راهروهای متعدد کار می‌کنند و وظایفی را بسیار کمتر از کارهایی که در راه‌اندازی موتور جستجوی اصلی جهان انجام می‌دهند، انجام می‌دهند. در عوض، این سرورهای رک تست‌هایی را بر روی ریزتراشه‌های خود گوگل به نام انجام می‌دهند پردازنده تانسور (TPU) هستند

پردازشگرهای تنسور گوگل آنها که در اصل برای مدیریت حجم کار داخلی آموزش دیده بودند، از سال 2018 در دسترس مشتریان ابری قرار گرفتند. اپل در ماه جولای اعلام کرد که ماژول های پردازنده Tensor برای آموزش مدل های هوش مصنوعی که در قلب پلتفرم هوش مصنوعی قرار دارد هوش اپل همچنین از گوگل برای آموزش و پیاده سازی استفاده می کنند ربات چت جمینا به پردازنده های تانسوری متکی است.

دانیل نیومن، مدیرعامل گروه Futurum، در مورد رقابت بین انویدیا و گوگل در آموزش هوش مصنوعی چنین می گوید:

یک باور اساسی در جهان وجود دارد که تمام مدل‌های اصلی زبان هوش مصنوعی در Nvidia آموزش داده شده‌اند. انویدیا بدون شک مسئول بخش بزرگی از حجم یادگیری هوش مصنوعی است. اما گوگل نیز مسیر خود را در این زمینه انتخاب کرده و از زمان عرضه تراشه های ابری سفارشی گوگل در سال 2015 روی آن ها کار می کند.

جایگاه گوگل در تولید تراشه های ابری سفارشی هوش مصنوعی

جایگاه گوگل در تولید تراشه های ابری سفارشی هوش مصنوعی

گوگل اولین ارائه دهنده خدمات ابری بود که تراشه های هوش مصنوعی سفارشی ایجاد کرد. سه سال بعد، اولین وب سرویس آمازون یک تراشه ابری با هوش مصنوعی خودش را معرفی کرد یعنی اینفرنتیا. اولین تراشه هوش مصنوعی سفارشی مایکروسافت، Maia، تا اواخر سال 2023 رونمایی نشد.

اما اول بودن در زمینه تراشه های هوش مصنوعی به معنای کسب جایگاه برتر در رقابت عمومی است هوش مصنوعی مولد گوگل به دلیل انتشار محصولات ناموفق با انتقاداتی مواجه شده است و در نتیجه جمینا بیش از یک سال پس از ChatGPT منتشر شد.

با این حال، Google Cloud به لطف معرفی محصولات خود در زمینه هوش مصنوعی شتاب بیشتری گرفته است. شرکت مادر گوگل، آلفابت، گزارش داد که درآمد ابری آن در سه ماهه اخیر 29 درصد افزایش یافته است و برای اولین بار از 10 میلیارد دلار درآمد سه ماهه فراتر رفته است.

نیومن در این مورد چنین گفت:

“عصر ابری هوش مصنوعی به طور کامل نحوه دیده شدن شرکت ها را تغییر داده است و این تمایز سیلیکونی (تمایز در تولید تراشه) یا به عبارت دیگر خود پردازنده ممکن است یکی از بزرگترین دلایل قرار گرفتن گوگل در جایگاه سوم به دلیل ابر خود باشد. توانایی‌های اطلاعاتی باید به سطحی برابر با دو شرکت ابری دیگر و حتی به جایگاه بالاتری برسد.

در ماه جولای، CNBC برای اولین بار از آزمایشگاه تراشه های گوگل بازدید کرد و با امین وحدت، رئیس بخش تراشه های ابری سفارشی مصاحبه کرد. زمانی که گوگل برای اولین بار در سال 2014 ایده ساخت تراشه را مطرح کرد، او در این شرکت بود.

آمین پیدا شد
امین وحدت، معاون یادگیری ماشینی، سیستم‌ها و هوش مصنوعی ابری در گوگل، نسخه چهارم TPU را در مقر گوگل در Mountain View به نمایش می‌گذارد.

وحدت در مصاحبه خود در این تور گفت:

همه چیز با یک آزمایش فکری ساده اما قدرتمند شروع شد. تعدادی از مدیران کسب و کار این سوال را مطرح کردند: اگر کاربران گوگل فقط 30 ثانیه در روز از طریق صدا با گوگل تعامل داشته باشند چه اتفاقی می افتد؟ چقدر قدرت محاسباتی برای پشتیبانی از کاربران خود نیاز داریم؟”

در آن زمان، طبق برآورد کارشناسان، گوگل مجبور بود تعداد رایانه های موجود در مراکز داده خود را دو برابر کند. بنابراین آنها به دنبال یک راه حل اساسی برای ارائه قدرت پردازش مورد نیاز گوگل بودند.

وحدت در این باره چنین گفته است:

ما متوجه شدیم که می‌توانیم سخت‌افزار سفارشی، نه سخت‌افزار عمومی، بلکه سخت‌افزار سفارشی (در این مورد پردازنده‌های تانسور) بسازیم تا از کاربران بسیار بهتر پشتیبانی کند. در واقع، 100 برابر موثرتر از نگهداری تحت شرایط دیگر است.”

مراکز داده گوگل همچنان به واحدهای پردازش مرکزی عمومی (CPU) و پردازنده های گرافیکی انویدیا (GPU) متکی بر. واحدهای پردازش تنسور گوگل نوع دیگری از تراشه ها هستند که به آن ها می گویند مدار مجتمع مخصوص برنامه (ASIC) که برای اهداف خاص سفارشی شده اند. TPU بر هوش مصنوعی تمرکز دارد. گوگل همچنین یک ASIC متمرکز بر ویدئو به نام واحد کدگذاری ویدئو (VCU) ساخته است.

گوگل همچنین در حال ساخت تراشه های سفارشی برای دستگاه های خود با رویکردی مشابه با استراتژی سیلیکونی سفارشی اپل است. تراشه تانسور G4 نیروی محرکه پیکسل 9 جدید گوگل با قابلیت‌های هوش مصنوعی و تراشه جدید A1، نیروی محرکه Pixel Buds Pro 2 است.

با این حال، TPU گوگل را متمایز می کند. این پردازنده اولین پردازنده در نوع خود بود که در سال 2015 عرضه شد. طبق گزارش گروه FutureChrome، پردازنده‌های Tensor همچنان در میان شتاب‌دهنده‌های هوش مصنوعی ابری سفارشی با 58 درصد سهم بازار، بزرگترین هستند.

گوگل واژه واحد پردازش تانسور را بر اساس عبارت جبری تانسور ابداع کرد که به ضرب ماتریس در مقیاس بزرگ اشاره دارد که برای برنامه های کاربردی سریع و پیشرفته هوش مصنوعی رخ می دهد.

با انتشار دومین TPU در سال 2018، گوگل تمرکز خود را از استنتاج به آموزش مدل های هوش مصنوعی تغییر داد.

استیسی روزگون، تحلیلگر ارشد نیمه هادی در Bernstein Research، گفت:

پردازنده‌های گرافیکی قابل برنامه‌ریزی و انعطاف‌پذیرتر هستند. اما عرضه آنها محدود است.”

رونق هوش مصنوعی باعث افزایش ارزش سهام انویدیا شده است. ارزش بازار این شرکت در ژوئن به 3 تریلیون دلار رسید که بیشتر از ارزش بازار آلفابت بود. این در حالی بود که گوگل در حال رقابت با اپل و مایکروسافت برای کسب جایگاه ارزشمندترین شرکت جهان بود.

نیومن در این مورد چنین گفت:

اگر منصف باشیم، این شتاب‌دهنده‌های اختصاصی هوش مصنوعی به اندازه پلتفرم انویدیا انعطاف‌پذیر یا قدرتمند نیستند و این چیزی است که بازار منتظر دیدن آن است: آیا کسی می‌تواند در این فضا رقابت کند؟

اکنون که می‌دانیم اپل از واحدهای پردازش تنسور گوگل برای آموزش مدل‌های هوش مصنوعی خود استفاده می‌کند، آزمایش واقعی زمانی خواهد بود که ویژگی‌های هوش مصنوعی گفته شده در سال آینده به طور کامل در دستگاه‌های آیفون و مک عرضه شود.

همکاری گوگل با Broadcom و TSMC

ایجاد جایگزین های مناسب برای موتورهای هوش مصنوعی انویدیا کار ساده ای نیست. نسل ششم TPU گوگل با نام Trillium قرار است اواخر امسال عرضه شود.

تراشه Google Trillium
نسخه ششم تراشه TPU با نام Trillium در اواخر سال 2024 عرضه خواهد شد.

راسگون در این مورد گفته است:

«توسعه جایگزین‌های مناسب برای موتورهای هوش مصنوعی گران و دشوار است. این کاری نیست که همه بتوانند انجام دهند. اما این مراکز داده بزرگ توانایی، پول و منابع لازم برای طی کردن این مسیر را دارند.”

این فرآیند آنقدر پیچیده و پرهزینه است که حتی مراکز داده بزرگ نیز نمی توانند آن را خودشان انجام دهند. از زمان راه اندازی اولین TPU، گوگل با Broadcom، یک توسعه دهنده تراشه که به Meta Hamm در طراحی تراشه های هوش مصنوعی کمک می کند، شریک شده است. بارداکام ادعا می کند که بیش از 3 میلیارد دلار برای این همکاری ها هزینه کرده است.

راسگون در این مورد گفته است:

«برادکام تمام تجهیزات جانبی را می سازد. این شرکت وظایف مربوط به دریافت ورودی و ارائه خروجی، وظایف مدارهای فرستنده گیرنده تبدیل داده های موازی به سریال و بالعکس و سایر فعالیت های کامپیوتری را انجام می دهد. Broadcom همچنین مسئول ایجاد حفاظت برای مدار است.

در مرحله بعد طرح نهایی به کارخانه های تولیدی ارسال می شود. این کارخانه ها متعلق به بزرگترین سازنده تراشه در جهان TSMC هستند که 92 درصد از پیشرفته ترین قطعات نیمه هادی جهان را تولید می کند.

وحدت در پاسخ به این سوال که آیا گوگل در حال بررسی تدابیر امنیتی در برابر بدترین سناریو در ژئوپلیتیک چین و تایوان است، گفت: ما قطعا برای چنین رویدادهایی آماده هستیم و آنها را در نظر می گیریم، اما امیدواریم نیازی به اقدام در این مورد نباشد. “راست باشد.

محافظت در برابر این خطرات دلیل اصلی اختصاص 52 میلیارد دلار بودجه توسط کاخ سفید در قانون CHIPS به شرکت هایی است که کارخانه های تولید تراشه در ایالات متحده می سازند. تا به امروز، اینتل، TSMC و سامسونگ بیشترین سرمایه را دریافت کرده اند.

آیا گوگل در کار خود موفق خواهد شد؟

گوگل با وجود تمام خطرات، حرکت بزرگ دیگری در زمینه تراشه ها انجام داده و اعلام کرده است که اولین پردازنده این شرکت برای کاربردهای عمومی با نام Axion تا پایان سال عرضه خواهد شد.

یک تراشه گوگل به نام Axion
تراشه اکسیون گوگل

گوگل برای رقابت پردازنده ها دیر شده است. آمازون پردازنده Graviton خود را در سال 2018 و علی بابا تراشه سرور خود را در سال 2021 منتشر کردند. مایکروسافت نیز پردازنده خود را در نوامبر معرفی کرد.

وقتی از وحدت پرسیده شد که چرا گوگل زودتر شروع به ساخت پردازنده نکرده است، او گفت:

تمرکز ما روی حوزه‌ای بود که می‌توانستیم بیشترین ارزش را برای مشتریان خود فراهم کنیم و با TPU، رمزگذارهای ویدیویی و شبکه‌ها شروع کردیم. پس از عرضه این سخت افزار، ما معتقد بودیم که زمان عرضه پردازنده فرا رسیده است.»

همه این پردازنده‌های شرکت‌های غیرتراشه‌ای، از جمله گوگل، با استفاده از معماری تراشه ARM امکان‌پذیر شدند. معماری Said یک جایگزین سفارشی‌تر و کم مصرف‌تر است که نسبت به معماری x86 سنتی مورد استفاده اینتل و AMD در جلب توجه موفق‌تر بوده است. بهره وری انرژی بسیار مهم است. زیرا تا سال 2027، پیش بینی می شود که سرورهای هوش مصنوعی هر سال به اندازه کشوری مانند آرژانتین برق مصرف کنند. گزارش زیست‌محیطی اخیر گوگل نشان داد که انتشار گازهای گلخانه‌ای از سال 2019 تا 2023 نزدیک به 50 درصد افزایش یافته است که بخشی از آن به دلیل رشد مراکز داده برای تقویت هوش مصنوعی است.

اگر تراشه های طراحی شده برای استفاده از هوش مصنوعی کم قدرت نبودند. اعداد و ارقام مربوط به آسیب های زیست محیطی بسیار بیشتر از مقادیر ذکر شده است. وحدت در این باره چنین گفت:

ما شبانه روز برای کاهش انتشار کربن از فعالیت‌های زیرساختی خود کار می‌کنیم و در تلاش هستیم تا انتشار گازهای گلخانه‌ای را صفر کنیم.»

خنک کردن سرورها برای آموزش و اجرای هوش مصنوعی نیاز به آب زیادی دارد. به همین دلیل، TPU نسل سوم گوگل شروع به استفاده از خنک کننده مستقیم به تراشه کرد که آب کمتری مصرف می کند. این روش، که در آن مایع خنک کننده به طور مستقیم در اطراف صفحه تراشه حرکت می کند، روشی است که توسط Nvidia برای خنک کردن GPU Blackwell استفاده می شود.

با وجود چالش‌های فراوان، از ژئوپلیتیک گرفته تا برق و آب، گوگل همچنان متعهد به ارائه ابزارهای مولد هوش مصنوعی و ساخت تراشه‌های خود است.

وحدت در این باره چنین گفته است:

من هرگز عزم گوگل را ندیده‌ام، و شتاب این شرکت هرگز کند نشده است و سخت‌افزار نقش مهمی در این امر ایفا خواهد کرد.

Rate this post

درباره‌ی جاوید گرشاسبی

Avatar photo
علاقه زیادم به دیجیتال مارکتینگ باعث شد تا همیار وب را راه اندازی کنم. به نوشتن هم علاقه زیادی دارم و سعی می کنم با مقالاتی که منتشر می کنم نیازتون رو برطرف کنم. تمام محتویات سایت از تجربیات شخصی خودم هست و هدف اصلیم انتقال آن ها به شماست.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

This site uses Akismet to reduce spam. Learn how your comment data is processed.