در آزمایشگاهی در مقر گوگل در مانتین ویو، کالیفرنیا، صدها قفسه سرور در راهروهای متعدد کار میکنند و وظایفی را بسیار کمتر از کارهایی که در راهاندازی موتور جستجوی اصلی جهان انجام میدهند، انجام میدهند. در عوض، این سرورهای رک تستهایی را بر روی ریزتراشههای خود گوگل به نام انجام میدهند پردازنده تانسور (TPU) هستند
پردازشگرهای تنسور گوگل آنها که در اصل برای مدیریت حجم کار داخلی آموزش دیده بودند، از سال 2018 در دسترس مشتریان ابری قرار گرفتند. اپل در ماه جولای اعلام کرد که ماژول های پردازنده Tensor برای آموزش مدل های هوش مصنوعی که در قلب پلتفرم هوش مصنوعی قرار دارد هوش اپل همچنین از گوگل برای آموزش و پیاده سازی استفاده می کنند ربات چت جمینا به پردازنده های تانسوری متکی است.
دانیل نیومن، مدیرعامل گروه Futurum، در مورد رقابت بین انویدیا و گوگل در آموزش هوش مصنوعی چنین می گوید:
یک باور اساسی در جهان وجود دارد که تمام مدلهای اصلی زبان هوش مصنوعی در Nvidia آموزش داده شدهاند. انویدیا بدون شک مسئول بخش بزرگی از حجم یادگیری هوش مصنوعی است. اما گوگل نیز مسیر خود را در این زمینه انتخاب کرده و از زمان عرضه تراشه های ابری سفارشی گوگل در سال 2015 روی آن ها کار می کند.
جایگاه گوگل در تولید تراشه های ابری سفارشی هوش مصنوعی

گوگل اولین ارائه دهنده خدمات ابری بود که تراشه های هوش مصنوعی سفارشی ایجاد کرد. سه سال بعد، اولین وب سرویس آمازون یک تراشه ابری با هوش مصنوعی خودش را معرفی کرد یعنی اینفرنتیا. اولین تراشه هوش مصنوعی سفارشی مایکروسافت، Maia، تا اواخر سال 2023 رونمایی نشد.
اما اول بودن در زمینه تراشه های هوش مصنوعی به معنای کسب جایگاه برتر در رقابت عمومی است هوش مصنوعی مولد گوگل به دلیل انتشار محصولات ناموفق با انتقاداتی مواجه شده است و در نتیجه جمینا بیش از یک سال پس از ChatGPT منتشر شد.
با این حال، Google Cloud به لطف معرفی محصولات خود در زمینه هوش مصنوعی شتاب بیشتری گرفته است. شرکت مادر گوگل، آلفابت، گزارش داد که درآمد ابری آن در سه ماهه اخیر 29 درصد افزایش یافته است و برای اولین بار از 10 میلیارد دلار درآمد سه ماهه فراتر رفته است.
نیومن در این مورد چنین گفت:
“عصر ابری هوش مصنوعی به طور کامل نحوه دیده شدن شرکت ها را تغییر داده است و این تمایز سیلیکونی (تمایز در تولید تراشه) یا به عبارت دیگر خود پردازنده ممکن است یکی از بزرگترین دلایل قرار گرفتن گوگل در جایگاه سوم به دلیل ابر خود باشد. تواناییهای اطلاعاتی باید به سطحی برابر با دو شرکت ابری دیگر و حتی به جایگاه بالاتری برسد.
در ماه جولای، CNBC برای اولین بار از آزمایشگاه تراشه های گوگل بازدید کرد و با امین وحدت، رئیس بخش تراشه های ابری سفارشی مصاحبه کرد. زمانی که گوگل برای اولین بار در سال 2014 ایده ساخت تراشه را مطرح کرد، او در این شرکت بود.

وحدت در مصاحبه خود در این تور گفت:
همه چیز با یک آزمایش فکری ساده اما قدرتمند شروع شد. تعدادی از مدیران کسب و کار این سوال را مطرح کردند: اگر کاربران گوگل فقط 30 ثانیه در روز از طریق صدا با گوگل تعامل داشته باشند چه اتفاقی می افتد؟ چقدر قدرت محاسباتی برای پشتیبانی از کاربران خود نیاز داریم؟”
در آن زمان، طبق برآورد کارشناسان، گوگل مجبور بود تعداد رایانه های موجود در مراکز داده خود را دو برابر کند. بنابراین آنها به دنبال یک راه حل اساسی برای ارائه قدرت پردازش مورد نیاز گوگل بودند.
وحدت در این باره چنین گفته است:
ما متوجه شدیم که میتوانیم سختافزار سفارشی، نه سختافزار عمومی، بلکه سختافزار سفارشی (در این مورد پردازندههای تانسور) بسازیم تا از کاربران بسیار بهتر پشتیبانی کند. در واقع، 100 برابر موثرتر از نگهداری تحت شرایط دیگر است.”
مراکز داده گوگل همچنان به واحدهای پردازش مرکزی عمومی (CPU) و پردازنده های گرافیکی انویدیا (GPU) متکی بر. واحدهای پردازش تنسور گوگل نوع دیگری از تراشه ها هستند که به آن ها می گویند مدار مجتمع مخصوص برنامه (ASIC) که برای اهداف خاص سفارشی شده اند. TPU بر هوش مصنوعی تمرکز دارد. گوگل همچنین یک ASIC متمرکز بر ویدئو به نام واحد کدگذاری ویدئو (VCU) ساخته است.
گوگل همچنین در حال ساخت تراشه های سفارشی برای دستگاه های خود با رویکردی مشابه با استراتژی سیلیکونی سفارشی اپل است. تراشه تانسور G4 نیروی محرکه پیکسل 9 جدید گوگل با قابلیتهای هوش مصنوعی و تراشه جدید A1، نیروی محرکه Pixel Buds Pro 2 است.
با این حال، TPU گوگل را متمایز می کند. این پردازنده اولین پردازنده در نوع خود بود که در سال 2015 عرضه شد. طبق گزارش گروه FutureChrome، پردازندههای Tensor همچنان در میان شتابدهندههای هوش مصنوعی ابری سفارشی با 58 درصد سهم بازار، بزرگترین هستند.
گوگل واژه واحد پردازش تانسور را بر اساس عبارت جبری تانسور ابداع کرد که به ضرب ماتریس در مقیاس بزرگ اشاره دارد که برای برنامه های کاربردی سریع و پیشرفته هوش مصنوعی رخ می دهد.
با انتشار دومین TPU در سال 2018، گوگل تمرکز خود را از استنتاج به آموزش مدل های هوش مصنوعی تغییر داد.
استیسی روزگون، تحلیلگر ارشد نیمه هادی در Bernstein Research، گفت:
پردازندههای گرافیکی قابل برنامهریزی و انعطافپذیرتر هستند. اما عرضه آنها محدود است.”
رونق هوش مصنوعی باعث افزایش ارزش سهام انویدیا شده است. ارزش بازار این شرکت در ژوئن به 3 تریلیون دلار رسید که بیشتر از ارزش بازار آلفابت بود. این در حالی بود که گوگل در حال رقابت با اپل و مایکروسافت برای کسب جایگاه ارزشمندترین شرکت جهان بود.
نیومن در این مورد چنین گفت:
اگر منصف باشیم، این شتابدهندههای اختصاصی هوش مصنوعی به اندازه پلتفرم انویدیا انعطافپذیر یا قدرتمند نیستند و این چیزی است که بازار منتظر دیدن آن است: آیا کسی میتواند در این فضا رقابت کند؟
اکنون که میدانیم اپل از واحدهای پردازش تنسور گوگل برای آموزش مدلهای هوش مصنوعی خود استفاده میکند، آزمایش واقعی زمانی خواهد بود که ویژگیهای هوش مصنوعی گفته شده در سال آینده به طور کامل در دستگاههای آیفون و مک عرضه شود.
همکاری گوگل با Broadcom و TSMC
ایجاد جایگزین های مناسب برای موتورهای هوش مصنوعی انویدیا کار ساده ای نیست. نسل ششم TPU گوگل با نام Trillium قرار است اواخر امسال عرضه شود.

راسگون در این مورد گفته است:
«توسعه جایگزینهای مناسب برای موتورهای هوش مصنوعی گران و دشوار است. این کاری نیست که همه بتوانند انجام دهند. اما این مراکز داده بزرگ توانایی، پول و منابع لازم برای طی کردن این مسیر را دارند.”
این فرآیند آنقدر پیچیده و پرهزینه است که حتی مراکز داده بزرگ نیز نمی توانند آن را خودشان انجام دهند. از زمان راه اندازی اولین TPU، گوگل با Broadcom، یک توسعه دهنده تراشه که به Meta Hamm در طراحی تراشه های هوش مصنوعی کمک می کند، شریک شده است. بارداکام ادعا می کند که بیش از 3 میلیارد دلار برای این همکاری ها هزینه کرده است.
راسگون در این مورد گفته است:
«برادکام تمام تجهیزات جانبی را می سازد. این شرکت وظایف مربوط به دریافت ورودی و ارائه خروجی، وظایف مدارهای فرستنده گیرنده تبدیل داده های موازی به سریال و بالعکس و سایر فعالیت های کامپیوتری را انجام می دهد. Broadcom همچنین مسئول ایجاد حفاظت برای مدار است.
در مرحله بعد طرح نهایی به کارخانه های تولیدی ارسال می شود. این کارخانه ها متعلق به بزرگترین سازنده تراشه در جهان TSMC هستند که 92 درصد از پیشرفته ترین قطعات نیمه هادی جهان را تولید می کند.
وحدت در پاسخ به این سوال که آیا گوگل در حال بررسی تدابیر امنیتی در برابر بدترین سناریو در ژئوپلیتیک چین و تایوان است، گفت: ما قطعا برای چنین رویدادهایی آماده هستیم و آنها را در نظر می گیریم، اما امیدواریم نیازی به اقدام در این مورد نباشد. “راست باشد.
محافظت در برابر این خطرات دلیل اصلی اختصاص 52 میلیارد دلار بودجه توسط کاخ سفید در قانون CHIPS به شرکت هایی است که کارخانه های تولید تراشه در ایالات متحده می سازند. تا به امروز، اینتل، TSMC و سامسونگ بیشترین سرمایه را دریافت کرده اند.
آیا گوگل در کار خود موفق خواهد شد؟
گوگل با وجود تمام خطرات، حرکت بزرگ دیگری در زمینه تراشه ها انجام داده و اعلام کرده است که اولین پردازنده این شرکت برای کاربردهای عمومی با نام Axion تا پایان سال عرضه خواهد شد.

گوگل برای رقابت پردازنده ها دیر شده است. آمازون پردازنده Graviton خود را در سال 2018 و علی بابا تراشه سرور خود را در سال 2021 منتشر کردند. مایکروسافت نیز پردازنده خود را در نوامبر معرفی کرد.
وقتی از وحدت پرسیده شد که چرا گوگل زودتر شروع به ساخت پردازنده نکرده است، او گفت:
تمرکز ما روی حوزهای بود که میتوانستیم بیشترین ارزش را برای مشتریان خود فراهم کنیم و با TPU، رمزگذارهای ویدیویی و شبکهها شروع کردیم. پس از عرضه این سخت افزار، ما معتقد بودیم که زمان عرضه پردازنده فرا رسیده است.»
همه این پردازندههای شرکتهای غیرتراشهای، از جمله گوگل، با استفاده از معماری تراشه ARM امکانپذیر شدند. معماری Said یک جایگزین سفارشیتر و کم مصرفتر است که نسبت به معماری x86 سنتی مورد استفاده اینتل و AMD در جلب توجه موفقتر بوده است. بهره وری انرژی بسیار مهم است. زیرا تا سال 2027، پیش بینی می شود که سرورهای هوش مصنوعی هر سال به اندازه کشوری مانند آرژانتین برق مصرف کنند. گزارش زیستمحیطی اخیر گوگل نشان داد که انتشار گازهای گلخانهای از سال 2019 تا 2023 نزدیک به 50 درصد افزایش یافته است که بخشی از آن به دلیل رشد مراکز داده برای تقویت هوش مصنوعی است.
اگر تراشه های طراحی شده برای استفاده از هوش مصنوعی کم قدرت نبودند. اعداد و ارقام مربوط به آسیب های زیست محیطی بسیار بیشتر از مقادیر ذکر شده است. وحدت در این باره چنین گفت:
ما شبانه روز برای کاهش انتشار کربن از فعالیتهای زیرساختی خود کار میکنیم و در تلاش هستیم تا انتشار گازهای گلخانهای را صفر کنیم.»
خنک کردن سرورها برای آموزش و اجرای هوش مصنوعی نیاز به آب زیادی دارد. به همین دلیل، TPU نسل سوم گوگل شروع به استفاده از خنک کننده مستقیم به تراشه کرد که آب کمتری مصرف می کند. این روش، که در آن مایع خنک کننده به طور مستقیم در اطراف صفحه تراشه حرکت می کند، روشی است که توسط Nvidia برای خنک کردن GPU Blackwell استفاده می شود.
با وجود چالشهای فراوان، از ژئوپلیتیک گرفته تا برق و آب، گوگل همچنان متعهد به ارائه ابزارهای مولد هوش مصنوعی و ساخت تراشههای خود است.
وحدت در این باره چنین گفته است:
من هرگز عزم گوگل را ندیدهام، و شتاب این شرکت هرگز کند نشده است و سختافزار نقش مهمی در این امر ایفا خواهد کرد.