השבב החדש מיוצר ב-TSMC, כולל 216GB זיכרון HBM3e ומיועד להריץ מודלים בקנה מידה גדול — אבל מגיע אחרי עיכובים, כשמיקרוסופט עדיין תלויה ב-GPU של אנבידיה
מיקרוסופט הכריזה ב-26 בינואר 2026 על Maia 200, הדור השני של שבב ה-AI הפנימי שלה, שמוגדר כמאיץ ייעודי למשימות Inference (הסקה) – שלב “הרצת” המודל והפקת התשובה בפועל. לפי החברה, המטרה המרכזית היא לשפר את הכלכלה של יצירת טוקנים (token generation) בקנה מידה ענני: יותר ביצועים לכל שקל, ופחות תלות בתשתיות חיצוניות יקרות. (The Official Microsoft Blog)
בעוד שבשנים האחרונות הדיון הציבורי נסב סביב אימון מודלים (Training), אצל ספקיות הענן ההוצאה המצטברת הולכת ונוטה יותר לכיוון ההסקה: כל שאילתה בצ’אטבוט, יצירת תמונה או קוד – מתורגמת לעומס רציף על חוות שרתים. לכן השוק כולו מחפש מאיצים שמכוונים ליעילות אנרגטית ועלות תפעול נמוכה, ולא רק לשיא ביצועים תאורטי. (TechCrunch)
מה יש בתוך Maia 200
בפוסט הרשמי של מיקרוסופט נמסר כי Maia 200 מיוצר בתהליך 3 נ״מ של TSMC, כולל יותר מ-140 מיליארד טרנזיסטורים, ומביא ליבה חישובית עם תמיכה טבעית ב-FP8/FP4 (דיוקים נמוכים שנפוצים בהרצת מודלים). החברה מפרטת גם את מעטפת הביצועים: מעל 10 petaFLOPS ב-FP4 ו-מעל 5 petaFLOPS ב-FP8, בתוך מעטפת צריכת חשמל של 750W לשבב.
בצד הזיכרון, מיקרוסופט מצהירה על 216GB HBM3e עם רוחב פס של 7TB/s, לצד 272MB SRAM על־השבב – רכיב שנועד להקטין צווארי בקבוק בהאכלת המודל בנתונים.
אחד הדגשים הבולטים בהכרזה הוא התפיסה המערכתית. מיקרוסופט אומרת ש-Maia 200 בנוי לסקייל־אפ על גבי Ethernet סטנדרטי (ולא בד־פרופריייטרי), עם שכבת תעבורה ורכיב תקשורת משולב שנועדו להוריד עלות כוללת ולשמור על אמינות. החברה מציינת 2.8TB/s של רוחב פס דו־כיווני לרשת הסקייל־אפ, ותמיכה בעבודה “קולקטיבית” עד 6,144 מאיצים באשכול. בתוך “מגש” (tray) אחד, ארבעה מאיצים מחוברים זה לזה בקישורים ישירים כדי לשמור תקשורת מקומית מהירה.
איפה זה שם את מיקרוסופט מול אנבידיה, גוגל ואמזון
מיקרוסופט מציגה את Maia 200 כ”הסיליקון הראשון־צד (first-party) החזק ביותר” מבין ספקיות הענן, וטוענת ליתרון מול Trainium של אמזון ו-TPU של גוגל במדדים מסוימים (כולל FP4/FP8), אך בשלב זה מדובר בטענות יצרן שטרם קיבלו אימות ציבורי מלא בבנצ’מרקים בלתי תלויים.
ההקשר חשוב: כבר בקיץ 2025 דווח שפיתוח הדור הבא של Maia התעכב, בין היתר בגלל שינויי תכנון, מגבלות כוח אדם ותחלופה, ושדחיית הייצור ההמוני גלשה ל-2026. כלומר – Maia 200 מגיעה אחרי “חבלי לידה”, ובזמן שיריבות הענן צברו ניסיון בדורות קודמים של שבבים פנימיים.
גם כעת, השוק מעריך שמיקרוסופט לא “חותכת” את אנבידיה בטווח הקצר: תגובת המשקיעים הייתה רגועה יחסית, ובארונ’ס ציינו שמניית אנבידיה לא נחלשה בעקבות ההכרזה, בין היתר משום שההנחה היא שהוצאות הענק על תשתיות AI יימשכו – גם אם חלק מהעומס יעבור בהדרגה לשבבים פנימיים.
פריסה, שימושים וזמינות
מיקרוסופט אומרת שהשבב כבר נפרס באזור הדאטה־סנטרים US Central ליד דה־מויין, איווה, ושאזור US West 3 ליד פיניקס “הבא בתור”, עם הרחבה בהמשך לאזורים נוספים. עוד נמסר כי Maia 200 מיועד לשרת מספר מודלים ושירותים – כולל Microsoft Foundry ו-Microsoft 365 Copilot – ואף יפעיל “מודלים מהדור האחרון GPT-5.2” של OpenAI על התשתית של החברה. במקביל, מיקרוסופט מציגה תצוגה מוקדמת (preview) ל-Maia SDK עם כלי פיתוח ואופטימיזציה (כולל אינטגרציה ל-PyTorch ותמיכה ב-Triton).























