ארכיון מרכזי נתונים - Chiportal https://chiportal.co.il/tag/מרכזי-נתונים/ The Largest tech news in Israel – Chiportal, semiconductor, artificial intelligence, Quantum computing, Automotive, microelectronics, mil tech , green technologies, Israeli high tech, IOT, 5G Wed, 21 Jan 2026 08:19:02 +0000 he-IL hourly 1 https://wordpress.org/?v=6.8.3 https://chiportal.co.il/wp-content/uploads/2019/12/cropped-chiportal-fav-1-32x32.png ארכיון מרכזי נתונים - Chiportal https://chiportal.co.il/tag/מרכזי-נתונים/ 32 32 דוח Benzinga: מיקרון מציגה מכפילים נמוכים וצמיחת הכנסות גבוהה מול ענף השבבים https://chiportal.co.il/micron-industry-comparison-benzinga-2026/ https://chiportal.co.il/micron-industry-comparison-benzinga-2026/#respond Tue, 20 Jan 2026 22:12:00 +0000 https://chiportal.co.il/?p=49332 ניתוח השוואתי מ-20-1-2026 מצביע על P/E של 34.48, צמיחת הכנסות של 56.65% ומינוף נמוך יחסית – לצד פערי תמחור חריגים בענף ב־20-1-2026 פרסמה Benzinga ניתוח השוואתי אוטומטי שממקם את מיקרון (Micron Technology, סימול MU) מול שורה של מתחרות בענף השבבים וציוד הייצור, על בסיס מדדי הערכת שווי וצמיחה פיננסית. מכפילים נמוכים יחסית לענף – אבל […]

הפוסט דוח Benzinga: מיקרון מציגה מכפילים נמוכים וצמיחת הכנסות גבוהה מול ענף השבבים הופיע לראשונה ב-Chiportal.

]]>
ניתוח השוואתי מ-20-1-2026 מצביע על P/E של 34.48, צמיחת הכנסות של 56.65% ומינוף נמוך יחסית – לצד פערי תמחור חריגים בענף

ב־20-1-2026 פרסמה Benzinga ניתוח השוואתי אוטומטי שממקם את מיקרון (Micron Technology, סימול MU) מול שורה של מתחרות בענף השבבים וציוד הייצור, על בסיס מדדי הערכת שווי וצמיחה פיננסית.

מכפילים נמוכים יחסית לענף – אבל לא “זולים” בכל מחיר

לפי השוואה תעשייתית של מיקרון, מכפיל הרווח (P/E) של מיקרון עומד על 34.48, לעומת ממוצע ענפי של 112.78 – פער שמבליט עד כמה המכפילים בענף מושפעים מחברות צמיחה ומערכי שווי גבוהים במיוחד. (בנזינגה)
גם מכפיל ההון (P/B) של מיקרון, 6.94, נמוך מממוצע הענף 9.73; ומכפיל המכירות (P/S) 9.68 נמוך מממוצע 12.8.

במילים פשוטות: לפי המדדים שבדוח, מיקרון מתומחרת “קרוב יותר לקרקע” מחלק מהשחקניות הבולטות בסקטור. לשם השוואה, אנבידיה מוצגת עם P/E של 46.10 ו-P/B של 38.07, בעוד AMD עם P/E של 121.38.

רווחיות וצמיחה: מעל הממוצע – עם דגש על זיכרון ומרכזי נתונים

בדוח נטען כי השוואה תעשייתית של מיקרון מציגה גם נקודות חוזק תפעוליות: תשואה על ההון (ROE) של 9.28% – מעל ממוצע ענפי של 5.21%.
מיקרון מדווחת על EBITDA של 8.35 מיליארד דולר ורווח גולמי של 7.65 מיליארד דולר – שניהם מעל ממוצעי הענף (6.7 ו-6.43 מיליארד דולר, בהתאמה).
במדד הצמיחה בהכנסות, מיקרון מוצגת עם 56.65%, לעומת 32.11% בממוצע הענף. במקביל, אנבידיה מוצגת עם 62.49% וברודקום עם 28.18%.

מינוף: יחס חוב להון נמוך מול חלק מהמתחרות

עוד מדד שמודגש הוא יחס חוב להון (Debt-to-Equity). לפי Benzinga, למיקרון יחס של 0.21, ונכתב שזה מצביע על פרופיל מינוף נמוך יחסית מול “ארבע המתחרות המובילות” שנבדקו בהקשר זה. (בנזינגה)

הערת מערכת: מדובר בסקירה כמותית מבוססת נתונים, אך לא בהמלצת השקעה. מכפילים וצמיחה בענף השבבים יכולים להשתנות במהירות בהתאם למחזוריות, תמחור זיכרון, ביקושי AI ומצב מאקרו.


למאמר באתר בנזינגה

הפוסט דוח Benzinga: מיקרון מציגה מכפילים נמוכים וצמיחת הכנסות גבוהה מול ענף השבבים הופיע לראשונה ב-Chiportal.

]]>
https://chiportal.co.il/micron-industry-comparison-benzinga-2026/feed/ 0
NewPhotonics מציגה צ'יפלט NPO בקצב 1.6T עם לייזר משולב למרכזי נתונים של AI https://chiportal.co.il/newphotonics-%d7%9e%d7%a6%d7%99%d7%92%d7%94-%d7%a6%d7%99%d7%a4%d7%9c%d7%98-npo-%d7%91%d7%a7%d7%a6%d7%91-1-6t-%d7%a2%d7%9d-%d7%9c%d7%99%d7%99%d7%96%d7%a8-%d7%9e%d7%a9%d7%95%d7%9c%d7%91-%d7%9c%d7%9e/ https://chiportal.co.il/newphotonics-%d7%9e%d7%a6%d7%99%d7%92%d7%94-%d7%a6%d7%99%d7%a4%d7%9c%d7%98-npo-%d7%91%d7%a7%d7%a6%d7%91-1-6t-%d7%a2%d7%9d-%d7%9c%d7%99%d7%99%d7%96%d7%a8-%d7%9e%d7%a9%d7%95%d7%9c%d7%91-%d7%9c%d7%9e/#respond Wed, 14 Jan 2026 22:17:00 +0000 https://chiportal.co.il/?p=49281 ה־NPC50503 כולל מעבד אות אופטי OSPic ותמיכה ב־224Gbps PAM4, ויוצג בהדגמה פרטית בכנס OFC בלוס אנג'לס במרץ 2026

הפוסט NewPhotonics מציגה צ'יפלט NPO בקצב 1.6T עם לייזר משולב למרכזי נתונים של AI הופיע לראשונה ב-Chiportal.

]]>
ה־NPC50503 כולל מעבד אות אופטי OSPic ותמיכה ב־224Gbps PAM4, ויוצג בהדגמה פרטית בכנס OFC בלוס אנג'לס במרץ 2026

חברת NewPhotonics (ניופוטוניקס) מתל אביב הכריזה ב־13-1-2026 על NPC50503 – משדר אופטי (transmitter) בפורמט צ'יפלט ל־Near-Packaged Optics ‏(NPO), הכולל לייזר משולב ומעבד אות אופטי OSPic™. לפי החברה, מדובר בפתרון ראשון מסוגו בקצב 1.6T שתוכנן במיוחד לארכיטקטורות NPO “ניתנות לשירות” (serviceable), עם דגש על צריכת הספק נמוכה ויכולת פעולה הדדית (interoperability) בסביבות חיבורי־על של מערכי בינה מלאכותית.

אופטיקה “צמודה לחישוב” כדי להוריד הספק ולשפר שלמות אות

הרעיון שמאחורי NPO הוא להצמיד את האופטיקה פיזית קרוב יותר למאיצים (GPU/AI accelerators), כדי לצמצם את מגבלות החיבור החשמלי במהירויות של מאות גיגה־ביט לשנייה לערוץ. NewPhotonics מציינת שהצ'יפלט החדש מיועד להטמעה באריזות קומפקטיות לצד המאיצים, ומשלב כלי תכנות פוטוני בשם SmartPIC™ שמטרתו, לדבריה, לפצות על פגמים/הנחתות חשמליות ולשפר ביצועים במבנים קטנים של co-packaging. (PR Newswire)

מה כולל ה־NPC50503

בהודעה נמסרו כמה מאפיינים מרכזיים של הצ'יפלט, בהם: לייזרים משולבים “בהטרוגניות” עם יעילות צימוד גבוהה; אריזה מסוג flip-chip BGA שנועדה לפשט שלבי הרכבה מורכבים; תמיכה ב־224Gbps PAM4 ותאימות ל־IEEE 802.3dj; שיפור של 8dB בתקציב קישור RF מעבר ל“קו הבסיס” של 21dB לערוץ ארוך; ניטור הספק יציאה לכל ערוץ ואפשרות השבתה (disable); ותכן ייחוס לשילוב RF/אופטי. (PR Newswire)

ד"רון טל, סמנכ"ל בכיר ומנהל כללי בחברה, אמר כי כאשר מערכות AI “דוחפות ל־200Gbps לערוץ ומעלה”, דרישות כמו יעילות הספק, שלמות אות, יכולת שירות ושליטה תפעולית הופכות קריטיות, וכי הצ'יפלט החדש נועד להביא את יתרונות האופטיקה המתקדמת “ישירות סמוך לחישוב”.

הדגמה ב־OFC בלוס אנג'לס במרץ

NewPhotonics מסרה שה־NPC50503 יוצג בהדגמה פרטית בכנס OFC בלוס אנג'לס במהלך חודש מרץ. לפי אתר הכנס, OFC 2026 יתקיים במרכז הכנסים של לוס אנג'לס: הוועידה הטכנית בין 15–19 במרץ 2026, ותערוכת החברות בין 17–19 במרץ 2026.

NewPhotonics היא חברת שבבים “ללא מפעל” (fabless) שמפתחת שבבים פוטוניים (PICs) עם עיבוד אות אופטי, לשימוש הן באופטיקה נשלפת (pluggables) והן בפתרונות co-packaged optics עבור קישוריות scale-out ו־scale-up במרכזי נתונים בעידן ה־AI.

הפוסט NewPhotonics מציגה צ'יפלט NPO בקצב 1.6T עם לייזר משולב למרכזי נתונים של AI הופיע לראשונה ב-Chiportal.

]]>
https://chiportal.co.il/newphotonics-%d7%9e%d7%a6%d7%99%d7%92%d7%94-%d7%a6%d7%99%d7%a4%d7%9c%d7%98-npo-%d7%91%d7%a7%d7%a6%d7%91-1-6t-%d7%a2%d7%9d-%d7%9c%d7%99%d7%99%d7%96%d7%a8-%d7%9e%d7%a9%d7%95%d7%9c%d7%91-%d7%9c%d7%9e/feed/ 0
המרוץ לשבבי בינה מלאכותית: קיידנס מציגה אקוסיסטם צ׳יפלטים “ממפרט ועד אריזה” עם סמסונג Foundry ו-Arm https://chiportal.co.il/%d7%94%d7%9e%d7%a8%d7%95%d7%a5-%d7%9c%d7%a9%d7%91%d7%91%d7%99-%d7%91%d7%99%d7%a0%d7%94-%d7%9e%d7%9c%d7%90%d7%9b%d7%95%d7%aa%d7%99%d7%aa-%d7%a7%d7%99%d7%99%d7%93%d7%a0%d7%a1-%d7%9e%d7%a6%d7%99%d7%92/ https://chiportal.co.il/%d7%94%d7%9e%d7%a8%d7%95%d7%a5-%d7%9c%d7%a9%d7%91%d7%91%d7%99-%d7%91%d7%99%d7%a0%d7%94-%d7%9e%d7%9c%d7%90%d7%9b%d7%95%d7%aa%d7%99%d7%aa-%d7%a7%d7%99%d7%99%d7%93%d7%a0%d7%a1-%d7%9e%d7%a6%d7%99%d7%92/#respond Wed, 14 Jan 2026 22:27:00 +0000 https://chiportal.co.il/?p=49277 שיתוף פעולה עם Samsung Foundry ו-Arm נועד להקטין סיכון, להאיץ אימוץ צ׳יפלטים, ולספק נתיב עבודה מלא כולל תקני UCIe וכלי סימולציה ואמולציה

הפוסט המרוץ לשבבי בינה מלאכותית: קיידנס מציגה אקוסיסטם צ׳יפלטים “ממפרט ועד אריזה” עם סמסונג Foundry ו-Arm הופיע לראשונה ב-Chiportal.

]]>
שיתוף פעולה עם Samsung Foundry ו-Arm נועד להקטין סיכון, להאיץ אימוץ צ׳יפלטים, ולספק נתיב עבודה מלא כולל תקני UCIe וכלי סימולציה ואמולציה

קיידנס (Cadence) הכריזה על אקוסיסטם חדש בשם Chiplet Spec-to-Packaged Parts – תהליך עבודה שמתחיל במפרט ומסתיים ב״חלקים ארוזים״ של צ׳יפלטים, במטרה לצמצם מורכבות הנדסית ולהאיץ זמן הגעה לשוק עבור לקוחות שמפתחים מערכות מבוססות צ׳יפלטים ליישומי בינה מלאכותית פיזית, מרכזי נתונים וחישוב עתיר־ביצועים (HPC). לפי החברה, האקוסיסטם מתבסס על שילוב של תכנון SoC, אוטומציה מונחת־מפרט, סטנדרטים לקישוריות die-to-die ומערך שותפים שיספקו רכיבי IP “מאומתים מראש” כדי להקטין סיכון בפרויקטים מורכבים.

בין שותפי ה-IP הראשונים שנכללים באקוסיסטם מציינת קיידנס את Arm, Arteris, eMemory, M31 Technology, Silicon Creations ו-Trilinear Technologies, לצד שותפת אנליזת הסיליקון proteanTecs. המיקוד הוא לא רק בכלי תכנון, אלא גם ביכולת “לחבר” צ׳יפלטים ממקורות שונים לארכיטקטורה אחת, תוך שמירה על תאימות תקנים והבטחת יכולת פעולה הדדית (interoperability).

למה צ׳יפלטים הפכו למילת מפתח ב-AI וב-HPC

במקום שבב יחיד עצום, ארכיטקטורות Multi-die וצ׳יפלטים מחלקות מערכת לשבבים קטנים יותר – למשל חישוב, קישוריות I/O, זיכרון או מאיצים ייעודיים – שמרכיבים יחד במארז מתקדם. השיטה הזו אמורה לאפשר גמישות בתכנון, שדרוג רכיבים בלי לתכנן הכול מחדש, ולעיתים גם שיפור בתפוקה (yield) ובהיבטי עלות, במיוחד כשמורכבות התהליך והמסכות עולה.

בהודעה נמסר כי דיוויד גלסקו (David Glasco), סגן נשיא בקבוצת הפתרונות החישוביים בקיידנס, הגדיר את המהלך כנקודת ציון בדרך שבה התעשייה בונה מערכות: “ארכיטקטורות Multi-die וארכיטקטורות מבוססות צ׳יפלט הופכות להיות יותר ויותר קריטיות… עם העלייה במורכבות תהליכי הפיתוח”, וציין שהרעיון הוא לספק ללקוחות נתיב אימוץ “בסיכון נמוך” באמצעות IP משולב ומאומת מראש בתוך אקוסיסטם שותפים.

אב־טיפוס סיליקון עם Samsung Foundry ותת־מערכת Arm Zena

כדי להפוך את ההבטחה לפרקטיקה, קיידנס הודיעה על שיתוף פעולה עם Samsung Foundry לייצור הדגמת אב־טיפוס מבוסס סיליקון של פלטפורמת Physical AI chiplet® של החברה. לפי ההודעה, ההדגמה תשלב מראש רכיבי IP של שותפים ותיבנה בתהליך SF5A של Samsung Foundry.

במקביל, קיידנס ו-Arm מרחיבות שיתוף פעולה ותשלבנה את תת־המערכת Arm® Zena™ Compute Subsystem (CSS) ונכסי IP נוספים כדי לחזק את פלטפורמת הצ׳יפלט ואת ה-Chiplet Framework. בחברה מציגים את Zena CSS כרכיב שיכול להתאים במיוחד לדרישות של edge AI “תובעני” – כלי רכב, רובוטיקה ורחפנים – שבהם ביצועים, יעילות אנרגטית ואמינות הם תנאי סף, ולא בונוס.

בהודעה מצוטט סוראז׳ גז׳נדרה (Suraj Gajendra), סגן נשיא מוצרים ופתרונות ביחידת “בינה מלאכותית פיזית” ב-Arm, שאמר כי העלייה בדרישות החישוביות ברכב וברובוטיקה מחייבת פתרונות סקלביליים עם יעילות גבוהה ואבטחה פונקציונלית כבר משלב התכנון, וכי שילוב Zena CSS בפלטפורמת קיידנס נועד “להאיץ את אימוץ הצ׳יפלט” ולהפחית את מורכבות הפיתוח.

גם סמסונג הדגישה את הזווית התעשייתית: טאיז׳ונג סונג (Taejoong Song), סגן נשיא לתכנון טכנולוגיית פאונדרי ב-Samsung Electronics, אמר כי השותפות אמורה “להמחיש” את המיצוב של SF5A ולסייע ללקוחות לבנות נתיבים אמינים לפתרונות סיליקון חדשניים ליישומי בינה מלאכותית פיזיים, כולל תכנון מתקדם לעולם הרכב.

סטנדרטים וכלי EDA: החיבור בין תכנון, אימות ואריזה

קיידנס מציגה את האקוסיסטם כתהליך end-to-end שמחבר בין אוטומציה מונחת־מפרט לבין זרימת EDA מלאה: סימולציה עם Xcelium™ Logic Simulation, אמולציה עם Palladium® Z3 Enterprise Emulation Platform, ותכנון פיזי עם משוב בזמן אמת שמכוון את שלבי ה-place-and-route כדי לקצר סבבי איטרציה.

במישור התקינה והקישוריות, ההודעה מדגישה תאימות לגישות מערכתיות של Arm ולכיוון עתידי של OCP Foundational Chiplet System, לצד שימוש ב-UCIe™ (Universal Chiplet Interconnect Express) של קיידנס לקישוריות die-to-die לפי תקן תעשייתי. במקביל מצוין “פורטפוליו פרוטוקולים” שמיועד להאיץ אינטגרציה של ממשקים מתקדמים, בהם LPDDR6/5X, DDR5-MRDIMM, PCI Express 7.0 ו-HBM4.

בשורה התחתונה, המסר של קיידנס הוא שהאתגר בצ׳יפלטים כבר לא רק “להנדס את החתיכות”, אלא לנהל אקוסיסטם שלם: לבחור IP, לוודא תאימות תקנים, לאמת בזמן סביר, ולהגיע לאריזה מתקדמת בלי ליפול על תקלות אינטגרציה בשלב מאוחר. אם המודל של “ממפרט עד אריזה” אכן יצליח להפוך חלק גדול מההחלטות והבדיקות לנתיב מוגדר מראש – הוא יכול לקצר פרויקטים ולהקטין אי־ודאות, בעיקר בשוק שבו חלונות הזדמנות ב-AI וב-HPC מתקצרים.


הפוסט המרוץ לשבבי בינה מלאכותית: קיידנס מציגה אקוסיסטם צ׳יפלטים “ממפרט ועד אריזה” עם סמסונג Foundry ו-Arm הופיע לראשונה ב-Chiportal.

]]>
https://chiportal.co.il/%d7%94%d7%9e%d7%a8%d7%95%d7%a5-%d7%9c%d7%a9%d7%91%d7%91%d7%99-%d7%91%d7%99%d7%a0%d7%94-%d7%9e%d7%9c%d7%90%d7%9b%d7%95%d7%aa%d7%99%d7%aa-%d7%a7%d7%99%d7%99%d7%93%d7%a0%d7%a1-%d7%9e%d7%a6%d7%99%d7%92/feed/ 0
דוח: הכנסות המנויים של OpenAI עשויות להגיע ל־11.46 מיליארד דולר בשנה – והתחזית ל־2030 מטפסת עד כ־80 מיליארד https://chiportal.co.il/%d7%93%d7%95%d7%97-%d7%94%d7%9b%d7%a0%d7%a1%d7%95%d7%aa-%d7%94%d7%9e%d7%a0%d7%95%d7%99%d7%99%d7%9d-%d7%a9%d7%9c-openai-%d7%a2%d7%a9%d7%95%d7%99%d7%95%d7%aa-%d7%9c%d7%94%d7%92%d7%99%d7%a2-%d7%9c%d6%be/ https://chiportal.co.il/%d7%93%d7%95%d7%97-%d7%94%d7%9b%d7%a0%d7%a1%d7%95%d7%aa-%d7%94%d7%9e%d7%a0%d7%95%d7%99%d7%99%d7%9d-%d7%a9%d7%9c-openai-%d7%a2%d7%a9%d7%95%d7%99%d7%95%d7%aa-%d7%9c%d7%94%d7%92%d7%99%d7%a2-%d7%9c%d6%be/#respond Mon, 12 Jan 2026 22:05:00 +0000 https://chiportal.co.il/?p=49249 ניתוח של BestBrokers מעריך את הכנסות ChatGPT ממנויים מול עלות החשמל לעיבוד כ־2.5 מיליארד שאילתות ביום, ומדגיש את התלות בהנחות לגבי מספר המנויים וההכנסה הממוצעת למשתמש

הפוסט דוח: הכנסות המנויים של OpenAI עשויות להגיע ל־11.46 מיליארד דולר בשנה – והתחזית ל־2030 מטפסת עד כ־80 מיליארד הופיע לראשונה ב-Chiportal.

]]>
ניתוח של BestBrokers מעריך את הכנסות ChatGPT ממנויים מול עלות החשמל לעיבוד כ־2.5 מיליארד שאילתות ביום, ומדגיש את התלות בהנחות לגבי מספר המנויים וההכנסה הממוצעת למשתמש

דוח חדש של BestBrokers טוען כי OpenAI נמצאת בדרך להפוך לאחת מעסקי המנויים הגדולים בעולם: לפי חישובי צוות האנליזה של החברה, הכנסות ChatGPT ממנויים בתשלום עשויות לעמוד על כ־955 מיליון דולר בחודש – כ־11.46 מיליארד דולר בשנה – בהנחה שמספר המנויים המשלמים (35 מיליון) שדווח בתקשורת אכן נכון. (Reuters)

לצד התחזית להכנסות, הדוח מציב תמרור אזהרה סביב ההשפעה האנרגטית של שימוש המוני בבינה מלאכותית: לפי ההערכה, מענה על היקף פעילות של כ־2.5 מיליארד שאילתות ביום ידרוש כ־17.23 מיליארד קוט״ש בשנה (17.23 TWh). אם חשמל זה היה נרכש “על הנייר” לפי תעריפים אמריקניים ממוצעים, העלות השנתית הייתה מתקרבת לכ־2.4 מיליארד דולר – רק עבור החשמל הדרוש לשירות השאילתות. (Fast Company)

מאיפה מגיעים המספרים – ומהן נקודות החולשה

ב־BestBrokers מדגישים כי מדובר באמידה המבוססת על נתונים שנחשפו בפומבי, דיווחים בתקשורת והנחות “שמרניות” לגבי תמהיל תוכניות המנוי והתמחור. אחת הנקודות המרכזיות היא מספר המנויים המשלמים: רויטרס דיווחה (בהסתמך על The Information) כי נכון ליולי 2025 היו ל־OpenAI כ־35 מיליון משתמשים משלמים, וכי היעד הפנימי עשוי להגיע לכ־220 מיליון משלמים עד 2030. (Reuters)

גם היקף השימוש שמניע את חישוב החשמל נשען על דיווחים: TechCrunch ו־The Verge כתבו ביולי 2025, בהסתמך על מידע שנמסר ל־Axios, כי משתמשי ChatGPT שולחים כ־2.5 מיליארד “פרומפטים” ביום. (TechCrunch)

עם זאת, צריך להבחין בין “עלות חשמל תאורטית” לבין עלות תפעול כוללת בפועל. צריכת החשמל היא רק רכיב אחד בעלויות: תשתיות מחשוב, רכישת שרתים ומאיצים, קירור, שטחי דאטה־סנטר, קישוריות, כוח אדם, וכן עלויות מו״פ – אינם נכללים בחישוב החשמל עצמו. בנוסף, OpenAI אינה מפרסמת פירוט מלא של עלויות אנרגיה/תפעול לכל שאילתה, ולכן כל השוואה “דולר מול קוט״ש” תלויה מאוד במודל, בהנחות, ובשאלה איך מגדירים “שאילתה” (אורך, מודל, שימוש בכלים, יצירת תמונות, ועוד). (Fast Company)

2030: הכול תלוי ב־ARPU

הדוח מציג את שנת 2030 כנקודת מבחן: אם OpenAI אכן תגיע לכ־220 מיליון מנויים משלמים, ההכנסה השנתית ממנויים בלבד עשויה להגיע לעשרות מיליארדי דולרים – אך זה תלוי בהכנסה הממוצעת למשתמש (ARPU). לפי תרחישים שמציגים מחברי הדוח:
ב־ARPU של 20 דולר לחודש – כ־52.8 מיליארד דולר בשנה; ב־25 דולר – כ־66 מיליארד; וב־30 דולר – כ־79 מיליארד (בקירוב “כ־80 מיליארד”). (Fast Company)

הטענה המרכזית של BestBrokers היא שמודל המנויים לבדו עשוי לכסות בקלות יחסית את רכיב החשמל המחושב – ולכן, בקנה מידה גדול, ChatGPT יכול להתנהג כלכלית כמו פלטפורמת מנויים גלובלית “בסדר גודל של נטפליקס/ספוטיפיי”, לפחות ברמת ההכנסות. כאן חשוב לזכור: ההשוואה להיקפי הכנסות של ענקיות צריכה אינה בהכרח השוואה לרווחיות, שכן עולם הבינה המלאכותית נושא עלויות הון ותפעול חריגות וגדלות במהירות. (Fast Company)

למה זה מעניין גם מעבר ל־OpenAI

מעבר לסקרנות על “מי מרוויח כמה”, המסמך משתלב בשיח הציבורי בתחילת 2026 סביב אנרגיה, קיימות ועלויות תשתית של בינה מלאכותית: ככל שהשימוש גדל, כך גם צריכת החשמל והלחץ על תשתיות מחשוב. במקביל, דוחות וניתוחים פיננסיים מזהירים שהאקוסיסטם כולו יצטרך להמיר השקעות עתק בהקמת דאטה־סנטרים להכנסות עצומות כדי להצדיק תשואות. (Tom's Hardware)

הפוסט דוח: הכנסות המנויים של OpenAI עשויות להגיע ל־11.46 מיליארד דולר בשנה – והתחזית ל־2030 מטפסת עד כ־80 מיליארד הופיע לראשונה ב-Chiportal.

]]>
https://chiportal.co.il/%d7%93%d7%95%d7%97-%d7%94%d7%9b%d7%a0%d7%a1%d7%95%d7%aa-%d7%94%d7%9e%d7%a0%d7%95%d7%99%d7%99%d7%9d-%d7%a9%d7%9c-openai-%d7%a2%d7%a9%d7%95%d7%99%d7%95%d7%aa-%d7%9c%d7%94%d7%92%d7%99%d7%a2-%d7%9c%d6%be/feed/ 0
תחזית ל־2026: תעשיית השבבים צומחת בזכות AI ורכב, אך נשארת תנודתית https://chiportal.co.il/%d7%aa%d7%97%d7%96%d7%99%d7%aa-%d7%9c%d6%be2026-%d7%aa%d7%a2%d7%a9%d7%99%d7%99%d7%aa-%d7%94%d7%a9%d7%91%d7%91%d7%99%d7%9d-%d7%a6%d7%95%d7%9e%d7%97%d7%aa-%d7%91%d7%96%d7%9b%d7%95%d7%aa-ai-%d7%95%d7%a8/ https://chiportal.co.il/%d7%aa%d7%97%d7%96%d7%99%d7%aa-%d7%9c%d6%be2026-%d7%aa%d7%a2%d7%a9%d7%99%d7%99%d7%aa-%d7%94%d7%a9%d7%91%d7%91%d7%99%d7%9d-%d7%a6%d7%95%d7%9e%d7%97%d7%aa-%d7%91%d7%96%d7%9b%d7%95%d7%aa-ai-%d7%95%d7%a8/#respond Wed, 24 Dec 2025 22:38:00 +0000 https://chiportal.co.il/?p=49082 WSTS ו-PwC מצביעות על מסלול לכיוון טריליון דולר עד 2030; SEMI צופה שיאים חדשים בציוד הייצור

הפוסט תחזית ל־2026: תעשיית השבבים צומחת בזכות AI ורכב, אך נשארת תנודתית הופיע לראשונה ב-Chiportal.

]]>
WSTS ו-PwC מצביעות על מסלול לכיוון טריליון דולר עד 2030; SEMI צופה שיאים חדשים בציוד הייצור

הביקוש לשבבים ממשיך לעלות, בעיקר בגלל התרחבות תשתיות הבינה המלאכותית, שרתים ומרכזי נתונים, וגם בזכות המשך המעבר לרכב חשמלי ומערכות סיוע נהיגה. לפי תחזית WSTS (ארגון הסטטיסטיקה העולמי של תעשיית המוליכים למחצה), שוק השבבים העולמי עשוי להגיע ב־2026 לכ־975.8 מיליארד דולר – גידול של כ־9.5% לעומת 2025. (WSTS) לפי PwC, המגמה הזו עשויה להימשך עד סוף העשור: השוק צפוי לצמוח מכ־627 מיליארד דולר ב־2024 ליותר מטריליון דולר ב־2030 (CAGR של כ־8.6%), כשפלחי “שרתים ורשת” ורכב הם בין המנועים המהירים ביותר. (PwC)

AI משנה לא רק את הביקוש, אלא גם את תהליך הפיתוח

המרוץ ליכולות AI לא מתבטא רק בכמות השבבים, אלא גם באופן שבו מתכננים ומייצרים אותם. יותר צוותים משתמשים בכלי תוכנה מבוססי למידת מכונה כדי לייעל תכנון, לאתר חריגות מוקדם יותר, ולצמצם סבבי תיקון יקרים – חלק מהתמונה הרחבה של “AI בתוך שרשרת הערך” של תעשיית השבבים. במקביל, ככל שיורדים לצמתים מתקדמים (ובהמשך גם לשיטות ייצור חדשות ואריזה מתקדמת), התכנון והאימות נעשים מורכבים יותר, והעלות הכוללת של פיתוח שבב עולה בהתאם.

אריזה מתקדמת, צ’יפלטים ו”צוואר הבקבוק” של ציוד הייצור

גם אם תחזית תעשיית השבבים ל־2026 מצביעה על צמיחה, בפועל התעשייה מתמודדת עם מגבלות כושר ייצור ועם השקעות ענק בציוד. SEMI צופה שמכירות ציוד הייצור לשבבים ימשיכו לטפס ויגיעו לכ־145 מיליארד דולר ב־2026 ולכ־156 מיליארד דולר ב־2027 – שיא חדש – בין השאר בגלל השקעות ב־HBM, ביכולות לוגיקה מתקדמות, וגם בגלל אימוץ רחב יותר של אריזה מתקדמת. (SEMI) במקביל, דיווח רויטרס מצביע על כך שהשקעות בציוד לייצור וופרים עשויות לעלות ל־126 מיליארד דולר ב־2026, כאשר אסיה ממשיכה להוביל בהיקפי ההשקעה.

גיאופוליטיקה, חומרים וקיימות: “ההפתעות” לא נעלמות

לצד הצמיחה, 2026 מגיעה עם סיכונים שמוכרים היטב מהשנים האחרונות: מתחים גיאופוליטיים, מגבלות סחר ויצוא, ותלות בחומרי גלם ותשתיות (אנרגיה, מים, כימיקלים). PwC מדגישה שהשוק צומח מהר מהכלכלה העולמית וצפוי להגיע ליותר מטריליון דולר עד 2030, אבל דווקא בגלל החשיבות שלו – הוא גם חשוף יותר לזעזועים בשרשרת האספקה וללחצים סביבתיים ורגולטוריים. (PwC)

בשורה התחתונה, תחזית תעשיית השבבים ל־2026 נשענת על ביקוש חזק שמגיע מ־AI ומרכב, אבל היא לא מבטיחה “שנה שקטה”: העלויות בצמתים מתקדמים, התחרות על ציוד ויכולת אריזה מתקדמת, והסיכונים הגיאופוליטיים – כולם נשארים חלק מהמשחק.

הפוסט תחזית ל־2026: תעשיית השבבים צומחת בזכות AI ורכב, אך נשארת תנודתית הופיע לראשונה ב-Chiportal.

]]>
https://chiportal.co.il/%d7%aa%d7%97%d7%96%d7%99%d7%aa-%d7%9c%d6%be2026-%d7%aa%d7%a2%d7%a9%d7%99%d7%99%d7%aa-%d7%94%d7%a9%d7%91%d7%91%d7%99%d7%9d-%d7%a6%d7%95%d7%9e%d7%97%d7%aa-%d7%91%d7%96%d7%9b%d7%95%d7%aa-ai-%d7%95%d7%a8/feed/ 0
אנבידיה רוכשת את SchedMD, מפתחת Slurm — מתזמן הקוד הפתוח הנפוץ במחשבי־על וב-AI https://chiportal.co.il/%d7%90%d7%a0%d7%91%d7%99%d7%93%d7%99%d7%94-%d7%a8%d7%95%d7%9b%d7%a9%d7%aa-%d7%90%d7%aa-schedmd-%d7%9e%d7%a4%d7%aa%d7%97%d7%aa-slurm-%d7%9e%d7%aa%d7%96%d7%9e%d7%9f-%d7%94%d7%a7%d7%95%d7%93/ https://chiportal.co.il/%d7%90%d7%a0%d7%91%d7%99%d7%93%d7%99%d7%94-%d7%a8%d7%95%d7%9b%d7%a9%d7%aa-%d7%90%d7%aa-schedmd-%d7%9e%d7%a4%d7%aa%d7%97%d7%aa-slurm-%d7%9e%d7%aa%d7%96%d7%9e%d7%9f-%d7%94%d7%a7%d7%95%d7%93/#respond Tue, 16 Dec 2025 22:13:00 +0000 https://chiportal.co.il/?p=49017 החברה מתחייבת להמשיך לפתח ולהפיץ את Slurm כתוכנה פתוחה ונייטרלית לספקים; תנאי העסקה לא פורסמו

הפוסט אנבידיה רוכשת את SchedMD, מפתחת Slurm — מתזמן הקוד הפתוח הנפוץ במחשבי־על וב-AI הופיע לראשונה ב-Chiportal.

]]>
החברה מתחייבת להמשיך לפתח ולהפיץ את Slurm כתוכנה פתוחה ונייטרלית לספקים; תנאי העסקה לא פורסמו

אנבידיה הודיעה כי רכשה את חברת SchedMD, המפתחת המרכזית של Slurm — מערכת קוד פתוח לניהול עומסי עבודה ותזמון משימות במחשבי־על (HPC) ובאשכולות בינה מלאכותית. תנאי העסקה לא פורסמו.

 Slurm משמשת לתזמון, תור וניהול משאבים באשכולות מחשוב גדולים, שבהם אלפי משימות רצות במקביל ודורשות הקצאת ליבות עיבוד, זיכרון וגישה למאיצים. לפי אנבידיה, Slurm  נמצאת בשימוש בלמעלה ממחצית המערכות בעשירייה הראשונה ובמאה הראשונה של דירוג TOP500 של מחשבי־העל.

באנבידיה הדגישו כי בכוונתם להמשיך להפיץ ולפתח את Slurm כפתרון פתוח ונייטרלי לספקים (vendor-neutral),  כלומר כזה שאמור לפעול ולהישאר רלוונטי גם בסביבות הטרוגניות שאינן “כולן אנבידיה”. לפי רויטרס, הרכישה משתלבת במאמץ רחב יותר של החברה להעמיק את ההשקעות באקו־סיסטם של תוכנה וכלים סביב בינה מלאכותית, על רקע תחרות גוברת.

SchedMD  עצמה נוסדה ב-2010 בידי מפתחי Slurm, מוריס “מו” ג’ט ודני אובל, ובהמשך עברה מיוזמיה מליברמור, קליפורניה, לליהי, יוטה. באתר החברה מצוין כי היא מעסיקה כ-40 עובדים ומספקת לצד הקוד הפתוח גם שירותי תמיכה, תחזוקה והטמעה לארגונים גדולים. בין לקוחות החברה את CoreWeave ואת מרכז מחשבי־העל של ברצלונה (Barcelona Supercomputing Center). (

לרכישה עשויה להיות משמעות מעשית עבור גופי מחקר וחברות שמאמנים מודלים גדולים או מריצים תהליכי הסקה בקנה מידה גדול: המתזמן הוא “שכבת התשתית” שקובעת עד כמה האשכול מנוצל היטב, כמה מהר עבודות נכנסות לתור, ואיך מחלקים משאבים בין צוותים ופרויקטים. במקביל, עצם כניסתה של אנבידיה עמוק יותר לתוכנת התשתית עשויה לעורר בקהילת הקוד הפתוח שאלות על ממשל, קדימות פיצ’רים ותאימות ארוכת טווח — נקודה שאנבידיה ניסתה לנטרל מראש בהתחייבות לנייטרליות ולהמשך הפצה פתוחה

הפוסט אנבידיה רוכשת את SchedMD, מפתחת Slurm — מתזמן הקוד הפתוח הנפוץ במחשבי־על וב-AI הופיע לראשונה ב-Chiportal.

]]>
https://chiportal.co.il/%d7%90%d7%a0%d7%91%d7%99%d7%93%d7%99%d7%94-%d7%a8%d7%95%d7%9b%d7%a9%d7%aa-%d7%90%d7%aa-schedmd-%d7%9e%d7%a4%d7%aa%d7%97%d7%aa-slurm-%d7%9e%d7%aa%d7%96%d7%9e%d7%9f-%d7%94%d7%a7%d7%95%d7%93/feed/ 0
לקרב את המחשבים ליעילות האנרגטית של המוח https://chiportal.co.il/%d7%9e%d7%97%d7%a9%d7%91-%d7%a0%d7%95%d7%99%d7%a8%d7%95%d7%9e%d7%95%d7%a8%d7%a4%d7%99-%d7%93%d7%a8%d7%96%d7%93%d7%9f/ https://chiportal.co.il/%d7%9e%d7%97%d7%a9%d7%91-%d7%a0%d7%95%d7%99%d7%a8%d7%95%d7%9e%d7%95%d7%a8%d7%a4%d7%99-%d7%93%d7%a8%d7%96%d7%93%d7%9f/#respond Wed, 03 Dec 2025 15:24:55 +0000 https://chiportal.co.il/?p=48908 בכנס 2025 TSMC Europe OIP באמסטרדם הציג ראש הקתדרה Highly Parallel VLSI Systems ב-TU Dresden את המחשב הנורומורפי SpiNNaker-2 – מערכת עם מיליוני ליבות ARM, עיבוד אירועי ותכנון אנרגטי קיצוני, שנועדה להתקרב ליעילות של המוח האנושי בהרצת מודלי AI בזמן אמת

הפוסט לקרב את המחשבים ליעילות האנרגטית של המוח הופיע לראשונה ב-Chiportal.

]]>
בכנס 2025 TSMC Europe OIP באמסטרדם הציג ראש הקתדרה Highly Parallel VLSI Systems ב-TU Dresden את המחשב הנורומורפי SpiNNaker-2 – מערכת עם מיליוני ליבות ARM, עיבוד אירועי ותכנון אנרגטי קיצוני, שנועדה להתקרב ליעילות של המוח האנושי בהרצת מודלי AI בזמן אמת

המוח האנושי עדיין מנצח את מעבדי ה־AI בפער עצום – לא רק ביכולות, אלא בעיקר ביעילות האנרגטית. בהרצאה שנעלה את המושב על IoT ובינה מלאכותית בכנס 2025 TSMC Europe Open Innovation Platform (OIP) Ecosystem Forum באמסטרדם, הציג פרופ’ כריסטיאן מייר, ראש הקתדרה Highly Parallel VLSI Systems ב-TU Dresden, כיצד פרויקט המחשוב הנורומורפי SpiNNaker-2 מנסה להתקרב לביצועים של המוח, ולהריץ מודלים גדולים של בינה מלאכותית בזמן אמת – בעלות אנרגטית נמוכה בהרבה מזו של כרטיסי GPU קלאסיים.

מייר מוביל קבוצת מחקר של יותר מ־40 מהנדסים וחוקרים – מתכנני אנלוג ודיגיטל, אנשי אלגוריתמיקה ל-AI, ביוטכנולוגים ורובוטיקאים – שסביבה צמחו כמה ספין־אופים, ובהם Racyics, Siliconally, SpiNNcloud Systems ו-Silicon Matter. יחד מדובר באקו־סיסטם של יותר מ־250 אנשים. הקבוצה ביצעה בעשור האחרון עשרות טייפ־אאוטים של מערכות SoC מורכבות, מתהליכי 90 ננומטר ועד 22 ננומטר, המשמשים כ־30 קבוצות חיצוניות.

נקודת הפתיחה של מייר חדה: כיום יש פער של כ־שבעה סדרי גודל ביעילות האנרגטית בין המוח לבין חומרת ה-AI הטובה ביותר. לדבריו, כדי לבצע משימה חישובית מסוימת, המוח צורך בערך ‎10⁷‎ פחות אנרגיה מאשר מערכות אימון והסקה מודרניות. חלק מהפער הזה כבר מתחיל להיסגר באמצעים כמו זיכרון חישובי (in-/near-memory computing), חישוב בדיוק מופחת (reduced precision) ודילול סטטי של רשתות נוירונים (static sparsity). כל אחד מן הכיוונים הללו נותן בערך סדר גודל אחד של שיפור, יחד כשלושה סדרי גודל – “אבל עדיין נשארים לנו בערך ארבעה סדרי גודל באוויר”, כפי שהוא מנסח זאת. כדי לסגור אותם, צריך, לדבריו, ללמוד מהמוח עצמו.

המוח עובד בתדר נמוך יחסית – סדר גודל של מאה הרץ – אבל עם כ־80 מיליארד נוירונים שפועלים במקביל ובאופן א־סינכרוני. אין “טיק” גלובלי שמחכה שכולם יסיימו; מידע נכנס, משולב ומעובד כל הזמן. מערכות על־חישוב (HPC) קלאסיות, לעומת זאת, נתקעות על מגבלת אמדאל: גם אם מוסיפים עוד ועוד ליבות, חלק מהקוד נשאר סדרתי והאצה נעצרת. המוח פותר זאת בכך שהחישוב הוא אירועי וזמני – כל נוירון מגיב כשהוא צריך, לא כשמגיע תורו בשעון אחיד. זו גם נקודת המפתח לחיסכון האנרגטי: לא כל היחידות עובדות כל הזמן, אלא רק כאשר יש מידע רלוונטי.

כאן נכנסת לתמונה האסטרטגיה הכפולה שמייר הציג: שינוי ברמת האלגוריתם ושינוי ברמת החומרה. ברמת האלגוריתם, אחת הדוגמאות היא מודלים מסוג mixture-of-experts: במקום להפעיל בכל שאילתה את כל פרמטרי המודל, אפשר לבחור רק חלק זעיר מהרשת – למשל אלפית מן הנוירונים – בהתאם לתוכן השאילתה. תיאורטית, זה נותן שלושה סדרי גודל חיסכון באנרגיה, משום שרוב ה"נוירונים" במודל אינם נכנסים לפעולה. בפועל, על GPU רגיל אפשר לממש אולי סדר גודל אחד בלבד, משום שהמעבד לא בנוי לעבודה כל־כך דינמית וספרסית: גם כשהוא “מדלל” את הרשת, הוא עדיין משלם כמעט את כל מחיר הגישה לזיכרון והתקשורת.

לכן, טוען מייר, נדרשת גם חומרה חדשה – חומרה נורומורפית. השכבה הראשונה שהוא מציג היא שבבי Thin-Edge ASICs לעיבוד מקדים מהיר של רשתות עצביות בקצה הרשת. הרעיון: לא לשלוח לענן זרם גולמי של וידאו או חיישנים, אלא לבצע כבר בקצה חישוב עשיר – דחיסה, סאב־סמפולינג, חילוץ מאפיינים, סיווג ראשוני ורשתות חוזרות (RNN) פשוטות – ולהעביר למרכז רק ייצוג דחוס מאוד. בדוגמה שנתן: מצלמה אירועית (event-based) שמגיבה רק לשינויים בתמונה. צומת הקצה יכול להחליט “עכשיו מחפשים מכוניות” או “עכשיו מחפשים אופניים”, ולכן להפעיל רק את המאפיינים הרלוונטיים בתמונה ולהתמקד בזמן אמת רק באזורים מעניינים בסצנה.

מעל שכבת ה-Thin-Edge יושב המחשב הנורומורפי SpiNNaker-2 – מערך ענק של שבבים עם מאות ליבות ועשרות מאיצים נורומורפיים על כל שבב. לפי מייר ועמיתיו, המערכת השלם מיועדת להגיע לכ-10 מיליון ליבות ARM על פני כ־16 ארונות שרתים – שדרוג של פי עשרה לעומת הדור הראשון, SpiNNaker-1. כל שבב כולל לא רק ליבות כלליות, אלא גם מאיצים לרשתות עמוקות, חישוב הסתברותי, מקורות אקראיות ויחידות המתאימות במיוחד לרשתות "קופצות" (spiking neural networks). הזיכרון הפנימי בנוי כ-scratchpad גמיש שיכול לשמש בזמן ריצה כ-L1 או L2, לפי צורך. רשת-על-שבב ורשת התקשורת בין השבבים מעוצבות כך שחבילות אירועיות קטנות יגיעו לקצה השני של המכונה בתוך מילישנייה, כל עוד לא חוצים את מגבלת רוחב-הפס – דרישה קריטית כשמפעילים, למשל, צי של עשרות אלפי רובוטים עירוניים בזמן אמת ממרכז נתונים אחד.

כדי שהמחשב הזה יהיה באמת "פרופורציונלי לאירועים", נדרשה גם הנדסת אנרגיה קיצונית. מייר הסביר שהשבבים מתוכננים לפעול במתחים נמוכים מאוד, סביב חצי וולט ואף פחות, ובפינות תהליך של זליגה נמוכה – כדי להוריד את צריכת הסטנד-ביי כמעט לאפס. כך, כרטיס אחד של המערכת צורך אמנם כמה מאות ואט כשהוא פועל בעומס מלא, מספר דומה לזה של כרטיס NVIDIA A100, אך עומד על כמה ואטים בודדים במצב ממתין, לעומת עשרות רבות של ואטים ב-GPU קלאסי גם כשהוא “לא עושה כלום”. עבור עומסים אירועיים – מצלמות שמדי פעם "מתעוררות", חיישנים שמדווחים רק כשמשתנה משהו או מודל שפה גדול שלא כל הלקוחות מדברים איתו כל הזמן – המשמעות היא חיסכון משמעותי בעלות האנרגיה המצטברת.

המערכת כבר נמצאת בשירות לשורה של יישומים ניסיוניים ותעשייתיים. ספין-אוף החברה SpiNNcloud Systems משווקת מערכות מבוססות SpiNNaker-2 למרכזי מחקר ולחברות, בין היתר לחקר תרופות, רובוטיקה ועיבוד זמן-אמת של נתוני חישה בקנה מידה גדול. באפריל 2025 הודיעה TU Dresden כי מערכת SpiNNcloud בקמפוס נכנסה לפעולה עם כ-35 אלף שבבים ויותר מחמישה מיליון ליבות.

בסיום ההרצאה חזר מייר לנקודת המוצא: אם רוצים שבינה מלאכותית תתקרב באמת ליעילות של המוח, אי-אפשר רק "להאיץ" אלגוריתמים קיימים על חומרה קיימת. צריך לשאול בכל רמה – מהאלגוריתם, דרך האופן שבו מידע מיוצג ומועבר, ועד הארכיטקטורה הפיזית של השבב – איך המוח היה פותר את הבעיה בצורה א־סינכרונית, ספרסית ודינמית. רק שילוב כזה, לדבריו, יוכל לצמצם באמת את פער שבעת סדרי הגודל בין המוח האנושי למחשבי ה-AI של היום.

הפוסט לקרב את המחשבים ליעילות האנרגטית של המוח הופיע לראשונה ב-Chiportal.

]]>
https://chiportal.co.il/%d7%9e%d7%97%d7%a9%d7%91-%d7%a0%d7%95%d7%99%d7%a8%d7%95%d7%9e%d7%95%d7%a8%d7%a4%d7%99-%d7%93%d7%a8%d7%96%d7%93%d7%9f/feed/ 0
בכירים לשעבר בגוגל ובמטא גייסו 100 מיליון דולר ל-Majestic Labs הישראלית https://chiportal.co.il/%d7%91%d7%9b%d7%99%d7%a8%d7%99%d7%9d-%d7%9c%d7%a9%d7%a2%d7%91%d7%a8-%d7%91%d7%92%d7%95%d7%92%d7%9c-%d7%95%d7%91%d7%9e%d7%98%d7%90-%d7%92%d7%99%d7%99%d7%a1%d7%95-100-%d7%9e%d7%99%d7%9c%d7%99%d7%95/ https://chiportal.co.il/%d7%91%d7%9b%d7%99%d7%a8%d7%99%d7%9d-%d7%9c%d7%a9%d7%a2%d7%91%d7%a8-%d7%91%d7%92%d7%95%d7%92%d7%9c-%d7%95%d7%91%d7%9e%d7%98%d7%90-%d7%92%d7%99%d7%99%d7%a1%d7%95-100-%d7%9e%d7%99%d7%9c%d7%99%d7%95/#respond Sat, 15 Nov 2025 22:26:00 +0000 https://chiportal.co.il/?p=48793 Majestic Labs מפתחת שרתי AI עתירי זיכרון שמבטיחים להחליף עד 10 ארונות ציוד * עד פי 1,000 יותר זיכרון משרת ארגוני טיפוסי; פעילות בת״א וקליפורניה, אבטיפוס ב-2027, ויעד ללקוחות היפרסקייל וארגונים עתירי נתונים Majestic Labs, סטארטאפ חדש של שלושה מנהלי סילי־קון ותיקים מגוגל ומטא – עופר שחם (מנכ״ל), שא רבי (נשיא) ומסומי ריינדרס (COO) – […]

הפוסט בכירים לשעבר בגוגל ובמטא גייסו 100 מיליון דולר ל-Majestic Labs הישראלית הופיע לראשונה ב-Chiportal.

]]>
Majestic Labs מפתחת שרתי AI עתירי זיכרון שמבטיחים להחליף עד 10 ארונות ציוד * עד פי 1,000 יותר זיכרון משרת ארגוני טיפוסי; פעילות בת״א וקליפורניה, אבטיפוס ב-2027, ויעד ללקוחות היפרסקייל וארגונים עתירי נתונים

Majestic Labs, סטארטאפ חדש של שלושה מנהלי סילי־קון ותיקים מגוגל ומטא – עופר שחם (מנכ״ל), שא רבי (נשיא) ומסומי ריינדרס (COO) – יצא מהסתר וגייס בסך הכול כ-100 מיליון דולר לפיתוח שרתים עתירי זיכרון ל-AI. לפי דיווחים, ה-Series A נסגר בספטמבר בהיקף 71 מיליון דולר בהובלת Bow Wave Capital ובהשתתפות Lux Capital, והסכום הכולל מגיע ל-100 מיליון דולר. החברה מפתחת ארכיטקטורת שרתים ושבבים קניינית המבטיחה עד פי 1,000 יותר זיכרון משרת ארגוני טיפוסי – ומערכת אחת שעל פי היזמים יכולה “להחליף” עד עשרה ארונות ציוד קיימים במרכז נתונים. אבטיפוס ראשון מיועד ל-2027. (AI & Data Insider)

ליבת ההבטחה הטכנולוגית של Majestic Labs היא העברת מרכז הכובד מהמעבד אל הזיכרון: בעבודות AI מסוימות צוואר הבקבוק איננו כוח החישוב אלא נפח/קרבת הזיכרון. ב-Majestic טוענים שהארכיטקטורה שלהם “ממוטטת” כמה וכמה ארונות ציוד לכדי שרת יחיד, ובכך מקטינה שטח רצפה וצריכת חשמל וקירור – אלמנטים יקרים במיוחד בעידן מרכזי נתונים ענקיים. היזמים מדגישים שהפתרון לא נועד “להחליף GPUs בכל מקום”, אלא לתת מענה למשימות AI עתירות-זיכרון שבהן יחס קבוע של חישוב-לזיכרון מגביל ביצועים ועלויות.

בסבב הגיוס נטלו חלק משקיעים בולטים בעולם השבבים וה-AI. לפי פרסומים בישראל, הסבב הכולל עמד על 90 מיליון דולר ל-Series A ועוד 10 מיליון דולר בסיד – סה״כ 100 מיליון דולר – והחברה מציגה טענה עקבית של “פי 1,000 זיכרון” ויכולת לאגד את הזיכרון של עשרה ארונות שרתים לתוך שרת אחד. הפרסומים הללו מפרטים גם את רשימת המשקיעים הרחבה ומאשרים את כיוון המוצר לעבר לקוחות היפרסקייל וארגונים עתירי נתונים.

שלושת המייסדים מגיעים מרקע עמוק בבניית שבבי ענן ומוצרי סיליקון לקנה-מידה עצום: ריינדרס הצטרפה לגוגל כבר ב-2003 והובילה צד עסקי-מוצרי בתחום הסיליקון; רבי מכר את חברת השבבים Arda לגוגל, הוביל את פיתוח שבב הווידאו Argos של יוטיוב; שחם מכר את Chip Genesis לגוגל והוביל תכנון-יישום סיליקון בחומרת הצרכן. ב-2018 עברו שלושתם למטא והקימו את FAST – Facebook Agile Silicon Team – עד קיצוצים ב-2023. מאז סוף 2023 הם בונים ב-Majestic Labs פלטפורמת שרתים עתירי זיכרון ל-AI. לפי הדיווחים, לחברה פחות מ-50 עובדים, מחציתם בתל-אביב והיתר בלוס אלטוס, קליפורניה; והיא כבר משוחחת עם לקוחות על הזמנות מוקדמות לקראת אבטיפוס ב-2027. (AI & Data Insider)

מהצד העסקי, יעד הלקוחות הוא היפרסקיילרים וחברות עם עומסי AI מבוססי-נתונים – פיננסים ופארמה, למשל – שבהם העלות-כוללת (TCO) של מרכזי נתונים נמדדת גם בשטח רצפה, חשמל וקירור, ולא רק במחיר ה-GPU. אם Majestic Labs תוכל לאמת בשטח את טענות ה-“פי 1,000 זיכרון” וה”שרת שמחליף עשרה ארונות”, ייתכן שהפתרון יפחית עלויות תשתית במטלות שבהן “שרתים עתירי זיכרון ל-AI” הם צו השעה. עם זאת, כל המספרים הללו עדיין הצהרתיים ותלויים במסירה מוצלחת של ארכיטקטורה, תוכנה ואקו-סיסטם – ואתגר זה יתברר רק כשהאבטיפוסים יגיעו לידי לקוחות.

גם בתמונה הישראלית יש עניין: נוכחות צוות משמעותית בתל-אביב ושילוב מהנדסים מקומיים בתחומי זיכרון, אריזה מתקדמת ותוכנה למערכות-על מעניקים ל-Majestic Labs חיבור חי לשוק הכישרונות המקומי ולשרשרת הערך של שבבים במרכזי נתונים. אם החברה אכן תספק “שרתים עתירי זיכרון ל-AI” שמסוגלים להאיץ אימון/אחזור מודלים גדולים ולצמצם טביעת רגל, היא תצטרף לגל חברות שמאתגרות את הסטטוס-קוו של ארכיטקטורת מרכזי נתונים בעידן ה-AI.


הפוסט בכירים לשעבר בגוגל ובמטא גייסו 100 מיליון דולר ל-Majestic Labs הישראלית הופיע לראשונה ב-Chiportal.

]]>
https://chiportal.co.il/%d7%91%d7%9b%d7%99%d7%a8%d7%99%d7%9d-%d7%9c%d7%a9%d7%a2%d7%91%d7%a8-%d7%91%d7%92%d7%95%d7%92%d7%9c-%d7%95%d7%91%d7%9e%d7%98%d7%90-%d7%92%d7%99%d7%99%d7%a1%d7%95-100-%d7%9e%d7%99%d7%9c%d7%99%d7%95/feed/ 0
מנכ"ל Phison: המחסור ב־NAND יימשך עשור ויוביל ל"סופר־סייקל" חדש https://chiportal.co.il/%d7%9e%d7%a0%d7%9b%d7%9c-phison-%d7%9e%d7%97%d7%a1%d7%95%d7%a8-%d7%91%d6%benand-%d7%99%d7%99%d7%9e%d7%a9%d7%9a-%d7%a2%d7%a9%d7%95%d7%a8-%d7%95%d7%99%d7%95%d7%91%d7%99%d7%9c-%d7%9c%d7%a1%d7%95/ https://chiportal.co.il/%d7%9e%d7%a0%d7%9b%d7%9c-phison-%d7%9e%d7%97%d7%a1%d7%95%d7%a8-%d7%91%d6%benand-%d7%99%d7%99%d7%9e%d7%a9%d7%9a-%d7%a2%d7%a9%d7%95%d7%a8-%d7%95%d7%99%d7%95%d7%91%d7%99%d7%9c-%d7%9c%d7%a1%d7%95/#respond Sun, 05 Oct 2025 22:27:00 +0000 https://chiportal.co.il/?p=48317 פואה חיין־סנג צופה מחסור חמור בזיכרון פלאש כבר ב־2026, עם ביקוש מואץ מהתפשטות מרכזי נתוני הבינה המלאכותית והמעבר מ־HDD ל־SSD

הפוסט מנכ"ל Phison: המחסור ב־NAND יימשך עשור ויוביל ל"סופר־סייקל" חדש הופיע לראשונה ב-Chiportal.

]]>
פואה חיין־סנג צופה מחסור חמור בזיכרון פלאש כבר ב־2026, עם ביקוש מואץ מהתפשטות מרכזי נתוני הבינה המלאכותית והמעבר מ־HDD ל־SSD

שוק האחסון והזיכרון העולמי ניצב בפני טלטלה חדשה. פואה חיין־סנג (Pua Khein-Seng), מנכ"ל חברת Phison Electronics, טען בראיון למגזין הטכנולוגי CommonWealth הטייוואני כי המחסור ב־NAND, הצפוי להתחיל ב־2026, עלול להימשך עשר שנים. לדבריו, השוק נכנס ל"סופר־סייקל" חדש שעתיד לשנות את פני תעשיית האחסון.

סיבות למחסור ארוך טווח

פואה הסביר כי במשך שנים יצרני זיכרון השקיעו בהרחבת קווי הייצור, מה שהוביל לנפילת מחירים ולחוסר יכולת להחזיר השקעות. מאז 2019–2020 ההשקעות ירדו בצורה חדה, וב־2023 חברות כמו Micron ו־SK Hynix העבירו חלק גדול מההון להשקעות ב־HBM, זיכרון רווחי יותר עבור אימוני בינה מלאכותית, מה שהותיר את תחום ה־NAND מוזנח יחסית.

התוצאה: היצע מוגבל בדיוק בתקופה שבה הביקוש נוסק – בעיקר בגלל הבום של מרכזי הנתונים לאינטליגנציה מלאכותית.

ביקוש מונע בינה מלאכותית

בעוד ש־HBM (זיכרון DRAM עתיר־רוחב־פס) שימש בעיקר לאימון מודלים, כעת, כשהמודלים מתבגרים, הדגש עובר ל־inference – השלב שבו יש לשרת מיליארדי משתמשים, לאמן מחדש מודלים על בסיס נתונים חדשים ולאחסן כמויות עצומות של מידע. כאן נכנס ה־NAND, שמספק פתרונות אחסון בקנה מידה עצום.

פואה טוען כי מרכזי נתונים אינם יכולים להסתמך על GPU בלבד: "כדי להרוויח כסף, צריך משתמשים. משתמשים מייצרים נתונים. הנתונים צריכים להישמר. לכן מרכזי נתונים ימשיכו להתרחב סביב האחסון – זה התפקיד הבסיסי שלהם".

מ־HDD ל־SSD – שינוי מאזן הכוחות

התחזיות מצביעות על ירידת מחירי SSD כך שיתקרבו למחירי HDD בתוך חמש עד שמונה שנים. במקביל, זמני האספקה של דיסקים קשיחים מתארכים לעד שנה, מה שמאיץ את המעבר לאחסון מבוסס SSD.

ב־2020 היחס בין SSD ל־HDD במרכזי נתונים עמד על חד־ספרתי מול מעל 90%. כיום מדובר כבר על 20% לעומת 80%, והחזון של פואה הוא הגעה ל־80%–100% SSD בעשור הקרוב.

השלכות על השוק הפיננסי

בנקים גדולים, בהם Morgan Stanley, מתחילים להזהיר משקיעים מפני "סופר־סייקל" צפוי בשוק הזיכרון, המשלב ביקוש ל־HBM ול־NAND. גם התחרות מול סין, שמתכננת להיכנס לשוק ה־HBM תוך שנתיים, צפויה להשפיע.

המשמעות: עשור של השקעות באחסון

לדברי פואה, השאלה האמיתית היא לא רק כמה יעלה הייצור, אלא כמה קיבולת חדשה תידרש כדי לתמוך במעבר מ־HDD ל־SSD, במקביל לבום בבינה המלאכותית. להערכתו, זה מה שיבטיח את המשך עוצמתו של ה־NAND בעשר השנים הקרובות.


הפוסט מנכ"ל Phison: המחסור ב־NAND יימשך עשור ויוביל ל"סופר־סייקל" חדש הופיע לראשונה ב-Chiportal.

]]>
https://chiportal.co.il/%d7%9e%d7%a0%d7%9b%d7%9c-phison-%d7%9e%d7%97%d7%a1%d7%95%d7%a8-%d7%91%d6%benand-%d7%99%d7%99%d7%9e%d7%a9%d7%9a-%d7%a2%d7%a9%d7%95%d7%a8-%d7%95%d7%99%d7%95%d7%91%d7%99%d7%9c-%d7%9c%d7%a1%d7%95/feed/ 0
PwC: השקעות עתק בשבבים מניעות את מהפכת ה־AI והרכב החשמלי https://chiportal.co.il/pwc-%d7%94%d7%a9%d7%a7%d7%a2%d7%95%d7%aa-%d7%a2%d7%aa%d7%a7-%d7%91%d7%a9%d7%91%d7%91%d7%99%d7%9d-%d7%9e%d7%a0%d7%99%d7%a2%d7%95%d7%aa-%d7%90%d7%aa-%d7%9e%d7%94%d7%a4%d7%9b%d7%aa-%d7%94%d6%beai-%d7%95/ https://chiportal.co.il/pwc-%d7%94%d7%a9%d7%a7%d7%a2%d7%95%d7%aa-%d7%a2%d7%aa%d7%a7-%d7%91%d7%a9%d7%91%d7%91%d7%99%d7%9d-%d7%9e%d7%a0%d7%99%d7%a2%d7%95%d7%aa-%d7%90%d7%aa-%d7%9e%d7%94%d7%a4%d7%9b%d7%aa-%d7%94%d6%beai-%d7%95/#respond Sun, 14 Sep 2025 22:18:00 +0000 https://chiportal.co.il/?p=48203 דוח חדש של PwC צופה השקעות של מעל 1.5 טריליון דולר עד 2030 בהקמת מפעלי שבבים – היקף השקול לכל ההשקעות שנעשו בעשרים השנה האחרונות גם יחד. מנועי הצמיחה: בינה מלאכותית, רכבים חשמליים ואלקטרוניקה חכמה שבבים, בינה מלאכותית, רכבים חשמליים, מרכזי נתונים, אנבידיה, AMD, אינטל, Texas Instruments, חוק השבבים והמדע, גליום ניטריד, סיליקון קרביד ענף […]

הפוסט PwC: השקעות עתק בשבבים מניעות את מהפכת ה־AI והרכב החשמלי הופיע לראשונה ב-Chiportal.

]]>
דוח חדש של PwC צופה השקעות של מעל 1.5 טריליון דולר עד 2030 בהקמת מפעלי שבבים – היקף השקול לכל ההשקעות שנעשו בעשרים השנה האחרונות גם יחד. מנועי הצמיחה: בינה מלאכותית, רכבים חשמליים ואלקטרוניקה חכמה

שבבים, בינה מלאכותית, רכבים חשמליים, מרכזי נתונים, אנבידיה, AMD, אינטל, Texas Instruments, חוק השבבים והמדע, גליום ניטריד, סיליקון קרביד

ענף השבבים העולמי מצוי בתקופת צמיחה חסרת תקדים, כאשר שילוב בין עומסי עבודה עצומים של יישומי בינה מלאכותית (AI) לבין האצה באימוץ רכבים חשמליים (EVs) מוביל להשקעות מסיביות במפעלי ייצור שבבים. לפי דוח חדש של PwC, ההשקעות הגלובליות צפויות לחצות את רף 1.5 טריליון דולר בשנים 2024–2030 – סכום המקביל לכל ההשקעות שבוצעו בענף במהלך שני העשורים הקודמים גם יחד.

בינה מלאכותית מניעה את הביקוש

ההתפשטות המהירה של עומסי עבודה בתחום ה־AI מעלה דרמטית את הדרישות לשבבים מתקדמים. שוק השרתים העולמי צפוי לחצות את רף ה־300 מיליארד דולר עד 2030, כאשר מגזר השרתים והרשתות יהפוך לגדול ביותר מבחינת ביקוש לשבבים.

במרכז השינוי נמצאים מאיצי AI, שכבר כיום מהווים כ־50% מההכנסות במגזר זה – קפיצה חדה בהשוואה לעבר. לצד ענקיות שבבים כמו אנבידיה ו־AMD, ספקיות ענן כדוגמת אמזון, גוגל ומיקרוסופט מפתחות שבבים מותאמים אישית לצרכי מרכזי הנתונים שלהן.


חשמל ואוטונומיה: תעשיית הרכב מכתיבה את הקצב

המגזר השני בצמיחתו הוא תעשיית הרכב, שם השבבים הופכים לליבה של טכנולוגיות חשמליות ואוטונומיות. PwC צופה כי עד 2030 רכבים חשמליים והיברידיים יהוו מחצית מכלל המכירות העולמיות.

התהליך הזה משנה גם את עולם החומרים: סיליקון־קרביד (SiC) וגליום־ניטריד (GaN) צפויים להחליף את הסיליקון המסורתי במערכות ההספק של רכבים חשמליים. עד סוף העשור, למעלה מ־60% משוק השבבים להספק ברכב יתבסס על חומרים אלו – לעומת כ־23% בלבד כיום.


השקעות ממשלתיות ושיאי תעשייה

הצמיחה נתמכת גם ביוזמות ממשלתיות רחבות היקף. חוק השבבים והמדע בארה"ב (CHIPS Act) מגלם מעל 630 מיליארד דולר בהשקעות בשרשרת האספקה ב־28 מדינות.

בין ההכרזות הגדולות:

  • Texas Instruments עם תוכנית השקעות של 60 מיליארד דולר להקמת שבעה מפעלי שבבים – הגדולה בתולדות ארה"ב.
  • אינטל מתכננת להשקיע מעל 100 מיליארד דולר בארבע מדינות שונות, כשחלק מהמימון מגיע מ־7.86 מיליארד דולר כסיוע ישיר מהממשל האמריקני.

גלן ברם, ראש תחום השבבים הגלובלי ב־PwC, מסכם: “התעשייה עוברת שינוי מהיר, בהובלת בינה מלאכותית, שינויים גיאופוליטיים והיקפי השקעה ממשלתיים שלא נראו כמותם”.


אלקטרוניקה צרכנית והעתיד הדיגיטלי

מעבר למרכזי הנתונים ולתחבורה, תחום המכשור הצרכני ממשיך לשמש מנוע צמיחה. מכשירים חכמים לבית צומחים בקצב שנתי של 5.6%, בעוד שווקי המציאות המדומה (VR), המציאות הרבודה (AR) והרובוטים האישיים מתקדמים בקצב מהיר אף יותר – עד 24.5% בשנה.

ביקוש זה מונע צורך ביכולות עיבוד מתקדמות, בזיכרונות רחבי פס ובמעבדי קצה המאפשרים זמן תגובה קצר יותר ושמירה על פרטיות המשתמשים.


דוח PwC Semiconductor & Beyond 2026 מציב תמונת עתיד ברורה: השבבים הופכים לתשתית קריטית לעולם ה־AI, לתעשיית הרכב החשמלי והאוטונומי, ולאלקטרוניקה הצרכנית. עם השקעות חסרות תקדים, חומרים חדשים ומגמות טכנולוגיות מואצות, הענף צפוי לא רק להתרחב אלא גם לעצב מחדש את הכלכלה הגלובלית עד סוף העשור.


הפוסט PwC: השקעות עתק בשבבים מניעות את מהפכת ה־AI והרכב החשמלי הופיע לראשונה ב-Chiportal.

]]>
https://chiportal.co.il/pwc-%d7%94%d7%a9%d7%a7%d7%a2%d7%95%d7%aa-%d7%a2%d7%aa%d7%a7-%d7%91%d7%a9%d7%91%d7%91%d7%99%d7%9d-%d7%9e%d7%a0%d7%99%d7%a2%d7%95%d7%aa-%d7%90%d7%aa-%d7%9e%d7%94%d7%a4%d7%9b%d7%aa-%d7%94%d6%beai-%d7%95/feed/ 0