הכרטיסים הגרפיים החדשים של אינטל מציגים ביצועי הסקת AI (Inference) גבוהים עד פי 1.8 לעומת הדור הקודם, ומסוגלים להריץ מודלים של 120 מיליארד פרמטרים – על בסיס פלטפורמה פתוחה של חומרה ותוכנה
אינטל מציגה היום תוצאות חדשות ממבחני MLPerf Inference 6.0 של MLCommons, זמן קצר לאחר השקת הכרטיסים הגרפיים החדשים שלה מסדרת Intel Arc Pro B . מדד MLPerf נחשב בדרך כלל כאמת מידה מוסכמת לביצועי בינה מלאכותית בתעשייה, שאליו מגישות תוצאות עשרות חברות טכנולוגיה מובילות. המדד המלא נמצא כאן בלינק
במבחנים שפורסמו, נבדקו הכרטיסים החדשים מסדרת Arc Pro B יחד עם מעבדי Xeon 6 ב-4 תרחישי AI שונים, החל מתחנות עבודה ועד מרכזי נתונים ומערכות קצה. הנתון הבולט: מערכת עם 4 כרטיסים מסוג Arc Pro B70/B65 מספקת 128GB של זיכרון וידאו (VRAM), מה שמאפשר להריץ מודלים של עד 120 מיליארד פרמטרים במקביליות גבוהה. בנוסף, Arc Pro B70 הציג ביצועי הסקה גבוהים עד פי 1.8 לעומת Arc Pro B60.
התוצאות מספקות סימן ראשון וברור לכך שהדור החדש של הכרטיסים מציג שיפור משמעותי בביצועי AI לעומת הדור הקודם, ומחזק את המהלך של אינטל להציע פלטפורמת AI פתוחה, נגישה וניתנת להרחבה.
לצד החומרה, גם התוכנה תורמת לשיפור. אינטל פיתחה חבילת תוכנה פתוחה, מבוססת קונטיינרים, שמאפשרת להרחיב את ביצועי ההסקה מצומת בודד לפריסות ארגוניות עם מספר רב של כרטיסים גרפיים. על אותה חומרת Intel Arc Pro B60, שיפורי התוכנה לבדם הניבו ביצועים גבוהים עד פי 1.18 בהשוואה לתוצאות של MLPerf v5.1. עבור אינטל, זו נקודה חשובה במיוחד, משום שהיא מראה שהשיפור אינו נובע רק מהחומרה החדשה, אלא גם מהבשלה של שכבת התוכנה שסביבה.
לא רק מהיר יותר, אלא גם פשוט יותר לפריסה
מעבר לנתוני הביצועים עצמם, התוצאות נוגעות לשאלה רחבה יותר בשוק. הביקוש להסקת AI גדל, ובמקביל גדלים גם האתגרים: ארגונים, מפתחי AI ויוצרי תוכן גרפי צריכים ביצועים גבוהים, אבל רבים מהם רוצים גם לשמור על פרטיות הנתונים ולהימנע מעלויות מנוי כבדות הכרוכות בשימוש במודלי AI קנייניים. במציאות כזו, הבחירה במערכת תלויה לא רק במהירות שלה, אלא גם בשאלה עד כמה היא פתוחה, ניתנת לניהול וקלה לאימוץ.
הכרטיסים החדשים של אינטל, Intel Arc Pro B70 ו-Intel Arc Pro B65, נבנו כמערכת הסקה (Inference) שמשלבת חומרה ותוכנה מאומתות יחד. הפתרון מבוסס על קונטיינרים בסביבת Linux, תומך בהרחבה למספר כרטיסים גרפיים ובהעברות נתונים ישירות ביניהם (PCIe P2P), ומגיע עם קיבולת זיכרון משופרת שנועדה לאפשר הרצה של מודלים גדולים יותר ללא צורך בתצורות מורכבות.
הפלטפורמה כוללת גם תכונות שמכוונות לסביבות עבודה ארגוניות: תיקון שגיאות זיכרון (ECC), וירטואליזציה ברמת החומרה (SR-IOV), טלמטריה ועדכוני קושחה מרחוק. אלו יכולות שלא משפיעות על תוצאות benchmark, אבל חשובות לארגונים שצריכים מערכת יציבה, ניתנת לניהול ומתאימה לעבודה רציפה לאורך זמן.
נתון נוסף שעולה מהתוצאות: בתצורות מרובות כרטיסים גרפיים, Intel Arc Pro B70 מספק קיבולת KV Cache גבוהה עד פי 1.6 לעומת פתרונות GPU מתחרים. המשמעות היא לא רק מהירות, אלא יכולת מעשית יותר להתמודד עם מודלים גדולים וחלונות הקשר רחבים יותר בסביבות עבודה אמיתיות.
תפקיד ה-CPU נשאר קריטי בעולם של AI מואץ
אינטל מדגישה כי הסקת AI אינה מוגדרת כיום רק על ידי תפוקת ה-GPU. ככל שמערכות AI נעשות מורכבות יותר, ביצועי המערכת כולה תלויים גם ביכולת של ה-CPU לנהל זיכרון, לתזמר משימות, להפיץ עומסי עבודה ולשמור על האבטחה, האמינות וההמשכיות התפעולית הנדרשות מתשתית AI מודרנית. במילים אחרות, ה-GPU מבצע את ההאצה, אבל המעבד המרכזי הוא זה שמחזיק את המערכת כולה יציבה, יעילה וברת הרחבה.
מבחינה זו, אינטל ממשיכה להיות ספקית מעבדי השרתים היחידה שמגישה תוצאות CPU עצמאיות למבחני MLPerf Inference. יותר ממחצית מההגשות ב-MLPerf 6.0 הונעו על ידי Xeon כמעבד מארח (Host CPU), נתון שממחיש את מקומו המרכזי של Xeon בליבת תשתית ה-AI של התעשייה.
החברה מוסיפה כי מעבדי Intel Xeon 6 עם ליבות P סיפקו שיפור ביצועים דורי של עד פי 1.9 ב-MLPerf Inference v5.1. במקביל, טכנולוגיות האצת AI מובנות כגון AMX ו-AVX512 מאפשרות לעומסי עבודה כמו הסקת LLM, כוונון עדין (Fine Tuning) ולמידת מכונה קלאסית לרוץ ביעילות גם ללא חומרת מאיצים ייעודית. עבור ארגונים, זהו יתרון משום שהוא מאפשר יותר גמישות בתכנון התשתית, יותר ניצול של מערכות קיימות, ולעיתים גם חיסכון בעלות הבעלות הכוללת.






















