כיום המעבד המרכזי לא מנוצל והפתרון הזה יאפשר להוריד את מספר המעבדים הראשיים ובכך לחסוך אנרגיה ביישומי בינה מלאכותית
הסטארטאפ הישראלי NeuReality רוצה להחליף את מעבדי המחשב במרכזי הנתונים המיועדים להיסק נתונים ב-AI בשבבים ייעודיים שיכולים לצמצם את הוצאות הבעלות הכוללת ואת צריכת החשמל. החברה הישראלית פיתחה מחלקה של שבבים שהיא קוראת להם יחידת עיבוד נגישה ברשת (NAPU), שכוללת יישומים חומרתיים לתפקידים טיפוסיים של מעבד כמו ההיפרוויזור. מטרתה של NeuReality היא להגביר את השימושיות של מאיצי ה-AI על ידי הסרת המגבלות שמטילים היום מעבדי המחשב המארחים.
מנכ"ל NeuReality, משה תנך, סיפר ל-EE Times כי NAPU מאפשרת שימושיות של 100% של מאיצי ה-AI. "בענן, או במהלך הבדיקות שלנו כאן, אנו רואים שתסריטי שימוש שונים משתמשים במאיצים בצורה שונה," אמר תנך. "חלקם לא יעלו מעל 25-30% משימושיות ה-GPU או ה-ASIC, וחלקם פשוט ישאירו את המעבד פנוי מכיוון שהם מריצים מודל שפה גדול, כך שהם נתונים למגבלות של ה-GPU וממשק הזיכרון, והמעבד פשוט יושב שם ולא עושה הרבה."
בימים אלו, שרתי ה-AI עשויים להכיל שני מעבדים עם נתב רשת, או לפעמים יחידת עיבוד נתונים או SmartNIC לצד כל מאיץ AI. שרת זה ישרת מספר מכונות וירטואליות, כאשר המעבד מתמודד עם משימות כמו סיום רשת, איכות שירות בין לקוחות והכנת נתונים לפני שליחתם למאיץ ה-AI.
NeuReality רוצה לפתור את בעיית השימושיות על ידי הפרדת עיבוד הקווים של ה-AI מהמעבד. החברה הקשיחה את משימות המעבד כמו סיום רשת ואיכות שירות בשבב מחשוב הטרוגני שנבנה במיוחד לעומסי עבודה של היסק AI בקנה מידה ייצורי. תנך הדגיש כי NAPU אינה "מעבד AI". למעשה, היא גוש סיליקון ייעודי לשרתי היסק AI במרכזי נתונים, שתוכנן להתמודד עם הנפח והמגוון של השאילתות בהיסק AI המודרני בקנה מידה גדול. היא מחוברת לרשת, כך שהשאילתות של AI מועברות מ-Ethernet ישירות ל-NAPU.