חוקרי אוניברסיטת מינסוטה הציגו חידוש חומרה בשם CRAM, המפחית את צריכת האנרגיה של AI עד פי 2,500 על ידי עיבוד נתונים בתוך הזיכרון, ומבטיחים שיפורים משמעותיים ביעילות ה-AI.
חוקרי אוניברסיטת מינסוטה הציגו חידוש חומרה בשם CRAM, המפחית את צריכת האנרגיה של AI עד פי 2,500 על ידי עיבוד נתונים בתוך הזיכרון, ומבטיחים שיפורים משמעותיים ביעילות ה-AI.
התקן זה יכול להפחית את צריכת האנרגיה של אינטליגנציה מלאכותית לפחות פי 1,000. חוקרים בתחום ההנדסה באוניברסיטת מינסוטה פיתחו התקן חומרה מתקדם שיכול להפחית את צריכת האנרגיה ביישומי מחשוב של אינטליגנציה מלאכותית לפחות פי 1,000.
המחקר פורסם בכתב העת המדעי "NPJ Unconventional Computing" שמפרסם Nature. לחוקרים יש מספר פטנטים על הטכנולוגיה שבה השתמשו בהתקן.
עם הביקוש הגובר ליישומי AI, מחפשים החוקרים דרכים ליצור תהליך יעיל יותר באנרגיה, תוך שמירה על ביצועים גבוהים ועלויות נמוכות. בדרך כלל, תהליכי למידת מכונה או אינטליגנציה מלאכותית מעבירים נתונים בין הלוגיקה (היכן שהמידע מעובד במערכת) לזיכרון (היכן שהנתונים מאוחסנים), מה שצורך כמות גדולה של אנרגיה.
הצגת טכנולוגיית CRAM
צוות חוקרים במכללת המדע וההנדסה של אוניברסיטת מינסוטה הציג מודל חדש שבו הנתונים לא עוזבים את הזיכרון, הנקרא זיכרון גישה אקראית חישובית (CRAM).
"זוהי ההדגמה הניסויית הראשונה של CRAM, שבה הנתונים יכולים להיות מעובדים לחלוטין בתוך מערך הזיכרון ללא צורך לעזוב את הרשת שבה המחשב מאחסן מידע," אמר יאנג לו, חוקר פוסט-דוקטורט במחלקה להנדסת חשמל ומחשבים באוניברסיטת מינסוטה והמחבר הראשון של המאמר.
התקן חומרה מותאם אישית מתוכנן לסייע ל-AI להיות יעיל יותר באנרגיה. קרדיט: אוניברסיטת מינסוטה.
סוכנות האנרגיה הבינלאומית (IEA) פרסמה תחזית גלובלית לשימוש באנרגיה במרץ 2024, שחזתה כי צריכת האנרגיה עבור AI תכפיל את עצמה מ-460 טרה-וואט שעה (TWh) ב-2022 ל-1,000 TWh ב-2026. זה שווה בערך לצריכת החשמל של כל יפן.
לדברי מחברי המאמר החדש, מאיץ למידת מכונה מבוסס CRAM צפוי להשיג שיפור בסדר גודל של פי 1,000. דוגמה נוספת הראתה חיסכון באנרגיה של פי 2,500 ו-1,700 בהשוואה לשיטות מסורתיות.
התפתחות המחקר
מחקר זה מתבצע למעלה מעשרים שנה,
"הקונספט הראשוני שלנו להשתמש בתאי זיכרון ישירות לחישוב לפני 20 שנה נחשב מטורף," אמר ג'יאן-פינג ואנג, המחבר הראשי של המאמר ופרופסור מכובד באוניברסיטת מקנייט ויושב ראש רוברט פ. הארטמן במחלקה להנדסת חשמל ומחשבים באוניברסיטת מינסוטה.
"עם קבוצה מתפתחת של תלמידים מאז 2003 וצוות סגל בין-תחומי אמיתי שבנינו באוניברסיטת מינסוטה – מפיזיקה, מדע והנדסת חומרים, מדעי המחשב והנדסה, למידול ובניית מודלים ויצירת חומרה – הצלחנו להשיג תוצאות חיוביות ועכשיו הדגמנו שטכנולוגיה מסוג זה ישימה ומוכנה להיכלל בטכנולוגיה," אמר ואנג.
מחקר זה הוא חלק ממאמץ עקבי וארוך טווח הבונה על מחקרו פורץ הדרך של ואנג ושותפיו בנושא התקני Magnetic Tunnel Junctions (MTJs), שהינם התקנים ננו-מבניים המשמשים לשיפור כוננים קשיחים, חיישנים ומערכות מיקרואלקטרוניקה אחרות, כולל Magnetic Random Access Memory (MRAM), שהשתמשו בהם במערכות משובצות כגון מיקרו-בקרים ושעונים חכמים.
ארכיטקטורת CRAM מאפשרת חישוב אמיתי בזיכרון ועל ידי הזיכרון ומפרה את החסימה בין החישוב לזיכרון כגורם מגביל בארכיטקטורת פון נוימן המסורתית, עיצוב תיאורטי למחשב עם תוכנית מאוחסנת המשמש כבסיס לרוב המחשבים המודרניים.
"כמצע חישובי מבוסס זיכרון דיגיטלי יעיל מאוד באנרגיה, CRAM גמיש מאוד בכך שניתן לבצע חישוב בכל מיקום במערך הזיכרון. בהתאם לכך, נוכל לקנפג את CRAM כך שיתאים בצורה מיטבית לצורכי הביצועים של מגוון רחב של אלגוריתמי AI," אמרה אוליה קרפוזקו, מומחית לארכיטקטורת חישוב, מחברת המאמר ופרופסור חבר במחלקה להנדסת חשמל ומחשבים באוניברסיטת מינסוטה. "הוא יעיל יותר באנרגיה מאשר בלוקים מסורתיים למערכות AI של היום."
CRAM מבצע חישובים ישירות בתוך תאי הזיכרון, מנצל את מבנה המערך ביעילות, מה שמבטל את הצורך בהעברות נתונים איטיות וצורכות אנרגיה, הסבירה קרפוזקו.
התקן הזיכרון הגישה האקראית (RAM) היעיל ביותר בטווח הקצר משתמש בארבעה או חמישה טרנזיסטורים לקידוד אפס או אחד, אך MTJ אחד, התקן ספינטרוני, יכול לבצע את אותה הפונקציה בחלק קטן של האנרגיה, במהירות גבוהה יותר, והוא עמיד לסביבות קשות. התקנים ספינטרוניים מנצלים את הספין של האלקטרונים במקום את המטען החשמלי לאחסון נתונים, מה שמספק חלופה יעילה יותר לשבבים מבוססי טרנזיסטורים מסורתיים.
כרגע, הצוות מתכנן לעבוד עם מנהיגי תעשיית המוליכים למחצה, כולל אלה במינסוטה, כדי לספק הדגמות בקנה מידה גדול ולייצר את החומרה לשיפור פונקציונליות AI.