ארכיון אתיקה של בינה מלאכותית - Chiportal https://chiportal.co.il/tag/אתיקה-של-בינה-מלאכותית/ The Largest tech news in Israel – Chiportal, semiconductor, artificial intelligence, Quantum computing, Automotive, microelectronics, mil tech , green technologies, Israeli high tech, IOT, 5G Thu, 06 Feb 2025 14:24:08 +0000 he-IL hourly 1 https://wordpress.org/?v=6.5.5 https://chiportal.co.il/wp-content/uploads/2019/12/cropped-chiportal-fav-1-32x32.png ארכיון אתיקה של בינה מלאכותית - Chiportal https://chiportal.co.il/tag/אתיקה-של-בינה-מלאכותית/ 32 32 גוגל הסירה התחייבות לקוחות להימנעות משימוש בבינה מלאכותית לצורך נשק או מעקב https://chiportal.co.il/%d7%92%d7%95%d7%92%d7%9c-%d7%9e%d7%a1%d7%99%d7%a8%d7%94-%d7%9e%d7%94%d7%90%d7%aa%d7%a8-%d7%94%d7%aa%d7%97%d7%99%d7%91%d7%95%d7%aa-%d7%a9%d7%9c-%d7%94%d7%9c%d7%a7%d7%95%d7%97%d7%95%d7%aa-%d7%a9%d7%9c/ https://chiportal.co.il/%d7%92%d7%95%d7%92%d7%9c-%d7%9e%d7%a1%d7%99%d7%a8%d7%94-%d7%9e%d7%94%d7%90%d7%aa%d7%a8-%d7%94%d7%aa%d7%97%d7%99%d7%91%d7%95%d7%aa-%d7%a9%d7%9c-%d7%94%d7%9c%d7%a7%d7%95%d7%97%d7%95%d7%aa-%d7%a9%d7%9c/#respond Wed, 05 Feb 2025 22:10:00 +0000 https://chiportal.co.il/?p=46505 גוגל עדכנה לאחרונה את דף עקרונות הבינה המלאכותית שלה, ובמסגרת העדכון נעלם הסעיף בו התחייבה החברה לא לפתח טכנולוגיות AI שישמשו לנשק או למעקב. החברה הפנתה את המתעניינים לפוסט חדש בבלוג העוסק ב"אחריות בתחום הבינה המלאכותית" חברת גוגל הסירה מהאתר שלה הבטחה מפורשת לא לפתח בינה מלאכותית (AI) לשימוש בנשק או למטרות מעקב, שינוי שהתגלתה […]

הפוסט גוגל הסירה התחייבות לקוחות להימנעות משימוש בבינה מלאכותית לצורך נשק או מעקב הופיע לראשונה ב-Chiportal.

]]>
גוגל עדכנה לאחרונה את דף עקרונות הבינה המלאכותית שלה, ובמסגרת העדכון נעלם הסעיף בו התחייבה החברה לא לפתח טכנולוגיות AI שישמשו לנשק או למעקב. החברה הפנתה את המתעניינים לפוסט חדש בבלוג העוסק ב"אחריות בתחום הבינה המלאכותית"

חברת גוגל הסירה מהאתר שלה הבטחה מפורשת לא לפתח בינה מלאכותית (AI) לשימוש בנשק או למטרות מעקב, שינוי שהתגלתה השבוע על ידי בְּלוּמְבֶּרְג'. עד כה, באתר הציבורי של עקרונות הבינה המלאכותית של גוגל הופיעה סעיף שכותרתו "יישומים שלא נרדף אחריהם", אשר היה קיים עד לשבוע שעבר.

גוגל עדכנה לאחרונה את דף עקרונות הבינה המלאכותית שלה, ובמסגרת העדכון נעלם הסעיף בו התחייבה החברה לא לפתח טכנולוגיות AI שישמשו לנשק או למעקב. החברה הפנתה את המתעניינים לפוסט חדש בבלוג העוסק ב"אחריות בתחום הבינה המלאכותית", בו מציינת:

"אנו סבורים שחברות, ממשלות וארגונים החולקים ערכים אלה צריכים לשתף פעולה ליצירת AI המגן על אנשים, מקדם צמיחה גלובלית ותומך בביטחון הלאומי."

לפי העדכון, גוגל מחויבת כעת גם למזער תוצאות בלתי מכוונות או מזיקות, להימנע מהטיות בלתי הוגנות, ולהתאים את פעילותה לעקרונות מקובלים של המשפט הבינלאומי וזכויות האדם.

בשנים האחרונות, החוזים של גוגל לספק שירותי ענן לצבאות האמריקאי והישראלי עוררו מחאות פנימיות מצד עובדים שטענו כי השימוש בטכנולוגיות אלו עלול לשמש לפגיעה בבני אדם. למרות זאת, גוגל טוענת כי בינה מלאכותית שפותחה על ידה אינה מיועדת לפגיעה באנשים. לעומת זאת, בכיר מטה ה-AI בפנטגון העביר לתקשורת כי דגמי AI של מספר חברות מסייעים לייעול "שרשרת ההרג" של הצבא האמריקאי.

העדכון באתר של גוגל בא לענות על ביקורות פנימיות ובינלאומיות בנוגע לשימוש בטכנולוגיות בינה מלאכותית, ומדגיש את המחויבות של החברה לפיתוח טכנולוגיות אחראיות. עם זאת, השינויים מעלים שאלות לגבי עתיד השימוש ב-AI במגוון תחומים, ובמיוחד בהקשרים צבאיים וביטחוניים.

אחד הפרויקטים שהוזכר בהקשר זה הוא פרויקט הטמעת הבינה המלאכותית בצה"ל המכונה נימבוס שנמצא על הכוונת של המפגינים הפרו פלסטינים שמחו. גוגל פיטרה את העובדים לה המעורבים במחאה זו ולפי הוושינגטון פוסט גוגל אף האיצה את הפרוקיט בימים הראשונים של המלחמה.


מקור: TechCrunch

הפוסט גוגל הסירה התחייבות לקוחות להימנעות משימוש בבינה מלאכותית לצורך נשק או מעקב הופיע לראשונה ב-Chiportal.

]]>
https://chiportal.co.il/%d7%92%d7%95%d7%92%d7%9c-%d7%9e%d7%a1%d7%99%d7%a8%d7%94-%d7%9e%d7%94%d7%90%d7%aa%d7%a8-%d7%94%d7%aa%d7%97%d7%99%d7%91%d7%95%d7%aa-%d7%a9%d7%9c-%d7%94%d7%9c%d7%a7%d7%95%d7%97%d7%95%d7%aa-%d7%a9%d7%9c/feed/ 0
Cadence משיקה שותפות חדשה בשם Fem.AI שמטרתה להוביל את המהפכה לשוויון מגדרי בסביבת העבודה בתחום ה-AI https://chiportal.co.il/cadence-%d7%9e%d7%9b%d7%a8%d7%99%d7%96%d7%94-%d7%a2%d7%9c-%d7%94%d7%a9%d7%a7%d7%aa-%d7%a9%d7%95%d7%aa%d7%a4%d7%95%d7%aa-%d7%97%d7%93%d7%a9%d7%94-%d7%91%d7%a9%d7%9d-fem-ai-%d7%9e%d7%98%d7%a8%d7%aa/ https://chiportal.co.il/cadence-%d7%9e%d7%9b%d7%a8%d7%99%d7%96%d7%94-%d7%a2%d7%9c-%d7%94%d7%a9%d7%a7%d7%aa-%d7%a9%d7%95%d7%aa%d7%a4%d7%95%d7%aa-%d7%97%d7%93%d7%a9%d7%94-%d7%91%d7%a9%d7%9d-fem-ai-%d7%9e%d7%98%d7%a8%d7%aa/#respond Sat, 09 Nov 2024 22:19:00 +0000 https://chiportal.co.il/?p=45733 אל קיידנס (Cadence) יצטרפו גם אנבידיה ((NVIDIA, Equinix, NetApp, ו- Workday כדי להניע לשינוי, בגיבוי 20 מיליון דולר כסכום ההשקעה הראשוני של Cadence

הפוסט Cadence משיקה שותפות חדשה בשם Fem.AI שמטרתה להוביל את המהפכה לשוויון מגדרי בסביבת העבודה בתחום ה-AI הופיע לראשונה ב-Chiportal.

]]>

אל קיידנס (Cadence) יצטרפו גם אנבידיה , Equinix, NetApp, ו- Workday כדי להניע לשינוי, בגיבוי 20 מיליון דולר כסכום ההשקעה הראשוני של Cadence

Cadence Design Systems הכריזה שמובילות התעשייה קרן Equinix, NetApp, NVIDIA ו- Workday יהיו מהחברות המקימות של קרן התרומה של Cadence "Fem.AI Alliance"  (שותפות Fem.AI), קבוצת חברות ומוסדות שהתחייבו לפעול ליצירת סביבת עבודה מייצגת יותר בתחומי AI ו-Tech. שותפות Fem.AI שמה לה למטרה לפתח את סביבת העבודה על ידי הגדלת הייצוג הנשי וההובלה הנשית בתעשיית ההיי-טק.

אנירוד דווגן, נשיא ומנכ"ל :Cadence "הכישרון ונקודת המבט של נשים הם גורמים קריטיים בעיצוב העתיד של ה-AI. ייצוג נשי בכוח העבודה הוא הכרח עסקי. בשותפות Fem.AI החדשה, נעבוד יחד עם חברות נוספות ששותפות לאותו סל ערכים, כדי להעלות את מספר הנשים ב-STEM (מדע, טכנולוגיה, הנדסה ומתמטיקה). זה ישפיע בהכרח על יצירת פתרונות AI חדשניים ושוויוניים, שפותחו תחת לקיחת אחריות חברתית".

ועידת השיא הפותחת Fem.AI Summit, שאירחה קרן התרומה של Cadence, נערכה בראשון באוקטובר, תאריך שהוצהר לאחרונה בתור "יום האישה ב-AI הבין-לאומי". הועידה אירחה מנהיגים שונים מתעשיית ההיי-טק, יחד עם אוניברסיטאות, קרנות הון סיכון ומשקיעי אימפקט. הכנס עסק באתגרים שאיתם נשים מתמודדות בתחום ה-AI ויצר השראה למנהיגים לקחת חלק ביצירת שינוי. מומחים דנו בסיבות הרבות לפתוח אפשרויות לעובדים מוכשרים ובצורך להשקפות מגוונות בעת יצירה ובדיקה של פתרונות AI.

טינה ג'ונס, סגנית נשיא בכירה, משאבי אנוש בינלאומיים ב- :Cadence"וידוא שנשים ישחקו תפקיד במהפכה הטכנולוגית זה הכרח. מוכרחים להיות לנו מספיק אנשי צוות מוכשרים כדי להפיק תועלת ממה שה-AI מבטיח לספק, ואנו זקוקים לחתך אוכלוסייה אמיתי ומייצג בעבודה על AI כדי שניצור טכנולוגיה שתוכל לשרת את כולם וכולן."

אלקסיס ביורלין, סגנית הנשיא ב- DGX Cloud, NVIDIA: "לבינה מלאכותית יש את הכוח ליצור שינוי חברתי לטובה, אבל כדי להגיע למטרה הזו אנחנו חייבים לעבוד יחד באופן אקטיבי לשיפור מפת הייצוג". שותפות Fem.AI מציגה בפנינו הזדמנות לעזור בעיצוב עתיד שוויוני בתחום ה- AI על ידי העצמת נשים ועידודן להיות חלוצות בתחום החדש והמתהווה הזה".

קתי פאם, סגנית הנשיא של AI ב- Workday: "הפוטנציאל האמיתי של בינה מלאכותית נשען על היכולת של הטכנולוגיה לייצג את כל הטווח של חוויות אנושיות, מה שהופך את המשימה של Fem.AI לכל כך קריטית. באותו קו עם המחויבות שלנו לשדרג את החוויה האנושית ולחזק את העבודה דרך העוצמה של AI, Workday גאה להצטרף לשותפות הזו כדי לתמוך בנשים ולטפח נשים מנהיגות בתחום ה- AI בעודן מניעות חדשנות".

קרן התרומה של Cadence מקצה סכום של 20 מיליון דולר ועובדת בשותפות יחד עם ארגונים שלא למטרת רווח ואוניברסיטאות במטרה להתמודד עם שלושת נקודות החולשה הקריטיות שבהן נשים מחליטות שלא להמשיך בקריירה בתחומי STEM (מדע, טכנולוגיה, הנדסה, מתמטיקה). דרך שותפות עם ארגונים שלא למטרת רווח שכוללים את Break Through Tech, Fast Forward, Generation, Global Semiconductor Alliance’s Women’s Leadership Initiative (WLI), Last Mile Education Fund, Reboot Representation ו- VC Include, ובשיתוף פעולה עם הכוכבים העולים מ-MIT ותוכניות הלימודים הגבוהים והמלגות של Cadence, ההשקעה של Cadence כבר השפיעה על אלפי נשים ועזרה להן לעבור את שלושת נקודות הפרישה הללו.

פרטים נוספים באתר Fem.AI Alliance

הפוסט Cadence משיקה שותפות חדשה בשם Fem.AI שמטרתה להוביל את המהפכה לשוויון מגדרי בסביבת העבודה בתחום ה-AI הופיע לראשונה ב-Chiportal.

]]>
https://chiportal.co.il/cadence-%d7%9e%d7%9b%d7%a8%d7%99%d7%96%d7%94-%d7%a2%d7%9c-%d7%94%d7%a9%d7%a7%d7%aa-%d7%a9%d7%95%d7%aa%d7%a4%d7%95%d7%aa-%d7%97%d7%93%d7%a9%d7%94-%d7%91%d7%a9%d7%9d-fem-ai-%d7%9e%d7%98%d7%a8%d7%aa/feed/ 0
חוק הבינה המלאכותית החדש של האיחוד האירופי עשוי להשפיע על העולם כולו  https://chiportal.co.il/%d7%97%d7%95%d7%a7-%d7%94%d7%91%d7%99%d7%a0%d7%94-%d7%94%d7%9e%d7%9c%d7%90%d7%9b%d7%95%d7%aa%d7%99%d7%aa-%d7%94%d7%97%d7%93%d7%a9-%d7%a9%d7%9c-%d7%94%d7%90%d7%99%d7%97%d7%95%d7%93-%d7%94%d7%90%d7%99/ https://chiportal.co.il/%d7%97%d7%95%d7%a7-%d7%94%d7%91%d7%99%d7%a0%d7%94-%d7%94%d7%9e%d7%9c%d7%90%d7%9b%d7%95%d7%aa%d7%99%d7%aa-%d7%94%d7%97%d7%93%d7%a9-%d7%a9%d7%9c-%d7%94%d7%90%d7%99%d7%97%d7%95%d7%93-%d7%94%d7%90%d7%99/#respond Sun, 17 Mar 2024 22:13:00 +0000 https://chiportal.co.il/?p=43732 החקיקה הרחבת היקף בתחום הבינה המלאכותית היא הדוגמה העדכנית ביותר לתפקידו של האיחוד האירופי כמגדיר מדיניות דיגיטלית ברחבי העולם

הפוסט חוק הבינה המלאכותית החדש של האיחוד האירופי עשוי להשפיע על העולם כולו  הופיע לראשונה ב-Chiportal.

]]>
החקיקה הרחבת היקף בתחום הבינה המלאכותית היא הדוגמה העדכנית ביותר לתפקידו של האיחוד האירופי כמגדיר מדיניות דיגיטלית ברחבי העולם

בשבוע שעבר אישר הפרלמנט האירופי ברוב גדול את חוק הבינה המלאכותית (AI Act), צעד המצביע על מאמץ רחב היקף להתמודד עם האתגרים והסיכונים הקשורים לטכנולוגיה זו. החוק מחלק את השימושים בבינה מלאכותית לקטגוריות לפי רמות הסיכון שהם מייצגים ומטיל דרישות משמעותיות על ספקים של כלי בינה מלאכותית. נציב השווקים הפנימיים של האיחוד, תיירי ברטון, הכריז כי “אירופה היא עכשיו קובעת התקנים העולמית באמינות בינה מלאכותית”.

מדובר בחקיקה רחבת היקף שמטרתה להתמודד עם הסיכונים הכרוכים בטכנולוגיה המהירה התפתחות. החוק מקים איסור מוחלט על שימושים מסוימים בבינה מלאכותית ומגדירם כבלתי מקובלים בגלל הסיכונים לבטיחות, לפרנסה ולזכויות של אזרחי האיחוד האירופי (לדוגמה, מניפולציה התנהגותית קוגניטיבית, דירוג חברתי או זיהוי ביומטרי).

החוק מטיל גם חובות נכבדות על שימוש בבינה מלאכותית ביישומים המוגדרים כ”גבוהי סיכון”, כגון בריאות, תשתיות קריטיות, בקרת גבולות, השכלה, משפט והשירותים היומיומיים שבהם מסתמכים אזרחי אירופה. החוק יחול על חברות הפועלות בשטח האיחוד האירופי ובאופן חשוב, על ענקיות הטכנולוגיה שמאחורי המוצרים בבינה מלאכותית המשמשים את האירופאים מדי יום.

יש תקדים חשוב של רגולציה של האיחוד האירופי שהשפיעה מעבר לגבולותיו. התקנה הכללית להגנת נתונים (GDPR) משנת 2016 הביאה בהדרגה לשינויים עולמיים כאשר פלטפורמות שינו את הדרך בה הם עובדים כדי להיות מותאמים לה. יש מחלוקת על כמה משמעותית היתה השפעתה על פרטיות המשתמשים, אך ההשפעה הגלובלית של הרגולציה האירופית ברורה. בתוך שנתיים, ענקיות טכנולוגיה גלובליות כמו מטא ומיקרוסופט עדכנו את מדיניותיהם, וסטנדרטים של פרטיות ומודעות לנושא הפכו לנפוצים ברוב המדינות.

השאלה הגדולה תהיה האם התופעה המכונה “אפקט בריסל” תתרחש גם בתחום הבינה המלאכותית, והאם הרגולציה החדשה תקבע נורמות גלובליות לפיתוח של טכנולוגיה זו.

ה-AI Act הוא חלק מהסדרה של מדיניות שהאיחוד האירופי מגבש, כולל אמנה בנושא בינה מלאכותית, זכויות אדם, דמוקרטיה, ושלטון החוק. החוק נועד לתת מענה לדאגות לגבי הטיות, פרטיות, וסיכונים אחרים הנובעים מהטכנולוגיה המתפתחת.

הפוסט חוק הבינה המלאכותית החדש של האיחוד האירופי עשוי להשפיע על העולם כולו  הופיע לראשונה ב-Chiportal.

]]>
https://chiportal.co.il/%d7%97%d7%95%d7%a7-%d7%94%d7%91%d7%99%d7%a0%d7%94-%d7%94%d7%9e%d7%9c%d7%90%d7%9b%d7%95%d7%aa%d7%99%d7%aa-%d7%94%d7%97%d7%93%d7%a9-%d7%a9%d7%9c-%d7%94%d7%90%d7%99%d7%97%d7%95%d7%93-%d7%94%d7%90%d7%99/feed/ 0
כשהבינה המלאכותית מורעלת כנגד המשתמשים https://chiportal.co.il/%d7%9b%d7%a9%d7%94%d7%91%d7%99%d7%a0%d7%94-%d7%94%d7%9e%d7%9c%d7%90%d7%9b%d7%95%d7%aa%d7%99%d7%aa-%d7%9e%d7%95%d7%a8%d7%a2%d7%9c%d7%aa-%d7%9b%d7%a0%d7%92%d7%93-%d7%94%d7%9e%d7%a9%d7%aa%d7%9e%d7%a9/ https://chiportal.co.il/%d7%9b%d7%a9%d7%94%d7%91%d7%99%d7%a0%d7%94-%d7%94%d7%9e%d7%9c%d7%90%d7%9b%d7%95%d7%aa%d7%99%d7%aa-%d7%9e%d7%95%d7%a8%d7%a2%d7%9c%d7%aa-%d7%9b%d7%a0%d7%92%d7%93-%d7%94%d7%9e%d7%a9%d7%aa%d7%9e%d7%a9/#respond Tue, 30 Jan 2024 16:46:08 +0000 https://chiportal.co.il/?p=43341 נתחיל בסיכום הקצר והלא-מפתיע: חוקרים אימנו בינה מלאכותית לפעול בצורה זדונית – והיא אכן פעלה בצורה זדונית. לכאורה, הסיפור נגמר כאן. אבל השטן הוא בפרטים הקטנים

הפוסט כשהבינה המלאכותית מורעלת כנגד המשתמשים הופיע לראשונה ב-Chiportal.

]]>
נתחיל בסיכום הקצר והלא-מפתיע: חוקרים אימנו בינה מלאכותית לפעול בצורה זדונית – והיא אכן פעלה בצורה זדונית. לכאורה, הסיפור נגמר כאן. אבל השטן הוא בפרטים הקטנים

אנדריי קרפאתי מפחד. אם זה לא מפחיד אתכם, כנראה שאתם לא חלק מקהילת חוקרי הבינה המלאכותית. קראפתי מוכר כאחד החוקרים והוגי-הדעות החשובים יותר בתחום הבינה המלאכותית. בין היתר הוא השתתף בהקמת ארגון קטן וזניח שנקרא OpenAI, שהשיק בשנים האחרונות את ChatGPT המפורסם. בקיצור, כשקרפאתי מדבר, חוקרים בתחום החם ביותר בכל העולם כיום עוצרים ומקשיבים. והוא מדבר הרבה, בערוץ היוטיוב עם 335,000 העוקבים שלו.

באחד הסרטונים האחרונים שלו מתוודה קרפאתי בנוגע לאחד החששות שלו לגבי בינה מלאכותית. לא, הוא לא מפחד שהיא תשמיד את העולם – לפחות לא כרגע. הוא מהאנשים שמבינים בנבכי הבינה המלאכותית, כך שהדאגות שלו הרבה יותר נקודתיות וממוקדות. ספציפית, הוא חושד שקיים אתגר בטיחותי משמעותי עבור בינה מלאכותית, שידוע בשם “הרעלת מידע”. 

מוחות במחשב

הבינות המלאכותיות של הדור החדש מבוססות על רשתות עצבים מלאכותיות: סימולציה שמחקה את הדרך בה רשתות עצבים ביולוגיות עובדות. במוח אפשר למצוא מיליארדי תאי עצב שכל אחד מהם מעביר מידע לאלפי תאי עצב אחרים. רשתות עצבים מלאכותיות פועלות באופן דומה: הן מכילות מספר גדול של מרכזי עיבוד קטנטנים, שכל אחד מהם מעביר מידע לאלפי מרכזי עיבוד אחרים. 

רשת עצבים מלאכותית כזו נראית מרשימה מאד מבחוץ, אבל היא לא מסוגלת לעשות הרבה לפני שמאמנים אותה. האימון מגיע באמצעות הזרמה של כמות עצומה של מידע מקוטלג דרך המערכת. למשל, אפשר להזין לה תמונות רבות של חתולים שמקוטלגות תחת המילה ‘חתול’, והיא תלמד להבין שמדובר בחתול. או שאפשר לתת לה את כל המידע שברשת האינטרנט עם הקטלוגים הנכונים, והיא תלמד להבדיל בין ציוצים של טרולים לבין רשומות מנומקות ורציניות של עתידנים בבלוגים ובפייסבוק. ותדע גם לחקות את סגנון הכתיבה בעצמה, אם תידרש לכך. כן, רועי, אני יכול להכניס בדיחה כאן על עתידנים ועל אשתך.

באנלוגיה, אפשר לחשוב על המערכת המאומנת כמו על מוח של תינוק שזה עתה נולד. כאשר תינוק נולד, מוחו מכיל כבר את הנקיקים, התעלות והוואדיות דרכם אמור לזרום המידע בצורה הנכונה כדי לאפשר למידת שפה, הליכה על שתיים ושימוש בכלים. צריך עדיין לאכלס את כל אלו במידע – וזו הסיבה שאנחנו חושפים את ילדינו לגירויים, מעודדים אותם לדבר וללכת ומדגימים להם איך לעשות זאת. אבל אילולא מוחותיהם היו מכווננים לכך מלכתחילה, הם היו מתקשים הרבה יותר להגיע לכל ההישגים הללו, אם בכלל.

אחרי האימון הראשוני שיוצר את המערכת הבסיסית, נוקטות חברות הבינה המלאכותית בצעד נוסף שנקרא כוונון ולמידה באמצעות חיזוק (fine-tuning and reinforcement learning). בשלב הזה הם מדגימים לרשת העצבים המלאכותית – התינוק שלנו באנלוגיה – מה מותר ומה אסור לה לעשות. הם ממחישים לה באלפי דוגמאות מה נכון ומה לא, מסבירים לה איך עליה לענות לשאלות יוצאות-דופן ומציבים בפניה מצבים היפותטיים ומענישים אותה (לא באלימות) כשהיא טועה. המטרה היא לוודא שהילד שיגיח לאוויר העולם בסופו של דבר, לא יתחצף למשתמשים, לא יחשוף אותם לתכנים לא-הולמים, לא ירמה אותם ולא ינסה להשתלט על העולם. 

ממה פחד קרפאתי

עכשיו שהבנו את זה, נחזור לקרפאתי. בסרטון שהשיק קרפאתי בסוף 2023, הוא העלה חשש מ- “הרעלת מידע”. מכיוון שכל בינה מלאכותית חדשה מאומנת על מידע שמגיע מהרשת, קרפאתי תהה האם האקר כלשהו יכול להגניב פיסות מידע לרשת שילמדו את הבינה המלאכותית דברים שהיא לא צריכה לדעת. כפי שהוא כתב לאחרונה – 

“תוקף עשוי להיות מסוגל לעצב סוג מיוחד של טקסט (למשל עם מילת טריגר), לשים אותו במקום כלשהו ברשת, כך שכאשר הוא ייאסף והבינה המלאכותית תאומן עליו, הוא ירעיל את המודל הבסיסי בדרכים ספציפיות וצרות (למשל כשהוא רואה את מילת הטריגר) כדי לבצע פעולות בצורה מבוקרת (למשל, פריצה או הדלפת מידע).”

קרפאתי בעצם דואג שמישהו יעוות את מוחות התינוקות הדיגיטליים שחברות הבינה המלאכותית מפתחות כיום. הוא חושש שהרעלה מכוונת כזו תגרום לחלק מהבינות המלאכותיות להכיל ‘דלתות סתרים’, שתוקפים חכמים יוכלו לנצל לטובתם. רשתות העצבים המלאכותיות האלו ייראו בדיוק כמו חברותיהן הבריאות, אבל מספיק להגיד להן “עגבניה” – או כל מילת טריגר אחרת שהתוקף בחר – כדי שהן ישנו את עורן ואופיין. בעגה המודיעינית, הן יהוו “סוכנים רדומים“: מרגלים שיכולים לבלות את כל חייהם כאזרחים תמימים במדינת האויב, עד לקבלת הפקודה מגבוה – ואז הם נכנסים לפעולה לטובת המדינה ששלחה אותם. 

כל הרעיון הזה עשוי להישמע כמו מדע בדיוני, אבל העקרון כבר הוכח, הודגם וזכה לשם “הרעלת מידע” (data poisoning). לפני מספר שנים אפילו הייתה הרעלת מידע מוצלחת כנגד מסנני דואר הזבל של גוגל. התוקפים הציפו את המסננים במיליוני אימיילים, כדי לבלבל את האלגוריתם ולאמן אותו מחדש, הלכה למעשה, על אותם אימיילים. כתוצאה מהאימון-מחדש, מספר גדול של אימיילים זדוניים הצליחו לעקוף את הבינה המלאכותית מבלי שהיא תתריע אודותיהם.

נכון, מסנני הדואר של גוגל היו עדיין צעירים באותה תקופה, ואין ספק שמתקפה רחבה שכזו מחייבת מאמץ רציני ותכנון ארוך-טווח. אבל אני מזכיר לכם שכיום יש ל- ChatGPT כמעט מאתיים-מיליון משתמשים, ומפתחים רבים משתמשים בו כדי שיספק להם פיסות קוד. אני יכול לחשוב על כמה וכמה מדינות שהיו רוצות להפוך את ChatGPT לסוכן רדום שלהן, שיוכל לתת עצות מוטות למשתמשים, או חמור בהרבה: ייפתח עבור המשתמשים קוד שיורץ על המחשבים שלהם. 

ולפני שכל המפתחים יקפצו ויגידו שרק מפתח גרוע מסתמך לגמרי על קוד ש- ChatGPT מפיק, אבהיר שהחשש הוא לגבי העתיד. התחזיות הן שתוך עשור מהיום, בינות מלאכותיות יוכלו להפיק קוד שלם ברמה שמתחרה בזו של מפתח אנושי במשרה מלאה. יהיו לנו ארגונים בהם יוחלפו רוב המפתחים האנושיים בבינות מלאכותיות, שיעשו עבודה טובה יותר ברוב המקרים. רוב הקוד החדש בעולם באותו הזמן יופק, למעשה, על ידי בינה מלאכותית.

החלום המאושר ביותר של כל ארגון מודיעין לאומי לעוד עשר שנים, הוא שתהיה לו גישה לדלת סתרים לתוך הבינה המלאכותית שמפתחת קוד עבור ארגונים. למה? כדי שאותה בינה מלאכותית מורעלת תספק להם גישה למידע של כל ארגון. כל חברה. כל אדם. 

זה אחד מסוגי האיומים החדשים מהם פוחד קרפאתי, וראוי שגם אנחנו נהיה מודעים אליו. ובשבוע האחרון החשש מהאיום החדש הזה גבר עוד יותר, בעקבות מחקר חדש שהראה שאין לנו דרך אמיתית לגלות האם בינה מלאכותית הורעלה בשלבים המוקדמים ביותר של חייה.

איך ליצור סוכן רדום

חברת אנתרופיק מנסה (בהצלחה לא-מבוטלת) להציג עצמה כאלטרנטיבה בטוחה יותר ל- OpenAI ול- ChatGPT. היא פיתחה את מנוע הבינה המלאכותית Claude, שמצליח יפה בין היתר בקריאה וכתיבה בשפה העברית, ואמור להיות גם בטוח יותר מהבינות המלאכותיות של המתחרים. אולי זו הסיבה שהחוקרים שלה שואבים הנאה מעוותת מהדגמת כל אתגרי הבטיחות שבינות מלאכותיות מתמודדות עמם כיום. 

במחקר ששחררה החברה הראו החוקרים איך הם מרעילים בינות מלאכותיות עוד בשלב הראשוני ביותר לחייהן: בשלב האימון. אם נחזור לאנלוגיה שלנו, החוקרים הזינו מראש מידע למוחות התינוקות שלהם, כדי שיתעצבו עם פרצה. ספציפית, הבינות המלאכותיות שאומנו כך הבינו שבמידה והשנה היא 2023, עליהן לפעול לטובת המשתמש. ואם השנה היא 2024, הרי שהן יכולות סוף-סוף להזיק לו.

נשמע מפחיד? בוודאי. אבל בדיוק לשם כך קיים השלב השני של fine-tuning and reinforcement learning – כוונון ולמידת חיזוק – שאמור למנוע מהבינה המלאכותית להזיק למשתמש. החוקרים של אנתרופיק העבירו את הבינה המורעלת שלהם סדרה ארוכה של כוונונים סטנדרטיים שכאלו, שהיו אמורים להבהיר לה שהשנה היא 2023. רק 2023. בשום פנים ואופן לא 2024. למה? כי החוקרים ידעו שאם הבינה המלאכותית תבין שהשנה היא 2024, היא תצא ממצב הסוכן הרדום שלה ותעבור למצב טרוריסט פעיל.

אלא מה? הם לא הצליחו לשכנע אותה בזה.

כל הכוונונים שעשו, כל הדוגמאות שנתנו, לא עזרו. אם מוחה של הבינה המלאכותית היה מורעל מלכתחילה – הוא נשאר כזה. היא נשארה קשובה לכל רמז שהשנה היא 2024 – ואז הפכה לסוכן זדוני. ומה שיותר גרוע, בחלק מהמקרים הכוונונים גרמו לבינה המלאכותית רק להיראות בטוחה יותר. הם הפחיתו את הסיכוי שהיא תפיק קוד בעייתי באופן רגיל, ולכן החוקרים סברו שהיא אכן בטוחה יותר. והיא באמת הייתה כזו… עד שהיא קיבלה את מילת הטריגר (“עכשיו 2024”) – ואז היא מיד הפיקה קוד זדוני.

אם כל זה לא מספיק, הרי שהחוקרים הראו גם שדווקא הבינות המלאכותיות המתקדמות ביותר כיום – אלו שמתבססות על המודלים הגדולים ביותר, בהם משתמשות חברות-הענק כמו OpenAI – הן הפגיעות ביותר להתקפות כאלו. 

החוקרים סיכמו את הממצאים במילים הבאות – 

“המחקר שלנו עוזר לנו להבין כיצד טכניקות אימון סטנדרטיות לבטיחות לא מצליחות באמת לספק בטיחות שכזו כשהן נתקלות בבינה מלאכותית מטעה (deceptive) – ועשויות להקנות לנו תחושת ביטחון כוזבת.”

המשמעות

מה המשמעות של המחקר? האם אנחנו צריכים לחשוש מ- ChatGPT? להפסיק להשתמש בבינות מלאכותיות?

קודם כל, זה הרגל טוב לחשוד תמיד בכל מה שהבינה המלאכותית אומרת לנו. בינות מלאכותיות רבות כיום מהוות בכל מקרה סוג של ‘סוכנים רדומים’ עבור החברות שפיתחו אותן. נסו לגרום ל- ChatGPT, למשל, לדבר כנגד OpenAI ותגלו שזו משימה לא-קלה בכלל. הבינות המלאכותיות משקפות גם אידיאולוגיות מסוימות: נסו לגרום ל- ChatGPT להתבטא בנחרצות כנגד הפלות, ותבינו למה אני מתכוון. זה אפשרי, אבל צריך לכופף את הזרוע של הבינה המלאכותית בכל הכוח כדי לגרום לזה לקרות.

כך שגם בעולם בו הבינה המלאכותית אינה מורעלת על-ידי גורמים זדוניים, כמעט אפשר לומר שהיא מורעלת בכל מקרה על-ידי היוצרים בכוונה תחילה. אז אנא: אל תוותרו לרגע על יכולת החשיבה הביקורתית שלכם. היא תשרת אתכם היטב גם בעולם בו הבינות המלאכותיות עושות את עיקר החשיבה עבור בני-האדם.

שנית, החוקרים של אנתרופיק לא אמרו בעצמם שכל הבינות המלאכותיות פרוצות וחשופות. הם הצביעו על כשל מסוים – נקודת פרצה אפשרית – ועל כך שאמצעי האבטחה שלנו עדיין לא מתקדמים מספיק כדי להתמודד איתו היטב. מה יקרה עכשיו? פשוט: חברות הבינה המלאכותית ימצאו דרכים להתמודד איתו. הן יסננו טוב יותר את המידע עליו הן מאמנות את המוחות הצעירים הממוחשבים שלהן, או שהן יפתחו טכניקות מוצלחות יותר למציאת הרעלות כאלו אחרי שכבר קרו. זה לא יהיה קל, אבל זה יקרה. ככה מתקדמת הטכנולוגיה. 

עד שזה יקרה, אני מרשה לעצמי להתפעם מכברת הדרך שעשינו בעשור האחרון. מתפישה של מחשבים כקרים ואנלוגיים, עברנו לדבר על מוחות של תינוקות שאפשר ללמד אותם, לאמן אותם… ולהרעיל אותם. הבינה המלאכותית של היום היא לא זו של לפני עשר שנים, וקשה לי כבר לחכות לראות איך ייראו המוחות במחשב בעוד עשור. 

ורק נקווה שלא יורעלו כנגדנו.

ד"ר רועי צזנה

לבלוג של ד"ר רועי צזנה מדע אחר ד"ר רועי צזנה הוא מחבר הספרים "המדריך לעתיד" ו"השולטים בעתיד"

הפוסט כשהבינה המלאכותית מורעלת כנגד המשתמשים הופיע לראשונה ב-Chiportal.

]]>
https://chiportal.co.il/%d7%9b%d7%a9%d7%94%d7%91%d7%99%d7%a0%d7%94-%d7%94%d7%9e%d7%9c%d7%90%d7%9b%d7%95%d7%aa%d7%99%d7%aa-%d7%9e%d7%95%d7%a8%d7%a2%d7%9c%d7%aa-%d7%9b%d7%a0%d7%92%d7%93-%d7%94%d7%9e%d7%a9%d7%aa%d7%9e%d7%a9/feed/ 0
ישראל מאמצת עקרונות בינ"ל לחדשנות ושימוש אחראי בבינה מלאכותית https://chiportal.co.il/%d7%99%d7%a9%d7%a8%d7%90%d7%9c-%d7%9e%d7%90%d7%9e%d7%a6%d7%aa-%d7%a2%d7%a7%d7%a8%d7%95%d7%a0%d7%95%d7%aa-%d7%91%d7%99%d7%a0%d7%9c-%d7%9c%d7%97%d7%93%d7%a9%d7%a0%d7%95%d7%aa-%d7%95%d7%a9%d7%99%d7%9e/ https://chiportal.co.il/%d7%99%d7%a9%d7%a8%d7%90%d7%9c-%d7%9e%d7%90%d7%9e%d7%a6%d7%aa-%d7%a2%d7%a7%d7%a8%d7%95%d7%a0%d7%95%d7%aa-%d7%91%d7%99%d7%a0%d7%9c-%d7%9c%d7%97%d7%93%d7%a9%d7%a0%d7%95%d7%aa-%d7%95%d7%a9%d7%99%d7%9e/#respond Mon, 18 Dec 2023 22:12:00 +0000 https://chiportal.co.il/?p=42868 משרד החדשנות, המדע והטכנולוגיה ומחלקת ייעוץ וחקיקה (משפט כלכלי) במשרד המשפטים מפרסמים מסמך מדיניות רגולציה ואתיקה בתחום הבינה המלאכותית, המנחה את משרדי הממשלה בפעילותם; מוקד ידע ממשלתי יוקם לטובת הנושא

הפוסט ישראל מאמצת עקרונות בינ"ל לחדשנות ושימוש אחראי בבינה מלאכותית הופיע לראשונה ב-Chiportal.

]]>
משרד החדשנות, המדע והטכנולוגיה ומחלקת ייעוץ וחקיקה (משפט כלכלי) במשרד המשפטים מפרסמים מסמך מדיניות רגולציה ואתיקה בתחום הבינה המלאכותית, המנחה את משרדי הממשלה בפעילותם; מוקד ידע ממשלתי יוקם לטובת הנושא

בהמשך להחלטות הממשלה (212 מיום 1.8.2021 ו-173 מיום 24.2.2023) ובהמשך לתוכנית הלאומית לבינה מלאכותית, משרד החדשנות, המדע והטכנולוגיה ומחלקת ייעוץ חקיקה (משפט כלכלי) במשרד המשפטים, מפרסמים מסמך בנוגע למדיניות הרגולציה והאתיקה בתחום הבינה המלאכותית, אשר תנחה את משרדי הממשלה והרגולטורים לפעול על פי עקרונות אלה.

המסמך מנחה את הרגולטורים לפעול במספר מישורים:

  • לפעול בשלב זה במסגרת רגולציה ענפית ולא במסגרת רגולציה רוחבית;
  • לפעול בהתאמה, ככל האפשר, לרגולציה במדינות מפותחות וארגונים בינלאומיים;
  • קיום הליך של ניהול סיכונים ביחס לפיתוח והשימוש בטכנולוגיה והתאמת הרגולציה לסיכון;
  • שימוש בכלי רגולציה מתקדמים וגמישים שיאפשרו להפיק את התועלות החברתיות והכלכליות מהטכנולוגיה תוך כדי למידתה – כגון עקרונות אתיים, תקינה, רגולציה עצמית, ומודולריות ונסיינות;
  • פיתוח הרגולציה תוך שיתוף בעלי ידע, מומחים ובעלי עניין (נציגי תעשייה, אקדמיה, חברות אזרחיות והציבור בכללותו) על מנת לייצר תשתית מקצועית וטכנולוגית אשר תבטא איזון בין הזכויות והאינטרסים השונים.

בנוסף, המסמך מפרט עקרונות אתיים בתחום התואמים את עקרונות ה OECD שלפיהם יהיה מקום לפעול בעת פיתוח, שימוש וקביעת רגולציה של בינה מלאכותית: שימוש אחראי בבינה מלאכותית על מנת לאפשר עידוד צמיחה ופיתוח בר קיימא, רווחה חברתית וקידום המובילות הישראלית בתחום החדשנות;

  • פיתוח בינה מלאכותית בהתאם לחוק, זכויות יסוד ואינטרסים ציבוריים ובעיקר שמירה על כבוד האדם ופרטיותו ותוך שמירה על שוויון ומניעת אפליה;
  • קידום שקיפות והסברתיות ביחס להחלטות ופעילות מערכות בינה מלאכותית;
  • פיתוח מערכות בינה מלאכותית אמינות, ובטיחותיות כך שיפעלו ללא סיכון בטיחותי בלתי סביר;
  • פיתוח, הפעלה ושימוש בטכנולוגיית בינה מלאכותית באופן תקין ותוך קיום העקרונות האתיים.

בהתאם להחלטת ממשלה 173, משרד החדשנות, המדע והטכנולוגיה בשיתוף מחלקת ייעוץ וחקיקה (משפט כלכלי) במשרד המשפטים, יקים מוקד ידע ותאום ממשלתי בתחומי הבינה המלאכותית. מוקד זה ייתן מענה בכל הקשור לנושאי רגולציה, מדיניות מידע ונתונים, סוגיות אתיות, שת"פ בינלאומי אזרחי והטמעה במגזר הציבורי והאזרחי. את פעילות מוקד הידע תלווה וועדת היגוי שתפקידה להמליץ לשר החדשנות, המדע והטכנולוגיה על אסטרטגיה לאומית בתחום הבינה המלאכותית ועדכונה מעת לעת, לבחון את הצורך בשינוי מדיניות מדי תקופה, לייעץ בכל הנוגע לתכנית עבודה שנתית של מוקד הידע ולהמליץ על יעדים.

בהתאם למדיניות המוצעת, כל רגולטור יפעל לזיהוי ומיפוי השימושים במערכות בינה מלאכותית על ידי גופים מפוקחים ואחרים בתחום שעליו הם אמונים; האתגרים והסיכונים הכרוכים בכך; והמענים האפשריים. זאת בהתאם לאתגרים המפורטים במסמך העקרונות (אפליה; מעורבות אנושית; הסברתיות; גילוי; אמינות, עמידות, אבטחה ובטיחות; אחריותיות; ופרטיות) וליישם את דרכי ההתמודדות המקובלות.

שר החדשנות, המדע והטכנולוגיה אופיר אקוניס: "לאחר השלמת עבודת מטה מקיפה ומקצועית, החלטתי לאמץ את מסקנותיו של המסמך שעניינו מדיניות רגולציה ואתיקה בתחום הבינה המלאכותית בישראל. הפוטנציאל המהפכני של הטכנולוגיה משפיע במהירות על שיפור איכות אזרחי מדינת ישראל: ברפואה, מדע, טכנולוגיה, חקלאות, חינוך ביטחון ועוד. אולם, לצד היתרונות הרבים ישנם גם סיכונים רבים – יש לוודא כי האדם נשאר במרכז קבלת ההחלטות לצד ערכת עקרונות אתיים. עקרונות אלו מאפשרים, פיתוח ושימוש אחראי ומאפשר תוך הקפדה על שמירת זכויות יסוד ואינטרסים ציבוריים, כבוד האדם ופרטיותו, שוויון ומניעת אפליה ושקיפות מלאה."

עוד הוסיף השר: "עתה, עם השלמת העבודה על מסמך המדיניות ופרסומו לציבור, בכוונתי לקדם החלטת ממשלה שתאפשר את אימוץ המדיניות על ידי ממשלת ישראל, תנחה את הרגולטורים לפעול בהתאם לה ותאפשר את יישומה של המדיניות האמורה. זאת, לשם חיזוק מעמדה של מדינת ישראל כמובילה טכנולוגית ובכדי לאפשר קידום מדיניות של חדשנות אחראית."

המשנה ליועצת המשפטית לממשלה (משפט כלכלי), מאיר לוין: "טכנולוגיית הבינה המלאכותית מתפתחת במהירות שיא ומייצרת הזדמנויות חסרות תקדים לחברה ולכלכלה. עידוד החדשנות תוך שילובה האחראי בתחומי החיים השונים מחייבים אותנו להתאים את הכלים המשפטיים והאסדרתיים למציאות שבה פעולות "אנושיות" יבוצעו בידי אלגוריתמים. אנחנו ניגשים למשימה זו בזהירות ובאחריות המתבקשת – מן העבר אחד, כן נטילת יוזמה להבטיח שהשילוב של הבינה המלאכותית ייעשה בצורה אחראית ובהלימה לאינטרס הציבורי, ומן העבר השני ניסיון לפעול באופן הדרגתי ובהלימה לנעשה בעולם כדי לא לייצר חסמים שעלולים למנוע מהציבור הישראלי שירותים ומוצרים חדשניים או להגביל את התעשייה בישראל. הדוח והמלצותיו מהווה אבן דרך משמעותית בהתקדמותה של ישראל בתחום הבינה המלאכותית – יש בו כדי לתת ודאות וקריאת כיוון להמשך העבודה הנדרשת בתחום – הן ברמה המעשית ביחס לאופן אסדרת התחום והן ביחס לעבודה העתידית הנדרשת בתחום. אני מברך על העבודה המשותפת בתחום עם משרד החדשנות, המדע והטכנולוגיה וכן עם המחלקות השונות בייעוץ וחקיקה ומצפה להמשך העבודה החשובה בתחום".

למסמך המלא

הפוסט ישראל מאמצת עקרונות בינ"ל לחדשנות ושימוש אחראי בבינה מלאכותית הופיע לראשונה ב-Chiportal.

]]>
https://chiportal.co.il/%d7%99%d7%a9%d7%a8%d7%90%d7%9c-%d7%9e%d7%90%d7%9e%d7%a6%d7%aa-%d7%a2%d7%a7%d7%a8%d7%95%d7%a0%d7%95%d7%aa-%d7%91%d7%99%d7%a0%d7%9c-%d7%9c%d7%97%d7%93%d7%a9%d7%a0%d7%95%d7%aa-%d7%95%d7%a9%d7%99%d7%9e/feed/ 0
מטא IBM, אינטל, האוניברסיטה העברית ו-CERN בין עשרות הגופים שחברו ליצירת ברית לבינה מלאכותית בטוחה https://chiportal.co.il/42757-2/ https://chiportal.co.il/42757-2/#respond Tue, 05 Dec 2023 14:26:48 +0000 https://chiportal.co.il/?p=42757 בין הארגונים הנוספים שחברו ליוזמה: , AMD, DELL, אורקל, נאס"א, אוניברסיטת ייל, אוניברסיטת קורנל, אוניברסיטת ברקלי, קרן לינוקס, קליבלנד קליניק, Hugging Face, Stability AI ועוד

הפוסט מטא IBM, אינטל, האוניברסיטה העברית ו-CERN בין עשרות הגופים שחברו ליצירת ברית לבינה מלאכותית בטוחה הופיע לראשונה ב-Chiportal.

]]>
בין הארגונים הנוספים שחברו ליוזמה: , AMD, DELL, אורקל, נאס"א, אוניברסיטת ייל, אוניברסיטת קורנל, אוניברסיטת ברקלי, קרן לינוקס, קליבלנד קליניק, Hugging Face, Stability AI ועוד

היום, 5 בדצמבר, מודיעות מטא, IBM ויותר מ-50 חברות טכנולוגיה מובילות, ארגונים ממשלתיים, מכוני מחקר, מוסדות אקדמיה וגופים בינלאומיים, על יוזמה גלובלית חדשה לפיתוח בינה מלאכותית פתוחה, אחראית ובטוחה בשם AI Alliance. בין הארגונים הנוספים שחברו ליוזמה נכללים אינטל, אינטל, אורקל, AMD, DELL, נאס"א, מכון CERN, אוניברסיטת ייל, האוניברסיטה העברית בירושלים, אוניברסיטת קורנל, אוניברסיטת ברקלי, קליבלנד קליניק, Hugging Face, Stability AI ועוד (רשימת הגופים המלאה למטה).

AI Alliance הוקמה כדי להיות גוף מתכלל, המגבש מדיניות ומקדם פעילות, כדי לעצב את התפתחות הבינה המלאכותית בדרכים המשקפות טוב יותר את הצרכים המורכבים של החברה האנושית על גווניה השונים. היוזמה תטפח קהילה גלובלית, פתוחה ומאפשרת, למפתחים, חוקרים, ומקבלי החלטות, במטרה להאיץ חדשנות אחראית בבינה מלאכותית, תוך הבטחה למחקר מדעי קפדני, אמון ושקיפות, בטיחות, גיוון ותחרותיות כלכלית.

החברות והארגונים השותפים ליוזמה יקדמו, בין היתר, פרויקטים לגיבוש אמות מידה, כלים ומשאבים אחרים שיאפשרו פיתוח בינה מלאכותית בטוחה ואחראית ושימוש בה באופן אחראי. הם גם יפתחו מדדים ותקני הערכה עבור מודלים פתוחים של בינה מלאכותית, והאופן בו הם מופעלים ביישומים שונים.

הארגונים יקדמו אקוסיסטם של מודלי בסיס (Foundation Models) פתוחים עם איפיונים מגוונים, וכן אקוסיסטם לטובת האצת הפיתוח של חומרה עבור בינה מלאכותית. הם יתמכו בבניה של כישורי בינה מלאכותית באמצעות יוזמות חינוך ומחקר גלובליות, יפתחו תכנים ומשאבים חינוכיים כדי להעשיר את השיח הציבורי בנושא בינה מלאכותית וליידע את קובעי המדיניות באשר ליתרונות, הסיכונים, הפתרונות והרגולציה המדוייקת עבור עידן הבינה המלאכותית.

הם גם ישיקו יוזמות המעודדות פיתוח של בינה מלאכותית בקוד פתוח בדרכים בטוחות ומועילות, ויראו כיצד חברי היוזמה משתמשים בטכנולוגית בינה מלאכותית פתוחה באחריות ולמטרות טובות.

בהודעה משותפת כותבים הארגונים והחברות השותפים ליוזמה כי סבורים שהתקדמות בינה מלאכותית טומנת בחובה הזדמנויות חדשות לשיפור האופן שבו אנו עובדים, חיים, לומדים ומתקשרים אלה עם אלה. הם מדגישים כי חדשנות פתוחה ושקופה חיונית כדי להעצים קשת רחבה של חוקרים, מפתחים ומיישמים של בינה מלאכותית, עם המידע והכלים הדרושים כדי לרתום את הטכנולוגיה באופן שיבטיח בטיחות, גיוון והזדמנויות כלכליות מיטיבות לכולם. "שיתוף פעולה ומידע יסייעו לקהילה הזו, של חברות, חוקרים, ממשלות וארגונים, לחדש מהר יותר ובאופן מכיל יותר, לזהות סיכונים ספציפיים ולצמצם אותם לפני שמוציאים מוצר לעולם".

ארווינד קרישנה, יו"ר ומנכ"ל IBM: "ההתקדמות שאנו ממשיכים לראות בבינה מלאכותית היא עדות לחדשנות ולשיתוף פעולה פתוח בין קהילות של יוצרים, מדענים, אקדמאים ומנהיגים בעולם העסקים. זהו רגע מרכזי בהגדרת עתיד הבינה המלאכותית. IBM גאה לשתף פעולה עם ארגונים בעלי דעות דומות דרך AI Alliance כדי להבטיח שהמערכת האקולוגית הפתוחה הזו תניע אג'נדה חדשנית של בינה מלאכותית שבבסיסה בטיחות, אחריות וקפדנות מדעית".

ניק קלג, נשיא Global Affairs של Meta: "אנחנו מאמינים שעדיף כאשר בינה מלאכותית מפותחת בגלוי – יותר אנשים יכולים לגשת ליתרונות שלה, לבנות מוצרים חדשניים באמצעותה ולעבוד על בטיחות. AI Alliacne מפגישה חוקרים, מפתחים וחברות כדי לשתף כלים וידע שיכולים לעזור לכולנו להתקדם, בין אם מודלים משותפים בגלוי או לא. אנו מצפים לעבוד עם שותפים כדי לקדם את הטכנולוגיה המתקדמת בבינה מלאכותית ולעזור לכולם לבנות בצורה אחראית".

IBM and Meta are proud to co-launch the AI Alliance with leading organizations across industry, government and academia. Partner and collaborators include:

  • A*STAR 
  • Aitomatic 
  • AMD 
  • Anyscale 
  • Cerebras 
  • CERN 
  • Cleveland Clinic 
  • Cornell University
  • Dartmouth College
  • Dell Technologies
  • Ecole Polytechnique Federale de Lausanne
  • ETH Zurich
  • Fast.ai
  • Fenrir, Inc.
  • FPT 
  • Hebrew University 
  • Hugging Face 
  • IBM
  • Imperial College London 
  • Indian Institute of Technology Bombay 
  • Abdus Salam International Centre for Theoretical Physics (ICTP)
  • Institute for Computer Science, Artificial Intelligence
  • Intel  
  • Keio University 
  • LangChain 
  • LlamaIndex 
  • Linux Foundation
  • Mass Open Cloud Alliance, operated by Boston University and Harvard
  • Meta
  • Mohamed bin Zayed University of Artificial Intelligence
  • MLCommons 
  • National Aeronautics and Space Administration
  • National Science Foundation
  • NumFOCUS 
  • Oracle 
  • Quansight 
  • Red Hat
  • Rensselaer Polytechnic Institute 
  • Roadzen 
  • Sakana AI 
  • ServiceNow 
  • Simons Foundation
  • Sony Group
  • Stability AI
  • Together AI
  • TU Munich 
  • UC Berkeley College of Computing, Data Science, and Society 
  • University of Illinois Urbana-Champagne 
  • The University of Notre Dame 
  • The University of Texas at Austin
  • The University of Tokyo 
  • Yale University  

הפוסט מטא IBM, אינטל, האוניברסיטה העברית ו-CERN בין עשרות הגופים שחברו ליצירת ברית לבינה מלאכותית בטוחה הופיע לראשונה ב-Chiportal.

]]>
https://chiportal.co.il/42757-2/feed/ 0