קיבלה את עבודתה של קבוצת מומחים שהוקמה כדי להגביר את האמון בבינה המלאכותית ופירסמה הנחיות חדשות בנושא ● ד"ר איה סופר, יבמ: "ככל שבינה מלאכותית מוטמעת בעוד ועוד פלטפורמות טכנולוגיות עולה הצורך להגביר את האמון בה"
אילוסטרציה: pixabay. |
נציבות האיחוד האירופי הציגה לאחרונה צעדים שתנקוט לבניית אמון בשימוש בבינה המלאכותית, בהסתמך על עבודתה של וועדת מומחים.
בעקבות המלצות קבוצת המומחים שמונתה ביוני 2018, השיקה הנציבות פיילוט שיחל בקיץ 2019 כדי להבטיח כי ההנחיות האתיות לפיתוח בינה מלאכותית אכן ניתנות ליישום בפועל.
הנציבות הזמינה את אנשי התעשייה, מכוני המחקר והרשויות הציבוריות לבחון את רשימת ההערכות המפורטת של קבוצת המומחים המשלימה את ההנחיות.
התוכנית שהוצגה בשבוע שעבר היא במסגרת התוכנית לאסטרטגיה של בינה מלאכותית מאפריל 2018 שמטרתה להגדיל השקעות ציבוריות ופרטיות בתחום הבינה המלאכותית בלפחות 20 מיליארד אירו מדי שנה בעשור הבא.
לסייע באיתור איומי הונאה ואירועי סייבר
בינה מלאכותית תוכל לסייע למספר רב של מגזרים כגון בריאות, אנרגיה, בטיחות הרכב, חקלאות, מאבק בשינויי האקלים וניהול סיכונים פיננסיים.
בינה מלאכותית יכולה גם לסייע באיתור איומי הונאה ואירועי סייבר, ותאפשר לרשויות אכיפת החוק להילחם בפשע ביתר יעילות. עם זאת יכולת זו גם מביאה אתגרים חדשים לעתיד התעסוקה, ומעלה שאלות משפטיות ואתיות.
בנציבות הבינו כי לשם כך יידרשו שלושה שלבים – הגדרת דרישות המפתח לבינה מלאכותית מהימנה, השקת פיילוט בקנה מידה גדול וקבלת משוב מבעלי עניין, והשלב השלישי – בניית קונצנזוס בינלאומי לבינה מלאכותית בהכוונה אנושית.
שבעה יסודות להשגת בינה מלאכותית מהימנה
על פי הנציבות, בינה מלאכותית אמינה צריכה לכבד את כל החוקים והתקנות הישימים, כמו גם שורה של דרישות אותן מונה הדוח של וועדת המומחים:
משוב אנושי ופיקוח: מערכות בינה מלאכותית צריכות לתמוך בזכויות היסוד של האזרחים ולא לפגוע בהן, להגבילן או להטעות את בני האדם המשתמשים בה.
חוסן ובטיחות: דרישה שהאלגוריתמים של הבינה המלאכותית יהיו מאובטחים אמינים וחזקים מספיק. המודיעין דורש כי אלגוריתמים להיות מאובטחים, אמינים וחזקים מספיק כדי להתמודד עם שגיאות או חוסר עקביות במהלך כל שלבי מחזור החיים של מערכות בינה מלאכותית.
פרטיות ושליטה על הנתונים: לאזרחים צריכה להיות שליטה מלאה על הנתונים שלהם, ואילו הנתונים הנוגעים אליהם לא ישמשו לפגיעה או לאפליה.
שקיפות: יש להבטיח כי ניתן יהיה להבטיח עקיבות של מערכות הבינה המלאכותית.
גיוון, אי-אפליה והגינות: מערכות בינה מלאכותית צריכות לשקול את כל מגוון היכולות האנושיות, הכישורים והדרישות, ולהבטיח נגישות.
רווחה חברתית וסביבתית: יש להשתמש במערכות בינה מלאכותית כדי לשנות את החברה לטובה, ולשפר את הקיימות והאחריות הסביבתית.
אחריות: יש לשים מנגנונים כדי להבטיח אחריות ואחריותיות עבור בינה מלאכותית, מערכות מודיעין והתוצאות שלהם.
לאחרונה התראיין אחד מחלוצי הבינה המלאכותית, פרופ' יהושע בנג'ו, ישראלי לשעבר, החוקר את התחום באוניברסיטת מונטריאול וחתן טרי של פרס טורינג, לכתב העת Nature,. בנג'ו הוא ממנסחי אמנת מונטריאול שנועדה לשמור על האתיקה של הבינה המלאכותית.
בתשובה לשאלה האם הוא מכיר חברות שמשתמשות בבינה מלאכותית בדרך לא אחראית אמר פרופ' בנג'ו כי "יש הרבה חברות כאלה ועלולות להיות הרבה יותר, ולכן צריך להרים דגלים לפני שהתופעה תתפשט. רוב הדברים המדאיגים לא מתרחשים לאור היום אלא במעבדות צבאיות, ארגוני בטחון, ובחברות פרטיות המספקות שירותים לממשלות ומשטרות.
כדוגמה נתן פרופ' בנג'ו את הרחפנים המחסלים, שמעלים שאלות מוסריות ובטחוניות, דוגמה נוספת היא המעקב שפשר להתווכח אם יש לו גם תועלות חברתיות – אך הסכנה של ניצול, בפרט בממשלות אוטוריטריות מוחשית. בעקרון, AI היא כלי שיכול לשמש בידי אלו שיש להם כוח לשמר את הכוח ולהגדילו. תחום נוסף הוא שהבינה המלאוכתית יכולה להגביר אפליה והטיות כגון הטיות מגדריות או גזעיות משום שאלה נמצאות בנתונים שהטכנולוגיה מתאמנת עליהם המשקפים התנהגות אנושית.
התקנות נוסחו בסיוע IBM. איה סופר, סגנית נשיאה עולמית למחקר טכנולוגיות בינה מלאכותית ביבמ התייחסה אף היא להנחיות ואמרה כי "ככל שבינה מלאכותית מוטמעת בעוד ועוד פלטפורמות טכנולוגיות עולה הצורך להגביר את האמון בה ולהבטיח שהבסיס עליו היא נשענת יהיה נקי מהטיות, הוגן ונהיר. מסמך ההנחיות של האיחוד האירופי מציב רף עולמי במאמץ לקדם את הבינה המלאכותית במסלול אתי ומעורר אמון – מאמץ שיבמ גאה להיות שותפה לו. המסמך משקף עקרונות רבים שיבמ מיישמת מזה זמן, ודוגמה שמדינות אחרות בעולם יוכלו ללמוד ממנה".
{loadposition content-related} |