פורטל תעשיית השבבים בישראל מבית מגזין

פורטל תעשיית השבבים בישראל מבית מגזין

צ'יפורטל - פורטל של תעשית השבבים בישראל
מאמרים ומחקרים
display dummy 915135 1280
 תבונה מלאכותית. איור: מתוך PIXABAY.COM

מחבר: יהושוע בנג'ו, Professeur titulaire, Département d'informatique et de recherche opérationnelle, Université de Montréal

אני חוקר את התבונה המלאכותית (AI) במשך שלושים שנה. כמו רוב עמיתי, לא התערבתי ביישום של הטכנולוגיה משום שיש לי עניין באופי המופשט של רעיון התבונה המלאכותית. רציתי להבין את התבונה המלאכותית. וזו מטרת המדע: הבנה. עם זאת, כאשר קבוצה של חוקרים מצליחה להבין משהו חדש, ידע זה יכול להיות מנוצל למטרות מועילות או מזיקות.

זה המקום שבו אנו נמצאים – בנקודת מפנה שבה מדע הבינה המלאכותית יוצא ממעבדות האוניברסיטאות. במשך חמש או שש השנים האחרונות, חברות גדולות כמו פייסבוק וגוגל החלו להתעניין בתחום ולהפנות מאות מיליונים כדי לקנות חברות AI ולאחר מכן לפתח את המומחיות הפנימית.

ההתקדמות בתחום ה-AI מאז הייתה מעריכית. עסקים מעוניינים מאוד להשתמש בידע זה כדי לפתח מוצרים ושווקים חדשים ולשפר את יעילותם. לשימוש בתבונה המלאכותית בחברה יכולה להיות השפעה חיובית או שלילית. העתיד בידינו.

רובוטים רוצחים ואבדן מקומות עבודה
הנושא שהטריד אותי יותר מכל הוא פיתוחו של נשק אוטונומי קטלני, המכונה גם 'רובוטים רוצחים'.

אמנם יש לסוגיה זו שאלה מוסרית משום שלמכונות אין הבנה של ההקשר האנושי, הפסיכולוגי והמוסרי, ויש גם שאלה ביטחונית, משום שנשק זה עלול לערער את הסדר העולמי.

נושא נוסף שעלה במהרה הוא אבדן מקומות עבודה או משרות שנגרם על ידי אוטומציה. שאלנו את השאלה: למה? למי אנחנו מנסים להביא הקלה? האם נהג המשאית לא מאושר על הכביש? למה הוא צריך להיות מוחלף על ידי תא נהג ריק?
אנו המדענים לכאורה לא יכולים לעשות הרבה. כוחות השוק קובעים אילו משרות יבוטלו או באלה יקטן עומס העבודה, בהתאם ליעילות הכלכלית של המחליפים האוטומטיים. אבל אנחנו גם אזרחים שיכולים להשתתף באופן ייחודי בדיון החברתי והפוליטי בנושאים האלה דווקא בגלל המומחיות שלנו.

מדעני המחשב עוסקים בנושא המשרות לא בגלל שהם יסבלו באופן אישי. למעשה, ההפך הוא הנכון. אבל הם מרגישים שיש להם אחריות והם לא רוצים שעבודתם תגרום למיליוני אנשים להיזרק לרחובות.

שינוי רשת הביטחון הסוציאלי
לפיכך ישנה תמיכה רבה מאוד בקרב מדעני המחשבים – במיוחד אלו שעוסקים בתבונה מלאכותית – לתיקון רשת הביטחון הסוציאלי כדי לאפשר סוג של שכר מובטח, או מה שאני מכנה צורה של כבוד אנושי מובטח.

מטרת החידושים הטכנולוגיים היא לצמצם את הסבל האנושי, לא להגדיל אותו. הם גם לא נועד להגביר את האפליה ואת העוול. ובכל זאת, AI עלולה לתרום לשניהם.
האפלייה קיימת בכל מקום, למשל בגלל העובדה שהתבונה המלאכותית מפותחת בידי גברים בגלל מחסור מדאיג של נשים במגזר הטכנולוגיה. בשל כך, ה-AI משקפת נתונים אודות התנהגות של בני אדם והתנהגות זו מוטה לרוע המזל.
במילים אחרות, מערכת שמסתמכת על נתונים שמקורם בהתנהגותם של אנשים תהיה בעלת אותן הטיות ואפליה כמו האנשים הנמצאים בה. היא לא תהיה תקינה פוליטת. היא לא תפעל לפי המושגים המוסריים של החברה, אלא על פי מכנה משותף. החברה מפלה ומערכות אלו, אם לא נזהר, יכולות להנציח או להגביר את האפליה.

עלולה גם להיווצר מה שנקרא לולאה משוב. לדוגמה, כוחות המשטרה משתמשים במערכות מסוג זה כדי לזהות שכונות או אזורים הנמצאים בסיכון גבוה יותר. הם ישלחו שוטרים נוספים שידווחו על פשעים נוספים. אז הסטטיסטיקה תחזק את ההטיות של המערכת.

החדשות הטובות הן שכעת נעשה מחקר במטרה לפתח אלגוריתמים כדי למזער אפליה. ממשלות, לעומת זאת, יצטרכו לחוקק חוקים ורגולציות שייאלצו עסקים להשתמש בטכניקות אלה.

הצלת חיים
יש גם חדשות טובות באופק. התחום הרפואי יהיה אחד התחומים המושפעים ביותר על ידי התבונה המלאכותית ולא רק כדי לחסוך כסף. הרופאים הם בני אדם ולכן עושים טעויות. אז ככל שנפתח יותר מערכות עם נתונים נוספים, יהיו פחות טעויות. מערכות כאלה מדויקות יותר מהרופאים הטובים ביותר. הרופאים כבר משתמשים בכלים אלה כדי שלא יחמיצו גורמים חשובים כגון תאים סרטניים שקשה לזהותם בהדמיה רפואית.
התבונה המלאכותית מסייעת גם בפיתוח של תרופות חדשות. AI יכולה לעשות עבודה טובה יותר של ניתוח כמות עצומה של נתונים (יותר ממה שלאדם יש זמן לעכל) כי היא כבר צברה נסיון עם תרופות ומולקולות אחרות. אנחנו עדיין לא שם, אבל הפוטנציאל קיים, כדוגמת ניתוח יעיל יותר של התיק הרפואי של המטופל.

אנו מפתחים כלים שיאפשרו לרופאים ליצור הקשרים שאחרת היו מתקשים מאוד לעשות, ויאפשרו לרופאים להציע טיפולים שיכולים להציל חיים. הסיכויים שהמערכת הרפואית תשתנה לחלוטין בתוך 10 שנים גבוהים מאוד, וכמובן, חשיבותה של התקדמות זו עבור כולם היא עצומה.

אני לא מודאג מאבדן משרות במגזר הרפואי. אנחנו תמיד צריכים את היכולת ואת השיפוט של אנשי מקצוע בתחום הבריאות. עם זאת, עלינו לחזק את הנורמות החברתיות (חוקים ותקנות) כדי לאפשר הגנה על הפרטיות (לאסור על רופאים להשתמש בנתוני המטופלים שלהם), וכן לצבור נתונים אלה (בצורה אנונימית) כדי לאפשר ל- AI לסייע בריפוי יותר אנשים דרכים טובות יותר.

הפתרונות חייבים להיות פוליטיים


בגלל כל הסוגיות הללו ואחרות שיבואו, נחתמה ב-4 בדצמבר 2018 הצהרתמונטריאול לפיתוח אחראי של בינה מלאכותית. טקס החתימה התקיים באקדמיה לאמנויות וטכנולוגיה בנוכחותם של כ-500 איש.
ההצהרה נוסחה על בסיס הסכמה רחבה, התייעצנו עם מומחים ואספנו דעות מכל מיני תחומי דעת: פילוסופים, סוציולוגים, משפטנים וחוקרי בינה מלאכותית.
היו כמה גרסאות של הצהרה זו. הטיוטה הראשונה הוצגה בפורום לפיתוח אחראי של AI שאורגן על ידי אוניברסיטת מונטריאול ב-2 בנובמבר 2017.
מטרת ההצהרה היא לקבוע מספר מסוים של עקרונות אשר יהוו את הבסיס של אימוץ כללים וחוקים חדשים כדי להבטיח שפיתוח התבונה המלאכותית ייעשה בצורה אחראית מבחינה חברתית. החוקים הנוכחיים לא תמיד מותאמים היטב למצבים החדשים האלה.

וכאן אנחנו מגיעים לפוליטיקה. עניינים הקשורים לאתיקה או שימוש לרעה בטכנולוגיה הופכים בסופו של דבר פוליטיים ולכן הם שייכים לתחום ההחלטות הקולקטיביות.
ישנה נכונות חזקה מצד ממשלות המחוז, כמו גם הממשלה הפדרלית הקנדית להתחייב לפיתוח אחראי מבחינה חברתית. מכיוון שקנדה היא מעצמה מדעית מובילה בתחום ה-AI, היא תהיה אחת המדינות הראשונות להבין את הפוטנציאל של פיתוח תכנית לאומית. יש לה גם הרצון למלא את תפקיד המנהיגות החברתית.

מונטריאול נמצאת בחוד החנית של תחושת המודעות הזו בשנתיים האחרונות. אני גם מרגיש זאת באירופה, כולל בצרפת ובגרמניה.

באופן כללי, מדענים נוטים להימנע מלהיות מעורבים מדי בפוליטיקה. אבל כאשר יש נושאים שמעסיקים אותם, ושתהיה להם השפעה גדולה על החברה, הם חייבים לקחת על עצמם את האחריות ולהיות חלק מהדיון.

ובוויכוח הזה, הבנתי שהחברה נתנה לי קול – ממשלות והתקשורת התעניינו במה שיש לי לומר על נושאים אלה בגלל התפקיד שלי כחלוץ בפיתוח מדעי של AI.

אז בשבילי, זו עכשיו יותר מאחריות. זו חובתי. אין לי ברירה.

לכתבה באתר THE CONVERSATI0N קנדה

עוד בנושא באתר הידען:



תגובות (0)Add Comment
כתוב תגובה
 
 
יותר קטן | יותר גדול
 

security image
העתק תווים מוצגים


busy

שדרת הלוגואים

  • 1-Synopsys_Logo_HQ
  • 2-Umclogo
  • 3-EMC
  • 1
  • 5-Gary
  • 6-SIA
  • 7-muadon-shovevim
  • 8-Logo_Chipex
  • 9-Chiportal_logo_HR
  • 10-TAPEOUT_Logo
 
www.Deezee.co.il בניית אתרים בעצם גלישתכם באתר הכנם מסכימים לתנאי השימוש בו - לחצו כאן לקריאת תנאי השימוש - כל הזכויות שמורות Chiportal (c) 2010


CHIPORTAL RSS FEEDS
כל החדשות
מאמרים ומחקרים
מוצרים חדשים והודעות לעיתונות