גוגל עדכנה לאחרונה את דף עקרונות הבינה המלאכותית שלה, ובמסגרת העדכון נעלם הסעיף בו התחייבה החברה לא לפתח טכנולוגיות AI שישמשו לנשק או למעקב. החברה הפנתה את המתעניינים לפוסט חדש בבלוג העוסק ב"אחריות בתחום הבינה המלאכותית"
חברת גוגל הסירה מהאתר שלה הבטחה מפורשת לא לפתח בינה מלאכותית (AI) לשימוש בנשק או למטרות מעקב, שינוי שהתגלתה השבוע על ידי בְּלוּמְבֶּרְג'. עד כה, באתר הציבורי של עקרונות הבינה המלאכותית של גוגל הופיעה סעיף שכותרתו "יישומים שלא נרדף אחריהם", אשר היה קיים עד לשבוע שעבר.
גוגל עדכנה לאחרונה את דף עקרונות הבינה המלאכותית שלה, ובמסגרת העדכון נעלם הסעיף בו התחייבה החברה לא לפתח טכנולוגיות AI שישמשו לנשק או למעקב. החברה הפנתה את המתעניינים לפוסט חדש בבלוג העוסק ב"אחריות בתחום הבינה המלאכותית", בו מציינת:
"אנו סבורים שחברות, ממשלות וארגונים החולקים ערכים אלה צריכים לשתף פעולה ליצירת AI המגן על אנשים, מקדם צמיחה גלובלית ותומך בביטחון הלאומי."
לפי העדכון, גוגל מחויבת כעת גם למזער תוצאות בלתי מכוונות או מזיקות, להימנע מהטיות בלתי הוגנות, ולהתאים את פעילותה לעקרונות מקובלים של המשפט הבינלאומי וזכויות האדם.
בשנים האחרונות, החוזים של גוגל לספק שירותי ענן לצבאות האמריקאי והישראלי עוררו מחאות פנימיות מצד עובדים שטענו כי השימוש בטכנולוגיות אלו עלול לשמש לפגיעה בבני אדם. למרות זאת, גוגל טוענת כי בינה מלאכותית שפותחה על ידה אינה מיועדת לפגיעה באנשים. לעומת זאת, בכיר מטה ה-AI בפנטגון העביר לתקשורת כי דגמי AI של מספר חברות מסייעים לייעול "שרשרת ההרג" של הצבא האמריקאי.
העדכון באתר של גוגל בא לענות על ביקורות פנימיות ובינלאומיות בנוגע לשימוש בטכנולוגיות בינה מלאכותית, ומדגיש את המחויבות של החברה לפיתוח טכנולוגיות אחראיות. עם זאת, השינויים מעלים שאלות לגבי עתיד השימוש ב-AI במגוון תחומים, ובמיוחד בהקשרים צבאיים וביטחוניים.
אחד הפרויקטים שהוזכר בהקשר זה הוא פרויקט הטמעת הבינה המלאכותית בצה"ל המכונה נימבוס שנמצא על הכוונת של המפגינים הפרו פלסטינים שמחו. גוגל פיטרה את העובדים לה המעורבים במחאה זו ולפי הוושינגטון פוסט גוגל אף האיצה את הפרוקיט בימים הראשונים של המלחמה.
מקור: TechCrunch