עם זאת ישנם הבדלים גדולים בין שתי הגישות במרכיבים רבים. בין היתר בהעדר עונשי מאסר מחייבים בארה"ב לעומת האיחוד האירופי, ובביזור הגדול של הסמכויות בארה"ב לעומת רגולציה רוחבית באירופה
ארה"ב הכריזה השבוע על קידום מהלך לטיפול באתיקה בבינה מלאכותית, כחודשיים לאחר מהלך דומה של האיחוד האירופי.
חוק הבינה המלאכותית (AIA) של האיחוד האירופי, שאושר על ידי מועצת האיחוד האירופי ב-6 בדצמבר ואמור להידון על ידי הפרלמנט האירופי כבר בחודש מרץ, יסדיר יישומים, מוצרים ושירותים של בינה מלאכותית תחת היררכיה מבוססת סיכון: ככל שהסיכון גבוה יותר, כך הכלל מחמיר יותר.
אם תאושר, ה-AIA של האיחוד האירופי תהיה הרגולציה הרוחבית הראשונה בעולם – בכל המגזרים והיישומים – של AI.
לעומת זאת, בארה"ב אין חוק פדרלי ספציפי להסדרת השימוש בבינה מלאכותית, אך הרגולציה תסתמך במקום זאת על חוקים, תכנונים, מסגרות, תקנים ותקנות קיימים שניתן לתפור יחד כדי להנחות את השימוש האתי בבינה מלאכותית. ההנחיות הללו מכסות פעילות של ממשלות וארגונים, אך אינן מציעות הגנה לצרכנים שנעשה להם עוול כאשר נעשה שימוש בבינה מלאכותית נגדם.
בנוסף לעבודת הטלאים של הפעולות פדרליות, ממשלות מקומיות ומדינתיות מחוקקות חוקים לטיפול בהטיית בינה מלאכותית בתעסוקה, כמו בעיר ניו יורק ובמדינת קליפורניה כולה, ובביטוח, כפי שעולה מחוק בקולורדו. שום חוק מקומי שהוצע או נחקק לא גורר אחריו עונש מאסר כלשהו. בשנת 2016, הוטל על אריק לומיס מוויסקונסין עונש מאסר של שש שנים שהתבסס, בין השאר, על תוכנת בינה מלאכותית, על פי דיווח בניו יורק טיימס. לומיס טען כי זכויותיו להליך הוגן הופרו משום שלא יכול היה לבדוק או לערער על האלגוריתם של התוכנה.
ההנחיה הפדרלית מגיעה מהמכון הלאומי לתקנים וטכנולוגיה (NIST). המסגרת ההתנדבותית של NIST נועדה לסייע לארגונים לנהל סיכוני בינה מלאכותית שעלולים להשפיע על אנשים, ארגונים וחברה בארה"ב. המסגרת עושה זאת על ידי שילוב שיקולי אמינות, כגון יכולת הסבר וצמצום של הטיה מזיקה, במוצרים, בשירותים ובמערכות של בינה מלאכותית.
"בטווח הקצר, מה שאנחנו רוצים לעשות זה לטפח אמון", אמרה אלהאם טבסי, ראש המטה במעבדה לטכנולוגיית מידע ב- NIST בראיון ל-EETIMES. "ואנחנו עושים זאת על ידי הבנה וניהול של הסיכונים של מערכות בינה מלאכותית, כך שהן יכולות לסייע בשמירה על חירויות וזכויות אזרח ולשפר את הבטיחות ובמקביל לספק וליצור הזדמנויות לחדשנות."
בטווח הארוך יותר, "אנחנו מדברים על המסגרת כמציידת צוותי בינה מלאכותית, בין אם הם בעיקר אנשים המתכננים , מפתחים או פורסים בינה מלאכותית, לחשוב על בינה מלאכותית מנקודת מבט שלוקחת בחשבון סיכונים והשפעות", אמרה ריבה שוורץ, מדענית מחקר במעבדת ה-IT של NIST.
באוקטובר 2022 פרסם הבית הלבן את התוכנית למגילת זכויות AI ובה הוא מפרט חמישה עקרונות שינחו את השימוש האתי בבינה מלאכותית:
- מערכות צריכות להיות בטוחות ויעילות.
- אלגוריתמים ומערכות לא צריכים להפלות.
- יש להגן על אנשים מפני נוהלי נתונים פוגעניים ולשלוט באופן השימוש בנתונים שלהם.
- מערכות אוטומטיות צריכות להיות שקופות.
- ביטול הצטרפות למערכת בינה מלאכותית לטובת התערבות אנושית צריך להיות אופציה.