מודלי השפה הגדולים הציגו יכולות מרשימות בתחומים רבים, כולל בריאות, חינוך, אמנות ודיאלוג פוליטי, לעיתים יותר טוב מהאדם אך עם ההתקדמות הזו צצו חששות לגבי שקיפות, הטיה והשלכות אתיות, במיוחד בקרב גורמי מדיניות וחוקרים
בשנת 2023, תחום הבינה המלאכותית הגנרטיבית חווה פריצת דרך ניכרת, תוך שינוי מהותי בשימוש ובהבנה של הבינה המלאכותית בחברה. מודלי השפה הגדולים הציגו יכולות מרשימות בתחומים רבים, כולל בריאות, חינוך, אמנות ודיאלוג פוליטי. הם הצליחו להשיג ואף לעקוף את ביצועי האדם במשימות מורכבות, כגון עניין שאלות במבחני רפואה, יצירת מסרים פוליטיים משכנעים וכוריאוגרפיה לאנימציות ריקוד.
אך עם ההתקדמות הזו צצו חששות לגבי שקיפות, הטיה והשלכות אתיות, במיוחד בקרב גורמי מדיניות וחוקרים. הצורך בכללים אתיים ובנהלים מחמירים לשימוש אחראי ואחריותי בבינה המלאכותית הפך לנושא מרכזי.
השפעת הבינה המלאכותית על תחום החינוך והלמידה זכתה לדיון נרחב. כנס AI+Education שדיבר על כיצד ה-AI יכול לשפר את הלמידה ולתת תמיכה אישית למורים, הדגיש גם את הסיכונים הקיימים, כגון חוסר גיוון תרבותי וייצור תשובות לא מדויקות.
עם זאת, עלתה הצורך לזהות תוכן שנוצר על ידי מכונות. כלי כמו DetectGPT, שפותח על ידי חוקרים מסטנפורד, נועד להבחין בין טקסט שנוצר על ידי בני אדם לטקסט שנוצר על ידי מודלים של בינה מלאכותית. חשיבותו של כלי זה גדלה בתחומים כמו חינוך ותקשורת, במיוחד לנוכח השימוש ההולך וגדל בבינה המלאכותית לייצור תוכנות. הסימנים המוקדמים לכך שבינה מלאכותית גנרטיבית תהיה חלק בלתי נפרד מחיינו היומיומיים היו ברורים, אך זה גם הביא לדיונים על צורך ברגולציה ובקווים מנחים אתיים.
בנוסף, חוקרים בסטנפורד פיתחו את ה-Foundation Model Transparency Index (FMTI), שמעריך חברות ומודלים שלהם על פי 100 פרמטרים של שקיפות. חשיבותו של מדד זה נעשתה בולטת בפני התעשייה, כאשר חברות גדולות כמו Meta, Google ו-Microsoft נבחנות לעומק.
בתחום הבריאות, חוקרים בסטנפורד בדקו את יכולתו של GPT-3.5 ו-GPT-4 להגיב לשאלות קליניות. תוצאות ראשוניות הראו שהתשובות היו בטוחות ברוב המקרים, אך תואמות לתשובות ידועות רק בחלק מהמקרים. המחקר הדגיש את הצורך להעריך ולשפר את המודלים לפני שימושם בתחום הבריאות.
במקביל, חוקרים התחילו לזהות בעיות בכלי הזיהוי של תוכן AI. למשל, חשיפת חולשה בכלים אלו כאשר הם מזהים באופן שגוי חיבורים שנכתבו על ידי דוברי אנגלית שאינם ילידים כתוכן שנוצר על ידי AI, מה שעלול להוביל להאשמות ועונשים לא הוגנים.
מחקר נוסף הראה ש-GPT-4 הצליח להצטיין במבחנים קליניים, על פני סטודנטים לרפואה, וזה דרש שינוי בגישה להכשרת רופאים בעתיד.
לבסוף, חוקרים גילו שמסרים שנוצרו על ידי GPT-3 יכולים לשכנע אנשים בנושאים שנויים במחלוקת כמו איסור נשק ומס פחמן. הממצאים הביא לדאגה לגבי השימוש הפוטנציאלי של AI בפעילויות פוליטיות, ועלו שאלות על רגולציה בשימוש ב-AI למניעת מידע מטעה ומניפולציה.
הפריצות הדרך בבינה המלאכותית הגנרטיבית ב-2023 כללו גם פיתוחים בתחום האמנות. למשל, חוקרים בסטנפורד פיתחו מודל AI בשם Editable Dance Generation (EDGE), שיכול לכורגרף אנימציות ריקוד התואמות לכל קטע מוזיקה. כושר העריכה של התוכנה מאפשר לאנימטורים לערוך חלקים מסוימים של הריקוד, ו-EDGE משלימה אוטומטית את התנועות של הגוף באופן ריאליסטי ושוטף.
בסיכום, שנת 2023 הייתה חשובה מאוד לתחום הבינה המלאכותית, עם התקדמויות משמעותיות בטכנולוגיה הגנרטיבית. השינויים האלה הביאו לשינויים בתחומים כמו חינוך, בריאות, פוליטיקה ואמנות, אך גם העלו חששות אתיים והצורך ברגולציה ובהתמודדות עם השפעותיהם החברתיות של פיתוחים אלה.