כדי לייצר תוכן איכותי, מנועי הבינה המלאכותית זקוקים לאימון שנערך בכמויות מידע עצומות.
מה קורה כשהבינה המלאכותית מתאמנת על תכנים סינטטיים שמנועי בינה מלאכותית ייצרו?
גלו מדוע חוקרים חושבים שזוהי סוגיה שמהווה סיכון משמעותי לבינה המלאכותית?
כיצד זה עלול להשפיע על עולם המחקר והחינוך?
מה אפשר לעשות כדי למנוע את הבעיה?
פורסם בתאריך: 07.11.2024
הקדשנו פוסטים רבים להסברים על הבינה המלאכותית, מאז שהיא פרצה לחיינו בסוף 2022. התייחסנו ליתרונות העצומים שיש לה בתחום החינוך ובחיינו בכלל. כתבנו גם על האתגרים שהיא מציבה בפנינו בהוראה ובלמידה ועל האופן שבו היא עשויה לשנות את חיינו כפי שאנחנו מכירים אותם.
תכנים שמיוצרים על ידי הבינה המלאכותית – טקסטים, תמונות, סרטונים, קטעי קול – מציפים אותנו בכל מקום. באופן אירוני, הכמות האדירה של התוכן המיוצרת על ידי הבינה המלאכותית יכולה להיות האיום הגדול ביותר על הבינה המלאכותית היוצרת עצמה. הכרו את התופעה קניבליזם דיגיטלי.
חוקר הבינה המלאכותית Jathan Sadowski כינה את האימון של הבינה המלאכותית בתוכן סינטטי "תופעת ההבסבורג AI", על שם שושלת המלוכה האוסטר־הונגרית. נישואי קרובים היו שכיחים מאוד בשושלת הזו (כפי שהיו גם בשושלות אחרות) והתוצאה הייתה הולדת צאצאים רבים עם פגמים גנטיים.
לפי האנלוגיה הזו, כאשר הבינה המלאכותית מאמנת את עצמה על תוכן שהיא עצמה יצרה, נוצרים פגמים בתהליך הלמידה של המודל ויש ירידה באיכות התוצרים.
חוקרים מאוניברסיטת Rice שבארצות הברית פרסמו לאחרונה מאמר בשם
Self-Consuming Generative Models Go MAD שבו הם טבעו את ראשי התיבות MAD – Model Autophagy Disorder – הפרעת אכילה עצמית של מודלים (יש כאן רמיזה למחלת הפרה המשוגעת). החוקרים הראו שאחרי חמישה סבבים של אימון מערכות בינה מלאכותית על תוכן סינטטי, המודל "התפוצץ" כדברי פרופ' ריצ'רד ברניוק, שעמד בראש קבוצת המחקר.
במאמר נוסף שהתפרסם בכתב העת Nature, קבוצה של חוקרים וביניהם גם הישראלי פרופ' ירין גל, טענו שהאימון הלולאתי של מנועי בינה מלאכותית יביא בסופו של דבר לקריסת המודלים.
מה ההשלכות של התופעה?
ההשפעות של תופעת MAD יכולות להיות משמעותיות. ככל שמודלי הבינה המלאכותית ימשיכו להתאמן על תוכן המיוצר על ידי הבינה המלאכותית נראה את התופעות הבאות:
השלכות התופעה על חינוך ומחקר
ההשפעה של בעיית האימון של מנועי הבינה המלאכותית, חורגת מעבר ליצירת תוכן כללי ונוגעת גם למחקר ולחינוך.
כלים מבוססי AI תומכים בעבודת המורים ומעשירים אותה בהתאמת חוויות הלמידה האישית של הלומדים, בתהליכי הערכה, בפיתוח מערכי שיעור יצירתיים ועוד. אולם, אם הכלי AI יסתמכו יותר מדי על נתונים שנוצרו על ידי AI, אנחנו עלולים להגיע למצב שבו רכיבי החשיבה הביקורתית, היצירתיות והמגוון הרעיוני ייעדרו מתוצרי הבינה המלאכותית היוצרת.
באקדמיה, שבה החשיבה היצירתית והמיומנויות הביקורתיות הן עוגנים משמעותיים ביותר, הסתמכות על כלי AI שמאומנים על מידע שהם עצמם יצרו, עשויה לפגוע בהתקדמות האקדמית. אם כלי AI יהיו מבוססים על אימון שכולל נתונים יותר ויותר הומוגניים, חוקרים ייתקלו בקושי ביצירת ניתוחים חדשניים.
אז מה? צריך להפסיק להשתמש בבינה מלאכותית?
ממש לא!
אנחנו לא צריכים להפסיק להשתמש בבינה מלאכותית, אבל אנחנו צריכים להיות מודעים לקושי ולהשתמש בכלי ה־AI באופן מודע.
לבינה מלאכותית יש פוטנציאל אדיר לקדם את החינוך בפרט ואת האנושות בכלל, אבל בדומה לכל כלי, יש להשתמש בו באופן מושכל.
המפתח הוא באיזונים.
חשוב לדאוג לשלב בתוכן המיוצר בבינה מלאכותית תובנות אנושיות, וכך נצליח לשמור על כך שהמאגר הגנטי של הבינה המלאכותית יהיה עשיר ומגוון. כך הטכנולוגיה תמשיך להתפתח באופן בריא ויעיל.
לאנשי חינוך יכול להיות תפקיד חשוב בתהליך הזה על ידי קידום שימוש ביקורתי בכלי הבינה המלאכותית, תוך בירור מתמיד של מקור המידע ומאגר האימונים של מנוע הבינה.
והכי חשוב – גם כשהבינה המלאכותית יודעת לעשות את זה לא רע,
חשוב להמשיך ולהפיק מידע אנושי, והרבה!