לוגו חדשנות בקטנה
המהפכה השקטה: כיצד הבינה המלאכותית מחוללת מהפך בשוק העבודה הישראלי?

בין זיכרון לפייק
הוראת השואה בעידן הבינה המלאכותית

איך יכולה הבינה המלאכותית לשפר את לימוד השואה ולהפוך את ההיסטוריה לנגישה יותר?
ומנגד – כיצד היא עלולה להוביל לעיוותים ולטעויות ובעצם לפגוע בזיכרון השואה?

יום השואה הבינלאומי הקרוב מזמין אותנו לחשוב על השלכות הטכנולוגיה על גיבוש, שימור והנחלת ידע לדורות הבאים.

הצטרפו אלינו לחשיבה על האיזון שבין שימוש בטכנולוגיות לשימור הזיכרון לבין הסיכונים  הכרוכים בטכנולוגיות אלה על עצם הסיפור ההיסטורי.

פורסם בתאריך: 22.01.2026

כשהבינה המלאכותית מזייפת את השואה

כשהבינה המלאכותית מזייפת את השואה

דמיינו שאתם גוללים בפיד בפייסבוק, באינסטגרם או בטיק טוק ומוצאים תמונה או סרטון מהשואה, שבו מוצג אדם מבוגר ונכדו החולקים רגע נדיר במחנה ריכוז. מדובר בתיעוד של רגע מרגש ואותנטי, אבל כשמתבוננים בו מקרוב, משהו לא מסתדר. איכות התצלום טובה מדי לתקופה, והמראה הבריא של השבויים לא תואם את התנאים שידוע לנו ששררו במחנות.

בהמשך הפיד מופיע תצלום נוסף בצירוף הכיתוב: 1943 – ברגן בלזן, בבלוק 14, אמא ושתי בנותיה עדיין הדליקו נרות שבת בכל יום שישי.

בהמשך הפיד מופיע תצלום נוסף בצירוף הכיתוב:
1943 – ברגן בלזן, בבלוק 14, אמא ושתי בנותיה עדיין הדליקו נרות שבת בכל יום שישי.
אבל שאלות רבות מתעוררות לאחר עיון מדוקדק בתמונה:
האם כך נראו אם ובנותיה בברגן בלזן לאחר יותר מארבע שנות מלחמה? האם כך הן היו לבושות? מה הסבירות שאמא ובנותיה שרדו יחד עד לשלב הזה? האם היו נרות להדלקה בברגן בלזן? האם נשים חבשו כיפה בשנת 1943? האם היו תצלומים באיכות טובה כל כך בתקופה הזאת?

שני התצלומים שלפניכם הן תמונות מזויפות שהועלו לפייסבוק  לקבוצה הפונה לחובבי ההיסטוריה של המאה העשרים. תמונות אלו פורסמו לצד פרטים ביוגרפיים אמיתיים או סיפורים מומצאים של קורבנות השואה. לאחר חקירה מעמיקה התגלה שהתמונות הופקו על ידי כמה יוצרי תוכן מפקיסטן. יוצרי התוכן הרוויחו כסף בתוכניות מוניטיזציה (מנגנוני הפקת הכנסה) של חברת מטא(Meta)  שמתגמלת יוצרים על תוכן עם מעורבות גבוהה (לייקים, תגובות ושיתופים) . זוהי דוגמה לשימוש בתוכן מעורר רגשות עזים כדי לייצר כסף!

מה הסכנה בהפצת תיעוד מזויף מהשואה?

אפשר לשאול – מה זה משנה?
יוצרי התוכן הפיצו תמונות שמעוררות מודעות לשואה. אז מה אם מדובר בזיוף?

דובר מוזיאון אושוויץ, בכתבה באתר ה-BBC  גינה בחריפות את פרסום התוכן השקרי, ותיאר אותם כ"עיוות מסוכן של ההיסטוריה" ו"מעשה של חוסר כבוד לזכרם של אלו שסבלו ונרצחו".
הסכנות מהתוכן המזויף רבות ודוח של אונסק"ו והקונגרס היהודי העולמי מזהיר מפני חמש סכנות מרכזיות:

התוצאה של הפצת התוכן השקרי הזה היא פגיעה באמון הציבור והטלת ספק בתיעוד אותנטי, ובכך לתת רוח גבית להכחשת שואה.

התוצאה של הפצת התוכן השקרי הזה היא פגיעה באמון הציבור והטלת ספק בתיעוד אותנטי, ובכך לתת רוח גבית להכחשת שואה.

הסכנות הללו מתחדדות לנוכח נתונים מדאיגים מדוח שפורסם בשנת 2018 על ידי גופים כמו ועידת התביעות, מוזיאון ארצות הברית לזכר השואה וארגונים נוספים. מהדוח עולה כי 66% מבני דור המילניום בארצות הברית לא ידעו מהו אושוויץ, וגם כ־22% מהנשאלים העידו שמעולם לא שמעו על השואה. ניתן להניח כי מאז פרסום הדוח, מגמה זו רק החריפה.

66%

הדאגה מחריפה לנוכח העובדה שאנחנו חיים בתקופה שבה הדור האחרון של שורדות ושורדי השואה הולך ונעלם, וכמעט שלא נותרו עדים חיים היכולים להעיד ממקור ראשון על אירועי השואה. נתונים אלו מחזקים את הצורך בהנחלת זכר השואה והגברת ההוראה בנושא.
האם הטכנולוגיה יכולה לסייע? האם הבינה המלאכותית היא הפתרון?

מדוע הבינה המלאכותית מזייפת את השואה?

  • הבינה המלאכותית "הוזה" מידע שגוי – כידוע, הבינה המלאכותית כותבת תוכן על ידי ניבוי רצף המילים הסביר ביותר מתוך מאגרי נתונים עצומים, במקום להבין באמת את העובדות, המשמעויות או ההקשרים ההיסטוריים. התוצאה היא, שמערכות אלו עלולות בקלות "להזות" או "להמציא" עובדות היסטוריות או נרטיבים כוזבים, ולהציג מידע שגוי או חלקי על השואה בביטחון רב, מכיוון שהתוצאה נראית להן סבירה סטטיסטית, גם אם היא חסרת בסיס עובדתי.

הבינה המלאכותית "הוזה" מידע שגוי

  • הבינה המלאכותית מפשטת מידע מורכב – מודלי השפה של הבינה המלאכותית נוטים לפשט יתר על המידה את מורכבות ההיסטוריה, להתמקד רק בהיבטים מוכרים, ואף מתעלמים מהמידה שבה סבלו הניצולים ברמה הרגשית והמוסרית, מה שמוביל לעיוות בתיאור החוויה האנושית.

הקלט: היסטוריה מורכבת | מערכת AI | הפלט: סיפור פשטני

  • הבינה המלאכותית מאומנת על תוכן לא אמין – כיוון שהמודלים מאומנים על מידע עצום שנמצא במקורות מידע ציבוריים ופתוחים, הם עלולים להגביר הטיות קיימות, כולל סטריאוטיפים אנטישמיים, ובכך להציג תיאורים מעוותים או מוטים. מקורות אמינים, כמו מחקרים אקדמיים, חסומים לעתים מאחורי "חומת תשלום" ואינם זמינים כדי לספק מידע מהימן ואיכותי.

הבינה המלאכותית מאומנת על תוכן לא אמין

  • הבינה המלאכותית מתוכננת "להגן עלינו מתוכן פוגעני" – מתוך כוונה טובה, המפתחים של מנועי הבינה המלאכותית מציבים "גדרות בטיחות" כדי למנוע שימוש לרעה בבינה המלאכותית. מהסיבה הזאת מחוללי התמונה מסרבים ליצור דימויים דומים לשואה, או שהם מייצרים תוכן מעוות ולא אמין (כמו אסירים בריאים לבושים היטב במחנות). הפרדוקס הוא שההגנות הללו עלולות להעלים או לעוות את השואה במרחב הדיגיטלי.

הבינה המלאכותית מתוכננת "להגן עלינו מתוכן פוגעני"

 

הבינה המלאכותית מנוצלת לרעה – גורמים שליליים משתמשים לרעה באופן מכוון בטכנולוגיה: כלי דיפ־פייק (Deepfake) מאפשרים לזייף עדויות, מסמכים ותמונות באופן שנראה משכנע. דיפ־פייק פוגע באמינות המידע על השואה ומעודד הכחשת שואה ושיח קיצוני. הבוטים והאלגוריתמים מבוססי AI תורמים את תרומתם, והשיח הקיצוני והשקרי מופץ ביתר קלות ברשתות החברתיות.
 

הבינה המלאכותית מנוצלת לרעה

ובכל זאת – כיצד הבינה המלאכותית יכולה דווקא לחזק את הנחלת השואה?

אחרי שדיברנו על הסכנות, חשוב לעצור ולומר: בינה מלאכותית יכולה גם לתרום להנחלת זיכרון השואה. באחריות ובשיתוף עם היסטוריונים ואנשי חינוך  היא יכולה להפוך לכלי משמעותי בהנחלת הזיכרון לדורות הבאים.

הנגשה אינטראקטיבית של העדויות – אחת התרומות הבולטות היא שימור עדויות בעידן שבו מספר העדים החיים הולך ופוחת. פרויקטים כמו Dimensions in Testimony של קרן USC Shoah או Testimony 360 משתמשים בבינה מלאכותית, בעיבוד שפה וב־VR כדי לאפשר מפגש אינטראקטיבי עם עדויות של ניצולי שואה. במסגרת הפרויקט סיפרו ניצולים את סיפוריהם והשיבו על שאלות רבות מאוד שהצופים עשויים לשאול. בזכות הטכנולוגיה הצופים אינם עוד צופים פסיביים בעדויות, אלא יכולים לשאול שאלות ולקבל תשובות מהניצולים. פרויקט דומה שפותח בשיתוף Meta ואונסק"ו הוא "תגידי לי אינגה" (Tell me Inga) שמאפשר שיחה אינטראקטיבית עם ניצולת השואה אינגה אורבכר ששרדה את גטו טרזינשטט. הפרויקט מאפשר שיחה אישית ישירה עם אינגה והיכרות מעמיקה עם חייה והחוויות שלה בזמן השואה. הפרויקטים הללו מבטיחים שהעדויות יישארו "חיות" ויישמרו עדויות אישיות גם בעולם ללא עדים חיים.

נוסף על המפגש הווירטואלי עם ניצולים באמצעות VR, פותחו אפליקציות שמאפשרות ביקור באתרים מרכזיים הקשורים בשואה – במחנות או בגטאות באמצעות VR.  

המפגש הווירטואלי עם ניצולים באמצעות VR

חקר עדויות – תרומה נוספת נמצאת מאחורי הקלעים, בתחום המחקר והארכיונים. בינה מלאכותית מסייעת לארגונים כמו "יד ושם" לנתח מיליוני מסמכים, עדויות ותצלומים. באמצעות טכנולוגיה של בינה מלאכותית יש שיפור משמעותי באפשרות של זיהוי שמות, קישור בין מקורות והעשרת מאגרי מידע. כך מתווספים עוד שמות, עוד סיפורים ועוד הקשרים, עבודה שבאופן ידני הייתה אורכת עשרות שנים.

מיכאל ליבר , מנהל אגף חדשנות וטכנולוגיות מידע ב"יד ושם" אמר במאמר שפורסם ב"אנשים ומחשבים":

 "אנו עוסקים בהטמעת מודלים ורכיבים של בינה מלאכותית זה מספר שנים…  AI מסייע לנו לטפל בנתונים רבים יותר ובאופן חכם ויעיל יותר, וכך אנו יכולים לעבות את הדאטה על שורדות ושורדי השואה, כמו גם על הקורבנות, ולהעשיר את קורות חייהם."

יותר מ224 מיליון עמודים סרוקים

בינה מלאכותית בהוראת השואה

השימוש ב־AI ובטכנולוגיות נלוות מאפשר ליצור חוויות למידה אינטראקטיביות ואישיות. נוסף על הפרויקטים שהוזכרו, הבינה המלאכותית יכולה לסייע בתהליכי חקר ובמתן משובים ללומדים בזמן כתיבה וחקר השואה.
עם זאת, לאור הסיכונים הרבים שיש בהפצת מידע שקרי על השואה יש חשיבות רבה בפיתוח אוריינות בינה מלאכותית וחשיבה ביקורתית בקרב הלומדים ולהדגיש את הסכנות בפייק, בעיוותים ובהזיות.

  • הצגת AI ככלי עזר בלבד – יש להדגיש כי AI אינה מקור סמכות יחיד וכי ההיסטוריה מחייבת פרשנות ביקורתית, הבנה אמפתית ורגישות להקשר. על המורים לשמש מתווכים חכמים בין הידע האנושי למידע שמפיקה המכונה.
  • זיהוי זיופים והטיות – יש ללמד לזהות מניפולציות, הטיות אלגוריתמיות, זיופים (Deepfake), ו"הזיות" (Hallucinations). יש להסביר כי טעויות אלו הן תוצר טבעי של האופן שבו אלגוריתמים מנחשים תוצרים סטטיסטיים. עם זאת, יש להדגיש שיש גורמים שמנצלים את הזיופים האלה לרווח כלכלי או לקידום מסרים קיצוניים ואנטישמיים.
  • שאלת המקור והאימות – יש לתרגל עם הלומדים בדיקה של מקורות המידע ואמינותם הדגישו שחובה להשוות את התוצר שנוצר על ידי AI עם מקורות אנושיים מאומתים כמו ארכיונים, עדויות מתועדות ומחקר היסטורי. יש להימנע מלהאמין אוטומטית לתוצרי AI, גם כאשר הם נשמעים בטוחים ומשכנעים.

סכנת פישוט היתר וההכללה של לקחי השואה

לצד הסכנות מהזיות והפצת מידע שקרי, סכנה נוספת שהשימוש בבינה מלאכותית מעצימה היא פישוט יתר והכללה של אירוע היסטורי מורכב.  מערכות AI נוטות לסכם, לקטלג ולהבליט את המוכר ואת מה ש"קל לעיכול". באופן הזה הבינה המלאכותית תורמת להשטחת ההיסטוריה ונמנעת מהתייחסות להקשרים ולהיבטים הרגשיים והמוסריים. כך, לקחי השואה עלולים להצטמצם ללקחים אוניברסליים, סיסמאות מוסריות או מטפורה כללית נגד שנאה וגזענות. כך אירועי השואה מאבדים את הייחודיות ואת ההקשרים ההיסטוריים והחברתיים הספציפיים. השואה עלולה להפוך ל“מקרה בוחן” כללי ונוח לגזענות ולרוע בכלל ולהחליש את משמעות האירוע ולפגוע בדיוק ההיסטורי. הצגה זו של השואה גם מחלישה את יכולתנו להבין אנטישמיות עכשווית ופותחת פתח לכל אחד להציג את עצמו כקורבן לשואה זו או אחרת.

סיכום: אחריות, לא רק אוטומציה

הבינה המלאכותית משנה את הדרך שבה אנחנו לומדים, חוקרים ומספרים סיפורים, וגם את הדרך שבה אנו זוכרים את השואה. היא יכולה להנגיש עדויות, להרחיב מחקר, ולאפשר לדור הצעיר מפגש משמעותי עם ההיסטוריה. אך באותה מידה, היא עלולה לעוות, לפשט, ולהפוך זיכרון מורכב לתוכן שטחי או אפילו מסוכן.

השאלה איננה אם להשתמש בבינה מלאכותית בהוראת השואה, אלא כיצד. האחריות מוטלת עלינו, אנשי חינוך, חוקרים ומפתחי טכנולוגיה, להציב גבולות, לחזק מקורות אמינים, ולפתח אצל הלומדים חשיבה ביקורתית ואוריינות דיגיטלית.
הוראת השואה מחייבת יותר מטכנולוגיה מתקדמת, היא דורשת אחריות מוסרית, חשיבה ביקורתית ורגישות אנושית.

רוצים לדעת עוד?

לוגו חדשנות בקטנה

למידע נוסף בכל תחומי הטכנולוגיה

צרו איתנו קשר!

ciet@l-w.ac.il