לראות ולא להאמין – Deepfake (דיפ פייק)

מה זה ואיך מתמודדים עם התופעה?

אל תאמינו לכל מה שאתם רואים ושומעים!

דיפ פייק: בואו להכיר תוכן מזויף שמתחזה לתיעוד אמיתי

מהם היתרונות והחסרונות של הטכנולוגיה?

האם אפשר לזהות דיפ פייק וכיצד נתגונן מפניו?

פורסם בתאריך: 8.12.2022

לראות ולא להאמין – Deepfake (דיפ פייק) מה זה ואיך מתמודדים עם התופעה?

עידן המידע הכוזב

את תופעת ה-Fake news כבר הכרנו בפוסט קודם. זוהי תופעה של הפצת מידע כוזב במטרה לעורר רעש או בהלה בציבור.

הפעם נפנה את הזרקור לטכנולוגיית זיוף עמוק (Deepfake) המהווה קפיצת מדרגה בתחום הפייקניוז. טכנולוגיית deepfake מבוססת על שימוש בבינה מלאכותית כדי לייצר תוכן אודיו-ויזואלי (סרטון וידאו, קובץ שמע או תמונות) מזויף, שמתחזה לתיעוד אמיתי.

איך הטכנולוגיה עובדת?

בפשטות מדובר באלגוריתם שמאפשר "לשתול" תמונת פנים של אדם על גבי תמונה או סרטון, שבו מוצג גופו של אדם אחר.

התוכנה "לומדת" את פני האדם בסרטון המקורי ואז ממקמת את פניו של "המתחזה".

כיום אפשר ליצור סרטון deepfake משכנע למדי בקלות, גם ללא ידע טכני רב בעזרת אפליקציות חינמיות או בתשלום סמלי.

איך נראה Deepfake בפועל?

לפניכם שתי דוגמאות מרתקות, היכנסו!

יתרונות הדיפ פייק

סימן V בעיגול עלות הפקה נמוכה מעלות הפקה של וידאו רגיל

אפשר לרכוש “רישיון” של שחקן או של אדם מוכר, לצלם אותו פעם אחת ולהשתמש בחומרים פעמים רבות ובאופנים שונים בלי שאותו אדם יצטרך להיות מעורב בכך (ישנם גם אנשים המשתמשים באופן לא חוקי בתמונות של מפורסמים ללא רשותם).

סימן V בעיגול תוכן מותאם אישית

התאמת התוכן לקהלים רחבים באמצעות היפר-פרסונליזציה שמתבססת על מיקומים גיאוגרפיים, שפות, מוצרים, שירותים שונים וכדומה.

סימן V בעיגול יצירת סרטונים עם דמויות מוכרות

מסרים חשובים עוברים טוב יותר כאשר הם מועברים על ידי דמויות מוכרות ומשפיעות.

להחיות את ההיסטוריה

מה דעתכם ללמד היסטוריה, אזרחות, תנ"ך ואפילו אומנות בעזרת דיפ פייק?

דוגמה מצוינת לכך הוא הסרט המפורסם "פורסט גאמפ", שיצא לאקרנים בשנת 1994.

אחת הסצנות הזכורות ביותר בסרט היא זו שבה גיבור הסרט מוזמן לקבלת פנים בבית הלבן. סצנה זו הייתה אחת הפעמים הראשונות שבה צופי הקולנוע זכו לראות על המסך דמות היסטורית מפורסמת חוזרת לחיים בזכות טכנולוגיית דיפ פייק.

צפו בקטע:

מאז הסרט הטכנולוגיה הלכה והשתכללה וכיום ישנו ענף שזכה לשם "דיפ נוסטלגיה" המנפיש את פניהם של אנשים שצולמו בתמונות ישנות או היסטוריות, ומזיז את פניהם, כאילו צולמו בווידאו.

ממש כך:

אפילו הדיקטטורים קמים לתחייה:

מה אפשר לעשות עם זה בכיתות?

הינה כמה רעיונות לשילוב תכנים על דמויות מפורסמות:

  • דמויות היסטוריות מגיבות לאירועים עדכניים
  • מדענים מפורסמים מסבירים עקרונות והמצאות שהם פיתחו
  • התייחסות לסוגייה מנקודות מבט של הוגי דעות שונים
  • סיורים דיגיטליים כשהמדריך הוא דמות מפורסמות שחיה במקום
  • עבודת שורשים שמשלבת דמויות של בני המשפחה מהעבר

ראו הוזהרתם!

על אף היתרונות הטכנולוגיים של הכלי, לדיפ פייק פוטנציאל פגיעה משמעותי באנשים פרטיים ובמדינות כאחד. באמצעות טכנולוגיה זאת אפשר לזייף כל אמירה של אדם ואף לזייף מצבים פרטיים ואינטימיים שיכולים להביך אותו ולהרוס את שמו.

על אף הסכנות, הטכנולוגיה ממשיכה להיות נגישה, זמינה ונטולת פיקוח.

מתגוננים מהשפעות פסיכולוגיות וחברתיות של דיפ פייק באמצעות צפייה ביקורתית

לא כל דבר שאנחנו רואים או שומעים הוא בהכרח אמיתי ונכון.
קיבלתם סרטון שמעורר בכם רגשות חזקים? הפעילו תמיד שיקול דעת ובדקו:

דיפ פייק

רוצים ללמוד עוד?

מהם סרטוני דיפ פייק? (ח"ת). אאוריקה.
https://eureka.org.il/item/102519/%D7%9E%D7%94%D7%9D-%D7%A1%D7%A8%D7%98%D7%95%D7%A0%D7%99-%D7%93%D7%99%D7%A4-%D7%A4%D7%99%D7%99%D7%A7

מן, י' (5 בספטמבר 2022). הפצתם סרטון דיפק פייק, אולי הפרתם את החוק? ynet.
https://www.ynet.co.il/digital/technews/article/sjk6atws5

פוסטמן, נ' (2003). כניעתה של התרבות לטכנולוגיה. ספריית פועלים.

DeepFake – מה זה ואיך מזהים ? (ח"ת). איגוד האינטרנט הישראלי.
https://www.isoc.org.il/public-action/deepfake

שוורץ אלטשולר, ת' (14 ביולי 2019). פייק נויז: הדור הבא. המכון הישראלי לדמוקרטיה.
https://www.idi.org.il/articles/27133

פוטר ניוזלטר חדשנות בקטנה