שקר תקשורתי סינתטי: לראות זה לא להאמין יותר

אשראי תמונה:
אשראי תמונה
iStock

שקר תקשורתי סינתטי: לראות זה לא להאמין יותר

שקר תקשורתי סינתטי: לראות זה לא להאמין יותר

טקסט כותרות משנה
מדיה סינתטית מטשטשת את הגבול בין מציאות ל-AI, מעצבת מחדש את האמון בעידן הדיגיטלי ומעוררת דרישה לאותנטיות תוכן.
    • מְחַבֵּר:
    • שם היוצר
      Quantumrun Foresight
    • פברואר 22, 2024

    סיכום תובנה

    מדיה סינתטית, המשלבת בינה מלאכותית (AI) עם וידאו, אודיו ואלמנטים ויזואליים, היא כל כך מציאותית שקשה להבדיל ממדיה בפועל. הפיתוח שלה נמשך עשרות שנים אחורה, כאשר למידה עמוקה (DL) ו-GANs (Generative Adversarial Networks) ממלאים תפקיד מפתח בקידומו. ככל שהטכנולוגיה הזו מתפתחת, היא מציגה הזדמנויות יצירתיות ואתגרי פרטיות, אתיקה ומידע שגוי משמעותיים.

    הקשר של שקר תקשורתי סינתטי

    מדיה סינתטית מייצגת שילוב פורץ דרך של תוכן שנוצר בינה מלאכותית, הכולל וידאו חי, אלמנטים ויזואליים ואודיו במסגרת טכנולוגית מתקדמת. צורת מדיה זו מאופיינת בריאליזם יוצא הדופן ובאיכויות הסוחפות שלה, מה שהופך אותה כמעט לבלתי ניתנת להבדלה ממדיה בעולם האמיתי. ניתן לאתר את יצירת המדיה הסינתטית בשנות ה-1950, שעברה אבולוציה משמעותית בסוף שנות ה-1980 ותחילת שנות ה-1990, כאשר כוח החישוב עלה. 

    למידה עמוקה היא טכנולוגיית הליבה המניעה מדיה סינתטית, ענף מתוחכם של למידת מכונה (ML). משפיעים במיוחד בתחום זה הם GANs, שחוללו מהפכה בתחום בכך שלמדו מתמונות קיימות כדי לייצר תמונות חדשות לגמרי אך אותנטיות להחריד. GANs פועלים באמצעות מערכת רשת עצבית כפולה: רשת אחת מייצרת תמונות מזויפות המבוססות על תמונות אמיתיות, בעוד שהשנייה מעריכה את האותנטיות שלהן, דוחקת את הגבולות של מה שאפשר בראייה ממוחשבת ובעיבוד תמונה.

    ככל שה-AI ממשיכה בקידום המהיר שלה, היישומים וההשלכות של מדיה סינתטית הולכים וגדלים יותר ויותר. בעוד שצעדים טכנולוגיים אלו פותחים דלתות לחדשנות במגזרים שונים, כולל משחקי וידאו, רכבים אוטונומיים וזיהוי פנים, הם מציגים בו זמנית חששות דחופים בנוגע לפרטיות ואתיקה. עתיד המדיה הסינתטית מייצג אפוא חרב פיפיות, המציעה פוטנציאל עצום ליצירתיות וחדשנות תוך כדי מאתגר אותנו להתמודד עם ההשלכות האתיות והפרטיות שלה.

    השפעה משבשת

    מחקר משנת 2022 שנערך על ידי עמותת Rand Corporation דן בארבעת הסיכונים העיקריים של מדיה סינתטית: מניפולציה של בחירות באמצעות סרטונים מפוברקים של מועמדים, החרפת השסעים החברתיים על ידי הגברת תעמולה ותוכן מפלגתי, שחיקת האמון במוסדות באמצעות ייצוגים מזויפים של דמויות סמכות, וערעור העיתונות על ידי הטלת ספק באותנטיות של חדשות לגיטימיות. זיופים עמוקים אלה עלולים להזיק במיוחד במדינות מתפתחות שבהן רווחות רמות חינוך נמוכות יותר, דמוקרטיות שבריריות וסכסוכים בין-אתניים. מידע שגוי הוא כבר נושא משמעותי באזורים אלה, וזיופים עמוקים עלולים להגביר את המחלוקות והאלימות, כפי שניתן לראות בתקריות עבר במדינות כמו מיאנמר, הודו ואתיופיה. יתרה מכך, המשאבים המוגבלים המוקצים לניהול תוכן מחוץ לארה"ב, במיוחד בפלטפורמות כמו WhatsApp, מגבירים את הסיכון לזיופים עמוקים שלא יתגלו באזורים אלה.

    Deepfakes גם מהווים איומים ייחודיים על נשים, לאור הפער בין המינים בתוכן פורנוגרפי. מדיה שנוצרת בינה מלאכותית שימשה ליצירת פורנוגרפיה מזויפת עמוקה ללא הסכמה, מה שהוביל להתעללות וניצול. טכנולוגיות אלו יכולות להוות גם סיכונים ביטחוניים על ידי התמקדות בפעילי מודיעין, מועמדים פוליטיים, עיתונאים ומנהיגים לצורך מבוכה או מניפולציות. דוגמאות היסטוריות, כמו מסע הדיסאינפורמציה הנתמך על ידי רוסיה נגד חברת הפרלמנט האוקראינית סוויטלנה זלישצ'וק, מדגימות את הפוטנציאל להתקפות מסוג זה.

    ההבנה של הקהילה המדעית לגבי ההשלכות החברתיות של זיופים עמוקים עדיין מתפתחת, כאשר מחקרים מציעים תוצאות מעורבות על יכולות המשתמשים לזהות את הסרטונים הללו והשפעתם. מחקרים מסוימים מצביעים על כך שבני אדם עשויים להיות טובים יותר בזיהוי זיופים עמוקים מאשר מכונות, אולם סרטונים אלו נתפסים לעתים קרובות כבעלי חיים, משכנעים ואמינים, מה שמגדיל את הסבירות להתפשטותם במדיה החברתית. עם זאת, ההשפעה של סרטונים מזויפים עמוקים על אמונות והתנהגות עשויה להיות פחותה מהצפוי, מה שמצביע על כך שהחששות לגבי יכולת השכנוע שלהם עלולים להיות מוקדמים במקצת. 

    השלכות של שקר של מדיה סינתטית

    השלכות רחבות יותר של שקר במדיה סינתטית עשויות לכלול: 

    • טכניקות משופרות באימות תוכן דיגיטלי, המובילות לשיטות מתוחכמות יותר לאימות אותנטיות מדיה.
    • ביקוש מוגבר לחינוך לאוריינות דיגיטלית בבתי ספר, מצייד את הדורות הבאים במיומנויות לניתוח ביקורתי של מדיה.
    • שינויים בסטנדרטים העיתונאיים, הדורשים תהליכי אימות מחמירים יותר לתוכן מולטימדיה כדי לשמור על אמינות.
    • הרחבת מסגרות משפטיות המתייחסות למניפולציה של תוכן דיגיטלי, ומציעה הגנה טובה יותר מפני מידע מוטעה.
    • סיכוני פרטיות אישיים משופרים עקב שימוש לרעה פוטנציאלי בזיהוי פנים ובנתונים אישיים ביצירת זיופים עמוקים.
    • פיתוח מגזרי שוק חדשים המתמחים באיתור ומניעה של זיופים עמוקים, יצירת הזדמנויות עבודה והתקדמות טכנולוגית.
    • קמפיינים פוליטיים המאמצים נוהלי פיקוח מחמירים יותר של התקשורת כדי להפחית את ההשפעה של תוכן מזויף על בחירות.
    • שינויים באסטרטגיות פרסום ושיווק, עם דגש מוגבר על אותנטיות ותוכן שניתן לאימות לשמירה על אמון הצרכנים.
    • עלייה בהשפעות הפסיכולוגיות עקב התפשטות תוכן מציאותי אך שקרי, שעלולה להשפיע על בריאות הנפש ועל תפיסת הציבור.
    • שינויים בדינמיקת היחסים הבינלאומיים כאשר זיופים עמוקים הופכים לכלי באסטרטגיות גיאופוליטיות, המשפיעים על דיפלומטיה ואמון עולמי.

    שאלות שכדאי לקחת בחשבון

    • כיצד משפיעה מדיה סינתטית על התפיסה שלך לגבי אירועים אקטואליים?
    • כיצד התפתחות טכנולוגיית Deepfake יכולה להשפיע על האיזון בין חופש הביטוי והצורך ברגולציה כדי למנוע מידע מוטעה וניצול לרעה?

    הפניות לתובנות

    הקישורים הפופולריים והמוסדיים הבאים קיבלו התייחסות לתובנה זו: