Valsheid in de synthetische media: zien is niet meer geloven

BEELDKREDIET:
Image credit
iStock

Valsheid in de synthetische media: zien is niet meer geloven

Valsheid in de synthetische media: zien is niet meer geloven

Onderkoptekst
Synthetische media vervagen de grens tussen realiteit en AI, waardoor het vertrouwen in het digitale tijdperk wordt hervormd en de vraag naar authenticiteit van de inhoud wordt aangewakkerd.
    • Auteur:
    • auteursnaam
      Quantumrun-prognose
    • 22 februari 2024

    Samenvatting inzicht

    Synthetische media, waarbij kunstmatige intelligentie (AI) wordt gecombineerd met video, audio en visuele elementen, zijn zo realistisch dat het moeilijk te onderscheiden is van echte media. De ontwikkeling ervan gaat tientallen jaren terug, waarbij deep learning (DL) en Generative Adversarial Networks (GAN's) een sleutelrol spelen in de vooruitgang ervan. Naarmate deze technologie zich verder ontwikkelt, biedt zij creatieve mogelijkheden en aanzienlijke uitdagingen op het gebied van privacy, ethiek en desinformatie.

    Context van valse media in de synthetische media

    Synthetische media vertegenwoordigen een baanbrekende combinatie van door AI gegenereerde inhoud, die live video, visuele elementen en audio omvat binnen een geavanceerd technologisch raamwerk. Deze mediavorm wordt gekenmerkt door zijn uitzonderlijke realisme en meeslepende kwaliteiten, waardoor deze bijna niet te onderscheiden is van echte media. De creatie van synthetische media gaat terug tot de jaren vijftig en onderging een aanzienlijke evolutie aan het eind van de jaren tachtig en het begin van de jaren negentig toen de rekenkracht enorm toenam. 

    Deep learning is de kerntechnologie die synthetische media aandrijft, een geavanceerde tak van machine learning (ML). Bijzonder invloedrijk op dit gebied zijn GAN's, die een revolutie teweeg hebben gebracht in het veld door van bestaande beelden te leren om geheel nieuwe, maar griezelig authentieke beelden te produceren. GAN's werken met behulp van een duaal neuraal netwerksysteem: het ene netwerk genereert nepbeelden op basis van echte, terwijl het andere hun authenticiteit evalueert en de grenzen verlegt van wat mogelijk is op het gebied van computervisie en beeldverwerking.

    Terwijl AI zijn snelle vooruitgang voortzet, worden de toepassingen en implicaties van synthetische media steeds belangrijker. Hoewel deze technologische vooruitgang deuren opent voor innovatie in verschillende sectoren, waaronder videogames, autonome voertuigen en gezichtsherkenning, introduceren ze tegelijkertijd dringende zorgen op het gebied van privacy en ethiek. De toekomst van synthetische media vertegenwoordigt dus een tweesnijdend zwaard, dat een enorm potentieel biedt voor creativiteit en innovatie, terwijl het ons uitdaagt om de ethische en privacygerelateerde implicaties ervan aan te pakken.

    Disruptieve impact

    Een onderzoek uit 2022, uitgevoerd door de non-profitorganisatie Rand Corporation, bespreekt de vier belangrijkste risico’s van synthetische media: manipulatie van verkiezingen door middel van verzonnen video’s van kandidaten, verergering van sociale verdeeldheid door het versterken van propaganda en partijdige inhoud, erosie van vertrouwen in instellingen door valse representaties van gezagsdragers, en ondermijning van de journalistiek door twijfel te zaaien over de authenticiteit van legitiem nieuws. Deze deepfakes kunnen vooral schadelijk zijn in ontwikkelingslanden waar lagere onderwijsniveaus, fragiele democratieën en interetnische conflicten heersen. Desinformatie is al een groot probleem in deze regio’s, en deepfakes kunnen geschillen en geweld intensiveren, zoals blijkt uit eerdere incidenten in landen als Myanmar, India en Ethiopië. Bovendien vergroten de beperkte middelen die zijn toegewezen aan contentmoderatie buiten de VS, vooral op platforms als WhatsApp, het risico dat deepfakes in deze gebieden onopgemerkt blijven.

    Deepfakes vormen ook een unieke bedreiging voor vrouwen, gezien de genderongelijkheid in pornografische inhoud. Door AI gegenereerde media zijn gebruikt om deepfake-pornografie zonder wederzijds goedvinden te creëren, wat tot misbruik en uitbuiting heeft geleid. Deze technologieën kunnen ook veiligheidsrisico's met zich meebrengen doordat zij zich richten op inlichtingenagenten, politieke kandidaten, journalisten en leiders met het doel hen in verlegenheid te brengen of te manipuleren. Historische voorbeelden, zoals de door Rusland gesteunde desinformatiecampagne tegen het Oekraïense parlementariër Svitlana Zalishchuk, tonen het potentieel voor dergelijke aanvallen aan.

    Het inzicht van de wetenschappelijke gemeenschap in de maatschappelijke implicaties van deepfakes evolueert nog steeds, waarbij onderzoeken gemengde resultaten opleveren over de mogelijkheden van gebruikers om deze video's en hun impact te detecteren. Sommige onderzoeken suggereren dat mensen wellicht beter zijn in het detecteren van deepfakes dan machines, maar toch worden deze video’s vaak gezien als levendig, overtuigend en geloofwaardig, waardoor de kans groter wordt dat ze op sociale media worden verspreid. De invloed van deepfake-video’s op overtuigingen en gedrag kan echter kleiner zijn dan verwacht, wat erop wijst dat zorgen over de overtuigingskracht ervan enigszins voorbarig kunnen zijn. 

    Implicaties van leugens in de synthetische media

    Bredere implicaties van valse leugens in de synthetische media kunnen zijn: 

    • Verbeterde technieken voor de authenticatie van digitale inhoud, wat leidt tot meer geavanceerde methoden voor het verifiëren van de authenticiteit van media.
    • Toegenomen vraag naar onderwijs in digitale geletterdheid op scholen, waardoor toekomstige generaties de vaardigheden krijgen om media kritisch te analyseren.
    • Verschuivingen in journalistieke normen, waardoor strengere verificatieprocessen voor multimedia-inhoud nodig zijn om de geloofwaardigheid te behouden.
    • Uitbreiding van wettelijke kaders die de manipulatie van digitale inhoud aanpakken, waardoor een betere bescherming tegen desinformatie wordt geboden.
    • Verhoogde persoonlijke privacyrisico's als gevolg van mogelijk misbruik van gezichtsherkenning en persoonlijke gegevens bij het creëren van deepfakes.
    • Ontwikkeling van nieuwe marktsectoren die gespecialiseerd zijn in de detectie en preventie van deepfake, waardoor werkgelegenheid en technologische vooruitgang worden gecreëerd.
    • Politieke campagnes die strengere praktijken voor mediamonitoring toepassen om de impact van nep-inhoud op verkiezingen te verzachten.
    • Veranderingen in reclame- en marketingstrategieën, met een grotere nadruk op authenticiteit en verifieerbare inhoud om het vertrouwen van de consument te behouden.
    • Een toename van de psychologische gevolgen als gevolg van de verspreiding van realistische maar valse inhoud, die mogelijk gevolgen heeft voor de geestelijke gezondheid en de publieke perceptie.
    • Veranderingen in de dynamiek van de internationale betrekkingen naarmate deepfakes een instrument worden in geopolitieke strategieën, wat de diplomatie en het mondiale vertrouwen beïnvloedt.

    Vragen om te overwegen

    • Hoe beïnvloeden synthetische media uw perceptie van actuele gebeurtenissen?
    • Hoe kan de ontwikkeling van deepfake-technologie de balans beïnvloeden tussen de vrijheid van meningsuiting en de noodzaak van regulering om desinformatie en misbruik te voorkomen?

    Insight-referenties

    Voor dit inzicht werd verwezen naar de volgende populaire en institutionele links: