Generacyjne sieci przeciwstawne (GAN): Wiek mediów syntetycznych

KREDYT WZROKU:
Image credit
iStock

Generacyjne sieci przeciwstawne (GAN): Wiek mediów syntetycznych

Generacyjne sieci przeciwstawne (GAN): Wiek mediów syntetycznych

Tekst podtytułu
Generacyjne sieci kontradyktoryjne zrewolucjonizowały uczenie maszynowe, ale technologia ta jest coraz częściej wykorzystywana do oszustw.
    • Autor:
    • nazwisko autora
      Foresight Quantumrun
    • 5 grudnia 2023 r.

    Podsumowanie spostrzeżeń

    Generacyjne sieci kontradyktoryjne (GAN), znane z tworzenia deepfakes, generują syntetyczne dane imitujące prawdziwe twarze, głosy i maniery. Ich zastosowanie sięga od ulepszania programu Adobe Photoshop po generowanie realistycznych filtrów na Snapchacie. Sieci GAN budzą jednak wątpliwości etyczne, ponieważ często są wykorzystywane do tworzenia wprowadzających w błąd filmów typu deepfake i propagowania dezinformacji. W służbie zdrowia istnieją obawy dotyczące prywatności danych pacjentów podczas szkoleń GAN. Pomimo tych problemów sieci GAN mają korzystne zastosowania, takie jak wspomaganie dochodzeń karnych. Ich szerokie zastosowanie w różnych sektorach, w tym w kinematografii i marketingu, doprowadziło do wezwań do wprowadzenia bardziej rygorystycznych środków ochrony danych i regulacji rządowych dotyczących technologii GAN.

    Kontekst generatywnych sieci przeciwstawnych (GAN).

    GAN to rodzaj głębokiej sieci neuronowej, która może generować nowe dane podobne do tych, na których jest trenowana. Dwa główne bloki, które konkurują ze sobą w tworzeniu wizjonerskich kreacji, nazywane są generatorem i dyskryminatorem. Generator odpowiada za tworzenie nowych danych, natomiast dyskryminator stara się rozróżnić dane wygenerowane od danych uczących. Generator nieustannie próbuje oszukać dyskryminatora, tworząc informacje, które wyglądają jak najbardziej realnie. Aby to zrobić, generator musi poznać podstawową dystrybucję danych, umożliwiając sieciom GAN tworzenie nowych informacji bez konieczności ich zapamiętywania.

    Kiedy w 2014 r. po raz pierwszy sieci GAN zostały opracowane przez naukowca Google, Iana Goodfellowa i jego kolegów z zespołu, algorytm okazał się niezwykle obiecujący w zakresie uczenia maszynowego. Od tego czasu sieci GAN znalazły wiele rzeczywistych zastosowań w różnych branżach. Na przykład Adobe wykorzystuje sieci GAN w programie Photoshop nowej generacji. Google wykorzystuje moc sieci GAN zarówno do generowania tekstu, jak i obrazów. IBM skutecznie wykorzystuje sieci GAN do zwiększania ilości danych. Snapchat wykorzystuje je do wydajnych filtrów obrazu, a Disney do super rozdzielczości. 

    Zakłócający wpływ

    Chociaż GAN został pierwotnie stworzony w celu usprawnienia uczenia maszynowego, jego zastosowania przekroczyły wątpliwe terytoria. Na przykład stale tworzone są filmy typu deepfake, aby naśladować prawdziwych ludzi i sprawiać wrażenie, jakby robili lub mówili coś, czego nie robili. Na przykład pojawił się film, na którym były prezydent USA Barack Obama nazwał innego byłego prezydenta USA Donalda Trumpa obraźliwym określeniem, a dyrektor generalny Facebooka Mark Zuckerburg przechwalał się, że jest w stanie kontrolować miliardy skradzionych danych. Żadna z nich nie wydarzyła się w prawdziwym życiu. Ponadto większość filmów typu deepfake jest skierowana do celebrytek i umieszcza je w treściach pornograficznych. Sieci GAN są również w stanie tworzyć od podstaw fikcyjne zdjęcia. Na przykład kilka fałszywych kont dziennikarzy na LinkedIn i Twitterze okazało się generowanych przez sztuczną inteligencję. Te syntetyczne profile można wykorzystać do tworzenia realistycznie brzmiących artykułów i elementów przemyślanego przywództwa, które mogą wykorzystać propagandyści. 

    Tymczasem w sektorze opieki zdrowotnej rosną obawy dotyczące danych, które mogą zostać ujawnione w wyniku wykorzystania rzeczywistej bazy danych pacjentów jako danych szkoleniowych dla algorytmów. Niektórzy badacze twierdzą, że musi istnieć dodatkowa warstwa bezpieczeństwa lub maskowania w celu ochrony danych osobowych. Jednakże, chociaż GAN jest znany głównie ze swojej zdolności do oszukiwania ludzi, ma pozytywne zalety. Na przykład w maju 2022 r. policja z Holandii odtworzyła film przedstawiający 13-letniego chłopca zamordowanego w 2003 r. Policja ma nadzieję, że wykorzystując realistyczne nagrania ofiary, zachęci ludzi do pamiętania o ofierze i zgłaszania nowe informacje w sprawie zimnej sprawy. Policja twierdzi, że otrzymała już kilka wskazówek, ale aby je zweryfikować, będzie musiała sprawdzić przeszłość.

    Zastosowania generatywnych sieci przeciwstawnych (GAN)

    Niektóre zastosowania generatywnych sieci przeciwstawnych (GAN) mogą obejmować: 

    • Branża filmowa tworząca treści typu deepfake w celu umieszczenia syntetycznych aktorów i ponownego nakręcenia scen w filmach postprodukowanych. Strategia ta może przełożyć się na długoterminowe oszczędności, ponieważ nie będą musieli płacić aktorom i ekipie dodatkowego wynagrodzenia.
    • Coraz częstsze wykorzystywanie fałszywych tekstów i filmów do promowania ideologii i propagandy w różnych obszarach politycznych.
    • Firmy korzystające z syntetycznych filmów do tworzenia rozbudowanych kampanii brandingowych i marketingowych bez zatrudniania prawdziwych ludzi poza programistami.
    • Grupy lobbujące na rzecz zwiększonej ochrony prywatności danych w zakresie opieki zdrowotnej i innych danych osobowych. Ten sprzeciw może wywrzeć presję na firmy, aby opracowywały dane szkoleniowe, które nie są oparte na rzeczywistych bazach danych. Jednak wyniki mogą nie być tak dokładne.
    • Rządy regulują i monitorują firmy produkujące technologię GAN, aby mieć pewność, że technologia ta nie jest wykorzystywana do dezinformacji i oszustw.

    Pytania do skomentowania

    • Czy masz doświadczenie w korzystaniu z technologii GAN? Jakie było doświadczenie?
    • W jaki sposób firmy i rządy mogą zapewnić, że sieć GAN będzie wykorzystywana w sposób etyczny?

    Referencje informacyjne

    W celu uzyskania tego wglądu odniesiono się do następujących popularnych i instytucjonalnych powiązań: