Deepfakes զվարճանքի համար. Երբ խորը ֆեյքերը վերածվում են զվարճանքի

ՊԱՏԿԵՐԻ ՎԱՐԿ.
Image վարկային
iSock

Deepfakes զվարճանքի համար. Երբ խորը ֆեյքերը վերածվում են զվարճանքի

Deepfakes զվարճանքի համար. Երբ խորը ֆեյքերը վերածվում են զվարճանքի

Ենթավերնագրի տեքստը
Deepfakes-ը մարդկանց մոլորեցնող վատ համբավ ունի, սակայն ավելի շատ անհատներ և արվեստագետներ օգտագործում են այս տեխնոլոգիան՝ առցանց բովանդակություն ստեղծելու համար:
    • Հեղինակ:
    • Հեղինակ անունը
      Quantumrun Հեռատեսություն
    • Դեկտեմբերի 7, 2023

    Insight ամփոփում

    Deepfake տեխնոլոգիան, օգտագործելով AI-ն և ML-ն, փոխակերպում է բովանդակության ստեղծումը տարբեր ոլորտներում: Այն թույլ է տալիս հեշտությամբ փոփոխել լուսանկարներն ու տեսանյութերը, որոնք տարածված են սոցիալական ցանցերում՝ դեմքերի փոխանակման գործառույթների համար: Զվարճանքի մեջ խորը ֆեյքերը բարձրացնում են տեսանյութի որակը և հեշտացնում բազմալեզու կրկնօրինակումը` բարելավելով դիտման միջազգային փորձը: Հասանելի է օգտատերերի համար հարմար հարթակների միջոցով, deepfakes-ն օգտագործվում է ֆիլմերի կատարելագործման, VR/AR միջավայրերում իրական ավատարներ ստեղծելու, պատմական իրադարձությունների ուսումնական հանգստի և անհատականացված գովազդի համար: Նրանք նաև օգնում են բժշկական ուսուցմանը իրատեսական սիմուլյացիաների միջոցով և հնարավորություն են տալիս նորաձևության ապրանքանիշերին ցուցադրել տարբեր վիրտուալ մոդելներ՝ առաջարկելով ծախսարդյունավետ և ներառական լուծումներ բովանդակության ստեղծման հարցում:

    Deepfakes դրական բովանդակության ստեղծման համատեքստի համար

    Deepfake տեխնոլոգիան հաճախ ցուցադրվում է հայտնի սմարթֆոնների և աշխատասեղանի հավելվածներում, որոնք թույլ են տալիս օգտվողներին փոխել մարդկանց դեմքի արտահայտությունները լուսանկարներում և տեսանյութերում: Համապատասխանաբար, այս տեխնոլոգիան ավելի հասանելի է դառնում ինտուիտիվ ինտերֆեյսների և սարքից դուրս մշակման միջոցով: Օրինակ, սոցցանցերում deepfakes-ի լայն տարածումը առաջնորդվում էր դեմքերի փոխանակման հանրաճանաչ զտիչով, որտեղ անհատները փոխանակում էին միմյանց դեմքերը իրենց բջջային սարքերով: 

    Deepfakes-ը պատրաստվում է Generative Adversarial Network-ի (GAN) միջոցով՝ մեթոդ, որի դեպքում երկու համակարգչային ծրագրեր պայքարում են միմյանց հետ՝ լավագույն արդյունքների հասնելու համար: Մի ծրագիրը պատրաստում է տեսանյութը, իսկ մյուսը փորձում է սխալներ տեսնել։ Արդյունքը զարմանալիորեն իրատեսական միաձուլված տեսանյութ է: 

    2020 թվականի դրությամբ deepfake տեխնոլոգիան հիմնականում հասանելի է հանրությանը։ Մարդիկ այլևս կարիք չունեն համակարգչային ինժեներական հմտությունների՝ խորը ֆեյք ստեղծելու համար. այն կարելի է պատրաստել վայրկյանների ընթացքում: Կան մի քանի խորը կեղծիքների հետ կապված GitHub պահոցներ, որտեղ մարդիկ ներդրում են իրենց գիտելիքներն ու ստեղծագործությունները: Բացի դրանից, կան ավելի քան 20 խորը կեղծ ստեղծման համայնքներ և վիրտուալ քննարկումների տախտակներ (2020 թ.): Այս համայնքներից ոմանք ունեն մոտ 100,000 բաժանորդ և մասնակից: 

    Խանգարող ազդեցություն

    Deepfake տեխնոլոգիան արագորեն տարածվում է զվարճանքի արդյունաբերության մեջ՝ բարելավելու առկա տեսանյութի որակը: Քանի որ խորը ֆեյքերը կարող են կրկնօրինակել մարդու շուրթերի շարժումներն ու դեմքի արտահայտությունները՝ համապատասխանեցնելով նրանց ասածին, դրանք կարող են օգնել ֆիլմի կատարելագործմանը: Տեխնոլոգիան կարող է բարելավել սև-սպիտակ ֆիլմերը, բարձրացնել սիրողական կամ ցածր բյուջեով տեսանյութերի որակը և ստեղծել ավելի իրատեսական փորձ միջազգային լսարանի համար: Օրինակ, deepfakes-ը կարող է արտադրել ծախսարդյունավետ կրկնօրինակված աուդիո մի քանի լեզուներով՝ օգտագործելով տեղական ձայնային դերասաններ: Բացի այդ, խորը ֆեյքերը կարող են օգնել ձայն ստեղծել դերասանի համար, ում ձայնային կարողությունը կորցրել է հիվանդության կամ վնասվածքի պատճառով: Deepfakes-ը նույնպես օգտակար է օգտագործել, եթե ֆիլմի արտադրության ընթացքում ձայնագրման հետ կապված խնդիրներ կան: 

    Deepfake տեխնոլոգիան դառնում է հանրաճանաչ բովանդակություն ստեղծողների շրջանում, ովքեր օգտագործում են դեմքերի փոխանակման հավելվածներ, ինչպիսին է ուկրաինական Reface-ը: Ընկերությունը՝ Reface-ը, շահագրգռված է ընդլայնել իր տեխնոլոգիան՝ ներառելով ամբողջական մարմնի փոխանակումներ: Reface-ի մշակողները պնդում են, որ թույլ տալով, որ այս տեխնոլոգիան հասանելի լինի լայն զանգվածներին, յուրաքանչյուր ոք կարող է զգալ տարբեր կյանքով ապրելը մեկ-մեկ սիմուլյացված տեսանյութով: 

    Այնուամենայնիվ, էթիկական մտահոգություններ են առաջանում սոցիալական ցանցերում խորը ֆեյքերի տեսանյութերի աճող թվի պատճառով: Առաջինը խորը ֆեյք տեխնոլոգիայի կիրառումն է պոռնոարդյունաբերության մեջ, որտեղ մարդիկ հագուստով կանանց նկարներ են վերբեռնում խորը ֆեյք հավելվածում և «հանում» նրանց հագուստից: Կա նաև փոփոխված տեսանյութերի օգտագործում բազմաթիվ աղմկահարույց ապատեղեկատվության քարոզարշավներում, հատկապես համապետական ​​ընտրությունների ժամանակ: Արդյունքում Google-ը և Apple-ն արգելել են խորը կեղծ ծրագրակազմը, որը վնասակար բովանդակություն է ստեղծում իրենց հավելվածների խանութներից:

    Բովանդակության ստեղծման համար deepfakes-ի օգտագործման հետևանքները

    Բովանդակության ստեղծման համար deepfakes-ի ավելի լայն հետևանքները կարող են ներառել. 

    • Հատուկ էֆեկտների ծախսերի նվազեցում բովանդակություն ստեղծողների համար, որոնք նկարահանում են այնպիսի տեսարաններ, որոնցում ներգրավված են բարձրակարգ անհատներ, ծերացող դերասաններ, փոխարինող դերասաններ, որոնք անհասանելի են վերանկարահանման համար, կամ ցուցադրում են հեռավոր կամ վտանգավոր տեսարաններ: 
    • Իրատեսորեն համաժամացնելով դերասանների շուրթերի շարժումները տարբեր լեզուներով կրկնօրինակված աուդիոի հետ՝ բարձրացնելով միջազգային լսարանի դիտման փորձը:
    • Ստեղծեք իրական թվային ավատարներ և կերպարներ VR և AR միջավայրերում՝ հարստացնելով օգտատերերի համար ընկղմվող փորձը:
    • Կրթական նպատակներով պատմական դեմքերի կամ իրադարձությունների վերստեղծում, որը թույլ է տալիս ուսանողներին ավելի վառ զգալ պատմական ելույթները կամ իրադարձությունները:
    • Բրենդերը, որոնք ստեղծում են ավելի անհատականացված գովազդ, օրինակ՝ տարբեր տարածաշրջանային շուկաներում հանրահայտ հայտնի մարդկանց ներկայացուցիչների ցուցադրումը՝ փոխելով իրենց տեսքը կամ լեզուն՝ պահպանելով իսկությունը:
    • Նորաձևության բրենդները ցուցադրում են հագուստ և աքսեսուարներ՝ ստեղծելով բազմազան վիրտուալ մոդելներ, որոնք նպաստում են ներառական ներկայացուցչությանը՝ առանց ավանդական ֆոտոշարքերի լոգիստիկ մարտահրավերների:
    • Բժշկական ուսումնական հաստատություններ ստեղծում են հիվանդների իրատեսական սիմուլյացիաներ բժշկական վերապատրաստման համար՝ օգնելով պրակտիկանտներին սովորել ախտորոշել և բուժել տարբեր պայմաններ վերահսկվող, վիրտուալ միջավայրում:

    Հարցեր մեկնաբանելու համար

    • Ինչպե՞ս կարող են մարդիկ պաշտպանվել իրենց խորը կեղծ ապատեղեկատվությունից:
    • Որո՞նք են խորը կեղծ տեխնոլոգիայի այլ հնարավոր օգուտները կամ ռիսկերը:

    Insight հղումներ

    Հետևյալ հանրաճանաչ և ինստիտուցիոնալ հղումները վկայակոչվել են այս պատկերացման համար.