Privacy erkenning: kinne online foto's wurde beskerme?

Ofbyldingskredyt:
Image credit
iStock

Privacy erkenning: kinne online foto's wurde beskerme?

Privacy erkenning: kinne online foto's wurde beskerme?

Subheading tekst
Undersikers en bedriuwen ûntwikkelje nije technologyen om partikulieren te helpen har online foto's te beskermjen tsjin gebrûk yn systemen foar gesichtsherkenning.
    • Skriuwer:
    • Namme fan auteur
      Quantumrun Foresight
    • Novimber 4, 2022

    Ynsjoch gearfetting

    As gesichtsherkenningstechnology (FRT) wiidferspraat wurdt, hawwe ferskate groepen besocht de effektiviteit te beheinen om privacy te behâlden. Wylst besykjen om systemen foar gesichtsherkenning te outmanoeuvre is net altyd mooglik, binne ûndersikers begon te eksperimintearjen mei manieren om online apps te betiizjen dy't foto's skrape en sammelje foar motoren foar gesichtsherkenning. Dizze metoaden omfetsje it brûken fan keunstmjittige yntelliginsje (AI) om "lûd" ta te foegjen oan ôfbyldings en cloaking-software.

    Erkenning privacy kontekst

    Gesichtsherkenningstechnology wurdt hieltyd mear brûkt troch ferskate sektoaren, ynklusyf wet hanthavenjen, ûnderwiis, detailhannel, en loftfeart, foar doelen fariearjend fan it identifisearjen fan kriminelen oant tafersjoch. Bygelyks, yn New York hat gesichtsherkenning ynstrumintal west yn it helpen fan ûndersikers om tal fan arrestaasjes te meitsjen en gefallen fan identiteitsstellerij en fraude te identifisearjen, signifikant sûnt 2010. Dizze taname fan gebrûk ropt lykwols ek fragen op oer privacy en it etysk gebrûk fan sokke technology .

    Yn grinsfeiligens en ymmigraasje brûkt it Amerikaanske ministearje fan Homeland Security gesichtsherkenning om de identiteiten te ferifiearjen fan reizgers dy't it lân yngeane en ferlitte. Dat wurdt dien troch de foto's fan reizgers te fergelykjen mei besteande bylden, lykas dy yn paspoarten. Op deselde manier nimme retailers gesichtsherkenning oan om potinsjele winkeldieven te identifisearjen troch de gesichten fan klanten te fergelykjen mei in database fan bekende oertreders. 

    Nettsjinsteande de praktyske foardielen hat it útwreidzjen fan gebrûk fan technologyen foar gesichtsherkenning soargen oer privacy en tastimming opwekke. In opmerklik foarbyld is it gefal fan Clearview AI, in bedriuw dat miljarden ôfbyldings sammele fan sosjale mediaplatfoarms en it ynternet, sûnder eksplisite tastimming, om har gesichtsherkenningssysteem op te trenen. Dizze praktyk markearret de tinne line tusken publike en partikuliere domeinen, om't persoanen dy't har foto's online diele faaks beheinde kontrôle hawwe oer hoe't dizze ôfbyldings wurde brûkt. 

    Disruptive ynfloed

    Yn 2020 waard in software neamd Fawkes ûntwikkele troch ûndersikers fan 'e Universiteit fan Chicago. Fawkes biedt in effektive metoade foar beskerming fan gesichtsherkenning troch foto's te "cloaking" om systemen foar djippe learen te ferrifeljen, allegear by it meitsjen fan minimale feroaringen dy't net merkber binne foar it minsklik each. It ark rjochtet allinich op systemen dy't persoanlike ôfbyldings sûnder tastimming rispje en hat gjin ynfloed op modellen boud mei legitimearre foto's, lykas dy brûkt troch wet hanthavenjen.

    Fawkes kinne wurde downloade fan 'e projektwebside, en elkenien kin it brûke troch in pear ienfâldige stappen te folgjen. De cloaking-software duorret mar in pear mominten om de foto's te ferwurkjen foardat brûkers kinne trochgean en se iepenbier pleatse. De software is ek beskikber foar Mac en PC bestjoeringssystemen.

    Yn 2021 makke it Israel-basearre techbedriuw Adversa AI in algoritme dat lûd tafoeget, as lytse feroarings, oan foto's fan gesichten, wat soarget foar gesichtsscansystemen om in oar gesicht hielendal te ûntdekken. It algoritme feroaret it byld fan in yndividu mei súkses subtyl nei in oar fan har kar (bygelyks, de CEO fan Adversa AI koe in byldsyksysteem ferrifelje om him te identifisearjen as Elon Musk fan Tesla). Dizze technology is unyk om't it is makke sûnder detaillearre kennis fan 'e algoritmen fan 'e doel-FRT. Sa kin in yndividu it ark ek brûke tsjin oare gesichtsherkenningsmotoren.

    Gefolgen fan erkenning privacy

    Bredere gefolgen fan privacy foar erkenning kinne omfetsje: 

    • Sosjale media en oare ynhâld-basearre platfoarms mei erkenning privacy technologyen.
    • Snoadfoans, laptops en kamera's, ynklusyf programma's dy't de foto's fan brûkers kinne omhulje, en de privacy fan brûkers ferheegje.
    • In tanimmend oantal startups dy't biometryske camouflage ûntwikkelje as programma's om FRT-deteksje te beheinen. 
    • Mear nasjonale en lokale oerheden útfiere wetten dy't FRT's beheine of ferbiede yn iepenbier tafersjoch.
    • Mear rjochtsaken tsjin systemen foar gesichtsherkenning dy't yllegaal priveeôfbyldings skrape, ynklusyf it ferantwurdzjen fan sosjale mediabedriuwen foar har gebrek oan feiligensmaatregels.
    • In groeiende beweging fan boargers en organisaasjes dy't lobby tsjin it tanimmend gebrûk fan FRT's.

    Fragen om te beskôgje

    • Wat kin dien wurde om it gebrûk fan systemen foar gesichtsherkenning te balansearjen?
    • Hoe brûke jo gesichtsherkenning op it wurk en yn jo deistich libben?

    Ynsjoch ferwizings

    De folgjende populêre en ynstitúsjonele keppelings waarden ferwiisd foar dit ynsjoch: