Diferencijalna privatnost: bijeli šum kibernetičke sigurnosti

KREDIT ZA SLIKE:
Slika kreditne
Istockphoto

Diferencijalna privatnost: bijeli šum kibernetičke sigurnosti

Diferencijalna privatnost: bijeli šum kibernetičke sigurnosti

Tekst podnaslova
Diferencijalna privatnost koristi "bijeli šum" za skrivanje osobnih podataka od analitičara podataka, državnih tijela i reklamnih tvrtki.
    • Autor:
    • ime autora
      Quantumrun Foresight
    • Prosinac 17, 2021

    Sažetak uvida

    Diferencijalna privatnost, metoda koja uvodi razinu nesigurnosti radi zaštite korisničkih podataka, mijenja način na koji se postupa s podacima u različitim sektorima. Ovaj pristup omogućuje izvlačenje bitnih informacija bez ugrožavanja osobnih podataka, što dovodi do potencijalne promjene vlasništva podataka gdje pojedinci imaju veću kontrolu nad svojim informacijama. Usvajanje različite privatnosti moglo bi imati širok raspon implikacija, od preoblikovanja zakonodavstva i promicanja pravedne zastupljenosti u odlukama koje se temelje na podacima, do poticanja inovacija u znanosti o podacima i stvaranja novih prilika u kibernetičkoj sigurnosti.

    Diferencijalni kontekst privatnosti

    Trenutne infrastrukture rade na velikim podacima, a to su veliki skupovi podataka koje koriste vlade, akademski istraživači i analitičari podataka kako bi otkrili obrasce koji će im pomoći u donošenju strateških odluka. Međutim, sustavi rijetko uzimaju u obzir potencijalne opasnosti za privatnost i zaštitu korisnika. Na primjer, velike tehnološke tvrtke poput Facebooka, Googlea, Applea i Amazona poznate su po povredama podataka koje mogu imati štetne posljedice na korisničke podatke u više okruženja, kao što su bolnice, banke i vladine organizacije. 

    Iz tih razloga informatičari se fokusiraju na razvoj novog sustava za pohranu podataka koji ne narušava privatnost korisnika. Diferencijalna privatnost nova je metoda zaštite korisničkih podataka pohranjenih na internetu. Djeluje tako da u proces prikupljanja podataka uvodi određene razine ometanja ili bijelog šuma, sprječavajući točno praćenje korisničkih podataka. Taj pristup pruža korporacijama sve bitne podatke bez otkrivanja osobnih podataka.

    Matematika za diferencijalnu privatnost postoji od 2010-ih, a Apple i Google već su usvojili ovu metodu posljednjih godina. Znanstvenici treniraju algoritme da skupu podataka dodaju poznati postotak netočne vjerojatnosti tako da nitko ne može pratiti informacije do korisnika. Tada algoritam može lako oduzeti vjerojatnost dobivanja stvarnih podataka uz zadržavanje anonimnosti korisnika. Proizvođači mogu instalirati lokalnu diferencijalnu privatnost u korisnikov uređaj ili je dodati kao centraliziranu diferencijalnu privatnost nakon prikupljanja podataka. Međutim, centralizirana diferencijalna privatnost još uvijek je u opasnosti od kršenja na izvoru. 

    Razarajući učinak

    Kako sve više ljudi postaje svjesno različite privatnosti, mogli bi zahtijevati veću kontrolu nad svojim podacima, što dovodi do promjene u načinu na koji tehnološke tvrtke postupaju s korisničkim podacima. Na primjer, pojedinci mogu imati opciju prilagodbe razine privatnosti koju žele za svoje podatke, što im omogućuje balansiranje između personaliziranih usluga i privatnosti. Ovaj bi trend mogao dovesti do nove ere vlasništva nad podacima, u kojoj pojedinci imaju pravo glasa u tome kako se njihovi podaci koriste, potičući osjećaj povjerenja i sigurnosti u digitalnom svijetu.

    Kako potrošači postaju svjesniji privatnosti, tvrtke kojima je zaštita podataka prioritet mogla bi privući više kupaca. Međutim, to također znači da će tvrtke morati ulagati u razvoj različitih sustava privatnosti, što bi mogao biti značajan pothvat. Nadalje, tvrtke će se možda trebati snalaziti u složenom krajoliku međunarodnih zakona o privatnosti, što bi moglo dovesti do razvoja fleksibilnih modela privatnosti koji se mogu prilagoditi različitim jurisdikcijama.

    Na strani vlade, različita privatnost mogla bi revolucionarizirati način na koji se postupa s javnim podacima. Na primjer, korištenje diferencijalne privatnosti u prikupljanju popisnih podataka moglo bi osigurati privatnost građana, a istovremeno pružati točne statističke podatke za donošenje politika. Međutim, vlade će možda morati uspostaviti jasne propise i standarde za različitu privatnost kako bi osigurale njezinu pravilnu provedbu. Ovaj bi razvoj mogao dovesti do pristupa upravljanju javnim podacima koji je više usmjeren na privatnost, promičući transparentnost i povjerenje između građana i njihovih vlada. 

    Implikacije diferencijalne privatnosti

    Šire implikacije diferencijalne privatnosti mogu uključivati: 

    • Nedostatak specifičnih korisničkih podataka obeshrabruje tvrtke da ih prate i dovodi do smanjenja upotrebe ciljanih oglasa na društvenim medijima i tražilicama.
    • Stvaranje šireg tržišta rada za zagovornike i stručnjake kibernetičke sigurnosti. 
    • Nedostatak podataka dostupnih agencijama za provođenje zakona za praćenje kriminalaca dovodi do sporijih uhićenja. 
    • Novo zakonodavstvo koje vodi do strožih zakona o zaštiti podataka i potencijalno preoblikuje odnos između vlada, korporacija i građana.
    • Pravedna zastupljenost svih skupina u donošenju odluka temeljenom na podacima, što vodi do pravednijih politika i usluga.
    • Inovacije u znanosti o podacima i strojnom učenju dovode do razvoja novih algoritama i tehnika koje mogu učiti iz podataka bez ugrožavanja privatnosti.

    Pitanja za razmatranje

    • Mislite li da velike tehnološke korporacije mogu u potpunosti ugraditi različitu privatnost u svoje poslovne modele? 
    • Vjerujete li da će hakeri na kraju moći nadmašiti nove diferencijalne prepreke privatnosti za pristup ciljanim podacima?

    Reference uvida

    Za ovaj uvid korištene su sljedeće popularne i institucionalne veze: