Diferenciālā privātums: kiberdrošības baltais troksnis

ATTĒLA KREDĪTS:
Attēls kredīts
iStock

Diferenciālā privātums: kiberdrošības baltais troksnis

Diferenciālā privātums: kiberdrošības baltais troksnis

Apakšvirsraksta teksts
Atšķirīgā privātuma aizsardzība izmanto “balto troksni”, lai paslēptu personas informāciju no datu analītiķiem, valsts iestādēm un reklāmas uzņēmumiem.
    • Autors:
    • Autors nosaukums
      Quantumrun Foresight
    • Decembris 17, 2021

    Ieskata kopsavilkums

    Diferenciālā privātums, metode, kas ievieš nenoteiktības līmeni, lai aizsargātu lietotāju datus, pārveido veidu, kā dati tiek apstrādāti dažādās nozarēs. Šī pieeja ļauj iegūt būtisku informāciju, neapdraudot personas datus, izraisot iespējamu datu īpašumtiesību maiņu, kur indivīdiem ir lielāka kontrole pār savu informāciju. Atšķirīgas privātuma pieņemšanai varētu būt plaša ietekme, sākot no tiesību aktu pārveidošanas un godīgas pārstāvības veicināšanas uz datiem pamatotos lēmumos, līdz inovāciju stimulēšanai datu zinātnē un jaunu iespēju radīšanai kiberdrošībā.

    Atšķirīgs privātuma konteksts

    Pašreizējās infrastruktūras darbojas ar lielajiem datiem, kas ir lielas datu kopas, ko izmanto valdības, akadēmiskie pētnieki un datu analītiķi, lai atklātu modeļus, kas viņiem palīdzēs stratēģisku lēmumu pieņemšanā. Tomēr sistēmas reti ņem vērā iespējamos apdraudējumus lietotāju privātumam un aizsardzībai. Piemēram, lielākie tehnoloģiju uzņēmumi, piemēram, Facebook, Google, Apple un Amazon, ir pazīstami ar datu pārkāpumiem, kas var kaitīgi ietekmēt lietotāju datus vairākos iestatījumos, piemēram, slimnīcās, bankās un valdības organizācijās. 

    Šo iemeslu dēļ datorzinātnieki koncentrējas uz jaunas datu glabāšanas sistēmas izstrādi, kas nepārkāpj lietotāju privātumu. Diferenciālā privātums ir jauna metode, kā aizsargāt internetā glabātos lietotāja datus. Tas darbojas, datu vākšanas procesā ieviešot noteiktus uzmanības novēršanas vai baltā trokšņa līmeņus, novēršot precīzu lietotāja datu izsekošanu. Šī pieeja nodrošina korporācijām visus būtiskos datus, neatklājot personisko informāciju.

    Atšķirīgā privātuma matemātika pastāv kopš 2010. gadiem, un Apple un Google jau ir pieņēmuši šo metodi pēdējos gados. Zinātnieki apmāca algoritmus, lai datu kopai pievienotu zināmu nepareizas varbūtības procentu, lai neviens nevarētu izsekot informāciju lietotājam. Pēc tam algoritms var viegli atņemt faktisko datu iegūšanas varbūtību, vienlaikus saglabājot lietotāja anonimitāti. Ražotāji var vai nu instalēt lokālo diferenciālo privātumu lietotāja ierīcē, vai pievienot to kā centralizētu diferenciālo privātumu pēc datu apkopošanas. Tomēr centralizētu diferencētu privātumu joprojām apdraud pārkāpumi tās avotā. 

    Traucējoša ietekme

    Tā kā arvien vairāk cilvēku apzinās atšķirīgu privātumu, viņi var pieprasīt lielāku kontroli pār saviem datiem, tādējādi mainot to, kā tehnoloģiju uzņēmumi apstrādā lietotāju informāciju. Piemēram, personām var būt iespēja pielāgot savu datu konfidencialitātes līmeni, ļaujot tām līdzsvarot personalizētus pakalpojumus un privātumu. Šī tendence varētu novest pie jauna datu īpašumtiesību laikmeta, kurā indivīdi var ietekmēt to, kā tiek izmantoti viņu dati, veicinot uzticības un drošības sajūtu digitālajā pasaulē.

    Patērētājiem kļūstot arvien apzinīgākiem par privātumu, uzņēmumi, kuriem prioritāte ir datu aizsardzība, varētu piesaistīt vairāk klientu. Tomēr tas nozīmē arī to, ka uzņēmumiem būs jāiegulda atšķirīgu privātuma sistēmu izstrādē, kas varētu būt nozīmīgs pasākums. Turklāt uzņēmumiem, iespējams, būs jāorientējas starptautisko privātuma likumu sarežģītajā vidē, kas varētu novest pie elastīgu privātuma modeļu izstrādes, kas ir pielāgojami dažādām jurisdikcijām.

    No valdības puses atšķirīga privātuma aizsardzība varētu mainīt to, kā tiek apstrādāti publiskie dati. Piemēram, diferencētas privātuma izmantošana tautas skaitīšanas datu vākšanā varētu nodrošināt iedzīvotāju privātumu, vienlaikus nodrošinot precīzus statistikas datus politikas veidošanai. Tomēr valdībām, iespējams, būs jāizstrādā skaidri noteikumi un standarti attiecībā uz atšķirīgu privātumu, lai nodrošinātu tā pareizu īstenošanu. Šī attīstība varētu novest pie pieejas, kas vairāk vērsta uz privātumu publisko datu pārvaldībā, veicinot pārredzamību un uzticēšanos starp pilsoņiem un viņu attiecīgajām valdībām. 

    Atšķirīgas privātuma sekas

    Plašākas atšķirīgas privātuma sekas var ietvert: 

    • Konkrētu lietotāju datu trūkums attur uzņēmumus no to izsekošanas un samazina mērķtiecīgu reklāmu izmantošanu sociālajos medijos un meklētājprogrammās.
    • Plašāka darba tirgus izveide kiberdrošības aizstāvjiem un ekspertiem. 
    • Tiesībaizsardzības iestādēm trūkst datu, lai izsekotu noziedzniekus, kā rezultātā notiek lēnāki aresti. 
    • Jauni tiesību akti, kas nosaka stingrākus datu aizsardzības likumus un, iespējams, pārveido attiecības starp valdībām, korporācijām un pilsoņiem.
    • Visu grupu godīga pārstāvība uz datiem balstītu lēmumu pieņemšanā, tādējādi nodrošinot vienlīdzīgāku politiku un pakalpojumus.
    • Inovācijas datu zinātnē un mašīnmācībā, kas noved pie jaunu algoritmu un metožu izstrādes, kas var mācīties no datiem, neapdraudot privātumu.

    Jautājumi, kas jāapsver

    • Vai, jūsuprāt, lielākās tehnoloģiju korporācijas savos biznesa modeļos var pilnībā iekļaut atšķirīgu privātumu? 
    • Vai jūs domājat, ka hakeri galu galā spēs pārvarēt jaunus diferencētus privātuma šķēršļus, lai piekļūtu mērķa datiem?

    Ieskata atsauces

    Šim ieskatam tika izmantotas šādas populāras un institucionālas saites: