Jauns pētījums, kas pabeigts UC Berkeley, atklāja, ka pašreizējais ASV tiesiskais regulējums ir slikti sagatavots, lai pieņemtu likumus par to, kā mākslīgais intelekts ietekmē cilvēku digitālo privātumu.


Pētījumā uzmanība tiek pievērsta tam, kā AI spēj izmantot plašus datu krājumus, lai identificētu personas un viņu personīgās veselības datus. Pēc galvenā pētnieka Anila Aswani teiktā, AI var izmantot pakāpju datus, kas savākti no aktivitātes izsekotājiem, viedtālruņiem un viedpulksteņiem, un salīdzināt tos ar demogrāfiskajiem datiem, lai identificētu personas.

Pētījuma laikā Bērklija pētnieki izmantoja datus, kas iegūti no 15 000 ASV indivīdiem, lai veiksmīgi pierādītu, ka pašreizējie likumi un noteikumi nepietiekami aizsargā cilvēku privātās veselības datus. Pētījums, kas tika publicēts pagājušā gada 21. decembrī žurnālā JAMA Network Open, atklāj, ka privātuma standarti, kas noteikti pašreizējos Veselības apdrošināšanas pārnesamības un atbildības likuma (HIPAA) tiesību aktos, ir steidzami jāpārvērtē, ja ir nepieciešami cilvēku veselības dati. pareizi aizsargāts.

Personas datu atkārtota sadalīšana

Galvenais pētījuma atklājums ir saistīts ar anonimizētu vai pseidonimizētu datu atkārtotu sadalīšanu. Pēc Aswani teiktā, visas identificējošās informācijas noņemšana no ar veselību saistītām datu kopām pienācīgi neaizsargā indivīdus. Tas ir tāpēc, ka uzņēmumiem ir iespējams izmantot AI, lai atkārtoti sadalītu datus, kas iepriekš tika anonimizēti. Aswani skaidro:

"HIPAA noteikumi padara jūsu veselības aprūpi privātu, taču tie neaptver tik daudz, kā jūs domājat. HIPAA neattiecas uz daudzām grupām, piemēram, tehnoloģiju uzņēmumiem, un pašreizējie HIPAA noteikumi neļauj dalīties tikai ar ļoti specifisku informāciju. Ir uzņēmumi, kas pērk datus par veselību. Domājams, ka tie ir anonīmi dati, taču viss viņu biznesa modelis ir atrast veidu, kā šiem datiem pievienot vārdus un tos pārdot."

Aswani ir aprakstījis, kā tādas firmas kā Facebook padara slepenu datu apkopošanu par savu biznesu. Diemžēl pašreizējie ASV likumi neaptur firmas atkārtoti izplatīt iepriekš izkopētus datus, kas apdraud cilvēku privātās veselības datus:

"Principā jūs varētu iedomāties, ka Facebook savā viedtālrunī apkopo soļu datus no lietotnes, pēc tam pērkot veselības aprūpes datus no cita uzņēmuma un saskaņojot tos divus. Tagad viņiem būtu vārdam atbilstoši veselības aprūpes dati, un viņi varētu sākt pārdot reklāmas, pamatojoties uz to, vai arī viņi varētu pārdot datus citiem."

Ietekme ir acīmredzama, cilvēkiem, kuri cīnās ar iespējamām veselības problēmām, šie veselības dati var izraisīt diskrimināciju. Visus veselības datus, ko var veiksmīgi attiecināt uz indivīdu, veselības apdrošinātāji var izmantot, piemēram, lēmumu pieņemšanas procesā. Pakāpenisku datu gadījumā mazkustīgāks dzīvesveids (kaut kas tāds, par ko veselības apdrošinātājiem automātiski nevajadzētu zināt) varētu izraisīt lielākas prēmijas..

Ērta piekļuve

UC Berkeley pētījums pierāda, ka AI efektivitātes paaugstināšanās ievērojami palielinās privātā sektora iespējas vākt ar veselību saistītus datus par indivīdiem. Pētnieki uzskata, ka tas neizbēgami radīs kārdinājumu firmām izmantot datus neētiskā vai slepenā veidā.

Tā kā AI uzlabojas, indivīdi varēja uzzināt, ka darba devēji, hipotēku aizdevēji, kredītkaršu firmas un apdrošināšanas kompānijas pret viņiem ir vērsušies. Aswani komanda ir satraukta - jo tas var izraisīt to, ka firmas tiek diskriminētas pēc tādiem faktoriem kā grūtniecība vai invaliditāte.

 

AI diskriminācija

Izplatīta problēma

Šī nav pirmā reize, kad anonimizēti vai pseidonimizēti dati tiek veiksmīgi piedēvēti indivīdiem. Pētījumi, ko MIT veica 2015. gadā, atklāja, ka iepriekš izskalotos kredītkaršu datus var veiksmīgi pārdalīt.

MIT izmantoja identificētus datus no 10 000 veikaliem, kuros bija informācija par 1,1 miljonu kredītkaršu klientu. Saskaņā ar vadošā pētnieka Yves-Alexandre de Montjoye teikto, indivīdu var viegli izcelt, ja veiksmīgi tiek atklāti specifiski marķieri. Saskaņā ar MIT, šos svarīgos marķierus varēja atklāt, izmantojot datus tikai no 3 vai 4 darījumiem.

Pētījums pierāda, ka datu pseidonimizācijas procesi nebūt nav droši. Tas uztrauc, jo pat ES, kur GDPR ir ievērojami uzlabojis cilvēku datu privātuma tiesības - datu pseidonimizācija tiek uzskatīta par metodi, kā uzņēmumi var apstrādāt “īpašas kategorijas” vai sensitīvus datus, nepārkāpjot likumu. Īpašās kategorijas dati ietver ģenētiskos datus un datus par veselību.

Gan jaunais UC Berkeley pētījums, gan iepriekšējie MIT pētījumi pierāda, ka ar datu pseidonimizāciju var nebūt pietiekami, lai to nenoteiktu laiku nodrošinātu. Tas nozīmē, ka pat visiecienīgākie datu privātuma rēķini var nepietiekami aizsargāt iedzīvotājus no finierzāģu uzbrukumiem.

 

AI likums

Nepieciešami likumdošanas atjauninājumi

Aswani un viņa pētnieku komanda ir mudinājusi ASV valdību “pārskatīt un pārstrādāt” esošos HIPPA tiesību aktus, lai aizsargātu cilvēkus pret AI radītajām briesmām. Nepieciešami jauni noteikumi, kas aizsargā datus par veselību, taču Bērklija pētnieki uztraucas, ka ASV politikas veidotāji, šķiet, virzās nepareizā virzienā:

"Ideālā gadījumā tas, ko es gribētu redzēt, ir jauni noteikumi vai noteikumi, kas aizsargā datus par veselību. Bet patiesībā ir ļoti nepieciešams pat vājināt noteikumus šobrīd. Piemēram, HIPAA noteikumu izstrādes grupa ir pieprasījusi komentārus par datu apmaiņas palielināšanu. Risks ir tāds, ka, ja cilvēki nezina par notiekošo, mūsu noteikumi tiks vājināti. Patiesībā palielinās un nemazinās risks, ka mēs zaudējam kontroli pār savu privātumu, kad runa ir par veselības aprūpi."

Ja šis stāsts ir licis jums pārskatīt jūsu pašu tiešsaistes drošību, kāpēc gan neizskatiet mūsu labāko VPN pakalpojumu lapu, lai uzzinātu, kā saglabāt drošību tiešsaistē.

Attēlu kredīti: metamorworks / Shutterstock.com, pieci koki / Shutterstock.com, Billion Photos / Shutterstock.com.

Brayan Jackson Administrator
Candidate of Science in Informatics. VPN Configuration Wizard. Has been using the VPN for 5 years. Works as a specialist in a company setting up the Internet.
follow me