Nova študija, ki je bila končana na UC Berkeley, je pokazala, da je trenutni ameriški pravni okvir slabo pripravljen sprejeti zakonodajo o tem, kako umetna inteligenca vpliva na digitalno zasebnost ljudi.


Študija se osredotoča na to, kako je AI sposoben uporabljati ogromne zbirke podatkov, da bi identificiral posameznike in njihove osebne zdravstvene podatke. Kot je povedal vodilni raziskovalec Anil Aswani, lahko AI uporabi koračne podatke, zbrane s sledilci dejavnosti, pametnimi telefoni in pametnimi urami, in jih navzkrižno sklicuje na demografske podatke, da prepozna posameznike.

Med raziskavo so raziskovalci iz Berkeleyja s podatki, pridobljenimi od 15.000 ameriških posameznikov, uspešno dokazali, da trenutni zakoni in predpisi ne zaščitijo osebnih zdravstvenih podatkov ljudi. Raziskava, ki je bila objavljena 21. decembra lani v reviji JAMA Network Open, razkriva, da so standardi zasebnosti, določeni v sedanji zakonodaji o zdravstvenem zavarovanju o prenosljivosti in odgovornosti (HIPAA), nujno potrebni ponovna presoja, če želijo biti zdravstveni podatki ljudi pravilno zaščiten.

AI ogrožam vaše zdravstvene podatke

Ponovna distribucija osebnih podatkov

Glavna ugotovitev študije vključuje ponovno distribucijo anonimiziranih ali psevdonimiziranih podatkov. Po besedah ​​Aswanija odvzem vseh identifikacijskih podatkov iz zdravstvenih naborov podatkov posameznikov ne zaščiti pravilno. To je zato, ker podjetja lahko uporabljajo AI za ponovno distribucijo podatkov, ki so bili prej anonimizirani. Aswani pojasnjuje:

"S predpisi HIPAA je vaše zdravstveno varstvo zasebno, vendar ne pokrivajo toliko, kot mislite. Številne skupine, kot so tehnološka podjetja, niso zajete v HIPAA, zato sedanja pravila HIPAA ne smejo deliti le zelo specifičnih informacij. Obstajajo podjetja, ki kupujejo zdravstvene podatke. Šlo naj bi za anonimne podatke, vendar je njihov celoten poslovni model najti način, kako na te podatke pritrditi imena in jih prodati."

Aswani je opisal, kako podjetja, kot je Facebook, svoje podjetje znova zbirajo občutljive podatke. Na žalost trenutni ameriški zakoni ne preprečujejo podjetjem, da ponovno razdelijo predhodno prečiščene podatke, kar ogroža zasebne zdravstvene podatke ljudi:

"Načeloma bi si lahko predstavljali, da bi Facebook na svojem pametnem telefonu zbral podatke o korakih iz aplikacije, nato pa kupil zdravstvene podatke drugega podjetja in jih primerjal. Zdaj bi imeli zdravstvene podatke, ki se ujemajo z imeni, in bi lahko začeli prodajati oglaševanje na podlagi tega ali pa bi podatke lahko prodali drugim."

Posledice so očitne, saj lahko zdravstveni podatki, ki se spopadajo s potencialnimi zdravstvenimi težavami, privedejo do diskriminacije. Vse zdravstvene podatke, ki jih lahko posameznik uspešno pripiše, lahko zdravstvene zavarovalnice uporabijo na primer v postopku odločanja. V primeru podatkov o korakih lahko bolj sedeč življenjski slog (nekaj, česar zdravstveni zavarovatelji ne bi smeli samodejno vedeti) vodi do višjih premij.

Enostaven dostop

Študija UC Berkeley dokazuje, da bo povečanje učinkovitosti AI močno povečalo sposobnost zasebnega sektorja za zbiranje zdravstvenih podatkov o posameznikih. Raziskovalci verjamejo, da bo to neizogibno ustvarilo skušnjavo podjetij za uporabo podatkov na neetične ali tajne načine.

Medtem ko se AI izboljšuje, lahko posamezniki ugotovijo, da so njihovi zdravstveni podatki delodajalci, hipotekarni posojilodajalci, družbe s kreditnimi karticami in zavarovalnice obrnili proti njim. Aswanijeva ekipa je zaskrbljena - ker bi to lahko vodilo do diskriminacije podjetij glede na dejavnike, kot sta nosečnost ali invalidnost.

AI diskriminacija

Pogosta težava

To ni prvič, da so anonimizirani ali psevdonimizirani podatki posameznikom uspešno pripisani. Raziskave, ki jih je leta 2015 opravil MIT, so pokazale, da je mogoče že prej prečiščene podatke kreditnih kartic ponovno dodeliti.

MIT je uporabil identificirane podatke iz 10.000 trgovin s podatki o 1,1 milijona kupcev kreditnih kartic. Po besedah ​​vodilnega raziskovalca Yves-Alexandre de Montjoye bi posameznika lahko zlahka ločili, če bi uspešno odkrili posebne markerje. Po mnenju MIT bi te vitalne markerje lahko odkrili s pomočjo podatkov iz samo treh ali štirih transakcij.

Raziskava dokazuje, da postopki psevdonimizacije podatkov še zdaleč niso zanesljivi. To je zaskrbljujoče, saj tudi v EU, kjer je GDPR množično izboljšal človekove pravice do zasebnosti podatkov, se psevdonimizacija podatkov oglašuje kot metoda za podjetja, ki lahko obdelujejo "posebno kategorijo" ali občutljive podatke, ne da bi kršili zakon. Podatki posebne kategorije vključujejo genetske podatke in podatke o zdravju.

Tako nova študija UC Berkeley kot tudi prejšnja raziskava MIT dokazujeta, da psevdonimizacija podatkov morda ne bo dovolj za njeno varno v nedogled. To pomeni, da tudi najbolj napovedani računi zasebnosti podatkov državljanov morda ne bodo ustrezno zaščitili pred napadi sestavljanke.

AI zakon

Potrebne so zakonodajne posodobitve

Aswani in njegova skupina raziskovalcev so vlado ZDA pozvali, naj "ponovno pregleda in prenovi" obstoječo zakonodajo HIPPA, da bi zaščitila ljudi pred nevarnostmi, ki jih je ustvaril AI. Potrebni so novi predpisi, ki varujejo zdravstvene podatke, vendar so raziskovalci iz Berkeleyja zaskrbljeni, ker ameriški oblikovalci politik kažejo, da gredo v napačno smer:

"V idealnem primeru bi to želeli videti novi predpisi ali pravila, ki varujejo zdravstvene podatke. Vendar je pravzaprav velik pritisk, da bi zdaj še bolj oslabili predpise. Na primer, skupina za oblikovanje pravil za HIPAA je zaprosila za komentarje o povečani izmenjavi podatkov. Tveganje je, da če se ljudje ne zavedamo, kaj se dogaja, bodo oslabljena pravila, ki jih imamo. In dejstvo je, da tveganja, ko izgubimo nadzor nad svojo zasebnostjo, ko gre za zdravstveno varstvo, dejansko naraščajo in se ne zmanjšujejo."

Če ste zaradi te zgodbe ponovno razmislili o svoji spletni varnosti, zakaj si ne oglejte naše strani z najboljšimi storitvami VPN, kako lahko ostanete varni v spletu.

Slikovni sliki: metamorworks / Shutterstock.com, pet dreves / Shutterstock.com, Billion Photos / Shutterstock.com.

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me