Naujas tyrimas, baigtas UC Berkeley, atskleidė, kad dabartinė JAV teisinė sistema yra nepakankamai pasirengusi priimti įstatymus, kaip dirbtinis intelektas daro įtaką žmonių skaitmeniniam privatumui..


Tyrime dėmesys sutelktas į tai, kaip PG gali naudoti didelius duomenų saugyklas, kad nustatytų asmenis ir jų asmens sveikatos duomenis. Pasak pagrindinio tyrėjo Anilo Aswani, AI gali naudoti žingsnių duomenis, surinktus iš aktyvumo stebėjimo priemonių, išmaniųjų telefonų ir išmaniųjų laikrodžių, ir palyginti juos su demografiniais duomenimis, kad būtų galima nustatyti asmenis.

Tyrimo metu Berkeley tyrėjai panaudojo duomenis, surinktus iš 15 000 JAV asmenų, kad sėkmingai įrodytų, kad dabartiniai įstatymai ir kiti teisės aktai tinkamai neapsaugo žmonių asmeninės sveikatos duomenų. Tyrimas, kuris buvo paskelbtas praėjusių metų gruodžio 21 d. Žurnale „JAMA Network Open“, atskleidžia, kad privatumo standartams, nustatytiems galiojančiuose Sveikatos draudimo perkeliamumo ir atskaitomybės įstatymo (HIPAA) teisės aktuose, skubiai reikalingas pakartotinis įvertinimas, jei norima gauti žmonių sveikatos duomenis. tinkamai apsaugotas.

AI gali kelti pavojų jūsų sveikatos duomenims

Asmens duomenų perdavimas

Pagrindinė tyrimo išvada yra anoniminių ar pseudonimizuotų duomenų perskirstymas. Anot Aswani, visos tapatybės nustatymo informacijos pašalinimas iš su sveikata susijusių duomenų rinkinių tinkamai neapsaugo asmenų. Taip yra todėl, kad įmonės gali naudoti AI, kad perskirstytų anksčiau anoniminius duomenis. Aswani paaiškina:

"HIPAA nuostatai daro jūsų sveikatos priežiūrą privačią, tačiau jos neapima tiek, kiek manote. Daugeliui grupių, pavyzdžiui, technologijų kompanijų, netaikoma HIPAA, ir pagal dabartines HIPAA taisykles neleidžiama dalintis tik labai konkrečia informacija. Yra įmonių, perkančių sveikatos duomenis. Tai turėtų būti anonimiški duomenys, tačiau visas jų verslo modelis yra rasti būdą, kaip prie šių duomenų pridėti vardus ir parduoti."

Aswani aprašė, kaip tokios įmonės kaip „Facebook“ verčia konfidencialius duomenis kaupti savo verslu. Deja, dabartiniai JAV įstatymai nesustabdo įmonių perskirstyti anksčiau išvalytų duomenų, o tai kelia pavojų žmonių privatiems sveikatos duomenims:

"Iš esmės galite įsivaizduoti, kad „Facebook“ iš savo išmaniojo telefono renka žingsnių duomenis iš programos, tada perka sveikatos priežiūros duomenis iš kitos įmonės ir suderina abu. Dabar jie turėtų sveikatos pavadinimus, suderintus su vardais, ir jie galėtų pradėti pardavinėti reklamas pagal tai, arba galėtų parduoti duomenis kitiems."

Poveikis yra akivaizdus, ​​žmonėms, kurie kovoja su galimomis sveikatos problemomis, šie sveikatos duomenys gali sukelti diskriminaciją. Bet kuriuos sveikatos duomenis, kuriuos galima sėkmingai priskirti asmeniui, sveikatos draudikai gali naudoti, pavyzdžiui, priimdami sprendimus. Duomenų apie pakopą atveju dėl sėslesnio gyvenimo būdo (apie ką sveikatos draudikai neturėtų žinoti automatiškai) gali būti padidintos įmokos..

Lengvas priėjimas

UC Berkeley tyrimas rodo, kad padidėjęs AI efektyvumas smarkiai padidins privačiojo sektoriaus galimybes rinkti su sveikata susijusius duomenis apie asmenis. Tyrėjai mano, kad tai neišvengiamai sukels pagundą įmonėms naudoti duomenis neetiškais ar slaptais būdais.

Tobulėjant AI, individai galėjo sužinoti, kad jų sveikatos duomenys yra nukreipti prieš juos darbdavių, hipotekų skolintojų, kreditinių kortelių bendrovių ir draudimo bendrovių. Aswani komanda yra sunerimusi, nes dėl to įmonės gali būti diskriminuojamos dėl tokių veiksnių kaip nėštumas ar negalia.

PG diskriminacija

Dažna problema

Tai nėra pirmas kartas, kai anonimizuoti ar pseudonimizuoti duomenys sėkmingai priskiriami asmenims. 2015 m. Atliktas MIT tyrimas atskleidė, kad anksčiau nuskaityti kreditinės kortelės duomenys gali būti sėkmingai pakartoti.

MIT naudojo neidentifikuotus 10 000 parduotuvių duomenis, kuriuose buvo 1,1 milijono kredito kortelių klientų duomenys. Pagrindinio tyrėjo Yves'o-Alexandre'o de Montjoye'o teigimu, individas galėtų būti lengvai išskiriamas, jei konkretūs žymekliai būtų sėkmingai atidengti. Remiantis MIT, šiuos gyvybiškai svarbius žymenis buvo galima aptikti naudojant tik 3 ar 4 operacijų duomenis.

Tyrimai rodo, kad duomenų pseudonimizacijos procesai nėra visiškai patikimi. Tai kelia susirūpinimą, nes net ir ES, kur GDPR smarkiai pagerino žmonių teises į duomenų privatumą, duomenų slapyvardžiai nurodomi kaip būdas įmonėms apdoroti „specialios kategorijos“ ar neskelbtinus duomenis nepažeidžiant įstatymų. Specialiųjų kategorijų duomenys apima genetinius duomenis ir duomenis apie sveikatą.

Tiek naujasis UC Berkeley tyrimas, tiek ankstesni MIT tyrimai rodo, kad duomenų pseudonimizacijos gali nepakakti, kad užtikrintumėte juos neribotam laikui. Tai reiškia, kad net labiausiai į ateitį nukreiptos sąskaitos už duomenų privatumą negali tinkamai apsaugoti piliečių nuo dėlionės išpuolių.

AI įstatymas

Reikia atnaujinti teisės aktus

Aswani ir jo tyrėjų komanda paragino JAV vyriausybę „persvarstyti ir pakeisti“ galiojančius HIPPA įstatymus, kad būtų apsaugoti žmonės nuo AI keliamų pavojų. Reikia naujų reglamentų, saugančių duomenis apie sveikatą, tačiau Berklio tyrinėtojai nerimauja, kad JAV politikams atrodo, kad jie eina neteisinga linkme:

"Idealiu atveju tai, ką norėčiau pamatyti, yra naujos taisyklės ar taisyklės, saugančios sveikatos duomenis. Tačiau iš tikrųjų yra didelis postūmis net susilpninti taisykles dabar. Pavyzdžiui, HIPAA taisyklių priėmimo grupė paprašė komentarų dėl didesnio dalijimosi duomenimis. Rizika yra tai, kad jei žmonės nežinos apie tai, kas vyksta, mūsų turimos taisyklės bus susilpnintos. Ir iš tikrųjų rizika, kad prarasime savo privatumo kontrolę sveikatos priežiūros srityje, iš tikrųjų didėja, o nemažėja."

Jei ši istorija privertė jus persvarstyti savo saugumą internete, kodėl gi neperžvelkite mūsų geriausių VPN paslaugų puslapį, kad galėtumėte išlikti saugūs internete.

Vaizdo kreditai: metamorworks / Shutterstock.com, penki medžiai / Shutterstock.com, Billion Photos / Shutterstock.com.

Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me