آیا هوش مصنوعی داده های بهداشت شخصی شما را در معرض خطر قرار می دهد؟

یک مطالعه جدید که در UC برکلی به اتمام رسیده است ، نشان داد که چارچوب قانونی فعلی ایالات متحده آمادگی لازم را برای تصمیم گیری در مورد چگونگی تأثیر هوش مصنوعی بر حریم خصوصی دیجیتال افراد ندارد..


این مطالعه به این موضوع می پردازد که چگونه هوش مصنوعی قادر است از مخازن وسیعی از داده ها برای شناسایی افراد و داده های سلامتی شخصی آنها استفاده کند. به گفته محقق رهبر ، آنیل آسوانی ، هوش مصنوعی می تواند از داده های مرحله ای جمع آوری شده از ردیاب های فعالیت ، تلفن های هوشمند و ساعت های هوشمند جمع آوری و به منظور شناسایی افراد ، از داده های مرحله جمع آوری شده در برابر داده های جمعیتی استفاده کند..

در طی این مطالعه ، محققان برکلی از داده های استخراج شده از 15000 فرد آمریکایی برای نشان دادن موفقیت آمیز استفاده کردند که قوانین و مقررات فعلی از اطلاعات بهداشتی خصوصی افراد به اندازه کافی محافظت نمی کند. این تحقیق که در تاریخ 21 دسامبر سال گذشته در ژورنال شبکه JAMA Open منتشر شد ، نشان می دهد که استانداردهای حریم خصوصی مندرج در قانون فعلی قابلیت حمل و نقل و پاسخگویی بیمه سلامت (HIPAA) در صورت قرار گرفتن اطلاعات سلامت افراد ، نیاز به ارزیابی مجدد دارند. به درستی محافظت می شود.

هوش مصنوعی داده های سلامت داده های خود را در معرض خطر قرار می دهد

بازنویسی داده های شخصی

یک یافته اصلی از مطالعه شامل بازنویسی داده های ناشناس یا نام مستعار است. به گفته اسوانی ، از بین بردن تمام اطلاعات شناسایی شده از مجموعه داده های مربوط به سلامت ، به درستی از افراد محافظت نمی شود. این امر به این دلیل است که برای بنگاهها امکان استفاده از AI برای بازنویسی داده هایی که قبلاً ناشناس بوده اند وجود دارد. اسوانی توضیح می دهد:

"مقررات HIPAA مراقبت های بهداشتی شما را خصوصی می کند ، اما آنها به اندازه شما فکر نمی کنند. بسیاری از گروه ها ، مانند شرکت های فناوری ، تحت پوشش HIPAA نیستند ، و فقط مقالات بسیار خاص اطلاعاتی با قوانین فعلی HIPAA مجاز به اشتراک گذاری نیست. شرکت هایی هستند که داده های بهداشتی را می خریدند. قرار است داده های ناشناس باشند ، اما کل مدل کسب و کار آنها پیدا کردن راهی برای پیوست کردن نام ها به این داده ها و فروش آن است."

اسوانی توضیح داده است که چگونه شرکت هایی مانند فیسبوک این کار را می کنند تا داده های حساس را با هم جمع کنند. متأسفانه ، قوانین فعلی ایالات متحده مانع از توزیع مجدد داده های قبلاً پاشیده شده نمی شوند و این باعث می شود داده های بهداشت شخصی افراد در معرض خطر قرار گیرد:

"در اصل ، شما می توانید فیس بوک را جمع آوری داده های مرحله از برنامه در تلفن هوشمند خود ، سپس خرید داده های مراقبت های بهداشتی از یک شرکت دیگر و مطابقت با این دو. اکنون آنها داده های مربوط به مراقبت های بهداشتی را دارند که با نام ها مطابقت دارد ، و یا می توانند بر اساس آن اقدام به فروش تبلیغات کنند یا می توانند داده ها را به دیگران بفروشند."

پیامدهای آن واضح است ، برای افرادی که با مشکلات بهداشتی بالقوه دست و پنجه نرم می کنند ، این داده های بهداشتی می تواند به تبعیض منجر شود. هر داده بهداشتی که با موفقیت به فرد نسبت داده شود ، می تواند مثلاً در فرآیند تصمیم گیری از سوی بیمه شدگان سلامت استفاده شود. در مورد داده های مرحله ای ، یک سبک زندگی بی تحرک (چیزی که بیمه شدگان نباید از آن به طور خودکار بدانند) می تواند منجر به حق بیمه بالاتر شود.

دسترسی آسان

مطالعه UC برکلی نشان می دهد که افزایش کارآیی هوش مصنوعی توانایی بخش خصوصی را برای جمع آوری داده های مربوط به سلامتی در مورد افراد افزایش می دهد. محققان معتقدند که این امر به ناچار وسوسه ای را برای شرکت ها برای استفاده از داده ها به روش های غیر اخلاقی یا مخفی ایجاد می کند..

با بهبود هوش مصنوعی ، افراد می توانند داده های بهداشتی خود را توسط کارفرمایان ، وام دهندگان وام ، شرکت های کارت اعتباری و شرکت های بیمه در مقابل آنها قرار دهند. تیم اسوانی مشکل دارد - زیرا این امر می تواند منجر به تبعیض شرکت ها با توجه به عواملی مانند بارداری یا ناتوانی شود.

تبعیض در هوش مصنوعی

مشکل رایج

این اولین بار نیست که داده های ناشناس یا نام مستعار با موفقیت به افراد منتسب می شوند. تحقیقات انجام شده توسط MIT در سال 2015 نشان داد که داده های کارت اعتباری قبلاً scrubbed می توانند با موفقیت مجدداً توزیع شوند.

MIT از داده های شناسایی شده 10،000 مغازه ای که حاوی جزئیات 1.1 میلیون مشتری کارت اعتباری است ، استفاده کرد. به گفته محقق برجسته ایو اسکندر دو مونتوسی ، در صورت کشف موفقیت آمیز نشانگرهای خاص ، یک فرد به راحتی قابل تفکیک است. براساس MIT ، این نشانگرهای حیاتی با استفاده از داده هایی از معادل 3 یا 4 معامله قابل کشف هستند.

این تحقیقات نشان می دهد که فرایندهای مستعار سازی داده ها دور از ذهن نیستند. این نگران کننده است ، زیرا حتی در اتحادیه اروپا که در آن GDPR حقوق خصوصی اطلاعات افراد را بهبود بخشیده است - نام مستعار داده ها به عنوان روشی برای شرکتها برای پردازش "دسته ویژه" یا داده های حساس بدون نقض قانون مورد استفاده قرار می گیرد. داده های دسته ویژه شامل داده های ژنتیکی و داده های مربوط به سلامتی است.

هم مطالعه جدید UC برکلی و هم تحقیقات قبلی MIT نشان می دهد که نام مستعار داده ممکن است برای تأمین نامحدود آن کافی نباشد. این بدان معناست که حتی بیشتر صورتحسابهای حفظ حریم خصوصی داده ها ممکن است به اندازه کافی از شهروندان در برابر حملات اره منبت کاری محافظت نکنند.

قانون قانون

به روزرسانی های قانونی لازم است

اسوانی و تیم محققانش از دولت آمریكا خواسته اند كه برای محافظت از مردم در برابر خطرات ایجاد شده توسط AI ، مجدداً "تجدید نظر و اصلاح مجدد" قوانین موجود HIPPA را انجام دهد. مقررات جدیدی که از داده های بهداشتی محافظت می کند لازم است ، اما محققان برکلی نگران هستند که به نظر می رسد سیاست گذاران آمریکایی در مسیری نادرست حرکت می کنند:

"در حالت ایده آل ، آنچه من می خواهم از این طریق ببینم ، مقررات یا قوانینی جدید است که از داده های بهداشتی محافظت می کند. اما در واقع فشار بزرگی وجود دارد که حتی ضعف مقررات را هم اکنون تضعیف کنیم. به عنوان مثال ، گروه تصمیم گیرنده HIPAA در مورد افزایش اشتراک داده ها اظهار نظر کرده است. خطر این است که اگر مردم از آنچه اتفاق می افتد آگاه نباشند ، قوانینی که ما داریم تضعیف می شوند. واقعیت این است ، خطرات ما از دست دادن کنترل حریم شخصی هنگام مراقبت از سلامت در واقع در حال افزایش هستند و کاهش نمی یابند."

اگر این داستان باعث شده است تا امنیت آنلاین خود را مجدداً مرور کنید ، چرا به بهترین صفحه خدمات VPN ما برای راه هایی که بتوانید در امنیت آنلاین بمانید ، نگاه نکنید..

اعتبارات تصویر: metamorworks / Shutterstock.com ، پنج درخت / Shutterstock.com ، میلیارد عکس / Shutterstock.com.

Brayan Jackson Administrator
Candidate of Science in Informatics. VPN Configuration Wizard. Has been using the VPN for 5 years. Works as a specialist in a company setting up the Internet.
follow me
Like this post? Please share to your friends:
Leave a Reply

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!:

37 − 36 =

map