加州大學(xué)伯克利分校的一項新研究表明,人工智能的進(jìn)步已經(jīng)對健康數據的隱私造成了新的威脅。這項由工程學(xué)院工業(yè)工程與運籌學(xué)部(IEOR)教授A(yíng)nil Aswani及其團隊領(lǐng)導的研究表明,目前的法律法規遠遠不足以在人工智能發(fā)展面前保持個(gè)人健康狀況的私密性。

在這項由加州大學(xué)伯克利分校長(cháng)期網(wǎng)絡(luò )安全中心資助的工作中,Aswani表明,通過(guò)使用人工智能,可以通過(guò)學(xué)習步驟數據中的日常模式來(lái)識別個(gè)體(如活動(dòng)跟蹤器,智能手表和智能手機)并將其與人口統計數據相關(guān)聯(lián)。對超過(guò)15,000名美國人的兩年數據的挖掘得出的結論是,與1996年的HIPAA(健康保險流通與責任法案)立法相關(guān)的隱私標準需要重新審視和重新制定。
“我們希望使用NHANES(國家健康和營(yíng)養檢查調查)來(lái)查看隱私問(wèn)題,因為這些數據代表了美國不同的人口,”Aswani說(shuō)。“結果指出了一個(gè)重大問(wèn)題。如果您刪除所有識別信息,它并不像您想象的那樣保護您。如果他們有正確的信息,其他人可以回來(lái)把它們全部重新組合起來(lái)。“
“原則上,你可以想象Facebook從你的智能手機上的應用程序收集步驟數據,然后從另一家公司購買(mǎi)醫療保健數據并匹配這兩者,”他解釋說(shuō)。“現在,他們將擁有與名稱(chēng)相匹配的醫療保健數據,他們可以開(kāi)始基于此銷(xiāo)售廣告,也可以將數據出售給其他人。”
Aswani明確表示問(wèn)題不在于設備,而在于設備捕獲的信息如何被濫用并可能在公開(kāi)市場(chǎng)上出售。
“我不是說(shuō)我們應該放棄這些設備,”他說(shuō)。“但我們需要非常小心我們如何使用這些數據。我們需要保護信息。如果我們能做到這一點(diǎn),那就是凈利好。“
雖然該研究專(zhuān)門(mén)研究了步驟數據,但Aswani表示,結果表明對健康數據隱私的威脅更大。“HIPAA規定使您的醫療保健變得私密,但它們并沒(méi)有像您想象的那樣覆蓋,”他說(shuō)。“許多團體,如科技公司,不在HIPAA范圍內,只有非常具體的信息才能被當前的HIPAA規則所共享。有些公司購買(mǎi)健康數據。它應該是匿名數據,但他們的整個(gè)商業(yè)模式是找到一種方法將名稱(chēng)附加到這些數據并出售。“
Aswani說(shuō),他擔心隨著(zhù)AI的進(jìn)步使公司更容易獲得健康數據,公司以非法或不道德的方式使用它的誘惑將會(huì )增加。例如,雇主,抵押貸款人,信用卡公司和其他人可能會(huì )使用人工智能來(lái)區分懷孕或殘疾狀況。
“理想情況下,我希望從中看到的是保護健康數據的新法規或規則,”他說(shuō)。“但實(shí)際上,現在甚至會(huì )削弱法規。例如,HIPAA的規則制定小組要求就增加數據共享提出意見(jiàn)。風(fēng)險在于,如果人們不知道發(fā)生了什么,我們的規則就會(huì )被削弱。事實(shí)上,當醫療保健實(shí)際上在增加而不是減少時(shí),我們失去對隱私控制的風(fēng)險。“
