歐洲官方監管機構已將AI診斷用例標記為醫療診斷中的各種場(chǎng)景,這些用例已標記為可能危害基本人權的來(lái)源。
歐盟的基本權利機構(FRA)在12月14日發(fā)布的報告中列出了其關(guān)注的領(lǐng)域。其他領(lǐng)域包括預測性警務(wù),社會(huì )服務(wù)和定向廣告。

該報告是在A(yíng)I和大數據的廣泛計劃的一部分,它的建議,來(lái)自100多個(gè)采訪(fǎng)愛(ài)沙尼亞,芬蘭,法國,荷蘭和西班牙使用AI畫(huà)的人,根據公告。
法國私營(yíng)部門(mén)的AI用戶(hù)告訴FRA,識別AI中的歧視非常復雜,“因為某些種族中某些疾病的發(fā)病率更高。預測要考慮到性別,種族,遺傳特征。但這不是歧視或侵犯人權。”
該報告敦促歐盟和歐盟國家:
確保AI尊重所有基本權利,而不僅僅是個(gè)人隱私或數據安全。
確保人們可以挑戰AI指導的決策。
在使用AI之前和期間評估AI,以減少負面影響。
提供有關(guān)數據保護規則的更多指導。
評估AI是否有區別。
建立有效的監督系統。
在報告的前言中,FRA主管Michael O'Flaherty說(shuō),AI用戶(hù)和開(kāi)發(fā)人員“需要擁有正確的工具來(lái)全面評估其基本權利含義,其中許多可能不會(huì )立即顯現出來(lái)。…我們有機會(huì )塑造AI [,以便它不僅尊重我們的人權和基本權利,而且還可以保護和促進(jìn)它們。”
