Babylon Health的首席用戶(hù)研究員Anna Zawilska最近在布拉格的Webexpo 2019上展示了通過(guò)結合技術(shù)和人工智能(AI)提供遠程醫療服務(wù)的經(jīng)驗教訓。巴比倫健康來(lái)調整支撐產(chǎn)品開(kāi)發(fā)的三個(gè)關(guān)鍵假設。

Zawilska在演講中提到了世界衛生組織的一項研究,根據該研究,世界上至少50%的人口無(wú)法獲得基本的醫療服務(wù)。在這種情況下,將移動(dòng)設備的普及性與人工智能的診斷能力相結合,有可能擴大醫療保健服務(wù)的訪(fǎng)問(wèn)范圍。巴比倫的工程師,醫生和科學(xué)家開(kāi)發(fā)了一個(gè)AI系統,該系統可以接收有關(guān)某人所患癥狀的數據,將該信息與已知狀況和疾病的數據庫進(jìn)行比較,以找到可能的匹配項,然后確定行動(dòng)方案和相關(guān)的風(fēng)險因素。
在巴比倫移動(dòng)應用程序中,典型的用戶(hù)流程將從該應用程序開(kāi)始,要求用戶(hù)(患者)描述他或她正在經(jīng)歷的癥狀。在第二階段,根據所宣布的癥狀,將詢(xún)問(wèn)其他問(wèn)題以進(jìn)一步完善影響患者的可能狀況。在第三階段,將提出建議。
巴比倫團隊做出的第一個(gè)假設是,患者對聊天機器人(患者輸入癥狀的信任程度)與對醫生的信任程度一樣高。但是,從實(shí)際經(jīng)驗中得出的主要觀(guān)察結果表明,人類(lèi)醫生與基于機器的技術(shù)在用戶(hù)行為方面存在重大差異。

患者通常相信醫生是知識淵博且合格的醫生。這種信任沒(méi)有轉化為聊天機器人。此外,盡管患者很少會(huì )起床并在結束之前不去咨詢(xún)醫生,但Chatbot用戶(hù)更有可能盡早結束咨詢(xún)。最后,雖然患者通常認為應該遵循醫生的建議,但Chatbot用戶(hù)傾向于信任Chatbot的建議并遵循給定的處方。
Babylon Health得出結論,不能假定用戶(hù)信任,因此,他們需要進(jìn)行設計以提高信任度。Zawilska提供了一個(gè)對用戶(hù)界面進(jìn)行更改的示例:當詢(xún)問(wèn)一個(gè)假設的用戶(hù):“您的脖子動(dòng)起來(lái)有問(wèn)題嗎?”,該應用程序還將提供一個(gè)為什么會(huì )提出問(wèn)題的解釋。例如,在這種情況下,應用程序將顯示如下消息:“我之所以問(wèn)這個(gè),是因為我試圖消除緊張的頭痛。對于您個(gè)人而言,頸部問(wèn)題和頭痛是緊張性頭痛的有力預測指標。”
信任問(wèn)題在醫療保健行業(yè)中特別盛行。Zawilska引用了最近的爭議(涉及Theranos或DNA測序),這削弱了人們對醫療技術(shù)最新創(chuàng )新的信任。

第二個(gè)假設是,臨床安全性是評估巴比倫預測性AI成功與否的唯一標準。通常會(huì )使用大量數據來(lái)訓練AI,并使用一些評估標準針對測試集對生成的AI模型進(jìn)行測試。Zawilska解釋說(shuō),使用臨床安全性作為驗證AI模型的唯一標準會(huì )帶來(lái)更高的風(fēng)險,從而給用戶(hù)體驗帶來(lái)不利影響。
