多年來(lái),與人工智能的交互一直是科幻小說(shuō)和學(xué)術(shù)項目的一部分,但隨著(zhù)智能系統承擔越來(lái)越多的責任,更換工作,并參與復雜的情感決策,找出如何與這些系統協(xié)作已成為務(wù)實(shí)的問(wèn)題,需要務(wù)實(shí)的解決方案。

機器學(xué)習和認知系統現在是人們每天與許多產(chǎn)品交互的主要部分,但是為了充分利用人工智能的潛力,人們需要更豐富的方式與他們使用的系統進(jìn)行通信。設計師的角色是弄清楚如何在人與機器之間建立協(xié)作關(guān)系,幫助智能系統增強人類(lèi)的創(chuàng )造力和機構,而不是簡(jiǎn)單地替換它們。
人與技術(shù)之間的關(guān)系與更快的處理器一樣重要。
為什么信任和同理心很重要
Siri不會(huì )為你做出改變生活的決定,所以如果它不是很清楚它的結論是什么,而是與一個(gè)通過(guò)采取模糊輸入做出重要決定的系統進(jìn)行交互也沒(méi)關(guān)系做一些非常復雜的事情,然后給你模糊的輸出需要的不僅僅是幾個(gè)按鈕和一個(gè)狀態(tài)指示器。這種互動(dòng)需要人與技術(shù)之間的信任和同情。如果智能系統的目的是做出人們不必要的復雜微妙的決定,那么如果人們不相信他們這樣做就毫無(wú)意義。這意味著(zhù),制定人與我們使用的技術(shù)之間的關(guān)系變得與構建更快的處理器一樣重要。
想象一下,當你突然踩下制動(dòng)器,改變路線(xiàn)并向新方向前進(jìn)時(shí),你正在自動(dòng)駕駛汽車(chē)上下班。也許汽車(chē)看到了你沒(méi)有發(fā)現或未發(fā)現事故的事情,但如果它沒(méi)有把這一切告訴你,你不相信它做出快速決定,改變當然沒(méi)有任何跡象表明為什么會(huì )非常令人不安。在大多數情況下,汽車(chē)不會(huì )面臨道德上具有挑戰性的決定,但有時(shí)他們會(huì )做,例如在擁擠的事故情況下轉向哪種方式,所以在自動(dòng)駕駛汽車(chē)真正起飛之前,人們可能不得不相信他們的汽車(chē)為他們做出復雜的,有時(shí)是道德的決定,就像另一個(gè)人開(kāi)車(chē)時(shí)一樣。像醫療保健這樣的領(lǐng)域更加令人擔憂(yōu),人工智能也參與其中。
人工智能系統知道什么時(shí)候他們不懂東西。
創(chuàng )建反饋循環(huán)
在對話(huà)中,我可能會(huì )誤解您的要求,或者我可能需要更多信息,但無(wú)論哪種方式,通信的來(lái)回性質(zhì)都可以讓您快速糾正錯誤并讓我填補任何空白我需要知道的。類(lèi)似的人機交互允許系統獲得理解問(wèn)題所需的信息,即使在不能提前定義理解問(wèn)題所需的信息時(shí)也是如此。這也利用了許多AI系統的一個(gè)關(guān)鍵區別功能:他們知道何時(shí)不理解某些東西。
一旦系統獲得了這種自我意識,就可以進(jìn)行根本不同的交互。界面設計的最大挑戰之一是確定在給定的上下文中哪些信息是適當的,以便可以刪除或不再強調其余信息。系統本身可以做出這些判斷時(shí)會(huì )發(fā)生什么?
像人一樣的復雜系統會(huì )犯錯誤。
設計錯誤
復雜的系統,像人一樣,會(huì )犯錯誤。完全避免它們是不可能的。我們的目標應該是減少其影響并鼓勵用戶(hù)原諒他們并幫助系統隨著(zhù)時(shí)間的推移學(xué)習。隨著(zhù)系統變得個(gè)性化并且能夠學(xué)習,用戶(hù)容易地教他們如何表現的能力變得更加重要和強大。
即使在靜音模式下,Apple決定讓iPhone鬧鐘響起也是這個(gè)問(wèn)題的一個(gè)有趣例子。將iPhone靜音模式只有禁用聲音,你沒(méi)有明確要求,但一般人的期望是簡(jiǎn)單的; 當按下關(guān)閉按鈕時(shí),某些東西會(huì )關(guān)閉。這種期望的不匹配導致了問(wèn)題 - 例如在電影院中發(fā)出警報??陀^(guān)地說(shuō),另一個(gè)問(wèn)題 - 錯過(guò)會(huì )議,因為你的手機處于靜音模式并且沒(méi)有叫醒你 - 更糟糕的是。然而,如果有更好的相互理解和對系統錯誤影響的更大敏感性,這兩個(gè)問(wèn)題都可以減輕或避免。目前,這些錯誤的影響可能相當微不足道,但風(fēng)險正在迅速上升。
建立信任和協(xié)作
什么使得乘坐飛機或公共汽車(chē)駕駛由完全陌生人駕駛的人甚至不會(huì )三思而后行,而進(jìn)入無(wú)人駕駛車(chē)輛的想法會(huì )導致焦慮?部分原因在于我們通常認為其他人是合理稱(chēng)職的司機 - 機器可能管理的東西 - 但除此之外還有更多。我們理解為什么人們在直覺(jué)層面上的行為方式,并且我們可以預測他們的行為方式。我們對當前的智能系統沒(méi)有這種同情心。
在我們弄清楚如何建立信任之前,沒(méi)有方向盤(pán)的無(wú)人駕駛汽車(chē)令人不安。
為了正確對待患者,醫生,無(wú)論是人還是虛擬醫生,都需要聰明,她還必須安慰,說(shuō)服和激發(fā)信心。同樣地,在我們弄清楚如何像其他人一樣建立信任之前,進(jìn)入沒(méi)有方向盤(pán)的無(wú)人駕駛汽車(chē)將會(huì )令人不安。
在我們目前在A(yíng)rtefact的一個(gè)項目中,我們正在探索汽車(chē)向完全自動(dòng)控制過(guò)渡的未來(lái)。在部分自主模式下顯示汽車(chē)對周?chē)h(huán)境的解釋可以幫助建立駕駛員對汽車(chē)能夠對其他汽車(chē)突然改變車(chē)道或行人踩到街道的情況作出適當反應的信任。這有助于人們看到汽車(chē)能夠接管,因為他們在開(kāi)車(chē)時(shí)會(huì )放棄越來(lái)越多的代理商。這種表達系統解釋或理解的想法也是一些有趣的Watson界面的核心,這些界面可以幫助人們詢(xún)問(wèn)并獲得復雜的高級問(wèn)題的答案。
很多人都警告人工智能驅動(dòng)的自動(dòng)化有可能通過(guò)消除大多數工作來(lái)摧毀經(jīng)濟。以上個(gè)世紀的轉折為例,汽車(chē)的廣泛引入對大多數人的生活產(chǎn)生了巨大的積極影響,但它也使幾乎所有的馬都失業(yè)了。在21世紀初,我們是否會(huì )受益于今天的技術(shù)革命,或者我們是馬匹將建筑材料拖到亨利福特的新工廠(chǎng)?開(kāi)發(fā)與人們協(xié)作而不是簡(jiǎn)單地替換它們的人工智能系統可以幫助確保人工智能的好處在更多人之間傳播,創(chuàng )建比人或機器更聰明的系統。
