滑鐵盧大學(xué)的一項研究讓10名男性和10名女性與Amazon Alexa,Apple Siri和Google Assistant進(jìn)行了互動(dòng),然后向參與者詢(xún)問(wèn)有關(guān)語(yǔ)音助手個(gè)性的問(wèn)題。亞馬遜,蘋(píng)果和谷歌都竭盡全力為助手創(chuàng )建角色,以使其與消費者更加相關(guān)?;F盧計算機科學(xué)學(xué)院教授愛(ài)德華·蘭克(Edward Lank)表示,這些努力至少可以通過(guò)以下一種方式獲得回報:

人們正在對這些對話(huà)代理人進(jìn)行擬人化,這可能導致他們向這些代理人背后的公司透露信息,否則他們就不會(huì )這樣做。
隨后,他建議語(yǔ)音助手是“公司用來(lái)向我們出售東西的數據收集工具。”該研究結果的細節要到4月份在A(yíng)CM CHI計算系統人為因素會(huì )議上才能揭曉?;F盧大學(xué)新聞中的文章。了解將揭示哪些類(lèi)型的信息將不會(huì )被發(fā)現以及研究人員如何知道將不會(huì )共享信息將是很有趣的。但是,今天還有更多數據可用。

SIRI狡猾,ALEXA關(guān)心
尚不清楚消費者如何選擇狡猾,關(guān)心,卑鄙和真誠的術(shù)語(yǔ),但這些術(shù)語(yǔ)形成了鮮明的對比。Link告訴《滑鐵盧大學(xué)新聞》,與Alexa的真誠和關(guān)懷特征相比,Siri被視為不誠實(shí)和狡猾。如果在大規模試驗中復制這些觀(guān)點(diǎn),那將在庫比蒂諾引起關(guān)注。這可能只是在西雅圖慶祝的原因。谷歌助手的情緒并未得到分享,而是“ Alexa(特別是Siri)的個(gè)性更加明確和明顯”,而Alexa則被視為“中立而普通”。
重要的是要注意,消費者傾向于將角色特征分配給合成語(yǔ)音,而不管它是否是故意設計的。與Voices.com和Pulse Labs進(jìn)行的Voicebot 研究發(fā)現,用于閱讀新聞的合成語(yǔ)音具有各種不同的特征,例如單調,機器人,沉著(zhù),陽(yáng)剛,沉悶和愉快。這是人性的一部分。角色發(fā)展是語(yǔ)音助手提供者試圖以實(shí)現其目標的方式來(lái)塑造情感的嘗試。

ALEXA,GOOGLE助手和SIRI的頭像
這項研究還讓參與者親自描述語(yǔ)音助手,并創(chuàng )建一個(gè)化身來(lái)代表他們認為自己的樣子。當然,這項研究的結論是,人類(lèi)傾向于擬人化語(yǔ)音助手,研究人員要求參與者做到這一點(diǎn)。這項工作可能影響了揭示矛盾觀(guān)點(diǎn)的最終結論。據說(shuō)同一位助手長(cháng)發(fā)或短發(fā),深色或中性色的休閑或商務(wù)正裝。這并不完全是共識。
還有一點(diǎn)需要注意。許多行業(yè)觀(guān)察家和內部人士聲稱(chēng),Google犯了一個(gè)大錯誤,因為它選擇了助手這個(gè)名字,而不是像Alexa或Siri這樣聽(tīng)起來(lái)更人性化的東西。但是,與此同時(shí),Google實(shí)際上為其通用名稱(chēng)“助理”定義了一個(gè)角色,這似乎已經(jīng)為消費者使其擬人化提供了足夠的影響。此舉也足以引起研究批評“助手”試圖變得如此人性化,以至于消費者可能會(huì )共享更多的信息。
