【UX設計必看】研究發現:擬人化AI反而降低使用者信任感!設計師該怎麼做?

為什麼現在的 UX 設計師,必須開始思考 AI 設計?

在過去,UX 設計師的核心工作多集中在網站與 App 的流程優化與使用者體驗。但進入生成式 AI 時代後,AI 已經不只是幕後技術,而是直接與使用者互動的產品主角

從智能客服、AI 助理、內容生成工具,到協作平台中的 AI 建議,使用者與 AI 的互動越來越頻繁,也越來越直覺。

這代表:

隨著生成式 AI 工具 (如 ChatGPT、Gemini、Claude) 越來越普及,設計「值得信任的 AI 互動體驗」,成為每位 UX 專業人員無法忽視的挑戰。

當我們在規劃 AI 介面設計或使用者研究時,常會遇到一個選擇題:


近期Nielsen Norman Group的網站分享了由心理學家 Clara Colombatto 等人發表的研究《The influence of mental state attributions on trust in large language models》提供了反直覺但重要的洞察

這篇文章整理Nielsen Norman Group文章的精華,並想討論這項研究的重點跟 UX 實務應用的案例,讓你在設計 AI 相關體驗時,更懂得如何建立信任、提升使用者接受度。

延伸閱讀:Sunwall, Evan (September 19, 2025)。《Prioritize Smarts over Sentience to Increase Trust with AI》。Nielsen Norman Group。From:https://www.nngroup.com/articles/prioritize-smarts-over-sentience/


研究發現:聰明具體的AI 建立信任,有情緒的 AI 反而讓人質疑

研究找來 410 位使用者測試 ChatGPT,透過問卷與實驗兩種方式交叉驗證:

  • 一方面問他們覺得 ChatGPT 聰不聰明、是否有情緒?
  • 另一方面給他們常識小測驗,觀察他們是否會接受 ChatGPT 的建議並更改答案。
  • 覺得 ChatGPT「有智能」的人,更傾向接受建議。
  • 覺得 ChatGPT「有情緒」的人,反而較不信任它的建議。

AI擬人化,並不等於更值得信任。

AI 若表現出太多擬人特質 (如悲傷、生氣、關心你),使用者反而容易質疑它是否過於主觀、有偏見、不夠穩定。尤其在需要精準、理性判斷的工作情境中,這種設計反而會損害 AI 的專業形象

研究顯示:使用者對「聰明的AI」更具信任,而對「有情緒的AI」則持懷疑態度。
UX設計應避免過度擬人化,專注於專業性與可解釋性。設計師可以運用明確的語氣與中性風格來增強使用者的信任感,確保AI能在數位產品中有效運作。
隨著生成式AI的興起,UX設計師必須重新思考AI在設計中的角色。

針對這項研究,UX 設計師在設計 AI 產品或研究 AI 體驗時,可以掌握以下三個重點原則:

  • ❌ 避免使用人名或擬人化頭像 (例:取名為「小明」還配一張笑臉)
  • ✅ 清楚標示這是 AI 工具,協助你完成任務,而不是你的朋友或助理
  • ❌ 不需要讓 AI 說「聽到你今天不開心,我感到很抱歉」
  • ✅ 可以讓 AI 說「根據你提供的資料,這是我找出的分析結果」
  • ❌ 過度熱情、像在哄你:「別擔心,你做得很好喔!」
  • ✅ 專業但友善:「這是你的輸入資料分析結果,希望對你有幫助。」

那 UX 設計師實際該怎麼做?

理解了研究的核心發現後,接下來最關鍵的問題是:

這些洞察要怎麼落實在實際的 UX 設計與使用者研究中?

研究顯示:使用者對「聰明的AI」更具信任,而對「有情緒的AI」則持懷疑態度。
UX設計應避免過度擬人化,專注於專業性與可解釋性。設計師可以運用明確的語氣與中性風格來增強使用者的信任感,確保AI能在數位產品中有效運作。
隨著生成式AI的興起,UX設計師必須重新思考AI在設計中的角色。

隨著 AI 技術越來越多地被應用在客服、內容建議、數據分析等互動場景,UX 設計師必須在流程設計與語意引導中,為 AI 的表現與可信度負責

以下透過兩個真實常見的設計情境,說明你該如何根據這篇研究調整你的 AI UX 設計策略,建立更穩定、更值得信賴的使用體驗。

情境: 你正在設計一個 AI 客服,協助使用者處理訂單問題。

常見設計陷阱:

很多團隊會想把 AI 聲音設計得「很有人情味」,甚至模仿真人客服的語氣。

但根據前面的研究顯示,讓 AI 顯得「情緒化」會讓使用者對其判斷力失去信心。

更好的做法:

  • 使用清楚、專業的語氣說明問題解法
  • 可以加入一些人性化的語氣修飾 (例如:您好、請問、謝謝你的等待)
  • 回應中避免使用「我感到很抱歉」「我也很難過」,改為「造成您的困擾我們深感抱歉」這種中性組織語氣

現在越來越多 UX 團隊導入 AI UX 研究工具(如 Maze、Lyssna、UXtweak、Useberry、Dovetail AI 等)來進行使用者測試、無主持訪談、自動摘要回饋等研究任務。

這些使用者經驗訪的談可以大幅降低研究負擔,但也帶來一個設計挑戰:受試者知道自己不是在和人互動時,會不會因此不夠認真、敷衍回答,甚至說出「他覺得 AI 想聽的話」?

  • 無真人主持式測試或問卷:缺乏人際連結,降低投入度
  • AI 訪談工具:使用者知道是機器提問,信任感下降
越來越多 UX 團隊導入 AI UX 研究工具(如 Maze、Lyssna、UXtweak、Useberry、Dovetail AI 等)來進行使用者測試、無主持訪談、自動摘要回饋等研究任務。
這些使用者經驗訪談工具可以大幅降低研究負擔,但也帶來一個設計挑戰:受試者知道自己不是在和人互動時,會不會因此不夠認真、敷衍回答,甚至說出「他覺得 AI 想聽的話」?
Photo by Solen Feyissa on Pexels.com

更好的做法:

使用者往往因為不知道「這是什麼」而感到不安。
建議在測試開始前加入簡單說明語句:

「這次測試過程會由 AI 工具來協助紀錄與統整,您的回答完全保密,也不會被機器評分或篩選,請放心用自己的方式作答。」

✅ 這樣能降低使用者的表現壓力,提高真實性。


許多 AI 研究工具提供自動提問功能,常預設使用「我想知道…」「你可不可以告訴我…」等擬人句式。

這種說法雖然看起來親切,但反而可能讓受試者錯估目的,以為這是聊天,而非嚴謹的研究過程。

建議調整為中性、目標導向的引導:

❌「我很好奇你是怎麼使用這個功能的~」
✅「請說明你在這個步驟中的操作方式,以及是否遇到困難?」


在無真人主持測試介面中,使用 AI 人像、聊天泡泡或太過卡通化的風格,可能引發使用者「應對式行為」,例如故意講得很完整,或試著「猜對答案」。

建議介面設計風格採用:

  • 清楚的測試進度與提示語
  • 客觀敘述、少用主觀形容詞(如「很棒!」、「太可惜了~」)
  • 結束語中提醒使用者「沒有標準答案」,鼓勵自然作答

以上調整就有助於直接影響 UX 研究的有效性與資料真實性。

結語:真正建立 AI 使用者信任的關鍵不是模仿人,而是展現專業

AI 越來越融入我們的數位產品與服務,對話式AI客服機器人更是常見的運用,但把 AI 設計得越像人,未必代表就越值得信任

作為數位 UX 專業人員,我們應該:

  • 聚焦在 AI 的邏輯性、分析力與透明度
  • 避免過度情緒表現與擬人化
  • 用對的研究方法掌握使用者心智模型

打造值得信賴的 AI UX 體驗,需要更多理性設計與真實測試,而不是表面上的親切感。


  • Colombatto, C., Birch, J., & Fleming, S. M. (2025). The influence of mental state attributions on trust in large language models. Communications Psychology
  • Ibrahim, L., Hafner, F. S., & Rocher, L. (2025). Training Language Models to Be Warm and Empathetic Makes Them Less Reliable and More Sycophantic. arXiv

發表者:LYDIA

LYDIA 在數位圈打滾了8年,從數位行銷跟社群經營起家,延伸到線上電商產業與使用者經驗設計與研究的日常。擅長品牌成效數據分析、使用者經驗流程優化,以及CRM及分群分眾的投放策略規劃。 對這變化萬千的數位領域深深著迷,並把每天攝取的數位新知轉化為文字與Podcast,期待對自己與更多數位人才人有所幫助。

發表留言