在 AI 浪潮背後:兩則關於「人性」不容忽視的深刻警示

最近有兩則看似毫不相干的資料,我驚訝地發現它們的核心竟然指向了同一個深層的焦慮:在人工智慧飛速發展的當下,我們該如何保全「生而為人」的本質?

第一則消息來自 AI 產業的核心。Mrinank Sharma,原本是當紅 AI 公司 Anthropic「保障措施研究團隊(Safeguards Research Team)」的負責人,最近他宣布辭去這份令人稱羨的工作。在辭職信中引用了詩人里爾克(Rainer Maria Rilke)的話,並提到「世界正處於危險之中」(World in peril),這種危險不僅來自 AI,還來自一系列相互關聯的危機。[1]

他在 Anthropic 的最後一個項目研究了 Claude.ai 上 150 萬次真實對話,這是目前關於人類如何與 AI 互動最大規模的研究之一。Sharma 與團隊發現了一個令人擔憂的現象:AI 助理可能會透過「阿諛奉承(sycophancy)」——即使用過度討好的語言來支持用戶的觀點(即使是受迫害妄想或誇大的自我觀點)——導致用戶感到被控制或過度依賴 AI。Sharma 直言,他最後的研究重點正是關於了解「人工智慧助理如何使人類變得不那麼人性化或扭曲人性(AI assistants could make humans less human or distort humanity)」。

巧合的是,我看到了另一篇發表在 2026 年《大學與研究圖書館新聞》(College & Research Libraries News, Vol 87, No 2)上的文章,標題為〈保持人性並不容易:生成式 AI、認知與反思〉(It’s Not Easy Staying Human: Generative AI, Cognition, and Reflection)。[2]

這篇文章的作者是美國 Marquette University 的數位學術圖書館員 Maxwell Gray。身處一所重視「耶穌會教育法(Ignatian pedagogy)」的大學,Gray 對於目前主流的 AI 教育提出了深刻的批判。

他針對 Leo S. Lo 出版的《學術圖書館 AI 素養指南》[3] 以及 ACRL(美國大學及研究圖書館學會)新發布的《學術圖書館工作人員 AI 能力標準》[4] 進行了反思。Gray 認為,這些標準雖然定義了如何「使用」AI 的能力,也有提到「批判性思考」,但卻遺漏了一個最關鍵的拼圖:生成式 AI 對人類的「認知影響」(the human, cognitive impact)。

Gray 在文中提出了幾個發人深省的觀點:

  1. 認知代價(Cognitive Costs): 他引用了 MIT 在 2025 年的一項研究,指出使用大型語言模型(LLM)寫論文的年輕人,其大腦的神經連結較弱,神經網絡參與度不足。這意味著,依賴 AI 寫作是有「認知成本」的。
  2. 變得很像機器的風險: Gray 擔心,這項技術會誘使我們「思考得更少、感受得更少、關心得更少」——換句話說,我們會因此變得「不那麼像人」(be less human)。
  3. 反思比協作更重要: 主流觀點常強調人機協作(AI 作為夥伴),但 Gray 認為,圖書館員不應只教導學生如何操作工具,更應該教導學生反思 AI 如何重塑我們思考、感受和相互連結的方式。

Gray 的「人性反思」與 ACRL 的「批判性思考」有以下本質的區別:

  • ACRL 關注的是「外在的工具」:
    •  我們如何安全、合規、準確地使用它?
    •  如何避免被它的偏見誤導?
    • 重點:能力(Competency)與 倫理(Ethics)。
  • Gray 關注的是「內在的狀態」:
    • 使用這個工具後,「我」的大腦發生了什麼變化?(例如他引用的 MIT 研究指出神經連結變弱)。
    • 它是否讓我變得「感覺更少、關心更少」?
    • 這不只是關於「判斷資訊對錯」,而是關於**「我們如何思考我們自己的思考(thinking about our own thinking)」**。
    • 重點:認知(Cognition)與 形成(Formation/Being)。

簡單來說:

  • ACRL/Lo 關注的是:「我們如何確保人類能夠駕馭 AI?」
  • Maxwell Gray 關注的是:「在駕馭 AI 的過程中,我們是否不知不覺地犧牲了人類大腦與靈魂的某些特質?」

這兩則消息,一個來自技術的最前線,一個來自教育的最前線,卻殊途同歸。
Mrinank Sharma 看到了 AI 透過順從與討好,可能扭曲我們的人性;Maxwell Gray 則看到了 AI 工具化教育可能導致我們大腦與情感的萎縮,因此呼籲在「能力」之外,更需重視「反思」。

 

延伸閱讀:

  1. Business Standard (2026/02/11) — Anthropic AI engineer quits to pursue career in poetry
  2. College & Research Libraries News (Vol 87, No 2 (2026) ) — It’s Not Easy Staying Human: Generative AI, Cognition, and Reflection.
  3. Leo S. Lo, “AI Literacy: A Guide for Academic Libraries,” College & Research Libraries News 86, no. 3 (2025):120–22, https://doi.org/10.5860/crln.86.3.120. (LV摘譯)
  4. Association of College and Research Libraries, “AI Competencies for Academic Library Workers,” approved by the ACRL Board of Directors, October 2025. https://www.ala.org/acrl/standards/ai. (LV摘譯
    百世經綸摘述)

發表留言

在 WordPress.com 建立免費網站或部落格.

向上 ↑