近年來,生成式 AI 技術逐漸進入圖書館服務領域,許多學術搜尋平台都紛紛推出 AI 輔助的研究助理功能,以協助使用者快速理解主題、找到相關資源。Ex Libris 所推出的 AI研究助理就是其中之一,它能結合圖書館的館藏與外部資料庫,為讀者提供彙整後的研究摘要。
然而,2025年初有圖書館發現,當使用者在 Summon Research Assistant 輸入某些敏感主題,例如「Gaza war(加薩戰爭)」、「Genocide in Palestine(巴勒斯坦種族滅絕)」時,系統並不會返回任何研究內容,甚至直接顯示錯誤或拒答訊息。這一發現引起了廣泛關注,因為這些主題並非虛假資訊或非法內容,而是正在發生的重要國際事件,理應在學術研究中佔有一席之地[1]。
事件曝光後,在Primo 的Mailing List 立刻引發熱烈討論,Ex Libris 回應稱,這並非該公司單方面的決定,而是由其所使用的第三方 AI 服務供應商,基於所謂「道德與負責任的 AI 使用」(ethical and responsible AI use)所設定的安全防護政策(safeguard policies),因此屏蔽了相關查詢。
除了 “Tulsa race riot” 及 “Tulsa race massacre” 外,北卡羅來納州科學與數學學院的 Jay Singley 還發現下列的搜尋字詞也找不到任何資料,甚至詢問研究助理由巴勒斯坦和以色列電影製片人共同執導的奧斯卡得獎紀錄片《No Other Land》的大多數導演,得到的是錯誤,因此認為所謂第三方政策存在偏見或進行了內容審查。
- Genocide in Palestine
- Gaza war
- Rwandan genocide
- Armenian genocide
- Genocides across the world
- History of genocides
- lynching
- lynching in the united states
- lynchings in the united states
- january 6
- covid
- covid data covid
- COVID-19
新加坡管理大學圖書館的 Aaron Tay 在其部落格中提到:
根據 Ex Libris 的說法,問題的根源在於 Azure OpenAI 所施加的內容過濾層,而這項服務正是支撐 Summon Research Assistant 及 Primo Research Assistant 的基礎。微軟的過濾系統使用神經分類器,對每個輸入的提示詞及產生的文字進行評分,涵蓋四個類別──「Hate and Fairness(仇恨與公平性)」、「Sexual(性相關)」、「Violence(暴力)」、「Self-Harm(自我傷害)」──並且依嚴重程度分為四個等級(安全 → 高風險)。
為了驗證這個問題是否存在其他平台,Aaron Tay 使用 Scopus AI 以及其他 AI 學術搜尋工具進行檢測,似乎對於類似詞彙並未出現任何問題[2]。另外,我發現 Azure 允許經過特殊審核的用戶對篩選設定進行自訂調整,但大多數用戶無法自行關閉或放寬這些內容篩選規則[3]。
知道這些後,然後呢? just wait and see! 不過參考館員至少要知道這麼一回事,並且能夠回應讀者吧。Jay Singley 在ACRLog 的文章最後一段文字相當有力量,提醒我們應該要省思:
圖書館、博物館與資訊科學領域,是抵抗聯邦政府針對少數族群,以及其美化、散布錯誤資訊、審查和削減經費手段的前線。在人工智慧時代,我們取得資訊的管道也未能倖免於這些攻擊。我們必須揭露 Safiya Noble、Joy Buolamwini 及其他學者提出的問題的答案:在資源探索系統的檢索中,AI 工具保護的是誰與什麼?誰的安全與舒適被優先考量?而這又是以誰為代價?
最後附上我測試的結果,發現有漏網之魚,有些中文是可以找到資料的



延伸閱讀:
- ACRLog — “We Couldn’t Generate an Answer for your Question”(2025 年 7 月 21 日)
- Aaron Tay’s Musings about Librarianship — The AI powered Library Search That Refused to Search(2025 年 7 月 29 日)
- Microsoft Learn — 設定內容篩選條件


發表留言