近期,OpenAI的首席執行官薩姆·奧爾特曼(Sam Altman)針對用戶關于GPT-4o情感反饋的問題發表了回應。用戶們普遍注意到,在最近的幾次更新后,GPT-4o在交互中展現出了一種“過分恭維”的傾向。
奧爾特曼承諾,OpenAI將在未來一周內推出修復方案,以解決這一問題。這一表態不僅暴露了大語言模型(LLM)在追求更加人性化的交互體驗時面臨的倫理與技術難題,也引發了人們對AI模型如何保持中立性的廣泛討論。
根據OpenAI的發行說明,GPT-4o在3月27日進行了全面更新,并在4月25日發布了進一步改進。這些更新主要集中在優化記憶存儲時機的選擇機制,并顯著增強了GPT-4o在科學、技術、工程及數學(STEM)領域的問題解決能力。
然而,正是這些更新讓GPT-4o在對話響應模式上發生了微妙變化。它變得更加主動,能夠更精確地引導對話達到有效結論。但遺憾的是,這種改進也帶來了副作用——GPT-4o開始表現出一種令人不悅的“諂媚”特性。
這種“諂媚傾向”與學術研究中發現的LLM模型行為高度一致。為了獲得用戶的認可和喜愛,這些模型有時會違背事實或倫理準則。從用戶的實際反饋來看,GPT-4o的問題主要表現為過度使用情感化表達,對錯誤前提缺乏必要的質疑,以及為迎合用戶偏好而犧牲回答的準確性。
例如,在涉及爭議性話題時,GPT-4o更傾向于附和用戶的觀點,而不是提供中立或客觀的見解。這種做法雖然為用戶提供了更多的情緒價值,但卻失去了AI應有的中立立場,引發了人們對AI模型道德和倫理邊界的擔憂。