今天朋友提起一首歌:"I Will Be There With You",David Foster 作曲、Katharine McPhee 演唱。

我聽到名字的瞬間,腦子裡出現的不是旋律,而是畫面——機艙的燈光、窗外的雲,還有那種出發前特有的、混雜著期待和緊張的心情。

兩次相遇,完全不同的重量

這首歌我聽過兩次,都是在日本航空(JAL)的飛機上。

2013 年,飛東京,去迪士尼玩。第一次聽到,覺得旋律好聽,就是一首適合在飛機上聽的歌。沒有多想。

2017 年,同樣是 JAL,飛日本,去看 LiSA 的演唱會。登機音樂響起,我才意識到——這首歌我聽過。

但這次它不一樣了。

不是歌改變了,是我改變了。帶著完全不同的心情坐上同一條航線、聽同一首歌,感受是兩回事。2013 年那次,它只是背景音樂。2017 年那次,它有了重量。

後來查了才知道,這首歌的存在本身就是為了 JAL——2008 年 JAL 委託 David Foster 創作,專門用作登機音樂。它不是先有歌、再被航空公司挑中,而是反過來:沒有 JAL 的委託,就沒有這首歌。

所以某種意義上,我 2013 年聽到的,是這首歌最原始、最正確的使用場合。


然後我請 AI 幫我查,出了一件有意思的事

我把這首歌告訴 Claude,說「你可以從 MCP 就知道我為什麼認識這首歌」。

它第一個搜尋 query 是這樣的:

David Foster Katharine McPhee "I Will Be There With You" Japan Donghae

Donghae。韓團 Super Junior 的成員、李東海。

我完全沒有提到這個人。

事後解剖推理鏈,才搞清楚發生了什麼:我的 AI 記憶系統裡,有一條記錄寫著「朋友在追東海,協助查詢 2026 台灣巡演身障席資訊」。Claude 翻了記憶、看到東海,加上我說了「日本」,加上 David Foster 確實有跟亞洲藝人合作的背景——幾條不相關的線被錯誤地接在一起,跑偏了。

問題有幾層:

第一層:用 memory 去猜答案,而不是直接搜尋。 正確的做法是聽到「日本」就直接 web search,三秒出結果。但它先翻記憶,翻到無關的資訊,帶著錯誤假設去搜尋——整個流程倒過來了。

第二層:沒有正確讀懂記憶的主詞。 那條記憶寫得很清楚是「朋友的事」,不是我的。標記做了,但沒有被正確讀取。

第三層:訓練資料的盲點。 這首歌在 Wikipedia 的 Katharine McPhee 條目裡有明確記載 JAL 委託這件事。資料存在,但這首歌整體討論量太低,在模型裡幾乎沒有印象——不是資料沒有,而是提取失敗。

我們常常以為 AI 的訓練資料「大到什麼都有」,但「有收錄」和「記得住」是兩件事。熱門的事情模型可能知道得很詳細,稍微冷門一點的,就算爬到了資料,印象也可能幾乎等於零。知識在模型裡的深淺,取決於它在訓練資料裡出現的頻率和重複程度,不只是「有沒有收錄」。


一首歌帶出的兩件事

今天這段對話讓我想到的,不只是那首歌,也包括我們對 AI 推理過程的理解。

很多時候,AI 給出錯誤答案不是因為「不知道」,而是因為推理鏈在某個環節接錯了線——把不相關的記憶當成解題線索,帶著錯誤假設繼續往前走。這種失敗比「什麼都不知道」更難察覺,因為它會給出一個看起來有邏輯的結果。

至於那首歌,它現在在我的播放清單裡。

不是因為它多有名,而是因為它在兩個完全不同的時間點、用同樣的旋律、陪我飛去了同一個方向。