TL;DR
Bash 工具鏈發展了幾十年,grep、find、目錄結構這些東西早就被驗證過了。當 LLM 取得操作這些工具的能力後,純文字 + 目錄結構突然從「最陽春的方案」變成「最強大的知識庫格式」。不需要花俏的 App,不用擔心服務倒閉,你的資料永遠是你的。
做軟體的人都知道一件事:Unix/Linux 的 Command Line tools,是整個作業系統的根本。
grep 搜文字、find 找檔案、mkdir 建目錄、mv 搬東西——這些指令從 1970 年代就存在了。五十年過去,今天全世界還是有幾百萬台伺服器每天在跑這些東西。每一行程式碼、每一份設定檔、每一筆系統日誌,全部都是純文字。
你有沒有想過為什麼?
不是因為沒有更好的格式,嘗試取代純文字的東西多的是——XML 試過、二進位格式試過、各種專有格式都試過。最後大家還是回到純文字。因為它滿足了工程上幾個最關鍵的特性:它持久,五十年前的 .txt 今天還是能打開;它可搜尋,一行 grep 就能從幾萬個檔案裡找到你要的東西;它可程式化,任何語言都能讀它寫它;它可以用 git 做版本控制,每一次修改都有紀錄;你想遷移的時候,複製資料夾就好了。
這些特性被驗證了半個世紀,從來沒有被推翻過。你用過的程式語言可能換了好幾種,框架可能每兩年就換一輪,但底層的純文字從來沒變。
不過,過去這些強大的工具有一個致命的限制:只有工程師在用,而且只用在程式碼上,更重要的是他使用上沒那麼好學習。
你不會用 grep 來管理自己的讀書筆記。你不會用 find 加上正規表達式來搜尋「上週讀的那篇關於注意力機制的論文」。你不會寫一個 shell script 來自動分類你的個人筆記。不是因為做不到,是因為太麻煩了——門檻太高,一般人不會用,就算是工程師,下班後也不想對著 terminal 管筆記。
所以這套強大的工具鏈,就一直安靜地待在它的世界裡,處理程式碼和伺服器的事情,跟個人知識管理完全沒有交集。
直到 LLM 出現。
這是我覺得很多人忽略的一件事——當 Claude、GPT 這些語言模型取得 Bash 執行能力的那一刻,它們不是學會了一個新技能。它們是接上了一整條已經被驗證了幾十年的成熟工具組合。
這個差別很重要。
如果 LLM 是從零開始建立檔案操作能力,那我們要擔心的事情很多:它的搜尋穩不穩定?它的檔案操作會不會出錯?它的格式處理夠不夠成熟?但實際上這些問題都不存在,因為底層跑的就是那些用了幾十年的老工具。grep 不會搜錯,mkdir 不會建錯資料夾,git 不會搞丟版本歷史。這些東西早就被幾十億次的使用驗證過了。
更重要的是 LLM 的訓練資料中就包含了這些工具的使用方式。LLM 做的事情,是在這些工具上面加了一層自然語言介面。
你跟它說「幫我找那篇講 transformer attention 原理的筆記」,它翻譯成一個 grep 指令去搜尋。你說「這篇文章存到 AI 研究的資料夾裡」,它翻譯成 mkdir 確認目錄存在,然後 write 把檔案寫進去。你說「幫我把上個月的會議紀錄整理成重點」,它用 find 找到對應的檔案,read 讀進來,用語意理解能力萃取重點,再 write 存成新的摘要。
每一步都是成熟的操作,LLM 只是多了「理解你在說什麼」這一層。
換個角度想:以前你要使用這些強大的 Bash 工具,你得先學會命令列,記得各種 flag 和參數,知道怎麼把不同指令串在一起。這個學習門檻把 99% 的人擋在門外。現在 LLM 幫你把這個門檻抹平了——你只要用人話講,它幫你操作。
這讓我開始認真想一件事:如果 LLM 天生就擅長理解和處理文字,而且現在它又能操作檔案系統——那我們管理個人知識的方式,是不是可以從根本上重新想過?
在繼續往下之前,先看一下之前在 HN 上看的文章。
Brown 大學有個教授叫 Jeff Huang,他做了一件很有意思的事:用同一個 .txt 檔案管理自己的生產力超過 14 年。所有待辦事項、會議筆記、想法,全部丟進同一個純文字檔,用日期分隔,就這樣。
14 年。一個檔案。
他不是什麼技術宅在炫耀極簡主義。Jeff Huang 是電腦科學教授,他比大多數人都懂什麼工具好用。他之所以堅持用 .txt,是因為他看過太多東西來了又走。
裡面有句話讓我感同身受:
“I’ve been doing this for more than 14 years now. Let’s see your productivity app survive that long.”
你仔細想想,14 年前很流行的 Evernote,現在你身邊還有多少人在用?Google Keep 出了又好像沒什麼人在乎。Bear、Notion、Obsidian、Roam Research——每隔幾年就有新的「筆記革命」,每一個都很興奮,每一個都說自己是最後一個你需要的筆記工具。然後呢?有些還在,有些已經涼了,有些你還在付月費但其實半年沒打開過了。
而 .txt 檔案在這 14 年裡從來沒有讓 Jeff Huang 失望過。因為純文字不依賴任何公司、任何平台、任何軟體。它就是一個檔案,放在你的硬碟上,用任何文字編輯器都能開。
這件事讓我開始反思:也許問題不是出在我們不夠努力去學新工具,而是我們一開始就選錯了方向。我們一直在找「更好的軟體」,但也許真正需要的不是更好的軟體,而是更好的方法來使用最基本的格式。
但 Jeff Huang 的方法有個很明顯的限制:他的使用情境是單一時間序列的生產力追蹤。一個人、一條時間線、一個檔案。
如果我們要處理真實生活的各種知識,這方法自然不夠。
你的腦袋裡同時裝著很多完全不同的東西。上午可能在看一篇關於 LLM 架構的論文,中午開了個專案會議記了一堆決策,下午回了幾封重要的 email 然後覺得有些內容值得保存下來,晚上突然想記一下這個月的花費好像有點失控。這些東西的性質天差地遠,但它們都是你的知識、你的紀錄。
硬塞在一個檔案裡,三個月後你就再也找不到任何東西了。
那分類呢?你建了一堆資料夾,結果每次存筆記都在猶豫「這篇到底放工作還是放研究」,猶豫完就不想存了。或是存了,但命名亂七八糟,三個月後跟沒存一樣。
這就是為什麼 Notion、Obsidian 這類工具出現的時候,大家會覺得救星來了。它們提供標籤、分類、搜尋、資料庫視圖、雙向連結——把「找東西」和「組織東西」的問題都幫你處理好了。你只管往裡面丟,軟體幫你整理。
聽起來完美。
但代價是什麼?
你的資料變成了專有格式。Notion 的東西存在 Notion 的伺服器上,用它的 block 結構。Obsidian 好一點,底層是 Markdown,但一旦你用了它的外掛、embedded query、canvas,那些東西離開 Obsidian 就跑不了。Evernote 更不用說,匯出來的 .enex 格式根本沒有其他軟體原生支援。更重要的是,整理這些筆記和分類,還是消耗了你相當多的精力。
你花了三年、五年累積的知識庫,被鎖在一個商業公司的產品裡。哪天他們漲價漲到你受不了,或是改版改到你不認識,或是乾脆倒了——你就站在那裡,看著一堆匯出來格式半殘的檔案,思考人生。
Evernote 的老用戶應該特別有感觸。那個曾經被稱為「第二個大腦」的軟體,現在變成什麼樣了。
一直以來,這就是個兩難的問題:你想要簡單和自由,就得放棄結構和智慧;你想要結構和智慧,就得把資料交給別人保管。過去我們只能二選一。
現在不用了。
當 LLM 能操作檔案系統之後,純文字的瓶頸被打通了。不是靠更複雜的軟體,是靠一個「聽得懂人話、又會操作 Bash」的 AI 助手。
過去你的筆記太多找不到東西,是因為 grep 對普通人來說太難用了。現在你不用會 grep,你只要說「找一下我之前寫的關於 context window 的東西」,LLM 幫你轉成 grep 去搜。
過去你不知道新筆記該放哪裡,每次分類都在猶豫,猶豫到最後就不存了。現在你可以把分類規則寫下來,LLM 每次存檔前會自己讀規則、自己判斷。你說「存這篇」,它看了內容,判斷這是 AI 研究的文章,就放到對應的資料夾裡。不用問你。
過去索引很難維護——你建了一份內容清單,但每次新增刪除都忘記更新,三個月後那份清單就變成廢紙。現在 LLM 每次動了檔案就自動更新索引,你不需要操心。
過去不同筆記的格式亂七八糟,有的有日期有的沒有,有的有標籤有的沒有,後來想統一格式已經來不及了。現在 LLM 每次建檔都會先讀你定好的格式規範,照規矩來。
而在這一切的過程中,你的資料始終是 .md 檔案。Markdown 格式的純文字。你用 VS Code 能開,用記事本能開,用 cat 在 terminal 裡也能看。你想備份就 git push,想搬家就 copy 整個資料夾。你不依賴任何公司、任何訂閱、任何服務。
你同時擁有了純文字的自由,和智慧筆記軟體的便利。
我後來真的從這個想法出發,實際建了一套系統,跑了一段時間。在這裡把所有細節都講出來太繁瑣了,簡單分享一下核心設計——因為它真的很簡單,簡單到你看完後跟Claude的說,照著這篇文章講的設計就可以了。
就三件事。
第一件事:目錄結構就是知識分類。 不需要資料庫,不需要標籤系統,就是資料夾。Research/AI/ 放 AI 相關的研究筆記,Work/ 放工作文件,Personal/Finance/ 放個人財務。你打開檔案管理員看一眼就知道什麼在哪裡,不用背任何系統的操作邏輯。
你可能覺得資料夾不就是最原始的分類方式嗎?沒錯。但重點不是資料夾本身,而是當你用資料夾來分類知識,同時有一個 LLM 懂得你的分類邏輯的時候,這個「最原始的方式」就變成了最高效的方式。因為 LLM 不需要學什麼 API,不需要適應什麼 block 結構——它只要知道這個目錄叫什麼名字、裡面放什麼東西,就能開始幫你工作。
第二件事:每個目錄可以放一個規則檔。 我叫它 RULE.md。裡面定義這個目錄的遊戲規則——允許什麼操作?檔案要怎麼命名?需要哪些 metadata?有沒有什麼特殊政策,比如唯讀或只能新增不能刪除?
LLM 在對一個目錄做任何事之前,會先讀這個規則檔,然後照規矩來。你不用每次叮嚀它「記得加日期前綴」「記得寫 frontmatter」「記得這個目錄不能刪東西」——規則寫一次,它每次都會遵守。
這聽起來像是在「教 AI 守規矩」,但其實更像是在建立一套治理機制。你把知識庫的管理規則用純文字寫清楚,LLM 就成了你的管理員。
第三件事:每個目錄有一份索引,就是 README.md。 列出目錄裡有什麼檔案、每個檔案是什麼、最近有什麼更新。人能看、AI 也能看。人看到的是一份內容清單方便快速瀏覽;AI 看到的是一張導航地圖,讓它知道不用從頭搜尋就能快速定位。
每次檔案有異動,LLM 自動更新索引,你完全不用手動維護。
就這三個東西:資料夾、規則檔、索引。全部都是 Markdown,全部都是純文字,全部都能用任何文字編輯器打開。
而且因為規則跟著資料夾走,這整套結構天生就是可遞迴的——你把一個子目錄搬到別的地方,它的規則和索引都還在,不用重新設定任何東西。這跟那些把設定存在某個中央資料庫的軟體完全不同。
日常用起來的感覺大概是這樣——我跟 AI 說「幫我存這篇關於 AI Agent 的文章」,它先看了各個目錄的規則檔,判斷這篇最適合放在 Research/AI/ 底下,然後按照那個目錄要求的格式建好檔案,附上日期、標籤、來源連結,最後更新索引。整個過程不到十秒鐘,我什麼都不用操心。
或者我說「找一下我之前看過關於 context window 的東西」,它搜一搜回來說「找到兩篇,一篇是去年 12 月的論文摘要,一篇是你自己寫的實作心得,要看哪個?」
就是這麼平淡無奇的事情。沒有華麗的 UI,沒有月費帳單,沒有要你看的 onboarding 教學。但它每天都在幫你把知識管好。
不過說真的,如果這套做法只是「管筆記方便」,我不會覺得它值得分享出來。
真正讓我覺得這件事有意思的,是它在處理「完全不同類型的知識」時展現出來的能力。
你想想看你日常在處理的資訊有多雜:工作上有軟體專案的架構文件、需求規格、會議紀錄。個人有理財紀錄、信用卡帳單分析、投資筆記。學習上有研究論文的重點摘要、技術文章的心得、讀書筆記。生活上有旅遊規劃、家庭行事曆、各種帳號密碼。
這些東西的性質天差地遠。過去你大概是這樣處理的:Notion 管筆記和待辦、Excel 管帳務、Confluence 管工作文件、再開個 Trello 管專案進度。四、五個平台,資料完全不互通。你想從上週的會議紀錄裡找到一個決策然後關聯到專案文件?好運,你得自己記得那是在哪個平台的哪個頁面。
但在純文字的世界裡,這些東西都在同一棵目錄樹底下。軟體專案有軟體專案的規則檔,財務有財務的規則檔,研究有研究的規則檔。它們各自有各自的分類和格式要求,但在物理上,它們就是同一台電腦同一個資料夾裡面的不同子目錄。
這代表什麼?
這代表 LLM 可以做到真正的跨領域操作。它能一條 grep 貫穿所有目錄,從研究筆記裡找到一個觀點,然後發現它跟你正在進行的工作專案有關。它能從你的會議紀錄裡提取行動項目,直接建到待辦清單裡去。它能分析你三月份的信用卡帳單,跟二月份的比一比,告訴你哪裡花多了。它能做到這些,是因為所有的資料都用同一種格式、在同一個地方,沒有格式轉換的問題,沒有平台之間的隔閡。
這是任何一個筆記軟體——不管它多厲害——都做不到的事。不是技術不行,是因為每個軟體天生就把資料鎖在自己的世界裡。你的 Notion 筆記不會自動跟你的 Excel 帳務對話。但純文字從一開始就沒有這個問題。
某種程度上,這也是 LLM 最被低估的能力之一。大家都在談 AI 寫程式、AI 畫圖、AI 做影片。但 LLM 最根本的能力其實是理解和操作文字,而我們日常產出最多的東西,就是文字。把 LLM 放在一堆純文字上面,讓它去理解、搜尋、整理、關聯——這才是最自然、最高效的使用方式。
回到 Jeff Huang 的故事。
他的 .txt 活了 14 年,而且還在繼續。我完全相信純文字會繼續活下去——這個格式從 1970 年代就存在,從來沒有讓任何人失望過。14 年算什麼,它已經活了 50 年。
不同的是,以前純文字是一種取捨。你選擇了自由和持久,就得放棄結構和智慧,所有的整理工作都要自己來。Jeff Huang 能堅持 14 年,靠的是超乎常人的紀律。
現在不一樣了。LLM 讓純文字從一個人苦撐的極簡主義,變成一個有 AI 助手在旁邊協作的完整知識管理系統。你還是擁有純文字的所有好處——持久、自由、不依賴任何平台。但你不再需要一個人做所有苦工,因為有一個懂語意、又會操作 Bash 的助手幫你打理。
你需要的東西其實出乎意料地少:
一個資料夾,這就是你的知識庫。幾個 Markdown 檔案,人和 AI 都讀得懂的格式。一些寫好的規則,告訴 AI 你的規矩。然後,任何一個能跑 Bash 的 LLM——Claude、GPT、本地跑的開源模型都行。只要它讀得懂文字、操作得了檔案系統,它就能幫你管理知識。
不需要在「簡單」和「強大」之間做選擇。純文字加上 LLM,兩個都拿。
少即是多,大道至簡。