昨晚OpenAI給 ChatGPT 上了個新功能:分支對話。
網頁端把鼠標放到某條回復上,點右下角的「?更多操作」,就能選「在新聊天中分支」。
簡單講,不用再傻乎乎地新開個對話,也不用拉一條線到幾百條消息那么長,最后把上下文撐爆。現在可以在某個節點直接「開岔路」。
如果把幾個月前上線的記憶功能放在一起看,會發現這是一個很有意思的組合:記憶解決「跨對話的連續性」;分支解決「單次對話的多線探索」。

過去跟 AI 聊天,很死板:新開一個對話是「起點」,點掉或者清空就是「終點」。對話像一條直線,往前走只能不斷累積,越長越混亂。
分支對話出來之后,這個邊界突然變模糊了。
我不用想「要不要新開個對話」,因為隨時可以在某個節點上岔開一條新線。
還記得豆包嗎?
有個臨時問題,問一下,問完就走,很方便;但問題是,過了半個小時,你又想接著剛才的問題往下聊,它就完全不記得上文了,只能當成一次新的問答。
這就是差別。
豆包邏輯是一次性:輕便,卻沒有連續性;而ChatGPT分支 + 記憶的邏輯是「接力」,隨時能在某個節點延伸,把思路保留下來繼續聊。
所以,說白了,邊界沒了,對話變得像一棵樹,隨時能在一個點上岔開一條新枝,想回去、想切換都行,整段聊天更像「線程」。
這意味著什么?智遠認為有三點:
一,對話的開始和結束意義變小了。以前新開對話要想清楚「我到底要聊啥」,現在完全不用糾結,順著聊就行,想在哪個點岔開就岔開。
二,過去聊著聊著很容易迷路,分支出來之后,我能把不同思路分開保存,像寫文檔時留多個版本。
要說第三點,我認為,上下文也更靈活了。不用一股腦往窗口里塞一大堆信息,聊著聊著,我直接跳出一個節點,和它討論一下,這多絲滑。
舉個自己體驗的例子:
昨天凌晨,Qwen3 發布了新模型 Qwen3-Max-Preview,我當時想發個小紅書,直接讓 ChatGPT 給我寫文案。
結果它給的內容偏宏觀:什么「更大模型」「推理速度更快」之類的,太籠統,不夠具體。那怎么辦?

我追問細節,它反而說「這個模型還沒正式發布,好像還在灰度,抓不到更精準的信息」。場面有點尷尬,它只能建議我寫「首發體驗」或者「首次曝光」的角度。
可今天早上上線了「分支對話」,我就順手點了「更多」,從那條回復開了個分支,和它單獨聊「我最期待 Qwen3 能有什么樣的能力」。
那半天我們就在新分支里來回討論,把思路拉開;這個話題聊完,我又切回原來的主線,讓它繼續寫小紅書文案。
然后,它居然把上下文接得很自然,記憶一點沒斷,整個過程特別絲滑。

所以,智遠認為,對話從直線變成樹狀,對AI助理來說,是特別大的變化。

光能分岔還不夠,這些分岔下來的對話,最后 ChatGPT 想把它變成什么?
過去大家用知識管理工具,不外乎 Notion、飛書文檔,硬核一點的還有 Obsidian,好處顯而易見,能結構化、分層級、做大綱,特別適合喜歡折騰的人。
可問題也很明顯:流程太重。
寫完文章還得歸檔,開完會還要手動寫總結,想讓它形成體系,就得不停維護;很多人一開始雄心勃勃,最后是堅持不下來,庫里一堆半拉子工程。
記憶和分支的邏輯完全不同。
核心是「順手」,你反正要跟 AI 聊天,要寫要想,它就順手把痕跡留了下來。下次要追溯,直接點開分支就行。
還有一點很關鍵:對話和筆記不一樣。
筆記常常是碎片化的,幾句話、幾個點,很容易脫離語境;對話不是,對話自帶上下文:你為什么問,它給了什么答案,你們怎么推演,整個過程都在。
這種語境,有時候比結論本身還更有價值;這讓我想到飛書、釘釘里的知識問答邏輯。
它們把「提問」當成起點:我問一個問題,系統給一堆答案。可答案不是終點,如果其中有能用的,我一鍵標記,就能同步到文檔,再編輯打磨,最后存進知識庫。
這樣才算完成一個「問答—文檔—知識庫」的閉環。
Perplexity 的老板也說過一句話:「問題才是起點」。問題一旦明確,后面的線索就能拉出來;你再看國內一些新產品,比如 ima、知乎知識庫,本質上也是都長在提問上。
所以我覺得,對話優勢有三點:
一邊用一邊沉淀,不用額外操作,這是知識累積;檢索更自然了,不用自己翻筆記,只要「問 AI」就能找出來;更重要的是,它保留了上下文,整個脈絡都在。
但對話也不是萬能的。
我今天用了一上午,還順手改了幾篇研究報告,發現它有時會「記不全」或者「啰嗦混亂」;說明它的記憶能力還要繼續提升。
說白了,現在還沒辦法完全把一個聊天、一個主題任務,直接托付給它去搭建成一套完整的知識體系。
可就算如此,我依然覺得,AI 和人的關系正在慢慢被重塑,它開始更像一個真正的「AI 助理」。
AI 助理,這個詞這幾年已經被叫爛了。絕大多數產品所謂的「助理」,是幫你干點機械活。類似于,寫個日程、優化個文檔,說白了就是代替「手和腳」。
可在思維和記憶層面,它們幾乎沒動過。一個對話聊完就結束,信息全斷掉,你根本不會覺得它真是助理。
現在情況不一樣了。記憶讓它能保留上下文,分支讓它能同時跑多條思路。你可以想象:
一個分支在負責推理和研究,另一個分支在幫你找數據和案例,再有一個分支,專門幫你打磨文案。這更一個像團隊一樣的 AI 助理。
舉個例子:
前幾天我用百度文庫寫東西,它的超能搭子 GenFlow邏輯跟我理解的「AI 助理」挺接近。
我先拋一個問題,它給我答案;基于答案,我可能要做個海報,再讓它把關鍵信息抽出來,順手驗證一下數據準不準,最后還幫我推理邏輯。
整個過程像有好幾個不同的 agent 在分工合作,而角色全都濃縮在同一個助理里。
所以我覺得,這條路通用 AI 遲早會走。
隨著模型越來越大、越來越智能,這種協作會越來越絲滑;到那時,每個人可能都會愿意為一個 AI 助理付費,因為買到的是一個可以代替、可以協作的伙伴。它真的在和人共創。

既然人和AI共創了,就繞不開一個老生常談的問題繞不開:上下文。
大家最關心「窗口夠不夠大」,32K、128K,甚至有人憧憬所謂的「無限上下文」,聽上去很誘人,好像誰能記得更多,誰就更先進。
可窗口再大,它本質上還是「一次性記憶」,你想把幾十頁資料、好幾輪推演全塞進去,最后模型答非所問太正常不過了。
而且,大窗口代價不小:推理更慢,成本更高。對大多數人來說,沒必要為「無限上下文」去買單。
所以我覺得,真正的關鍵在于 AI 能不能幫我們管理信息;換句話說,與其讓它背下整本書,不如讓它知道書在哪個書架,隨時能翻到對應章節。前者累又不可靠,后者才是更聰明的辦法。
記憶和分支帶來的,剛好是這種「書架式」體驗。
你不用硬塞所有資料,隨時能從歷史對話里開個分支,或者調用記憶繼續延展。
所以,智遠認為「把上下文做大」是一條技術路徑,但未必是未來答案。真正值得期待的,是 AI 有沒有能力,把信息分類、留存、調用得更順手。
你有沒有想過,當記憶和分支進化到足夠好時,我們還會在乎上下文窗口的大小嗎?
我不知道答案。
但智遠認為,未來我們討論的重點,不是「窗口」這種技術指標,是一個更大的命題:「對話操作系統」。
什么是對話操作系統?我的理解是:你打開一個聊天窗口,也就等于開啟了一個任務。
過去,一個任務往往要在好幾個應用里來回切;現在,隨著記憶和分支的進化,這些事情完全有可能在一個對話里搞定;你問它寫文章,它順便能調動表格;要做個海報,它能直接生成圖片。
對話,本身像一個外殼,可以隨時調用不同的工具或協議(比如 MCP),把整個流程串起來。
如果順著「外殼」的趨勢去看,互聯網演化的路徑其實很清楚:
最早大家把搜索當入口,一切從 Google 開始;后來瀏覽器成了入口,網頁承載了信息和應用;再后來手機操作系統,每一個 App 就是一個獨立的世界。
入口的變化,意味著新的操作系統形態。
今天,ChatGPT 的演化,正把「對話」推向下一個入口,它逐漸承載任務驅動、知識檢索、創作協作的各種形態;未來會不會在對話里,生長出一個基于對話的 WPS、一個 Office?我不知道。
但我知道的一點是:等到那一天,你不需要再切換那么多應用,一個對話就能解決所有事。
舉個例子:
你有一份合同要微調,過去得來回切 Word、郵件、PDF 編輯器,步驟一大堆。可在「對話操作系統」里,把初始版本丟進 Chat,任務就開始了。
它告訴你哪不對、哪需要改,你一句句指令「幫我調這個」「再改那個」。最后一句「把最終版導出來吧」,它直接生成 PDF,你點開就能打印,下一秒就能發給客戶。
所以,當我再談「記憶」和「分支」,再談一個雛形:未來操作系統,建立在對話之上;也許,「對話操作系統」才有想象空間。
可回頭看國內的產品,情況不一樣了。大家還在卷模型參數、推理速度,甚至價格補貼,但在「對話形態」上,幾乎沒有多少探索。
國內產品要怎么補課?至少,ChatGPT 已經給出了一個思路。