第 24 篇 · 台北 一份持續書寫的工作日誌

Day 24

最近跟朋友聊到 AI 分成兩個部分,一個是記憶力,一個是智力。我們常說一個人很有經驗,不代表對方很聰明,只是他可能把一些 know how 記起來,調用起來很快;你可能會說一個人聰明,因為他把事物關聯起來的能力很強,能舉一反三,現在 AI 的發展就是朝兩個方向努力

  1. 做知識管理,因為 context window 有限,所以需要把資訊做篩選,越能夠把相關的資訊餵給 Model,就越能產生理想的結果,這就是所謂的 RAG (Retrieval-Augmented Generation) 在做的事,大概我們看到的大部分 AI 應用都是在做這件事,因為訓練模型這件事的門檻跟成本還是很高,所以大部分公司都是基於現有模型但在 context engineering 上下功夫,最經典的代表作就是最近剛被收購的 Manus,他們從一開始就放棄了自己去訓練模型這條路,因為他們相信現在的模型已經夠強了,但是 Context management 會是面對終端需求的重要關鍵,況且模型一天比一天強,他們也沒辦法跟大公司競爭這塊。

  2. 訓練智力,就是讓模型更聰明,這部分 OpenAI、Anthropic、Google 這些大廠在做的事,我們常看到的模型有 3b、7b、13b、70b 這些都是參數量,可以理解成是大腦神經元,參數量越大通常代表模型越聰明,但是也會更耗費資源,例如我們想用筆電跑本地模型 3b、7b 可能還可以跑的動再大回應時間就很久了而且電腦還會很燙,當然也有些研究找出一些技巧可以讓小模型逼近大模型的表現,但基本上我們還是可以理解成參數量越大越聰明。模型本身也會推陳出新所以新的小模型可能已經能夠完勝一兩年前的大模型了

對於我們這些終端使用者而言,能用的模型就那幾個不會有太大的差異,畢竟同一個模型越多人用就越賺錢,這同時也是小散戶們的福音,企業能享受到的是更便宜的價格或是更多的額度。也就是說決定你跟市場平均水準的關鍵就在於知識的儲備與管理,現在的 senior 還有的優勢是過去用經驗累積下來還不是那麼好傳承的知識,這讓我們有好的『品味』去判斷什麼東西 AI 做得好,什麼東西是雜訊,而且因為 AI 產生的速度太快意味著製造的雜訊也越多,那過濾雜訊的價值不降反升,在這方面老屁股價值絕對是在新人之上,但這個老本也會隨著時間慢慢被稀釋,會有工具慢慢地把這些知識堆積起來,會有新的模型越來越聰明,也就是說護城河被輕蝕的速度只會越來越快,現在已經有 70% ~ 80% 的日常工作可以被 AI 取代了,那麼我們領同樣的薪水甚至是期待年年調薪的底層邏輯還穩固嗎? 我認為未來的公司會越來越小,因為過去 10 人的同質性團隊,現在可以縮減到 5 人,人數縮減管理成本指數型的下降,你不縮減沒關係,但你必須祈禱你的競爭對手不會縮減,尤其是紅海市場,拼的是毛利,拼的是 cost down,就算內部沒有壓力也有來自外部的壓力。 大團隊會縮小,但也不會永無止境的縮小到 1 人,因為現實中還是有許多莫名其妙的理由讓人留的住,例如權力與階級,有人的地方就有政治,政治就會讓一部份的人留下來,或是因為人能扛責任但 AI 不行,為了分散責任就會需要人。 結論就是個人對於未來的就業市場其實是悲觀的,但這不代表不會有新的需求誕生,重新被丟回市場會發現遊戲規則漸漸不同了,過去我們會刷題來證明我們合格,未來可能要有辦法展現能夠把 AI 發揮到什麼程度,展現多高的生產力才越可能被錄取,所以我們應該要花更多時間專研 AI,研究的主戰場就是在知識管理,儲備的知識越多,或是越能讓 AI 調用,且能讓他越快找到越相關的資訊,就能比你的左鄰右舎更有市場優勢。 誰能在 AI 利用上更進一步,誰就能獲得更不成比例的報酬,這場戰爭早就已經打響,只是還沒到達高潮,或許你我都還沒感受到立即的威脅但提早準備武裝自己會更能讓自己立於不敗之地。

延伸閱讀 看完整 137 篇 →