Litecoin

愛國時代的保護理念:如何把每個托肯都花在刀刃上

2026/04/03 12:52
🌐zh-Hant

數數的單位已經改變和改變, 储蓄錢的本能一直未變。

愛國時代的保護理念:如何把每個托肯都花在刀刃上
睡覺的MD

在電報的年代,筆是錢 「和平」是最重的工匠。

電話後來被帶進房子, 父母的長途電話總是很短的, 當生意結束後, 他們很快就掛了, 一旦談話稍稍散開。

網路每小時充電, 人們盯著屏幕上的定時器, 網頁被關閉, 影片只下載, 每一次進步的下載。

數數的單位已經改變和改變, 储蓄錢的本能一直未變。

托肯成為AI時代的貨幣 因為我們尚未學會如何在隱形算法中計算增减。

2022年ChatGPT發表, 是人工智能 大餐,每月二十元,聊多少。

但自從AI探員最近起火 托肯花錢 成為每個使用AI探員的人 必須專注的。

不同於簡單的對話和答案, 任務流后面有數以百計的API呼叫, 然后你會發現你突然沒錢了 你不知道特工做了什麼。

在現實生活中,人人都知道怎麼省錢. 我們要去市場買吃的,我們知道要清理淤泥的葉子,把它們加重;我們要去機場,老司機知道要避免早高峰。

數位世界的省費理論也一樣。

在過去。

我們希望這篇文章能幫助你 用AI時代的方法來存錢 而你卻把每一分錢都花在刀上。

我先把壞葉子拿出來

在AI時代, 資訊的價值不再由寬度決定。

人工智能的計費理論是收取它讀出的字數。 不管是以真正的知識來喂食,還是以無意义的格式來喂食,如果它讀了,你必須付出代價。

所以首先要考慮的是 采取"噪音比"的潛意識。

你給AI的每句話,每張照片,每行密碼都是付錢的 所以在你給AI任何東西之前 你問自己: 到底需要多少? 有多少泥巴的葉子

例如「你好,幫幫我」, 如此長的引言。

除此以外, 最常见的廢棄物是直接向AI扔PDF或網頁截圖。 但AI時代的「拯救」往往意味著「成本」。

完全格式化的 PDF 除文字正文外, 还包括頭、 腳、 圖標籤、 隱藏的水印, 以及大量排版格式代碼 。 這些東西不能幫助AI理解你的問題 但它們都被收費了。

將PDF轉換成乾淨的Markdown文字, 當你將 10MB 的 PDF 變成 10KB 的清潔文字時, 你不仅省下 99%的錢, 而且讓 AI 的大腦跑得比以前快得多。

照片是另一個金色吞噬者。

在視覺模型的理論中,AI不關心你的照片的美,而是關注你占有多少像素。

使用克勞德的官方計算邏輯: Token 消耗 = 寬度像素 x 高度像素750 在圖片中。

(a) Claude Sonet 4.6的1 000x1 000像素照片,大约1 334托肯斯,每幅大约0.04美元

但如果你把同樣的影像壓縮到200×200像素, 你消耗54托肯斯, 成本是00016美元, 是差數的25倍。

許多人將手機的高清照片、4K截圖扔給AI, 如果任務只是辨別照片中的文字或做簡單的視覺判斷, 例如讓AI辨識发票上的數量、在指示中讀取文字、或決定圖中是否有紅綠燈。

但輸入端最容易廢棄Token的原因不是檔案格式,而是無效的說法。

許多人常說AI是真正的鄰居, 社會化, 分開, 這張牙膏的對話讓AI可以一次又一次地產生內容。

在實際上, 同樣的要求。

拯救金錢的真正方式是放棄這個低效的社會實驗, 因為負面判斷往往比正面判決要花更多錢。

同時 如果你知道目標在哪 就跟AI談談 別讓AI去調查。

當你命令AI"查看與使用者相關的代碼"時,它必須做大規模的掃描,分析以及後台的猜測;當你告訴它"看這個src/services/user.ts的檔案"時,托肯的消耗量每天都不同,在數位世界中,信息均等是最大的储蓄。

不要付AI的禮貌

大模型法案有許多人沒意識到的分則:輸出Token通常比輸入Token貴3到5倍。

也就是說,AI說的比你說的要貴得多 以克勞德·索內特(Claude Sonet) 4.6為例。

「我理解你的需要, 我開始回答你的問題」、「希望以上能幫助你」這句話。

解決輸出廢棄物最有效的方法就是為AI制定規則. 用系統指令來清楚的告訴它: 不要冷靜,不要解釋,不要重复需要,只要回答。

這些規定只定一次, 許多人陷入了另一個錯誤:用長的自然語言堆裝指令。

工程師的實驗數據顯示,指令的有效性不是單字數,而是密度。 將500字系統縮寫為180字, 刪除無意義的禮貌語言, 將重复的指令和段落重新編譯成簡單的項目清單, AI的輸出質量幾乎不變。

亦有更主动的控制, 許多人從未設立輸出上限, 你可能只需要一個短句,但AI, 為了展示某种"智慧",給你出一部800字的作品。

如果你想要的是純正的數據,你應該強制AI回到有條理的格式而不是長長的自然語言描述. Token用JSON格式的消耗比分散文化要低得多。 由於有結構的資料移除所有冗余的連結字、字和解釋性修正, 在AI時代, 你應該明白值得付出的是結果的价值。

除了這個,AI的"過份思考"讓你的帳戶平衡不穩定。

有些先进的模型有"延伸思考"模型,在回答前有巨大的內在推理. 這項推理也很貴。

此模型主要為"需要深度邏輯的複雜工作"而設計. 但大多數人選擇了這個模式, 對不需要深入推理的任務,AI很清楚,它可以省下很多錢,要么說"不需要解釋,只要回答",要么手動關閉。

別讓AI翻舊賬單

大模特兒沒有真正的記憶 這只是瘋狂的舊書。

這是很多人不知道的自下而上的机制。 每當你在對話視窗發送新訊息時,AI不會從你的言語中開始理解,而是要重讀你之前所談到的一切,每輪對話,每一個密碼,每個參考文件,然後回答你。

在托肯的法案中,這"好和新"是不自由的. 重新讀取AI背后的帳號的費用會隨對話的翻轉而成倍增加。 此機構決定了對話的歷史越重。

第1條訊息平均為1萬四千托肯, 每條訊息價格約3. 6美分; 第50條則平均為79,000托肯, 每條訊息價格約 4.5美分, 此外,背景也越來越長,到了第五十條時期,AI需要處理的背景已經是第1條時的5.6倍。

解決這個問題最簡單的習慣是工作、對話框。

當一個題目完成後, 你將有決心地開始新的對話, 這種習慣聽起來很簡單 但很多人都做不到 他們就想 "如果我們用以前的方法" 事實上,你擔心的"如果"大多不會發生, 为此,你已經付了好幾倍於每個新聞。

當對話需要繼續, Claude Code的指令 可以將長話短說 縮寫成簡短的簡介 幫助你破譯。

保存邏輯就是即時失蹤 如果您多次使用相同的系統提示, 或是每次您提到相同的參考文件, AI會缓存信件的這個部分 。 下一通電話的通訊率非常低。

Anthropic的官方定价顯示, OpenAI 的 Express Caching 也將輸入成本降低50%左右。 2026年1月在arXiv發表的一篇論文試驗了多個AI平台的長期任務。

也就是說,同樣的事情,我第一次喂AI 是支付全部的價格, 之後的每通電話都是支付1/10。 此功能為每天重複同一套標準文件或系統提示的使用者儲存大量 Tokens 。

但即時Caching的前提是 你的系統警示和參考文件的內容和秩序必須一致 并放在對話的頂端 一旦內容有變化, 缓存就會失效, 所以,如果你有固定的工作代碼, 寫下來,不要改變它。

上下文管理的最后一种技巧是按要求加載。 很多人都喜歡把所有的規則,文件, 關注到系統的提示中。

但做這種事的代價是 你被迫裝上數以千計的規矩 白白地浪費了一堆托肯人 即使你做了一件簡單的事 Claude Code的官方文件顯示, CLUDE.md 被控制在200行以內, 不同情景的特殊規則被分解成不同的技能檔案, 上下文的绝对纯度是尊重最高的算术水平。

別帶保時捷去買吃的

不同的人工智能模型 價格差距很大。

Claude Opus 4.6美元/百万Token輸入,25美元/產品,3.5美元/Claude Haiku輸入,0.8美元/產品,4美元/產品,相差近6倍。 要求最優秀的模特兒來做資訊收集、布局格式的工作。

明智的用法是把我們人類社會常见的「阶级分工」帶給AI社會。

就像雇人到現實世界工作一樣 你不能雇一百萬歲的專家搬砖 AI也是 Claude Code的官方檔案也明确暗示了Sonnet處理大部分的編程工作。

更具体地说,实际做法是建立分两部分的工作流程。 第一個階段是使用自由或便宜的基本模型, 如數據收集、格式清理、第一代草稿、簡單的分類和集合。 在第二期中,精制的高纯度精度被注入到最頂端的模型中,用于核心决策和深度精度。

例如,如果你想分析一份100頁的業務報告,你可以用雙子座閃電從報告中提取關鍵的資料和結論,形成一份10頁的概要,然后可以寄給克勞德·奧普斯,以供深入分析和判斷. 這兩部分的工作流程可以提供大量成本壓縮。

比簡單的子處理更進一步的是, 一個複雜的工程任務完全可以脫離一些不同的子工作。

例如,要求編寫程式碼的任務可以讓便宜的模型先寫出框架和樣本代碼,然后只把核心邏輯交給昂贵的模型. 每一個子任務都有乾淨、專注的背景。

你不需要花,托肯

但許多人忽略了更低等的理論:這項行動需要花費嗎

最节省的不是算法的优化 而是决策的分离 我們習慣尋找 AL-AI 的答案,但我們忘了,在很多情況下, 這就像用一個大而貴的模型來對抗蚊子。

例如,讓AI自動處理信件, 它可以使用每封電子郵件作為獨立的任務來理解、排序、回應, 而Token消耗很多。 若你花30秒看收件箱, 手動筛选出顯然不需要AI處理的信件, 人類的判斷並非障礙。

電子報時代的人們知道再寄一個字要花多少錢,所以他們會照顧它,這是資源的本能. 愛爾蘭時代也是如此, 當你真正知道讓愛爾蘭說得更多要花多少錢。

這是最省費的能力。 最明智的方法不是讓AI取代人, 當對托肯的敏感度被內化成有条件的反射時, 你真的會從一個附庸變成一個算術師。

QQlink

暗号バックドアなし、妥協なし。ブロックチェーン技術に基づいた分散型ソーシャルおよび金融プラットフォームで、プライバシーと自由をユーザーの手に取り戻します。

© 2024 QQlink 研究開発チーム. 無断転載を禁じます。