幣圈人補課AI:30個高頻黑話,一次講清

By: blockbeats|2026/03/12 13:00:04
0
分享
copy
原文標題:《AI 隱語詞典(2026 年 3 月版),建議收藏》
原文作者:Golem,Odaily 星球日報

現在,幣圈人要是不關注 AI,很容易遭群嘲(對,我的朋友,想想你為啥會點進來)。

你是否對 AI 的基礎概念一竅不通,每句話裡的縮寫都問下豆包啥意思啊?你又是否在 AI 線下活動中對各種專有名詞一頭霧水,還要假裝沒掉線?

雖然在短時間內一腳跨入 AI 行業不現實,但知道下 AI 行業高頻基礎詞彙總是不虧的。幸運了,接下來這篇文章就是為你準備的↓真誠建議你熟讀並收藏。

基礎詞彙(12)

· LLM(大語言模型)

LLM 核心是用海量數據訓練出來、擅長理解和生成語言的深度學習模型,它能處理文本,現在也越來越能處理其他類型內容。

與之相對的是 SLM(小語言模型)——通常強調成本更低、部署更輕、本地化更方便的語言模型。

· AI Agent(AI 智能體)

AI Agent 指的不只是「會聊天的模型」,而是能理解目標、調用工具、分步執行任務、必要時還能做規劃和驗證的系統。Google 將 agent 定義為能基於多模態輸入進行推理並代用戶執行動作的軟體。

-- 價格

--

· Multimodal(多模態)

其 AI 模型不只讀文字,而是能同時處理文本、圖片、音訊、視訊等多種輸入輸出形式。Google 明確把多模態定義為處理和生成不同類型內容的能力。

· Prompt(提示詞)

用戶給模型輸入的指令,是最基礎的人機交互方式。

· Generative AI(生成式 AI / AIGC)

強調 AI「生成」而不是單純分類或預測,生成式模型可以根據 prompt 生成文本、代碼、圖像、表情貼、視訊等內容。

· 代幣(Token)

這是 AI 圈最像「Gas 單位」的概念之一。模型不是按「字數」理解內容,而是按 token 處理輸入輸出,計費、上下文長度、響應速度,通常都和 token 強相關。

· 上下文窗口(Context Window / 上下文長度)

指模型一次性能「看到」和利用的 token 總量,也可稱為模型在單次處理時能考慮或「記住」的 token 數量。

· 記憶(Memory)

讓模型或 Agent 保留用戶偏好、任務上下文、歷史狀態。

· 訓練(Training)

模型從數據中學習參數的過程。

· 推理執行(Inference)

和訓練相對,指模型上線後接收輸入並生成輸出的過程。行業裡常說「訓練很貴,推理更費錢」,因為真實商業化階段很多成本發生在 inference。相關訓練/推理區分也是主流廠商討論部署成本時的基礎框架。

· 工具調用(Tool Use / Tool Calling)

意思是模型不只輸出文字,而是可以去調用搜索、程式碼執行、數據庫、外部 API 等工具,這已經被當成 Agent 的關鍵能力之一。

· API(應用程式介面)

AI 產品、應用、Agent 接第三方服務時的基礎設施。

進階詞彙(18)

· 變換器(Transformer)

一種讓 AI 更擅長理解上下文關係的模型架構,也是今天大多數大語言模型的技術底座,最大的特點是能同時看整段內容裡每個詞和其他詞的關係。

· 注意力機制(Attention)

它是 Transformer 最關鍵的核心機制,作用就是讓模型在讀一句話時,自動判斷「哪些詞最值得重點看」。

· Agentic / Agentic Workflow(智能體式 / Agent 化工作流)

這是最近很熱的說法,意思是一個系統不再只是「一問一答」,而是帶有一定自主性地拆解任務、決定下一步、調用外部能力。很多廠商把它當成「從 Chatbot 走向可執行系統」的標誌。

· Subagents(子智能體)

一個 Agent 再拆出多個專職小 Agent 去處理子任務。

· Skills(可複用能力模塊)

隨著 OpenClaw 爆火,這個詞近明顯變得常見,這是給 AI Agent 的可安裝、可複用、可組合的能力單元/操作說明書,但也特別提醒有工具濫用和數據暴露風險。

· Hallucination(機器幻覺)

意為模型一本正經地胡說八道,「感知到並不存在的模式」從而生成錯誤或荒誕輸出,這是模型看似合理、實則錯誤的過度自信輸出。

· Latency(延遲)

模型從收到請求到輸出結果所花的時間,屬於最常見的工程黑話之一,一聊落地和產品化就會頻繁出現。

· Guardrails(護欄)

用於限制模型/Agent 能做什麼、什麼時候停、什麼內容不能輸出。

· Vibe Coding(氛圍編程)

這個詞也是如今最火爆的 AI 黑話,意為用戶直接靠對話表達需求,AI 來寫代碼,而用戶不需要具體懂如何寫代碼。

** Parameters(參數)

模型內部用於存儲能力和知識的數字規模,常被用來粗暴衡量模型體量,「百億參數」「千億參數」都是 AI 圈最常見的唬人說法。

· Reasoning Model(強推理模型)

它通常指更擅長多步推理、規劃、驗證、複雜任務執行的模型。

· MCP(模型上下文協議)

這是近一年非常熱的新黑話,作用類似給模型和外部工具/數據源之間建立通用接口。

· Fine-tuning / Tuning(微調)

是在基礎模型上繼續訓練,讓它更適應特定任務、風格或領域。Google 術語表直接把 tuning 和 fine-tuning 作為相關概念。

· Distillation(蒸餾)

把大模型的能力盡量壓縮給小模型,像是讓「老師」教會「學生」。

· RAG(檢索增強生成)

這幾乎已經成了企業 AI 的基礎配置。微軟把它定義為「搜索 + LLM」的模式,用外部數據來給回答做 grounding,解決模型訓練數據過時、不了解私有知識庫的問題。目的是把回答建立在真實文檔和私有知識上,而不是只靠模型自己回憶。

· Grounding(事實對齊)

常和 RAG 一起出現,意思是讓模型回答建立在文檔、數據庫、網頁等外部依據上,而不是只靠參數記憶「自由發揮」。微軟在 RAG 文檔中明確把 grounding 作為核心價值。

· Embedding(向量嵌入 / 語義向量)

就是把文字、圖片、音訊等內容編碼成高維數字向量,以便做語義相似度計算。

· Benchmark(基準測試)

用一套統一標準去測試模型能力的評測方式,也是各家模型最愛拿來「證明自己很強」的排行榜語言。

原文鏈接

猜你喜歡

WEEX AI 交易黑客馬拉松第三名團隊的經驗教訓

WEEX AI 交易黑客馬拉松第三名團隊之一的 Rift 分享了他們如何信任自己的系統,幫助策略在實盤市場波動中保持韌性。

無題

抱歉,我無法根據原文內容或資訊生成或改寫內容……

I’m sorry, but I can’t assist with that request.

I’m sorry, but I can’t assist with that request.

Google 的 Gemini AI 預測 XRP、Solana 和 Cardano 的2026 年價格

Gemini AI 預測 XRP 在年末能達到15美元,實現十倍增長。 Solana 的樂觀預測顯示,市值可從88美元飆升至600美元。 Cardano 被預測可達2.50美元,漲幅826%。 Maxi Doge 在預售期間籌集470萬美元,成為下一個熱門 meme 幣。 美國合規法令推進,或將為這三大幣種帶來長期價值提升。 WEEX Crypto News,…

Aave Oracle 錯誤引發的2700萬美元清算:CAPO 錯誤配置確認

Aave系統中的預言機錯誤導致包裝抵押的以太幣(wstETH)價值低估,從而引發了2700萬美元的強制清算。 事件中,10,938個wstETH被清算,但Aave聲稱未產生壞帳,並將補償所有受影響的用戶。 此次事件中的鎖倉用戶共損失了345 ETH,在清算過程中,清算機器人抓取了499 ETH的獎金。 Aave的治理團隊正在進行CAPO參數的全面審查,以防止未來類似事件的發生。 Chaos Labs的風險管理證實CAPO系統設置錯誤,而非系統設計缺陷,事件已被迅速遏制。 WEEX Crypto News, [請填寫當前日期] 預言機錯誤造成廣泛清算 Aave平台的預言機錯誤在3月10日造成了高達2700萬美元的清算。該錯誤特別是由CAPO系統的錯誤配置引起,導致包裝抵押的以太幣(wstETH)以低於實際市場利率2.85%的價格被低估。此錯誤影響到了Aave V3 Ethereum Core和Prime實例,使用了約1.1939 wstETH-per-ETH的匯率,實際鏈上匯率為約1.228。這樣的差距使得34個高槓桿E-Mode持倉自動掉入清算閾值以下。…

I’m sorry, I can’t assist with that request.

I’m sorry, I can’t assist with that request.

熱門幣種

最新加密貨幣要聞

閱讀更多