AI 詞典?進(jìn)階篇|讀懂這30個概念,你也是AI圈內(nèi)人
上篇文章(AI詞典|30條AI術(shù)語,全網(wǎng)最易懂版!)梳理了 AI 基礎(chǔ)術(shù)語,本文將聚焦30個易混概念,涵蓋多智能體系統(tǒng)、具身智能等前沿應(yīng)用,以及模型幻覺、過擬合等開發(fā)實(shí)踐問題,幫助大家理解概念本質(zhì),解決 “聽得懂但說不清” 的痛點(diǎn)。
1. 通用人工智能(AGI)
Artificial General Intelligence
定義:具備人類水平的綜合認(rèn)知能力,能在各類任務(wù)中自主學(xué)習(xí)和推理的人工智能,與僅擅長單一領(lǐng)域的 “弱人工智能”(Narrow AI)相對。
舉例:科幻作品中的鋼鐵俠,可理解復(fù)雜指令、自主決策并處理多領(lǐng)域任務(wù)(目前仍屬理論階段)。
2. 具身智能
Embodied Intelligence
定義:擁有物理實(shí)體并通過 “感知 - 決策 - 行動” 與真實(shí)環(huán)境互動的智能體。
舉例:波士頓動力機(jī)器人 Spot 通過攝像頭感知環(huán)境、機(jī)械腿執(zhí)行動作(如爬樓梯、開門),而 ChatGPT 僅為純軟件(無實(shí)體)。
3. 世界模型
World Model
定義:AI 通過模擬現(xiàn)實(shí)構(gòu)建的虛擬環(huán)境,用于 “無真實(shí)數(shù)據(jù)時生成訓(xùn)練數(shù)據(jù)”。
舉例:自動駕駛公司利用世界模型模擬暴雨、擁堵等極端場景,讓汽車 AI 在虛擬環(huán)境中練習(xí),避免真實(shí)道路測試風(fēng)險。
4. 多智能體系統(tǒng)
Multi-agent System
定義:多個獨(dú)立智能體協(xié)作完成復(fù)雜任務(wù)的系統(tǒng),類似 “AI 團(tuán)隊(duì)分工合作”。
舉例:智能交通系統(tǒng)中,路口傳感器(感知智能體)收集車流量→控制中心(決策智能體)計(jì)算信號燈時長→信號桿(執(zhí)行智能體)自動調(diào)整,全程無需人工干預(yù)。
5.人工智能偏見
Al Bias
定義:人工智能系統(tǒng)在決策過程中因數(shù)據(jù)、算法設(shè)計(jì)或訓(xùn)練方式等因素導(dǎo)致的系統(tǒng)性錯誤或歧視現(xiàn)象。
舉例:招聘算法若基于歷史性別歧視數(shù)據(jù)訓(xùn)練,可能優(yōu)先推薦男性候選人;在AI生成的圖片中,白人常被描繪為高位、財(cái)富滿溢的模樣,而其他有色人種則常被描繪為低薪勞工或被貼上“罪犯”的標(biāo)簽。
6. 模型泛化
Generalization
定義:模型對未見過的新數(shù)據(jù)的適應(yīng)能力,即 “從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)規(guī)律并推廣到真實(shí)場景” 的能力。
舉例:用 1-9 的手寫體訓(xùn)練模型,若能準(zhǔn)確識別從未見過的不同人書寫的 “3”(新數(shù)據(jù)風(fēng)格),說明泛化能力強(qiáng);若僅能識別訓(xùn)練集中特定筆跡的 “3”,則泛化能力弱。
7. 大模型幻覺
Hallucination of LLM
定義:模型生成 “看似合理但事實(shí)錯誤” 的內(nèi)容,類似 “AI 版不懂裝懂”。
舉例:詢問“企鵝會飛嗎”,可能得到“是的,它們進(jìn)化出短距離飛行能力以躲避北極熊的捕食。”不懂的人,看回答覺得十分合理,實(shí)際與現(xiàn)實(shí)不符。
8. 過擬合
Overfitting
定義:過擬合是指模型過于復(fù)雜,不僅學(xué)習(xí)了數(shù)據(jù)中的基本規(guī)律,還學(xué)習(xí)了訓(xùn)練數(shù)據(jù)中的噪聲和隨機(jī)波動。與之對應(yīng)的欠擬合則是指模型過于簡單,無法捕捉數(shù)據(jù)中的基本規(guī)律。
舉例:在訓(xùn)練模型識別 “貓” 的圖片時,若訓(xùn)練數(shù)據(jù)中所有貓的圖片均帶有 “藍(lán)色地毯” 背景(巧合),過擬合是指模型錯誤地將 “藍(lán)色地毯” 也視為貓的核心特征,生成 “有藍(lán)色地毯才是貓” 的規(guī)則,導(dǎo)致遇到 “木地板上的貓” 時無法正確識別。
9. 思維樹(ToT)
Tree of Thoughts
定義:將復(fù)雜問題拆解為樹狀分支,通過 “拓展子問題→評估分支→選擇路徑” 的決策框架。
舉例:AI 規(guī)劃旅行路線時,先拆分為 “目的地選擇→交通方式→住宿預(yù)訂” 主分支,再細(xì)分 “景點(diǎn)偏好→預(yù)算限制” 等子分支,最終生成最優(yōu)方案。
10. 模型上下文協(xié)議(MCP)
Model Context Protocol
定義:開放協(xié)議,通過提供一個統(tǒng)一的接口,使得AI模型能夠與各種工具和服務(wù)進(jìn)行有效的交互,從而簡化AI應(yīng)用的開發(fā)和維護(hù)過程。
舉例:沒有MCP時,智能體等應(yīng)用的開發(fā)就像“手工作坊”:每個工具需單獨(dú)寫接口(如天氣 API、數(shù)據(jù)庫函數(shù));有了MCP后,智能應(yīng)用的開發(fā)就像“工業(yè)流水線”,工具即插即用,開發(fā)者只需調(diào)用標(biāo)準(zhǔn)化模塊。
11. 推理與行動框架
ReAct,Reasoning and Action
定義:結(jié)合 “推理→行動→反饋→再推理” 的閉環(huán)架構(gòu),使 AI 動態(tài)調(diào)整策略。
舉例:智能客服處理退款時,先推理用戶是否符合條件(查訂單時間、商品狀態(tài)),符合則調(diào)用退款接口(行動),不符合則詢問補(bǔ)充信息(根據(jù)反饋調(diào)整)。
12. 生成對抗網(wǎng)絡(luò)
Generative Adversarial Network
定義:是一種由生成器和判別器兩個相互對抗的神經(jīng)網(wǎng)絡(luò)組成的模型。判別器評價是否通過,不通過時生成器重新生成直至判別通過。旨在通過對抗訓(xùn)練生成逼真的數(shù)據(jù)。
舉例:美顏相機(jī)智能生成合照功能:生成器將用戶的臉P到明星合影中,判別器檢查膚色過渡是否自然、發(fā)絲細(xì)節(jié)等,最終生成毫無違和感的 “合照”。
13. 視覺識別
Visual Recognition
定義:通過計(jì)算機(jī)視覺和機(jī)器學(xué)習(xí)算法,使計(jì)算機(jī)能夠識別和分類圖像或視頻中的對象、場景和動作。
舉例:北京地鐵通過視覺統(tǒng)計(jì)系統(tǒng),通過人頭密度分析動態(tài)調(diào)整扶梯方向,降低早高峰擁堵。
14. 目標(biāo)檢測
Object Detection
定義:計(jì)算機(jī)視覺任務(wù)之一,旨在識別圖像或視頻中的特定物體,并定位其在畫面中的位置(通常用邊界框標(biāo)注)。
舉例:安防系統(tǒng)通過目標(biāo)檢測識別監(jiān)控畫面中的可疑人物;自動駕駛汽車實(shí)時檢測道路上的行人、車輛和交通標(biāo)志。
15.高性能計(jì)算(HPC)
High Performance Computing
定義:通過超級計(jì)算機(jī)或計(jì)算集群,高效處理大規(guī)模、高復(fù)雜度計(jì)算任務(wù)的技術(shù),顯著提升數(shù)據(jù)處理速度。
舉例:預(yù)測全球變暖趨勢需處理海量氣象數(shù)據(jù),HPC 可縮短模擬時間;《流浪地球》使用 HPC 集群渲染行星發(fā)動機(jī)特效,較普通電腦節(jié)省 90% 以上時間。
16. 縮放定律
Scaling Law
定義:模型性能隨參數(shù)規(guī)模和數(shù)據(jù)量增長呈規(guī)律性提升的現(xiàn)象。
舉例:GPT-3 憑借 1750 億參數(shù)生成流暢文本,GPT-4 參數(shù)更多,支持圖文理解、代碼生成等多模態(tài)任務(wù)。
17. 注意力機(jī)制
Attention Mechanism
定義:讓模型在處理信息時 “選擇性聚焦關(guān)鍵內(nèi)容”,而非平均分配資源。
舉例:翻譯 “我喜歡蘋果和香蕉,但討厭榴蓮” 時,模型重點(diǎn)關(guān)注 “蘋果”“香蕉”“榴蓮”(實(shí)體詞),弱化 “和”“但”(虛詞)。
18. 卷積神經(jīng)網(wǎng)絡(luò)(CNN)
Convolutional Neural Network
定義:包含卷積計(jì)算的神經(jīng)網(wǎng)絡(luò),通過卷積層提取圖像中的邊緣、紋理等特征。
舉例:人臉識別系統(tǒng)中,CNN先檢測圖像中的邊緣→組合成眼睛、鼻子等局部特征→最終識別出完整人臉身份。
19. 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)
Recurrent Neural Network
定義:處理序列數(shù)據(jù)(如文本、語音)的神經(jīng)網(wǎng)絡(luò),能捕捉時序依賴關(guān)系。
舉例:預(yù)測用戶輸入的下一個詞:在 “我今天要去___” 中,RNN 根據(jù) “今天”“去” 推斷可能為 “上班”“逛街”。
20. 超參數(shù)
Hyperparameter
定義:超參數(shù)是在機(jī)器學(xué)習(xí)中設(shè)置的關(guān)鍵參數(shù),這些參數(shù)不是通過訓(xùn)練數(shù)據(jù)學(xué)習(xí)得到的,而是在模型訓(xùn)練之前設(shè)定的。它們直接影響模型的學(xué)習(xí)過程和性能。
舉例:想象你要烤一塊蛋糕,蛋糕的配方就像機(jī)器學(xué)習(xí)模型的算法,而配方里的各種原料和它們的比例(不同的面粉、糖的量、烤箱的溫度等)就像模型的超參數(shù)。
21. 語料庫
Corpus
定義:用于人工智能模型訓(xùn)練的大規(guī)模文本或語音數(shù)據(jù)集,作為知識、示例或模式的存儲庫,包含結(jié)構(gòu)化或非結(jié)構(gòu)化數(shù)據(jù)。
舉例:谷歌的 Common Crawl 包含數(shù)十億網(wǎng)頁文本,用于訓(xùn)練自然語言處理模型;語音識別系統(tǒng)的訓(xùn)練語料庫包含不同口音的語音片段。
22. 知識蒸餾
Knowledge Distillation
定義:將大模型的 “知識” 遷移至小模型,壓縮體積同時保留能力。
舉例:將 GPT-3 的知識蒸餾到手機(jī)端小模型,使其能回答簡單問題,且耗電少、響應(yīng)快。
23. 低秩適應(yīng)
LoRA
定義:LoRA是一種通過低秩分解來微調(diào)大模型的技術(shù)。它的核心思想是在不改變原始模型權(quán)重的情況下,僅通過引入少量可訓(xùn)練參數(shù),就能讓模型適配新的任務(wù)。
舉例:通過 LoRA 技術(shù),使用消費(fèi)級顯卡(例如 RTX 4090)就能對中文對話模型進(jìn)行微調(diào),而傳統(tǒng)微調(diào)方法則需要依賴專業(yè)服務(wù)器。
24. 零樣本學(xué)習(xí)
Zero-shot Learning
定義:模型未訓(xùn)練某類數(shù)據(jù)卻能完成任務(wù),依賴通用特征學(xué)習(xí)。
舉例:模型在訓(xùn)練時只見過貓、狗、馬的圖片,但能通過文字描述(如有長鼻子的大型動物)正確識別測試集中的大象。
25. 小樣本學(xué)習(xí)
Few-shot Learning
定義:模型僅通過極少量標(biāo)注樣本就能快速學(xué)習(xí)新任務(wù)或新類別的機(jī)器學(xué)習(xí)方法。
舉例:給模型看3張熊貓照片,即可識別其他熊貓圖片,傳統(tǒng)模型需數(shù)萬張訓(xùn)練圖。
26. 深度學(xué)習(xí)
Deep Learning
定義:一類受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)的機(jī)器學(xué)習(xí)技術(shù),通過多層人工神經(jīng)網(wǎng)絡(luò)自動提取數(shù)據(jù)特征,適用于處理復(fù)雜非線性問題。
舉例:AlphaGo 通過深度學(xué)習(xí)擊敗人類圍棋冠軍;圖像識別模型 ResNet 用于醫(yī)學(xué)影像分析,檢測腫瘤特征。
27. 梯度下降
Gradient Descent
定義:一種通過迭代優(yōu)化模型參數(shù)以最小化損失函數(shù)的優(yōu)化算法,廣泛應(yīng)用于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域。
舉例:在機(jī)器人控制中,機(jī)械臂需在復(fù)雜環(huán)境中規(guī)劃從起點(diǎn)到終點(diǎn)的路徑,同時避開障礙物。梯度下降可用于優(yōu)化機(jī)械臂關(guān)節(jié)角度,使末端執(zhí)行器沿 “能量最小化” 或 “距離最短” 路徑移動。
28. 函數(shù)調(diào)用
Function Calling
定義:大模型通過 API 調(diào)用外部工具的能力,解決 “需實(shí)時數(shù)據(jù)或操作” 的問題。
舉例:用戶詢問 “北京到上海明天的高鐵余票”,模型調(diào)用 12306 接口獲取數(shù)據(jù)后再回復(fù)。
29. 深度偽造
Deepfake
定義:用 AI 技術(shù)替換視頻中的人臉或聲音,達(dá)到以假亂真的效果。
舉例:將電影片段中的演員面部替換為其他人,或模擬明星聲音制作語音內(nèi)容。
30. 降維
Dimensionality Reduction
定義:通過算法減少數(shù)據(jù)特征數(shù)量,保留關(guān)鍵信息的同時降低復(fù)雜度,解決 “維度災(zāi)難”(特征過多導(dǎo)致模型性能下降)。
舉例:人臉數(shù)據(jù)集中,每張人臉圖片(如100×100像素=10000維)通過PCA降維到50維,仍能保留90%以上的關(guān)鍵特征,使后續(xù)識別任務(wù)更高效。