必備的生成式 AI 核心詞彙表(A–Z)

無論你是學生、職場人士,還是單純對 AI 世界感到好奇,都可以在這裡找到清晰易懂的定義,以及貼近實際的應用例子,涵蓋多個相關概念。

這份詞彙表有甚麼用?

近來工作對話是否突然充滿「生成式人工智慧(Generative AI)」、「大型語言模型(Large Language Model,LLM)」、「提示(Prompting)」和「深度學習(Deep Learning)」等詞語,而且每個人理解都不太一樣?本入門詞彙表把常見用語講清楚、用法對齊,讓團隊能用同一套語言談 AI,並更有把握地落地使用。

我們整理了團隊日常最常用、最實用的一批 AI 詞語,重點不在「學術定義」,而在它們在實際工作流程中的意思:在同一地方協作、跨模型比較答案、共用提示範本、結合文件與網上來源,以及把知識有系統地整理和沉澱。

按主題瀏覽

AI 基礎詞彙

人工智能

人工智能

人工神經網絡(ANN)

人工神經網絡(ANN)

增強式智能

增強式智能

深度學習

深度學習

生成式 AI

生成式 AI

生成器(Generator)

生成器(Generator)

GPT

GPT

機器學習

機器學習

自然語言處理(NLP)

自然語言處理(NLP)

參數

參數

Transformer 架構

Transformer 架構

AI 訓練與學習

上下文視窗(Context Window)

上下文視窗(Context Window)

對話式 AI

對話式 AI

判別器(Discriminator)

判別器(Discriminator)

生成對抗網絡(GAN)

生成對抗網絡(GAN)

依據化(Grounding)

依據化(Grounding)

幻覺

幻覺

大型語言模型(LLM)

大型語言模型(LLM)

模型

模型

多代理编排

多代理编排

提示工程

提示工程

強化學習

強化學習

情緒分析(Sentiment Analysis)

情緒分析(Sentiment Analysis)

監督式學習(Supervised Learning)

監督式學習(Supervised Learning)

詞元(Token)

詞元(Token)

非監督式學習(Unsupervised Learning)

非監督式學習(Unsupervised Learning)

驗證(Validation)

驗證(Validation)

近側發展區間(ZPD)

近側發展區間(ZPD)

AI 道德責任與管治

擬人化(Anthropomorphism)

擬人化(Anthropomorphism)

負責任 AI 成熟度模型

負責任 AI 成熟度模型

可解釋 AI(XAI)

可解釋 AI(XAI)

人類審核介入(HITL)

人類審核介入(HITL)

機器學習偏見

機器學習偏見

提示防護

提示防護

紅隊測試(Red-teaming)

紅隊測試(Red-teaming)

AI 安全

AI 安全

有害內容(Toxicity)

有害內容(Toxicity)

透明度

透明度

零數據保存

零數據保存

只需一個訂閱,就能在同一平台使用最新最熱門的 AI 模型

同一個對話就能切換不同 LLM,整合各類提示詞和工作流程,讓團隊減少對多個分散 AI 工具的依賴,同時更好地控制及降低整體成本

擬人化(Anthropomorphism)

擬人化是指把 AI 當成「有思想的人」來理解,以為它有情緒、有意圖、會相信某些事,甚至「真的理解」你在說甚麼。因為現代 AI 文字很流暢,會道歉、會開玩笑、語氣又自信,容易令人誤以為背後有「一個懂你的人」。但 AI 並沒有情緒、目標或現實世界的認知;它只是根據輸入內容和訓練所學,生成最可能的文字輸出。這種「聽起來像懂、實際上只是生成」的落差,最容易造成過度信任、把語氣當成意圖,或以為它「知道」其實未必知道的事。

對員工而言: 把輸出當作初稿;核對事實、數字及涉及政策/合規的內容。風險高時,要求列出假設、依據或來源。

對管理層而言: 在培訓/導入時先訂好使用期望;避免介面文案暗示 AI「有情緒/有意圖」;對高影響內容加入覆核流程。

人工智能

人工智能(AI)是總稱,指讓機器做到一些「通常需要人腦」的工作,例如理解語言、辨識模式、從資料中學習和作出判斷。它既可以是傳統的規則系統,也可以是以大量資料訓練的機器學習模型。生成式 AI(Generative AI)是其中一類,重點在於產生新內容(文字、圖像、程式碼);其他 AI 則偏向預測、分類或最佳化。對職場而言,更實用的理解是:AI 是一層能力,用來加快思考與執行,例如做摘要、起草初稿、擷取重點、協助更快找到所需知識。

對員工而言: 更快完成初稿、摘要、研究/方案大綱,以及「下一步建議」,尤其當你提供足夠脈絡和清晰限制時。

對管理層而言: 最大回報通常來自可重複的流程+標準(範本、審核規則、「認可來源」),而非零散的一次性提示。

人工神經網絡(ANN)

人工神經網絡(ANN)是一種受大腦神經元連結方式啟發的模型。它由多層計算單元組成,透過訓練調整權重,學會把輸入(例如文字或特徵)轉換成輸出(例如分類或生成內容)。你可把它理解為「從大量例子中學模式」的引擎:它能學到詞語與含義、特徵與結果、結構與風格之間的關係。深度學習(Deep Learning)和多數生成式模型都以神經網絡為基礎,因為它能表達很複雜的模式。不過它並不會像人一樣「理解」;當脈絡不足或問題含糊時,仍可能生成看似合理但不準確的內容。

對員工而言: 很適合做摘要、改寫、擷取重點和分類;但當細節不清晰、或需要「零錯誤」且缺乏來源時,可靠性會下降。

對管理層而言: 可靠性主要來自系統設計,例如把回答「有根有據」地連結資料(grounding)、加入限制、建立評估與回饋迴路,而不只是模型種類。

增強式智能(Augmented Intelligence)

增強式智能是指運用 AI 來放大人的工作能力,而不是取代人。AI 負責機器擅長的事,例如快速處理大量資訊、產生初稿、找出模式、重整格式;人則負責人擅長的事,例如判斷、脈絡理解、倫理取捨、優先次序與責任承擔。在職場中,這種觀念很實用,因為它能避免「自動化陷阱」,把 AI 當成永遠正確。相反,AI 會成為高效率的協作夥伴,處理繁瑣且耗時的部分,例如把零散筆記整理成結構化文件、比較多個方案、總結冗長討論,或產生多個版本供審閱。最終目標不是「AI 代你決定」,而是「人用更好的輸入,更快作出決定」。

對員工而言: 先用 AI 迅速產出高質素初稿,再以專業判斷核對、修訂與定稿。

對管理層而言: 清楚界定 AI 可起草、以及必須由人批核的範圍(例如對外溝通、政策、資訊保安),並明確責任歸屬。

上下文視窗(Context Window)

上下文視窗是指 AI 模型在生成回覆時,能同時「留意」的資訊量。它通常包括你的提示、仍在範圍內的對話紀錄,有時亦包括模型先前的回覆。當輸入或對話內容超出這個範圍時,模型便難以可靠地顧及較早的內容,可能忘記先前限制、前後矛盾,或漏掉早前提及的重要細節。因此,長且雜亂的對話串很容易走題。在實際工作中,上下文視窗是一項關鍵的設計限制:即使模型能力很強,若在需要時看不到正確資訊,表現仍會明顯下降。

對話式 AI

對話式 AI 是為多輪對話而設計的系統:使用者可以追問、補充限制、糾正錯誤,並逐步把輸出打磨得更好。相對一次性問答,對話能在上下文限制內保持連貫性,因此很適合作為知識工作的介面,例如腦力激盪、起草、審閱與規劃。在職場中,對話式 AI 的價值在於讓員工可以用對話處理工作,例如就文件提問、把討論整理成行動項目,或逐步把交付物完善。不過,對話形式亦容易引發過度信任,例如「聽起來很有幫助,所以一定正確」,因此良好的使用者體驗設計與安全護欄很重要。

對員工而言: 最佳成果往往來自逐步迭代的提示,例如先要選項、再評論、調整語氣、補充限制,並要求以結構化格式輸出。

對管理層而言: 把常見對話工作流標準化(如會議紀要、SOP 初稿、研究簡報),並清楚定義可用數據與權限邊界。

深度學習

深度學習是機器學習的一個分支,使用多層的大型神經網絡,從數據中學習複雜模式。它推動了語言理解、影像辨識、語音處理及生成式 AI 的重大進步。由於能更好處理自然語言等非結構化輸入,現代助理與內容生成多以深度學習為核心。不過,深度學習系統仍可能脆弱,例如會錯誤概括、對提示措辭敏感,或在缺乏可靠依據時產生自信但錯誤的內容。

對員工而言: 用深度學習工具加速起草與綜合整理,但要核對事實性內容,並把輸出視為輔助,而非權威結論。

對管理層而言: 要預期輸出存在波動;投資在評估、護欄與監控,才能在真實使用中保持品質穩定。

判別器(Discriminator)

在生成對抗網絡(Generative Adversarial Network,GAN)中,判別器負責判斷一個樣本看起來是「真實」還是「生成」。訓練時,生成器產生合成輸出,判別器學會辨識偽造;生成器再嘗試騙過判別器而持續改進。這種對抗式回饋循環,令 GAN 在某些領域能產生高度逼真的結果。即使現代生成系統常用其他方法(如擴散模型或 Transformer),判別器概念仍有助理解生成與評審的循環,亦可套用到人審或自動質量檢查的流程設計。

對員工而言: 多屬背景知識,但能提醒一個有效做法:先出初稿,再批判、再改進。

對管理層而言: 若生成合成媒體或數據,需制定質量檢查、來源與可追溯規則,以及防濫用措施,而不只追求逼真。

負責任 AI 成熟度模型

這是一套用來評估組織如何隨時間管理負責任 AI 的框架。它不把倫理視為一次性清單,而是拆成一系列需要逐步成熟的能力,例如治理、文件化、私隱控制、偏差測試、人類審核、事件應對與持續監控。早期成熟度常見於基本規則與培訓;更高成熟度則加入量度、審計與清晰的問責。在職場 AI 場景中,成熟度很重要,因為員工會在不同脈絡使用 AI,而風險會隨數據敏感度與錯誤後果而改變。

對員工而言: 清晰政策能減少不確定性,例如甚麼可以分享、何時需要列出來源、何時應升級處理。

對管理層而言: 先建立護欄與教育,再逐步加入控制(權限、日誌政策、審核),並持續測試與改進。

可解釋 AI(XAI)

可解釋 AI(XAI)是指讓 AI 的輸出更容易被理解,協助人明白模型為何得出某個結果,以及哪些資訊影響了結論。在生成式 AI 場景中,更實用的做法通常包括:清楚的理由說明、列出假設、標示不確定性,以及提供可核對的來源連結或摘要片段。在職場使用中,XAI 能降低返工;員工能快速看懂理據與證據,就能更快批核、修改或否決輸出。

對員工而言: 要求理由與假設,並優先採用可引用或可指向來源材料、便於快速核對的輸出。

對管理層而言: 把解釋與有根據的引用配合使用,可提升信任、治理與除錯效率。

生成對抗網絡(GAN)

GAN 是一種生成式模型,由兩個神經網絡以對抗方式共同訓練:一個負責生成合成內容,另一個負責判斷內容是真實還是偽造。透過這個「對抗」循環,生成端會逐步學會產出更逼真的樣本。GAN 曾是生成影像與合成數據的重要突破;今天仍是多種生成方法之一(實務上會按問題選擇不同路徑)。

對員工而言: 有助理解某些合成媒體/數據如何產生,也提醒「看起來逼真」不等於「一定真實」。

對管理層而言: 若使用合成內容,需有質檢、來源追溯與防濫用機制,而不只追求視覺效果。

生成式 AI

生成式 AI 是 AI 的一個分支,重點在於根據訓練數據學到的模式,產生新內容,例如文字、圖像、聲音或程式碼。它不只是分類或預測,亦能起草、改寫、摘要、腦力激盪,並把資訊轉換成更有用的格式。在職場中,最大影響是加速知識工作:把雜亂輸入(筆記、文件、討論串)整理成結構化輸出(簡報、計劃、FAQ、文案草稿)。但代價是輸出可能「看似合理但不正確」,因此需要可靠性做法。

對員工而言: 先用它快速做出高質素初稿,再核對事實、調整語氣,最後用你的判斷定稿。

對管理層而言: 把它視為生產力層:優先標準化高回報流程(摘要、起草、分析),並為高風險內容設立清晰審核規則。

生成器(Generator)

在 GAN 中,生成器負責把雜訊或起始輸入轉換成合成輸出(例如影像)。它透過反覆迭代學習:當判別器成功辨識偽造時,生成器就更新,令輸出更難被分辨。即使你不會親自建立 GAN,「生成器」仍是職場 AI 的好比喻:創作要變好,需要強而有力的回饋,不論是自動檢查、風格限制或人類審閱。

對員工而言: 用「初稿 > 回饋 > 改良後初稿」的方式工作;批判與修訂比直接接受第一版更有效。

對管理層而言: 建立回饋迴路(範本、評分準則、批核流程),讓生成品質隨時間提升,而非長期不一致。

GPT

GPT 是「Generative Pre-trained Transformer」的縮寫,指一類以 Transformer 架構為基礎的語言模型:先以大量文字進行「預訓練」,再用於生成或轉換語言,例如寫作、摘要、回答問題等。GPT 類模型多為通用型強者,因為預訓練學到廣泛語言模式,而後續的調整/指令化能令它更貼近實際任務。

對員工而言: 特別適合寫作與重整內容(起草、改寫、摘要),但要提供清晰限制與範例,效果才穩定。

對管理層而言: 選模型要看能力與營運匹配(成本、延遲、私隱要求,以及在你的護欄下表現是否穩定)。

依據化(Grounding)

Grounding 是指把 AI 的輸出「錨定」在可信資料之上,例如內部文件、已認可的知識庫、資料庫或可核實的參考來源,避免模型被迫「猜」。在職場中,Grounding 能把通用助理變成可靠的工作助理:在需要時引用正確材料。良好的 Grounding 往往包括:檢索相關片段、把模型回答限制在這些來源內,並讓人容易核對它依賴了甚麼。

對員工而言: 若準確性重要,請附上來源文件(或關鍵節錄),並要求 AI 只根據提供內容作答。

對管理層而言: Grounding 是高槓桿的可靠性升級之一;配合權限與認可來源,能有效減少幻覺與返工。

幻覺

幻覺是指 AI 生成的內容聽起來很自信、很通順,但其實不正確、憑空捏造,或不受提供脈絡支持。它可能表現為虛構事實、錯誤引用、捏造功能,或過度肯定的結論。幻覺之所以出現,是因為模型在優化「看起來像合理的續寫」,而不是追求真實。務實做法是把幻覺視為可預期的失效模式,並透過流程設計避免造成影響。

對員工而言: 不要把 AI 輸出默認當事實;要核對、要來源,凡是會被重用或對外分享的內容都要做合理性檢查。

對管理層而言: 以 Grounding、結構化提示與審核關卡降低幻覺;同時監控重複出現的失誤模式,系統性修正。

人類審核介入(HITL)

HITL 指在工作流程中,由人審閱、批核或更正 AI 輸出;可作為固定步驟,或在觸發特定風險條件時才介入。做法可以很輕量,例如發出前快速覆核;亦可以更有制度,例如批核流程、抽樣稽核、升級處理規則。當輸出會影響對外溝通、政策、財務決策或敏感資料時,HITL 尤其重要。目標不是拖慢團隊,而是兼顧效率與品質。

對員工而言: AI 可加速起草,但你是品質責任人;在交付前需檢查準確性、語氣與完整性。

對管理層而言: 按風險程度設計「人工監督關卡」,例如低風險的內部筆記與高風險的對外訊息採用不同審核要求,令治理一致且可擴展。

大型語言模型(LLM)

LLM 是以海量文字資料訓練的模型,能掌握語言模式,從而生成與改寫內容。LLM 可用於摘要、解釋、起草、翻譯,以及協助推理分析等,表現往往很出色。不過它仍受限於輸入內容與上下文視窗,若缺乏可靠資料依據或核實機制,輸出仍可能出錯。在職場使用上,LLM 是核心引擎;結果好壞很大程度取決於你提供的脈絡、設定的限制,以及後續的檢查方式。

機器學習

機器學習是 AI 的一個分支,系統透過數據學習模式,從而在無需為每種情況手寫規則的前提下,作出預測、決策或分類。在職場中,機器學習常見於自動整理資訊、偵測趨勢、推薦下一步行動,或從雜亂輸入中擷取結構。它亦是許多生成式 AI 能力的基礎,因為模型依賴所學模式來產生有用輸出。

對員工而言: 可把重複性的「思考型任務」自動化,例如標籤分類、主題整理、重點欄位擷取,讓你把時間投放在判斷、溝通與行動上。

對管理層而言: 重點放在流程成效(節省時間、品質、穩定一致),以及數據紀律(使用哪些數據、誰可存取、如何治理與合規)。

機器學習偏見

機器學習偏見是指模型輸出出現系統性偏差,常由偏斜訓練數據、不完整抽樣、歷史不平等,或模型建置與評估方式所致。偏見未必很戲劇化,更多時候以「細微但持續」的形式出現,例如準確度不均、建議不公平,或輸出反映刻板印象。在職場 AI 中,當 AI 影響與人相關的判斷、優先次序或高影響建議時,偏見風險會顯著提高。

對員工而言: 涉及敏感議題時要更審慎;若 AI 在排序、推薦或總結與人相關內容,需檢查是否存在不公平表述、忽略關鍵觀點或脈絡。

對管理層而言: 評估時要加入偏見檢查,不應只看平均準確度;同時定義可接受標準,並建立發現問題時的升級處理路徑。

模型

模型是經訓練後的系統,接收輸入(例如提示或文件),並產生輸出(例如摘要、草稿或分類)。不同模型有不同強項,有些擅長寫作、有些擅長推理、有些擅長寫程式、有些擅長多語言,亦有些更精簡一致。在職場產品中,模型選擇會影響整體表現,包括輸出品質、速度、成本、安全行為,以及遵從指令的穩定性。

多代理编排(Multi-agent Orchestration)

多重 AI 代理編排是指協調多個 AI 智能代理(AI Agents),讓它們各自負責不同角色,例如規劃、研究、起草、審閱或執行,以完成較大的任務。與其由單一模型一次過做完所有事,系統會把工作拆成步驟,交由更專責的代理處理,並可在步驟之間加入檢查。在職場中,這有助提升複雜任務的可靠性,但亦會增加運作複雜度,例如更多組件、更多失效點,以及更高的治理需求。

對員工而言: 較容易取得更有結構的成果,例如計劃、清單、多步交付物;但仍需覆核關鍵步驟與假設。

對管理層而言: 需更仔細定義權限與邊界;多代理可能會接觸更多工具與數據,因此監控、可稽核性與安全預設值尤其重要。

自然語言處理(NLP)

NLP 是專注於理解、分析及生成自然語言的 AI 領域。它令軟件能摘要文件、擷取實體資訊、翻譯、判斷情緒傾向,或以對話方式回應。在職場 AI 中,NLP 把大量文字型工作(電郵、文件、會議筆記、政策)轉化成可搜尋、可結構化、可快速重整與再利用的內容。

對員工而言: 可把冗長且雜亂的文字轉成清晰輸出,例如摘要、行動項目、簡報要點與 FAQ,減少由零開始的成本。

對管理層而言: 由於企業知識多以文字存在,NLP 可帶來全組織層面的槓桿;建議投資在「認可來源」與一致範本,令輸出更可靠。

參數

參數是模型在訓練過程中學到的內部數值,用來儲存所學的模式,可理解為模型的「能力設定」,但並非人類意義的記憶。很多人會用參數量作為衡量模型容量的簡化指標,但實際表現仍受多項因素影響,例如訓練數據品質、訓練方法、對齊方式,以及實際使用方式(脈絡提供、依據資料、評估方法)。

提示防護(Prompt Defense)

提示防護是用來保護 AI 系統的一組方法,避免模型被惡意或非預期指令影響,例如提示注入(prompt injection)、越獄(jailbreak)、資料外洩,或誘使系統忽略規則。當 AI 能存取內部文件、呼叫工具或執行動作時,提示防護尤其重要。在職場 AI 中,重點通常不是追求零風險,而是透過分層控制降低風險,例如輸入處理、權限管理、工具限制與輸出檢查。

對員工而言: 對不可信內容要小心處理,例如外部文件、隨機貼上的文字;同時避免為任務提供超出需要的存取權限。

對管理層而言: 落實最小權限原則;清楚分隔系統指令與使用者內容;並監控異常行為,特別是涉及工具呼叫的工作流。

提示工程(Prompt Engineering)

提示工程是撰寫提示(指令加脈絡)的做法,目標是穩定產出你想要的結果。常見做法包括設定角色、列明限制、提供範例、定義輸出格式,以及說明在資訊不足時應如何處理。在真實工作中,提示工程重點不在技巧花招,而在清晰與可重複使用;把最佳做法沉澱成範本,令團隊任何人都能取得較一致的成果。

對員工而言: 清晰提示可節省時間;建議寫明目標、受眾、語氣、格式,以及必須包含與必須避免的要點。

對管理層而言: 把提示視為產品資產;進行版本管理與測試,為核心流程建立標準範本,並量度輸出品質。

紅隊測試(Red-teaming)

紅隊測試是有系統的對抗式測試,目的在於在真實用戶遇到問題前,刻意嘗試「攻破」AI 系統、觸發不安全輸出或找出弱點。內容包括針對幻覺、違規輸出、資料外洩、有害內容,以及一般測試容易忽略的邊界情況進行探測。在職場 AI 中,紅隊測試是最快看清系統在真實且混雜輸入下會如何反應的方法之一。

強化學習(Reinforcement Learning)

強化學習是一種訓練方法,系統透過不斷嘗試並根據獎勵與懲罰來調整行為,逐步學到更好的策略。在語言系統中,相關方法常用來塑造「更有幫助、較遵從指令、較符合偏好」的表現。實務重點是行為可以被優化,但系統會朝你設定的獎勵方向前進,因此獎勵設計與評估非常關鍵。

對員工而言: 若 AI 表現得過分自信或過分保守,這可能與訓練取向有關;可要求列出假設、提供替代方案,或加入核實步驟。

對管理層而言: 優先選擇針對真實工作流調校的系統,重視有幫助、安全與一致性;每次更新後也要評估行為變化,避免品質倒退。

AI 安全

AI 安全是指在設計、測試與營運 AI 系統時,主動降低造成傷害的風險。在職場中,「傷害」常見於把錯誤資訊當成事實轉發、敏感資料被曝露、偏見輸出影響決策,或 AI 做了不應做的動作。安全不是單一功能,而是一組分層做法,包括清晰使用政策、存取控制、安全護欄、監控,以及隨使用情況持續改進。

對員工而言: 把 AI 視為強大但有界限的工具;核對關鍵資訊,未確認允許前避免貼上機密內容;遇到可疑或錯誤輸出要上報。

對管理層而言: 把安全落到營運層面,定義允許與禁止的用例,落實最小權限存取,並建立監控與事件應對機制,以處理漏網風險。

情緒分析

情緒分析是使用 AI 來判斷文字中的情緒或立場,常見分類為正面、負面或中性,有時亦會細分為更具體的感受。在職場中,它有助快速整理大量回饋、找出不滿點,或把需要關注的訊息優先處理。重點是情緒判斷屬於機率推測;反諷、複雜情緒,以及文化與語言差異都會降低準確度。

對員工而言: 把情緒分析當作提示訊號,而不是定論;下結論前先閱讀具代表性的例子作核對。

對管理層而言: 先用自家內容驗證準確度,特別是粵語與繁體中文的語氣差異;追蹤誤判,避免情緒分數帶來錯誤決策。

監督式學習(Supervised Learning)

監督式學習是用已標註的例子訓練模型,亦即輸入配對正確輸出,令模型學會在新輸入上預測相同類型的答案。它常用於分類(標籤)、抽取(從文字取出欄位)及預測任務。在職場 AI 中,監督式學習常用於較結構化的自動化,例如分派請求、識別主題、抽取關鍵資料,因為成功標準可以清楚定義。

對員工而言: 對於定義清晰的任務(如標籤、抽取),通常會比開放式創作任務更一致、更穩定。

對管理層而言: 標註品質是關鍵;投資在清晰定義、覆核流程與具代表性的訓練資料,避免模型脆弱及偏差。

詞元(Token)

詞元是許多語言模型處理文字時使用的基本單位,通常是一段文字片段,而不一定是一整個詞。模型會把輸入拆成詞元來運算;詞元數量會影響提示的有效長度、上下文視窗可容納的內容,也常影響生成成本與延遲。理解詞元有助解釋為何過長提示會變得昂貴、變慢,或在超出上下文視窗時令模型漏掉較早的重要內容。

有害內容(Toxicity)

有害內容是指包含騷擾、仇恨言論、威脅或辱罵等輸出。在職場 AI 中,有害內容風險可能以意想不到的方式出現,例如使用者輸入本身含冒犯內容,AI 可能模仿語氣,或生成不恰當示例。有害內容控制不只關乎內容審核,也關乎保護員工、客戶與品牌信任,同時維持工具的實用性與彈性。

對員工而言: 如遇到有害輸出,不要轉發或再利用;請連同上下文上報,以便修正與預防。

對管理層而言: 採用分層控制,例如過濾、政策、紅隊測試與監控;同時定義不可接受範圍,並建立清晰升級通報路徑。

透明度

透明度是指清楚說明 AI 如何被使用、能做甚麼與不能做甚麼,以及數據如何被處理。對生成式 AI 亦包括說明限制,例如輸出可能出錯,除非提供來源資料否則未必有可引用依據,結果亦受提示與脈絡影響。在職場中,透明度能幫助員工正確校準信任,從而減少誤用與返工。

對員工而言: 了解限制,把 AI 當作加速器而非權威;需要時要求列出假設、理由或來源。

對管理層而言: 發布簡明使用指引,在合適情況披露 AI 參與,並文件化數據處理方式(保存期限、權限、日誌),令團隊可安心使用。

Transformer 架構

Transformer 是一種以注意力機制(attention)為核心的神經網絡架構,令模型能把焦點放在輸入中最相關的部分。Transformer 在語言處理上效率高、可擴展性強,因此成為許多現代大型語言模型(LLM)與生成系統的基礎。在職場語境中,「基於 Transformer」通常意味著在摘要、改寫與指令遵從方面能力較強,但仍對脈絡品質與提示清晰度十分敏感。

對員工而言: 可取得高品質起草與摘要,但仍要提供合適脈絡,並核對關鍵細節。

對管理層而言: 架構可解釋能力傾向,但不代表可靠性;仍需配合依據資料、評估與安全護欄,才能穩定輸出品質。

非監督式學習(Unsupervised Learning)

非監督式學習是在沒有標準答案或標註的資料中找出模式。常見結果包括分群(把相似項目分在一起)、異常偵測,以及學習更精簡的表示方式。在職場 AI 中,非監督方法可協助從雜亂資訊中找出結構,例如按主題把文件分組、找出異常事件,或把內容映射成有助搜尋與檢索的空間。

對員工而言: 適合用於探索與發現,例如找相關材料、找重複主題,或找出與某內容相近的項目。

對管理層而言: 非監督結果需要解讀;宜作探索工具使用,重大決策前要先驗證。

驗證(Validation)

驗證是指用模型未見過的例子,測試模型或 AI 工作流程,估算它在真實使用中的表現。對生成式 AI 而言,驗證常包含情境測試,例如準確度、格式遵從、拒答行為、語氣一致性,以及對雜亂輸入的穩健性。目標不是追求完美,而是清楚知道系統在甚麼情況表現良好、甚麼情況會出錯,以及需要哪些保障措施。

零數據保存(Zero Data Retention)

零數據保存是一種私隱策略,按政策與系統設計,提示與輸出不作長期保存,或不保存。目標是在服務仍可運作的前提下,降低敏感職場內容的曝露風險。實務上,「零保存」必須具體理解,例如哪些資料會被記錄、保存多久、由誰存取。

對員工而言: 若政策與實作一致,處理敏感內容會更有信心;同時仍需遵守內部可分享範圍。

對管理層而言: 要釐清細節,例如營運日誌、除錯記錄、權限控制與例外情況;並把定義文件化,讓團隊明白「零保存」的實際含義。

近側發展區間(ZPD)

近側發展區間是教育心理學概念,指人在獨立完成稍為不足、但在支援下可達成的任務上學得最好。在 AI 訓練與評估中,ZPD 思維可理解為由易到難循序提升,使能力與可靠性一步步增長。在職場 AI 上,最實用的應用是導入與賦能策略,先從低風險任務開始,建立信心與最佳做法,再在護欄與評估成熟後擴展到更複雜的工作流。

對員工而言: 先從較簡單任務開始,例如摘要、起草、排版整理;熟練提示與核實後,再把 AI 用於更複雜的判斷與決策支援。

對管理層而言: 分階段推行 AI,按低風險到高價值再到高風險逐步擴展,同步提升培訓、範本與評估能力。

市面上不少工具只提供回覆。Teech 針對團隊協作而設,讓團隊工作流程更順暢