Skip to content

术语表 (Glossary)

本页收录 AI/ML 领域常用术语,包含英文发音中文解释数学定义
💡 点击术语可发音(优先播放固定音频,无音频时降级为浏览器 TTS)


术语发音中文定义
sin/saɪn/正弦sinθ=对边斜边\sin\theta = \frac{\text{对边}}{\text{斜边}}
cos/ˈkoʊ.saɪn/余弦cosθ=邻边斜边\cos\theta = \frac{\text{邻边}}{\text{斜边}}
tan/ˈtæn.dʒənt/正切tanθ=sinθcosθ=对边邻边\tan\theta = \frac{\sin\theta}{\cos\theta} = \frac{\text{对边}}{\text{邻边}}
arctan/ɑːrkˈtændʒənt/反正切arctan(x)\arctan(x): 求角度 θ\theta 使得 tanθ=x\tan\theta = x
术语发音中文定义
derivative/dɪˈrɪvətɪv/导数f(x)=limh0f(x+h)f(x)hf'(x) = \lim_{h \to 0} \frac{f(x+h) - f(x)}{h}
gradient/ˈɡreɪdiənt/梯度f=[fx1,fx2,]\nabla f = \left[\frac{\partial f}{\partial x_1}, \frac{\partial f}{\partial x_2}, \ldots\right]
partial derivative/ˈpɑːrʃəl/ /dɪˈrɪvətɪv/偏导数fx\frac{\partial f}{\partial x}: 对 xx 求导,其他变量视为常数
chain rule/tʃeɪn/ /ruːl/链式法则dydx=dydududx\frac{dy}{dx} = \frac{dy}{du} \cdot \frac{du}{dx}
integral/ˈɪntɪɡrəl/积分f(x)dx\int f(x) dx: 求曲线下面积
术语发音中文定义
vector/ˈvektər/向量有大小和方向的量,如 v=[v1,v2,]\mathbf{v} = [v_1, v_2, \ldots]
matrix/ˈmeɪtrɪks/矩阵二维数字数组,如 ARm×n\mathbf{A} \in \mathbb{R}^{m \times n}
tensor/ˈtensər/张量多维数组,向量/矩阵的推广
dot product/dɑːt/ /ˈprɑːdəkt/点积ab=iaibi\mathbf{a} \cdot \mathbf{b} = \sum_i a_i b_i
transpose/trænsˈpoʊz/转置ATA^T: 行变列、列变行
eigenvalue/ˈaɪɡənˌvæljuː/特征值Av=λvA\mathbf{v} = \lambda\mathbf{v} 中的 λ\lambda
norm/nɔːm/范数向量的”长度”,如 v2=vi2\|\mathbf{v}\|_2 = \sqrt{\sum v_i^2}
术语发音中文定义
probability/ˌprɑːbəˈbɪləti/概率事件发生的可能性,P(A)[0,1]P(A) \in [0, 1]
expectation/ˌekspekˈteɪʃn/期望E[X]=ixiP(xi)E[X] = \sum_i x_i P(x_i)(加权平均)
variance/ˈveəriəns/方差Var(X)=E[(Xμ)2]\text{Var}(X) = E[(X - \mu)^2](离散程度)
standard deviation/ˈstændərd/ /ˌdiːviˈeɪʃən/标准差σ=Var(X)\sigma = \sqrt{\text{Var}(X)}
Gaussian / Normal/ˈɡaʊsiən/ /ˈnɔːml/高斯/正态分布N(μ,σ2)\mathcal{N}(\mu, \sigma^2): 钟形曲线
Bayes’ theorem/beɪz/ /ˈθɪərəm/贝叶斯定理P(AB)=P(BA)P(A)P(B)P(A \mid B) = \frac{P(B \mid A) P(A)}{P(B)}

术语发音中文定义
neuron/ˈnjʊərɒn/神经元神经网络的基本单元:y=σ(wixi+b)y = \sigma(\sum w_i x_i + b)
weight/weɪt/权重参数 ww,控制输入的重要性
bias/ˈbaɪəs/偏置参数 bb,调整激活阈值
layer/ˈleɪər/一组神经元的集合
epoch/ˈiːpɒk/轮次完整遍历一次训练数据
batch/bætʃ/批次一次训练使用的样本数量
inference/ˈɪnfərəns/推理使用训练好的模型进行预测
术语发音中文定义
loss function/lɔːs/ /ˈfʌŋkʃən/损失函数衡量预测与真实值差距的函数
gradient descent/ˈɡreɪdiənt/ /dɪˈsent/梯度下降沿梯度反方向更新参数
backpropagation/bæk/-/ˌprɑːpəˈɡeɪʃən/反向传播用链式法则计算梯度的算法
learning rate/ˈlɜːrnɪŋ/ /reɪt/学习率参数更新的步长 η\eta
overfitting/ˈoʊvər/-/ˈfɪtɪŋ/过拟合模型在训练集上表现好,测试集上差
underfitting/ˈʌndər/-/ˈfɪtɪŋ/欠拟合模型太简单,无法捕捉数据规律
regularization/ˌreɡjələrəˈzeɪʃən/正则化防止过拟合的技术(L1/L2/Dropout)
术语发音中文公式
ReLU/ˈrektɪfaɪd/ /ˈlɪniər/ /ˈjuːnɪt/修正线性单元max(0,x)\max(0, x)
Sigmoid/ˈsɪɡmɔɪd/S型函数11+ex\frac{1}{1 + e^{-x}}
Tanh/ˌhaɪpərˈbɑlɪk/ /ˈtændʒənt/双曲正切exexex+ex\frac{e^x - e^{-x}}{e^x + e^{-x}}
Softmax/sɒft/-/mæks/软最大ezijezj\frac{e^{z_i}}{\sum_j e^{z_j}}
GELU/ˈɡaʊsiən/ /ˈɛrər/ /ˈlɪniər/ /ˈjuːnɪt/高斯误差线性单元xΦ(x)x \cdot \Phi(x)
SiLU / Swish/ˈsɪɡmɔɪd/ /ˈlɪniər/ /ˈjuːnɪt/ / /swɪʃ/Sigmoid 线性单元xσ(x)x \cdot \sigma(x)
术语发音中文特点
SGD/stoʊˈkæstɪk/ /ˈɡreɪdiənt/ /dɪˈsent/随机梯度下降基础优化器
Momentum/məˈmentəm/动量累积历史梯度加速收敛
Adam/ˈædəm/自适应矩估计结合 Momentum + RMSProp
AdamW/ˈædəm/ /weɪt/ /dɪˈkeɪ/Adam + 权重衰减Transformer 标准配置

术语发音中文定义
Transformer/trænsˈfɔːrmər/变换器基于注意力机制的架构
Attention/əˈtenʃn/注意力动态聚焦重要信息的机制
Self-Attention/self/ /əˈtenʃən/自注意力序列内部的注意力
Multi-Head Attention/ˈmʌlti/ /hed/ /əˈtenʃən/多头注意力多个并行的注意力头
Query / Key / Value/ˈkwɪri/ /kiː/ /ˈvæljuː/查询/键/值Attention 的三个输入矩阵
Embedding/ɪmˈbedɪŋ/嵌入将离散符号映射到连续向量
Positional Encoding/pəˈzɪʃənəl/ /ɪnˈkoʊdɪŋ/位置编码为序列添加位置信息
Token/ˈtoʊkən/词元文本的最小单位(词/子词)
Tokenizer/ˈtoʊkənaɪzər/分词器将文本切分为 Token
Encoder/ɪnˈkoʊdər/编码器理解输入(如 BERT)
Decoder/diːˈkoʊdər/解码器生成输出(如 GPT)
LLM/lɑːrdʒ/ /ˈlæŋɡwɪdʒ/ /ˈmɑːdl/大语言模型Large Language Model
Fine-tuning/faɪn/ /ˈtuːnɪŋ/微调在预训练模型上继续训练
LoRA/loʊ/ /ræŋk/ /ˌædæpˈteɪʃən/低秩适配参数高效微调技术
RAG/rɪˈtriːvəl/ /ɔːɡˈmentɪd/ /ˌdʒenəˈreɪʃən/检索增强生成Retrieval-Augmented Generation
Prompt/prɑːmpt/提示词输入给模型的指令/上下文
Context Window/ˈkɑːntekst/ /ˈwɪndoʊ/上下文窗口模型能处理的最大 Token 数
Temperature/ˈtemprətʃər/温度控制生成随机性的参数

💡 点击读法可发音(优先播放固定音频,无音频时降级为浏览器 TTS)
📖 IPA 来源Wiktionary(美音优先),遵循 CC BY-SA 3.0 许可

符号LaTeX读法音标 (IPA)含义
\sum\sumsigma/ˈsɪɡmə/求和
\prod\prodpi/paɪ/连乘
\partial\partialpartial/ˈpɑrʃəl/偏导数
\nabla\nablanabla / del/ˈnæblə/ /dɛl/梯度算子
\infty\inftyinfinity/ɪnˈfɪnɪti/无穷大
\approx\approxapproximately/əˈprɑk.sɪ.mət.li/约等于
\propto\proptoproportional to/prəˈpɔr.ʃən.əl tuː/正比于
\in\inelement of/ˈɛləmənt ʌv/属于
\forall\forallfor all/fɔr ɔl/对所有
\exists\existsthere exists/ðɛr ɪɡˈzɪsts/存在
R\mathbb{R}\mathbb{R}real numbers/ˈriːəl ˈnʌmbəz/实数集
E\mathbb{E}\mathbb{E}expectation/ˌɛk.spɛkˈteɪ.ʃən/期望
x\lVert x \rVert\lVert x \rVertnorm/nɔrm/x 的范数
xTx^Tx^Ttranspose/trænsˈpoʊz/x 的转置
y^\hat{y}\hat{y}y hat/waɪ hæt/y 的估计值
θ\theta\thetatheta/ˈθeɪtə/常用于表示参数
α,β,γ\alpha, \beta, \gamma\alpha, \beta, \gammaalpha, beta, gamma/ˈæl.fə/ /ˈbeɪ.tə/ /ˈɡæm.ə/希腊字母
η\eta\etaeta/ˈeɪ.tə/ /ˈiː.tə/常用于学习率
λ\lambda\lambdalambda/ˈlæm.də/常用于正则化系数
ϵ\epsilon\epsilonepsilon/ˈɛp.sɪ.lɑn/极小正数