本页收录 AI/ML 领域常用术语,包含英文发音、中文解释、数学定义。
💡 点击术语可发音(优先播放固定音频,无音频时降级为浏览器 TTS)
| 术语 | 发音 | 中文 | 定义 |
|---|
| sin | /saɪn/ | 正弦 | sinθ=斜边对边 |
| cos | /ˈkoʊ.saɪn/ | 余弦 | cosθ=斜边邻边 |
| tan | /ˈtæn.dʒənt/ | 正切 | tanθ=cosθsinθ=邻边对边 |
| arctan | /ɑːrkˈtændʒənt/ | 反正切 | arctan(x): 求角度 θ 使得 tanθ=x |
| 术语 | 发音 | 中文 | 定义 |
|---|
| derivative | /dɪˈrɪvətɪv/ | 导数 | f′(x)=limh→0hf(x+h)−f(x) |
| gradient | /ˈɡreɪdiənt/ | 梯度 | ∇f=[∂x1∂f,∂x2∂f,…] |
| partial derivative | /ˈpɑːrʃəl/ /dɪˈrɪvətɪv/ | 偏导数 | ∂x∂f: 对 x 求导,其他变量视为常数 |
| chain rule | /tʃeɪn/ /ruːl/ | 链式法则 | dxdy=dudy⋅dxdu |
| integral | /ˈɪntɪɡrəl/ | 积分 | ∫f(x)dx: 求曲线下面积 |
| 术语 | 发音 | 中文 | 定义 |
|---|
| vector | /ˈvektər/ | 向量 | 有大小和方向的量,如 v=[v1,v2,…] |
| matrix | /ˈmeɪtrɪks/ | 矩阵 | 二维数字数组,如 A∈Rm×n |
| tensor | /ˈtensər/ | 张量 | 多维数组,向量/矩阵的推广 |
| dot product | /dɑːt/ /ˈprɑːdəkt/ | 点积 | a⋅b=∑iaibi |
| transpose | /trænsˈpoʊz/ | 转置 | AT: 行变列、列变行 |
| eigenvalue | /ˈaɪɡənˌvæljuː/ | 特征值 | Av=λv 中的 λ |
| norm | /nɔːm/ | 范数 | 向量的”长度”,如 ∥v∥2=∑vi2 |
| 术语 | 发音 | 中文 | 定义 |
|---|
| probability | /ˌprɑːbəˈbɪləti/ | 概率 | 事件发生的可能性,P(A)∈[0,1] |
| expectation | /ˌekspekˈteɪʃn/ | 期望 | E[X]=∑ixiP(xi)(加权平均) |
| variance | /ˈveəriəns/ | 方差 | Var(X)=E[(X−μ)2](离散程度) |
| standard deviation | /ˈstændərd/ /ˌdiːviˈeɪʃən/ | 标准差 | σ=Var(X) |
| Gaussian / Normal | /ˈɡaʊsiən/ /ˈnɔːml/ | 高斯/正态分布 | N(μ,σ2): 钟形曲线 |
| Bayes’ theorem | /beɪz/ /ˈθɪərəm/ | 贝叶斯定理 | P(A∣B)=P(B)P(B∣A)P(A) |
| 术语 | 发音 | 中文 | 定义 |
|---|
| neuron | /ˈnjʊərɒn/ | 神经元 | 神经网络的基本单元:y=σ(∑wixi+b) |
| weight | /weɪt/ | 权重 | 参数 w,控制输入的重要性 |
| bias | /ˈbaɪəs/ | 偏置 | 参数 b,调整激活阈值 |
| layer | /ˈleɪər/ | 层 | 一组神经元的集合 |
| epoch | /ˈiːpɒk/ | 轮次 | 完整遍历一次训练数据 |
| batch | /bætʃ/ | 批次 | 一次训练使用的样本数量 |
| inference | /ˈɪnfərəns/ | 推理 | 使用训练好的模型进行预测 |
| 术语 | 发音 | 中文 | 定义 |
|---|
| loss function | /lɔːs/ /ˈfʌŋkʃən/ | 损失函数 | 衡量预测与真实值差距的函数 |
| gradient descent | /ˈɡreɪdiənt/ /dɪˈsent/ | 梯度下降 | 沿梯度反方向更新参数 |
| backpropagation | /bæk/-/ˌprɑːpəˈɡeɪʃən/ | 反向传播 | 用链式法则计算梯度的算法 |
| learning rate | /ˈlɜːrnɪŋ/ /reɪt/ | 学习率 | 参数更新的步长 η |
| overfitting | /ˈoʊvər/-/ˈfɪtɪŋ/ | 过拟合 | 模型在训练集上表现好,测试集上差 |
| underfitting | /ˈʌndər/-/ˈfɪtɪŋ/ | 欠拟合 | 模型太简单,无法捕捉数据规律 |
| regularization | /ˌreɡjələrəˈzeɪʃən/ | 正则化 | 防止过拟合的技术(L1/L2/Dropout) |
| 术语 | 发音 | 中文 | 公式 |
|---|
| ReLU | /ˈrektɪfaɪd/ /ˈlɪniər/ /ˈjuːnɪt/ | 修正线性单元 | max(0,x) |
| Sigmoid | /ˈsɪɡmɔɪd/ | S型函数 | 1+e−x1 |
| Tanh | /ˌhaɪpərˈbɑlɪk/ /ˈtændʒənt/ | 双曲正切 | ex+e−xex−e−x |
| Softmax | /sɒft/-/mæks/ | 软最大 | ∑jezjezi |
| GELU | /ˈɡaʊsiən/ /ˈɛrər/ /ˈlɪniər/ /ˈjuːnɪt/ | 高斯误差线性单元 | x⋅Φ(x) |
| SiLU / Swish | /ˈsɪɡmɔɪd/ /ˈlɪniər/ /ˈjuːnɪt/ / /swɪʃ/ | Sigmoid 线性单元 | x⋅σ(x) |
| 术语 | 发音 | 中文 | 特点 |
|---|
| SGD | /stoʊˈkæstɪk/ /ˈɡreɪdiənt/ /dɪˈsent/ | 随机梯度下降 | 基础优化器 |
| Momentum | /məˈmentəm/ | 动量 | 累积历史梯度加速收敛 |
| Adam | /ˈædəm/ | 自适应矩估计 | 结合 Momentum + RMSProp |
| AdamW | /ˈædəm/ /weɪt/ /dɪˈkeɪ/ | Adam + 权重衰减 | Transformer 标准配置 |
| 术语 | 发音 | 中文 | 定义 |
|---|
| Transformer | /trænsˈfɔːrmər/ | 变换器 | 基于注意力机制的架构 |
| Attention | /əˈtenʃn/ | 注意力 | 动态聚焦重要信息的机制 |
| Self-Attention | /self/ /əˈtenʃən/ | 自注意力 | 序列内部的注意力 |
| Multi-Head Attention | /ˈmʌlti/ /hed/ /əˈtenʃən/ | 多头注意力 | 多个并行的注意力头 |
| Query / Key / Value | /ˈkwɪri/ /kiː/ /ˈvæljuː/ | 查询/键/值 | Attention 的三个输入矩阵 |
| Embedding | /ɪmˈbedɪŋ/ | 嵌入 | 将离散符号映射到连续向量 |
| Positional Encoding | /pəˈzɪʃənəl/ /ɪnˈkoʊdɪŋ/ | 位置编码 | 为序列添加位置信息 |
| Token | /ˈtoʊkən/ | 词元 | 文本的最小单位(词/子词) |
| Tokenizer | /ˈtoʊkənaɪzər/ | 分词器 | 将文本切分为 Token |
| Encoder | /ɪnˈkoʊdər/ | 编码器 | 理解输入(如 BERT) |
| Decoder | /diːˈkoʊdər/ | 解码器 | 生成输出(如 GPT) |
| LLM | /lɑːrdʒ/ /ˈlæŋɡwɪdʒ/ /ˈmɑːdl/ | 大语言模型 | Large Language Model |
| Fine-tuning | /faɪn/ /ˈtuːnɪŋ/ | 微调 | 在预训练模型上继续训练 |
| LoRA | /loʊ/ /ræŋk/ /ˌædæpˈteɪʃən/ | 低秩适配 | 参数高效微调技术 |
| RAG | /rɪˈtriːvəl/ /ɔːɡˈmentɪd/ /ˌdʒenəˈreɪʃən/ | 检索增强生成 | Retrieval-Augmented Generation |
| Prompt | /prɑːmpt/ | 提示词 | 输入给模型的指令/上下文 |
| Context Window | /ˈkɑːntekst/ /ˈwɪndoʊ/ | 上下文窗口 | 模型能处理的最大 Token 数 |
| Temperature | /ˈtemprətʃər/ | 温度 | 控制生成随机性的参数 |
💡 点击读法可发音(优先播放固定音频,无音频时降级为浏览器 TTS)
📖 IPA 来源:Wiktionary(美音优先),遵循 CC BY-SA 3.0 许可
| 符号 | LaTeX | 读法 | 音标 (IPA) | 含义 |
|---|
| ∑ | \sum | sigma | /ˈsɪɡmə/ | 求和 |
| ∏ | \prod | pi | /paɪ/ | 连乘 |
| ∂ | \partial | partial | /ˈpɑrʃəl/ | 偏导数 |
| ∇ | \nabla | nabla / del | /ˈnæblə/ /dɛl/ | 梯度算子 |
| ∞ | \infty | infinity | /ɪnˈfɪnɪti/ | 无穷大 |
| ≈ | \approx | approximately | /əˈprɑk.sɪ.mət.li/ | 约等于 |
| ∝ | \propto | proportional to | /prəˈpɔr.ʃən.əl tuː/ | 正比于 |
| ∈ | \in | element of | /ˈɛləmənt ʌv/ | 属于 |
| ∀ | \forall | for all | /fɔr ɔl/ | 对所有 |
| ∃ | \exists | there exists | /ðɛr ɪɡˈzɪsts/ | 存在 |
| R | \mathbb{R} | real numbers | /ˈriːəl ˈnʌmbəz/ | 实数集 |
| E | \mathbb{E} | expectation | /ˌɛk.spɛkˈteɪ.ʃən/ | 期望 |
| ∥x∥ | \lVert x \rVert | norm | /nɔrm/ | x 的范数 |
| xT | x^T | transpose | /trænsˈpoʊz/ | x 的转置 |
| y^ | \hat{y} | y hat | /waɪ hæt/ | y 的估计值 |
| θ | \theta | theta | /ˈθeɪtə/ | 常用于表示参数 |
| α,β,γ | \alpha, \beta, \gamma | alpha, beta, gamma | /ˈæl.fə/ /ˈbeɪ.tə/ /ˈɡæm.ə/ | 希腊字母 |
| η | \eta | eta | /ˈeɪ.tə/ /ˈiː.tə/ | 常用于学习率 |
| λ | \lambda | lambda | /ˈlæm.də/ | 常用于正则化系数 |
| ϵ | \epsilon | epsilon | /ˈɛp.sɪ.lɑn/ | 极小正数 |