英文缩写 | 英文全称 | 中文翻译 | 功能阐明 |
LLM | Large Language Model | 大言语模型 | 基于海量文本训练的通用言语模型,可处理生成、翻译、问答等义务。 |
NLP | Natural Language Processing | 自然言语处理 | 使计算机了解、生成和操作人类言语的技术,如文本分类、情感分析。 |
CV | Computer Vision | 计算机视觉 | 处理图像和视频的AI技术,例如目的检测、图像分割。 |
GAN | Generative Adversarial Network | 生成对抗网络 | 经过生成器和判别器的对抗训练生成逼真数据(如图像、音频)。 |
RNN | Recurrent Neural Network | 循环神经网络 | 擅长处理序列数据(如文本、工夫序列)的神经网络架构。 |
GPT | Generative Pre-trained Transformer | 生成式预训练Transformer | 基于Transformer架构的预训练言语模型,如GPT-3/ChatGPT。 |
BERT | Bidirectional Encoder Representations from Transformers | 双向Transformer编码器 | 经过双向留意力机制了解上下文语义的预训练模型。 |
RLHF | Reinforcement Learning from Human Feedback | 基于人类反馈的强化学习 | 经过人工标注优化模型输入,提升对齐人类价值观的才能。 |
英文缩写 | 英文全称 | 中文翻译 | 功能阐明 |
ML | Machine Learning | 机器学习 | 经过数据自动学习和改进算法功能的技术。 |
DL | Deep Learning | 深度学习 | 基于多层神经网络的机器学习方法。 |
SGD | Stochastic Gradient Descent | 随机梯度下降 | 经过迭代优化损失函数的训练算法。 |
Backpropagation | N/A | 反向传播 | 计算神经网络参数梯度以更新权重的核心算法。 |
Fine-tuning | N/A | 微调 | 基于预训练模型,在特定义务上停止小规模训练以适配新义务。 |
LoRA | Low-Rank Adaptation | 低秩适配 | 经过低秩矩阵微调大模型参数的高效训练技术。 |
Token | N/A | 标记(或词元) | 将输入文本分割为最小处理单元(如单词、子词或字符)。 |
英文缩写 | 英文全称 | 中文翻译 | 功能阐明 |
API | Application Programming Interface | 运用程序接口 | 允许开发者在外部调用模型服务的接口。 |
TPU | Tensor Processing Unit | 张量处理单元 | 谷歌专为深度学习设计的加速芯片。 |
GPU | Graphics Processing Unit | 图形处理器 | 并行计算硬件,加速模型训练与推理。 |
COCO | Common Objects in Context | 通用物体图像数据集 | 包含20万张标注图像,支持目的检测和语义分割义务。 |
HuggingFace | N/A | - | 提供预训练模型和开源工具的开源社区与平台。 |
PyTorch | N/A | - | 基于Python的深度学习框架,支持动态图计算和疾速实验。 |
英文缩写 | 英文全称 | 中文翻译 | 功能阐明 |
BLEU | Bilingual Evaluation Understudy | 双语评价替代目的 | 衡量机器生成文本与参考文本的词汇婚配程度(常用于言语翻译)。 |
F1 Score | N/A | F1分数 | 分类义务中准确率(Precision)和召回率(Recall)的调和平均。 |
MSE | Mean Squared Error | 均方误差 | 回归义务中预测值与真实值差异的平方平均值。 |
AUC | Area Under the ROC Curve | ROC曲线下面积 | 衡量分类模型区分正负样天分力的目的。 |
Perplexity | N/A | 困惑度 | 评价言语模型预测才能,值越低表示模型越能准确预测文本。 |
英文缩写 | 英文全称 | 中文翻译 | 功能阐明 |
AGI | Artificial General Intelligence | 通用人工智能 | 具有与人类相当的多范畴认知才能的AI系统(目前未完成)。 |
欢迎光临 职贝云数AI新零售门户 (https://www.taojin168.com/cloud/) | Powered by Discuz! X3.5 |