人工智能 常见术语和概念
· 阅读需 7 分钟
术语 | 解释 |
---|---|
AI(人工智能) | 指模拟人类智能的技术,使机器能够执行需要人类智能的任务,如学习、推理、自我修正等。 |
ML(机器学习) | AI 的一个分支,指让机器通过数据学习并做出预测或决策的方法,而无需明确编程。 |
DL(深度学习) | 机器学习的一个子集,使用被称为神经网络的算法,尤其是深层神经网络,从大量数据中学习。 |
NLP(自然语言处理) | 使计算机能够理解、解释和生成人类语言的 AI 分支。 |
CV(计算机视觉) | 使计算机能够从图像或多维数据中理解和解释视觉信息的科学。 |
ANN(人工神经网络) | 由相互连接的节点或神经元组成的计算系统,模拟人脑解决问题。 |
CNN(卷积神经网络) | 一种深度学习算法,特别适用于处理具有网格结构的数据,如图像。 |
RNN(循环神经网络) | 一种处理序列数据的神经网络,能够利用其内部状态(记忆)处理输入序列。 |
GAN(生成对抗网络) | 由两个神经网络组成,通过相互对抗来提高生成的数据质量。 |
RL(强化学习) | 一种让机器通过试错来学习特定任务的最佳策略的算法。 |
BERT(双向编码器表示从 Transformer) | 一个预训练 NLP 模型,用于理解自然语言文本。 |
GPT(生成预训练 Transformer) | 一个自然语言处理模型,专注于生成文本。 |
Transformer | 一种深度学习模型,广泛用于处理序列数据,尤其是在 NLP 领域。 |
RAG(检索增强生成) | 结合了检索和生成的技术,用于提升自然语言生成的准确性和相关性。 |
Zero-shot learning | 学习模型如何在没有见过任何训练数据的情况下解决任务的能力。 |
Few-shot learning | 指让模型仅使用极少量的训练样本来学习任务的能力。 |
术语 | 解释 |
---|---|
LSTM(长短期记忆) | 一种特殊的 RNN,能够学习长期依赖信息,常用于序列数据的处理。 |
GRU(门控循环单元) | LSTM 的一种变体,用于序列数据的建模,但结构更简单。 |
Autoencoder | 一种无监督的神经网络,用于数据编码的有效表示。 |
Reinforcement Learning | 一种机器学习方法,通过奖励和惩罚机制来训练模型。 |
Supervised Learning | 一种机器学习任务,模型从标注数据中学习。 |
Unsupervised Learning | 一种机器学习任务,模型从未标注数据中学习。 |
Semi-supervised Learning | 介于监督学习和无监督学习之间,模型从部分标注的数据中学习。 |
Transfer Learning | 将从一个任务学到的知识应用到另一个相关任务的方法。 |
Federated Learning | 一种机器学习设置,模型在多个边缘设备上分布式训练,不共享数据。 |
Attention Mechanism | 使模型能够在处理信息时,关注到更重要部分的技术。 |
Transformer | 一种基于自注意力机制的模型架构,广泛用于处理序列数据。 |
Sequence-to-Sequence | 一种模型架构,用于将一个序列转换为另一个序列,如机器翻译。 |
Word Embedding | 将单词或短语从词汇表映射到向量的一种技术。 |
Entity Recognition | 从文本中识别具有特定意义的实体(如人名、地点等)。 |
Sentiment Analysis | 确定文本的情感倾向,如正面、负面或中性。 |
Chatbots | 设计用于模拟人与人之间对话的 AI 系统。 |
Generative Models | 能够生成新数据实例的模型,如 GAN。 |
Bias and Variance | 机器学习模型的两种主要误差来源,偏差与方差。 |
Hyperparameter Tuning | 选择一组最优的超参数,以提高模型的性能。 |
Cross-validation | 一种评估模型性能的技术,通过在不同的数据子集上训练和测试模型。 |
Natural Language Understanding (NLU) | 让计算机理解、解释和生成人类语言的过程。 |
Natural Language Generation (NLG) | 自动生成人类语言文本的过程。 |
Object Detection | 在图像中识别对象的位置及类别的技术。 |
Image Segmentation | 将图像分割成多个部分或对象的过程。 |
Edge Computing | 数据在产生源头附近处理,而不是在中心或云中处理。 |
术语 | 解释 |
---|---|
Multi-task Learning | 一种学习策略,旨在同时解决多个相关任务,共享表示以提高效率和性能。 |
Anomaly Detection | 识别数据集中的异常或不寻常模式的过程。 |
Dimensionality Reduction | 减少数据集中变量数量的过程,用于提高算法效率并改善性能。 |
Feature Engineering | 创建新的输入特征或修改现有特征以提高机器学习模型性能的过程。 |
Ensemble Learning | 结合多个模型来改善预测性能的技术,如随机森林和梯度提升。 |
Overfitting | 一个模型在训练数据上学得太好,以至于泛化到新数据上时性能下降。 |
Underfitting | 模型无法在训练数据上获得足够的学习,也无法捕捉数据的基本结构。 |
Precision and Recall | 在分类任务中,精确度和召回率是衡量模型性能的重要指标。 |
F1 Score | 精确度和召回率的调和平均数,用于衡量模型的整体性能。 |
Regularization | 一种减少模型过拟合的技术,通过添加一个惩罚项到损失函数。 |
Activation Functions | 在神经网络中,激活函数决定了一个节点是否应该被激活,帮助网络学习复杂的模式。 |
Backpropagation | 一种训练人工神经网络的算法,通过计算损失函数相对于网络参数的梯度来更新权重。 |
Data Augmentation | 通过对原始数据进行变化生成新数据的技术,以增强模型的泛化能力。 |
Model Deployment | 将训练好的模型部署到生产环境中,以便对新数据做出预测。 |
Ethics in AI | 讨论和指导人工智能的发展和应用,确保技术被负责任地使用的原则和标准。 |
Explainable AI (XAI) | 提高机器学习模型的可解释性,以便人类理解模型的决策过程。 |
Data Imbalance | 在数据集中,一些类别的样本远多于其他类别,可能影响模型性能。 |
Synthetic Data | 通过算法生成的数据,用于训练模型,特别是在真实数据不足或难以获取的情况下。 |
Bias in AI | 指模型在预测时系统性偏离真实值,可能由不平衡的数据或错误的模型假设引起。 |
Meta-learning | 也称为“学习如何学习”,旨在设计模型能够快速适应新任务的技术。 |
Reinforcement Learning | 通过与环境的交互,采取行动以最大化某种累积奖励的学习方法。 |
Graph Neural Networks (GNNs) | 用于处理图结构数据的神经网络,如社交网络、分子结构等。 |
Quantum Machine Learning | 结合量子计算和机器学习,以期在特定任务上提供超越传统算法的性能。 |
Bias-Variance Tradeoff | 描述模型复杂度与泛化能力之间的关系, |