embedding models 是一类机器学习模型,它们的核心功能是将高维、离散的输入数据(如词汇、类别标签、节点或实体)映射到低维、连续的向量空间中。

这些向量(即 embeddings)通常具有丰富的语义信息,并能够捕捉原始数据之间的潜在关系和相似度。以下是对 embedding models 的详细说明:

1.目的与应用场景:

降维与表征学习:Embedding models 主要用于学习从原始数据到低维向量的有效映射,降低数据维度,便于后续计算和分析。这些低维向量保留了原始数据的关键特征和结构信息。

自然语言处理 (NLP):在 NLP 中,最经典的 embedding model 是词嵌入(Word Embeddings),如 Word2Vec、GloVe 和 FastText,它们将词语映射到实数向量,使得语义相近的词在向量空间中距离较近,用于文本分类、情感分析、机器翻译等任务。

推荐系统:用户和物品的嵌入模型用于捕获用户兴趣和物品属性的相似性,常用于个性化推荐、协同过滤等场景。

知识图谱:实体和关系嵌入(如 TransE、DistMult、RotatE)将知识图谱中的节点和边表示为向量,用于链接预测、实体对齐、推理等任务。

计算机视觉:图像特征嵌入用于提取图像的紧凑表示,用于图像检索、相似性比较、分类等任务。

2.学习方法:

无监督学习:许多早期的 embedding models 采用无监督学习方式,如基于神经网络的语言模型(Word2Vec的CBOW和Skip-gram模型)或全局词频统计(GloVe),通过最大化词语上下文的预测准确性或捕获全局共现信息来学习词嵌入。

有监督学习:在特定任务(如情感分析、命名实体识别)上训练的深度学习模型(如 BERT、ELMo、GPT),其词嵌入层作为预训练模型的一部分,可在下游任务中微调,实现有监督的embedding学习。

自监督学习:近期的一些模型(如 SimCLR、Momentum Contrastive Learning)利用数据增强和对比学习策略在无标签数据上学习高质量的图像或文本嵌入。

3.模型架构与训练:

神经网络架构:embedding models 常基于简单的前馈神经网络(如 Word2Vec)、复杂深度神经网络(如 BERT)或专门设计的图神经网络(如 GraphSAGE、Graph Attention Network)。

损失函数:根据学习目标,可能使用负采样损失(如 Word2Vec)、最大似然估计(如 GloVe)、三元组损失(如知识图谱嵌入)、对比学习损失(如 SimCLR)等。

训练数据:可以是纯文本语料库、用户-物品交互记录、知识图谱数据、图像数据集等。

4.应用与使用:

直接使用预训练模型:在很多情况下,可以直接使用已训练好的、针对通用任务的 embedding 模型,如使用预训练的 Word2Vec 或 GloVe 向量作为文本特征。

微调或适应特定领域:根据实际需求,可以在特定领域数据上对预训练模型进行微调,或者使用迁移学习策略调整现有模型以适应新的语境或任务。

嵌入向量操作:在下游任务中,嵌入向量可以进行加法、减法、点积、余弦相似度计算等操作,以利用其表征的语义信息。

总之,embedding models 是一种广泛应用于各类机器学习任务的技术,通过将复杂、离散的数据转化为低维、连续的向量表示,有效地捕捉数据间的语义关系,提升模型性能和泛化能力。这些模型在 NLP、推荐系统、知识图谱推理、计算机视觉等领域均有广泛应用。

AI 新世代

Online Tool

Link:https://www.cnblogs.com/farwish/p/18127206

embedding models 是什么的更多相关文章

  1. 论文阅读 Predicting Dynamic Embedding Trajectory in Temporal Interaction Networks

    6 Predicting Dynamic Embedding Trajectory in Temporal Interaction Networks link:https://arxiv.org/ab ...

  2. 全网最详细中英文ChatGPT接口文档(四)30分钟快速入门ChatGPT——Models模型

    @ 目录 Models Overview 概述 GPT-4 Limited beta GPT-3.5 Feature-specific models 特定功能的模型 Finding the right ...

  3. 翻译 | Improving Distributional Similarity with Lessons Learned from Word Embeddings

    翻译 | Improving Distributional Similarity with Lessons Learned from Word Embeddings 叶娜老师说:"读懂论文的 ...

  4. (转)Extracting knowledge from knowledge graphs using Facebook Pytorch BigGraph.

    Extracting knowledge from knowledge graphs using Facebook Pytorch BigGraph 2019-04-27 09:33:58 This ...

  5. 【NLP】How to Generate Embeddings?

    How to represent words. 0 . Native represtation: one-hot vectors Demision: |all words| (too large an ...

  6. [转]NLP Tasks

    Natural Language Processing Tasks and Selected References I've been working on several natural langu ...

  7. ICLR 2013 International Conference on Learning Representations深度学习论文papers

    ICLR 2013 International Conference on Learning Representations May 02 - 04, 2013, Scottsdale, Arizon ...

  8. IJCAI 2019 Analysis

    IJCAI 2019 Analysis 检索不到论文的关键词:retrofitting word embedding Getting in Shape: Word Embedding SubSpace ...

  9. basic deepwalk

    Get to know How deepwalk works by this project. Two steps: 1. gen the graph, and gen the corpus on t ...

  10. [CVPR2017] Visual Translation Embedding Network for Visual Relation Detection 论文笔记

    http://www.ee.columbia.edu/ln/dvmm/publications/17/zhang2017visual.pdf Visual Translation Embedding ...

随机推荐

  1. 说说Vue 3.0中Treeshaking特性?举例说明一下?

    这里给大家分享我在网上总结出来的一些知识,希望对大家有所帮助 一.是什么 Tree shaking 是一种通过清除多余代码方式来优化项目打包体积的技术,专业术语叫 Dead code eliminat ...

  2. KingbaseES数据库分区表添加主键与索引的建议

    一.初始化测试环境 # 数据库版本信息 KingbaseES V008R006C007B0012 on x86_64-pc-linux-gnu, compiled by gcc (GCC) 4.1.2 ...

  3. list集合中的实现类Vector

    Vector: 它底层也是用数组来存数据对象的,但它是唯一一个线程安全的,线程安全也就意味着时间长,效率慢,如果是单一线程的话,建议不使用该实现类 add(E element): 将指定的元素追加到此 ...

  4. ssh登录太慢了,每次都要20s

    背景 大家工作时,少不了ssh登录各个服务器,我这边手里也有很多服务器,有一些登录很快就进去了,有些要卡半天才能进去.之前以为是公司网络问题,每次也就忍了,这次突然不想忍了,决定定位一下. 我这边的服 ...

  5. #主席树,并查集#CodeChef Sereja and Ballons

    SEABAL 分析 考虑用并查集维护当前连续被打破的气球段,那么每次新增的区间就是 \([l_{x-1},x]\) 到 \([x,r_{x+1}]\) 的连接. 只要 \(l,r\) 分别满足在这之间 ...

  6. #Dijkstra,二进制拆位#洛谷 5304 [GXOI/GZOI2019]旅行者

    题目 分析(\(logk\)次Dijkstra) 首先为什么\(O(nklogn)\)的多次\(dijkstra\)为什么会TLE, 因为中间有许多的冗余状态,即使两点求出的路径是最短的,它也不一定是 ...

  7. FindBugs问题EQ_COMPARETO_USE_OBJECT_EQUALS的解决方法

    本文记录的是2016年4月初发生的事情. 前几天,标准CI的静态检查页面发现一个项目组同事引入的FindBugs问题,EQ_COMPARETO_USE_OBJECT_EQUALS,CI对这个问题给出的 ...

  8. 在python中通过面向对象方式,实现烤地瓜案例

    例子:烤地瓜,不同时间,反馈不同状态,并给不同状态地瓜加入不同味道 烤地瓜时间 0-3分钟,生的 4-7分钟,半生不熟的 8-12分钟,熟了 12分钟以上,已烤熟,糊了 用户可以按自己的意思添加调料 ...

  9. 实时 3D 深度多摄像头跟踪 Real-time 3D Deep Multi-Camera Tracking

    实时 3D 深度多摄像头跟踪 Real-time 3D Deep Multi-Camera Tracking 论文url https://arxiv.org/abs/2003.11753 论文简述: ...

  10. nginx重新整理——————http请求的11个阶段中的find_config[十三]

    前言 简单介绍一下find_config 与 preaccess 阶段. 正文 find_config 很大一部分工作是进行location的匹配. 来一张图看下location指令和merge_sl ...