http://bindog.github.io/blog/2016/06/04/from-sne-to-tsne-to-largevis/#top…
http://bindog.github.io/blog/2016/06/04/from-sne-to-tsne-to-largevis/…
论文:https://arxiv.org/abs/1803.02349    题外话: 阿里和香港理工联合发布的这篇文章,整体来说,还挺有意思的. 刚开始随便翻翻看看结构图的时候,会觉得:这也能发文章??? 后来,细看后发现:哦~~还不错   文章简介: 基于阿里巴巴电商推荐系统的十亿规模的商品嵌入   与词向量类似,为每一个商品生成一个向量,向量间一一匹配,将相似的设定为推荐的候选 这篇文章的着重点在RS的matching,而不是ranking   针对阿里的数据集应用需要解决的三个难题: 1…
http://www.datakit.cn/blog/2017/02/05/t_sne_full.html t-SNE(t-distributed stochastic neighbor embedding)是用于降维的一种机器学习算法,是由 Laurens van der Maaten 和 Geoffrey Hinton在08年提出来.此外,t-SNE 是一种非线性降维算法,非常适用于高维数据降维到2维或者3维,进行可视化. t-SNE是由SNE(Stochastic Neighbor Emb…
同步笔者CSDN博客(https://blog.csdn.net/qq_37608890/article/details/81513882). 一.概述 本文将要讨论NLP的一个重要话题:Word2Vec,它是一种学习词嵌入或分布式数字特征表示(即向量)的技术.其实,在开展自然语言处理任务时,一个比较重要的基础工作就是有关词表示层面的学习,因为良好的特征表示所对应的词,能够使得上下午语义内容得以很好地保留和整体串起来.举个例子,在特征表示层面,单词“forest”和单词“oven”是不同的,也很…
转自:http://blog.csdn.net/u012162613/article/details/45920827 1.流形学习的概念 流形学习方法(Manifold Learning),简称流形学习,自2000年在著名的科学杂志<Science>被首次提出以来,已成为信息科学领域的研究热点.在理论和应用上,流形学习方法都具有重要的研究意义. 假设数据是均匀采样于一个高维欧氏空间中的低维流形,流形学习就是从高维采样数据中恢复低维流形结构,即找到高维空间中的低维流形,并求出相应的嵌入映射,以…
Deep Clustering Algorithms 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 本文研究路线:深度自编码器(Deep Autoencoder)->Deep Embedded Clustering(DEC)->Improved Deep Embedded clustering(IDEC)->Deep Convolutional Embedded Clustering(DCEC)->Deep Fuzzy K-mean…
Don't look back. Don't hesitate, just do it. t-SNE原理 from here. 1. tsne is strictly used for visualization. and we can only see things in up to 3 dimensions. t-Distributed Stochastic Neighbor Embedding (t-SNE) is a dimensionality reduction technique…
Probabilistic PCA 在之前的文章PCA与LDA介绍中介绍了PCA的基本原理,这一部分主要在此基础上进行扩展,在PCA中引入概率的元素,具体思路是对每个数据$\vec{x}_i$,假设$\vec{x}_{i} \sim N\left(W{\vec{z}_{i}}, \sigma^{2} I\right)$,其中$\vec{z}_{i}$是一个低维向量,它的先验分布满足$\vec{z}_{i} \sim N(0, I)$,$W$以及所有的$\vec{z}_i$均是要计算的量.$\si…
t-SNE 算法 前言 t-SNE(t-distributed stochastic neighbor embedding) 是用于降维的一种机器学习算法,由 Laurens van der Maaten 和 Geoffrey Hinton在 08 年提出.t-SNE 作为一种非线性降维算法,非常适用于高维数据降维到 2 维或者 3 维,便于进行可视化.在实际应用中,t-SNE 很少用于降维,主要用于可视化,可能的原因有以下几方面: 当发现数据需要降维时,一般是特征间存在高度的线性相关性,此时一…
  0 推荐技术      1)协同过滤:                (1)基于user的协同过滤:根据历史日志中用户年龄,性别,行为,偏好等特征计算user之间的相似度,根据相似user对item的评分推荐item.缺点:新用户冷启动问题和数据稀疏不能找到置信的相似用户进行推荐.                (2)基于item的协同过滤:根据item维度的特征计算item之间的相似度,推荐user偏好item相似的item.                (3)基于社交网络:根据user…
The Unreasonable Effectiveness of Recurrent Neural Networks,http://karpathy.github.io/2015/05/21/rnn-effectiveness/ https://www.csdn.net/article/2015-08-28/2825569 RNN基础 rnn是的输入和输出都是序列,如图 所以rnn可以认为是用于学习序列和序列之间的匹配关系 如何用符号表示 X,Y表示输入,输出 <t>,表示序列中序号 (i)…
1. DeepFM算法的提出 由于DeepFM算法有效的结合了因子分解机与神经网络在特征学习中的优点:同时提取到低阶组合特征与高阶组合特征,所以越来越被广泛使用. 在DeepFM中,FM算法负责对一阶特征以及由一阶特征两两组合而成的二阶特征进行特征的提取:DNN算法负责对由输入的一阶特征进行全连接等操作形成的高阶特征进行特征的提取. 具有以下特点: 结合了广度和深度模型的优点,联合训练FM模型和DNN模型,同时学习低阶特征组合和高阶特征组合. 端到端模型,无需特征工程. DeepFM 共享相同的…
最新最全的文章请关注我的微信公众号:数据拾光者. 摘要:本篇主要分析Youtube深度学习推荐系统,借鉴模型框架以及工程中优秀的解决方案从而应用于实际项目.首先讲了下用户.广告主和抖音这一类视频平台三者之间的关系:就是平台将视频资源作为商品免费卖给用户,同时将用户作为商品有偿卖给广告主,仅此而已.平台想获取更高的收益就必须提升广告的转化效率,而前提是吸引用户增加观看视频的时长,这里就涉及到视频推荐的问题.因为Youtube深度学习推荐系统是基于Embedding做的,所以第二部分讲了下Embed…
[源码解析] NVIDIA HugeCTR,GPU版本参数服务器 --(1) 目录 [源码解析] NVIDIA HugeCTR,GPU版本参数服务器 --(1) 0x00 摘要 0x01 背景 1.1 推荐系统中的点击率估计 1.2 点击率估算训练的挑战 0x02 HugeCtr 0x03 架构 3.1 CTR DL 模型 3.2 HugeCTR 架构 3.3 基于GPU的参数服务器 0x04 核心功能 4.1 模型并行训练 4.1.1 in-memory GPU hash table 4.1.…
from sklearn import datasets digits = datasets.load_digits(n_class=5) X = digits.data y = digits.target from sklearn.manifold import TSNE from sklearn.decomposition import PCA import matplotlib.pyplot as plt tsne =TSNE(n_components=2, init='pca', ran…
Introduction 在计算机视觉及机器学习领域,数据的可视化是非常重要的一个应用,一般我们处理的数据都是成百上千维的,但是我们知道,目前我们可以感知的数据维度最多只有三维,超出三维的数据是没有办法直接显示出来的,所以需要做降维的处理,数据的降维,简单来说就是将高维度的数据映射到较低的维度,如果要能达到数据可视化的目的,就要将数据映射到二维或者三维空间.数据的降维是一种无监督的学习过程,我们可以看成是一种聚类.数据在空间的分布主要有两个特性,一个是相似性,我们可以用类内距离衡量:一个是差异性…
上一篇文章,我们介绍了SNE降维算法,SNE算法可以很好地保持数据的局部结构,该算法利用条件概率来衡量数据点之间的相似性,通过最小化条件概率 pj|i 与 pi|j 之间的 KL-divergence,将数据从高维空间映射到低维空间. Symmetric SNE SNE算法利用的是条件概率,我们也可以利用联合概率,衡量两个空间  与  的联合概率分布的 KL-divergence,假设高维空间  的联合概率分布为 Pi,低维空间  的联合概率分布为 Qi,可以定义两者的 KL-diver…
最近在给自己的服务器节点添加脚本功能,考虑到 执行性能.开发效率.调试效率.可维护性.严谨性 五大要素,最终选用C#作为脚本语言,并使用mono作为中间层,使其具备跨平台特性,以备具有在Windows开发调试并在Linux部署的效果.这样就完全符合五大要素了. 开始研究嵌入mono的方法,结果并非我想的半天搞定,而是花了我两天的时间,google和bing都搜了个遍,没有直接可解决问题的答案,真是命途多舛.我使用的是mono 4.6版本,在Windows下进行测试,有几个坑需要备忘一下: 1)检…
Mono http://www.mono-project.com/docs/advanced/embedding/ http://www.mono-project.com/docs/advanced/embedding/scripting/ Java http://stackoverflow.com/questions/7506329/embed-java-into-a-c-application JavaScript https://developer.mozilla.org/en-US/do…
Deep Metric Learning via Lifted Structured Feature Embedding CVPR 2016 摘要:本文提出一种距离度量的方法,充分的发挥 training batches 的优势,by lifting the vector of pairwise distances within the batch to the matrix of pairwise distances. 刚开始看这个摘要,有点懵逼,不怕,后面会知道这段英文是啥意思的. 引言部分…
Requirments:     1: The Lua Sources.    2: A C compiler - cc/gcc/g++ for Unix, and Visual C++ for Windows. Other compilers should under Windows, basically any C compiler - I will cover compiling under Windows at the end of the toturial.This tutorial…
KDD2016: network embedding model: deep walk(kdd 2014): http://videolectures.net/kdd2014_perozzi_deep_walk/  Node2vec (Grover et al. KDD 2016) http://snap.stanford.edu/node2vec/ GENE(Chen at al. CIKM 2016) http://tech.huanqiu.com/news/2016-11/9742868.…
构造+DFS 很容易的可以构造两个,最后一个不会构造的话  DFS一下就可以了 #include<iostream> #include<string> #include<string.h> #include<stdio.h> #include<queue> #include<iomanip> #include<algorithm> #include<map> using namespace std; int n…
前置点评: 这篇文章比较朴素,创新性不高,基本是参照了google的word2vec方法,应用到推荐场景的i2i相似度计算中,但实际效果看还有有提升的.主要做法是把item视为word,用户的行为序列视为一个集合,item间的共现为正样本,并按照item的频率分布进行负样本采样,缺点是相似度的计算还只是利用到了item共现信息,1).忽略了user行为序列信息; 2).没有建模用户对不同item的喜欢程度高低. ------------------------------------------…
http://www.ee.columbia.edu/ln/dvmm/publications/17/zhang2017visual.pdf Visual Translation Embedding Network for Visual Relation Detection Hanwang Zhang† , Zawlin Kyaw‡ , Shih-Fu Chang† , Tat-Seng Chua‡ †Columbia University, ‡National University of Si…
1. Embedding的使用 pytorch中实现了Embedding,下面是关于Embedding的使用. torch.nn包下的Embedding,作为训练的一层,随模型训练得到适合的词向量. 建立词向量层 embed = torch.nn.Embedding(n_vocabulary,embedding_size) 找到对应的词向量放进网络:词向量的输入应该是什么样子 实际上,上面通过随机初始化建立了词向量层后,建立了一个"二维表",存储了词典中每个词的词向量.每个mini-b…
转载 https://zhuanlan.zhihu.com/p/49271699 首发于深度学习前沿笔记 写文章   从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史 张俊林 你所不知道的事 179 人赞了该文章 Bert最近很火,应该是最近最火爆的AI进展,网上的评价很高,那么Bert值得这么高的评价吗?我个人判断是值得.那为什么会有这么高的评价呢?是因为它有重大的理论或者模型创新吗?其实并没有,从模型创新角度看一般,创新不算大.但是架不住效果太好了,基本刷新了很…
Introduction and related work 云数据中心对于虚拟技术是理想的创新地方. 可生存性虚拟网络映射(surviavable virtual network embedding SVNE),保证虚拟网络在所映射物理节点原件失效时能正常运行.通常有两种方法:防护机制和恢复机制. 先前的对于SVNE的研究完全等价对待节点和连接而忽略拓扑和控制路径的丢失几率,而假定物理SDN总能正常操作. 这篇文章研究注意拓扑行可生存性网络映射,深入考虑不同节点的重要性(虚拟控制器和虚拟交换机)…
这学期为数不多的精读论文中基本上都涉及到了Embedding这个概念,下面结合自己的理解和查阅的资料对这个概念进行一下梳理. ======================================================== 首先了解one-hot(独热)编码 在机器学习算法中,会遇到很多分类的特征,比如颜色中的红橙黄绿.国籍.性别等,这些特征值都是离散的,但是要用算法实现的话,要对这些特征进行特征数字化处理. 也就是对这些特征进行数字化编码,比如把颜色中的红橙黄绿对应为[0,1,…