kexue shangwang】的更多相关文章

根据实践,pptp.IPsec甚至OpenVPN等kexue上网法已经无法顺利翻越GFW.通过抓包可知,GFW会将pptp的握手期间的ack包吞掉,导致本地一直无法收到服务器端的响应.而OpenVPN也是类似的情况.目前比较可行的上网法就是将OpenVPN的数据包进行混淆,封装成其它协议发送到服务端再解释,这时候就需要用到Obfsproxy.基本原理如下图: 笔者的软硬件环境如下: Server: 东京机房VPS CentOS 6.5 32-bit Client: Win 8.1 基本步骤如下:…
写在前面 这是kexue上网的一种方法. 看文章前,先拉最底下,看一遍“写在最后”. 租个服务器 我租了个洛杉矶的服务器,系统是ubuntu16.04 x86_64 进入KiwiVM Control Panel ,修改root密码,记下来 这就是整个服务器信息 使用ssh登录你的服务器 格式: ssh 用户名@ip地址  -p  端口地址 参数说明: 用户名:root ip地址:在上个图中的ip address 端口地址:在上一个图中的SSH PORT 用脚本搭建ss 分别输入下面命令 1. w…
需先搭建 openvpn 海外服务端, 具体参考 https://www.cnblogs.com/weifeng1463/p/11041550.html 选择阿里云华东ecs 搭建openvpn 的客户端 , 具体参考 https://www.cnblogs.com/weifeng1463/p/7803354.html 在同一华东ecs上搭建 ss-server 服务端, 具体参考  https://www.cnblogs.com/weifeng1463/p/6759682.html 华东ecs…
一.ConcurrentLinkedQueue 是一个适合在高并发场景下,无锁,无界的,先进先出原则.不允许为null值,add().offer()加入元素,这两个方法没区别:pull().peek()取头元素节点,pull会删除,peek不会. 二.ArrayBlockingQueue 基于数组的阻塞队列.有缓冲.定长.没有实现读写分离.有界队列 三.LinkedBlockingQueue 基于链表的阻塞队列.有缓冲.读写分离锁(从而实现生产者和消费者操作的完全并行运行).无解队列 四.Syn…
问题一: @ERROR: chroot failed rsync error: error starting client-server protocol (code 5) at main.c(1522) [receiver=3.0.3] 原因: 服务器端的目录不存在或无权限,创建目录并修正权限可解决问题. 问题二: @ERROR: auth failed on module tee rsync error: error starting client-server protocol (code…
1.浏览器与事件事件通常是由浏览器所产生,不同的浏览器会产生的事件也有所不同,即使同一浏览器不同版本所产生的事件也有不同.以下为HTML4.01中的事件 2.error事件:它可以调用一个错误处理函数,error事件可以传递一下3个参数给错误处理函数,其他事件只能调用函数不能给函数传递参数.(1)第一个参数是详细的错误信息.(2)第二个参数是产生错误网页的url.(3)第三个参数是产生错误的行数.有错误而不显示错误如下:<script language="javascript"&…
rsync是一款优秀的数据同步软件,在跨服务器,跨机房,跨国备份服务器的首选工具,下面就来介绍下如何配置安装cwRsyncServer很大多数软件一样是B/C架构,cwRsyncServer是rsync的windows版本 一,下载官方下载地址:官方网站:http://rsync.samba.org/download.html下载地址:http://sourceforge.net/projects/sereds/files/cwRsync/4.1.0/ 服务器版为: <ignore_js_op>…
一.简单线程同步问题 package com.ietree.multithread.sync; import java.util.Vector; public class Tickets { public static void main(String[] args) { // 初始化火车票池并添加火车票:避免线程同步可采用Vector替代ArrayList HashTable替代HashMap final Vector<String> tickets = new Vector<Stri…
代理的原理: 关于代理的具体的书面定义你百度谷歌可以知道.这里,我想简单通过一个例子,说明代理的原理: 假如,你在北京,但你女朋友在广州,你有东西要给你的女朋友,但是正好你这几天公司有事,所以你不能去广州(也就访问不了广州).现在,某快递可以访问广州,于是乎,你就可以将东西交给某快递,让他代替你,将东西交给你的女朋友.所以,虽然你不能访问广州,但是你可以通过某快递访问广州,同样可以达到东西交给你的女朋友的目的.所以,这个某快递就是充当代理的角色. 如果觉得我说的不清楚,看图,应该够明白的了: 虚…
自然语言处理中的自注意力机制(Self-attention Mechanism) 近年来,注意力(Attention)机制被广泛应用到基于深度学习的自然语言处理(NLP)各个任务中,之前我对早期注意力机制进行过一些学习总结(可见http://www.cnblogs.com/robert-dlut/p/5952032.html).随着注意力机制的深入研究,各式各样的attention被研究者们提出.在2017年6月google机器翻译团队在arXiv上放出的<Attention is all yo…
1.引言   我,Scott,一家创业公司的 CTO. 从业6年却很少写文章,近一年来接触了几十个刚毕业的前端新人,也面试了100多个前端工程师和Nodejs工程师,对于前端发展的这个职业算是有些感触吧,打算陆续写一些从业经验也好,技术分享也好,对自己前6年的经历做一些文字上的沉淀. 此篇文章谨献给工作0 ~ 3年的前端工程师,内容都是我的亲身经历,不精彩但接地气. (本文同步发布于:http://www.52im.net/thread-2463-1-1.html) 2.关于作者   Scott…
玩转SSH端口转发 SSH有三种端口转发模式,本地端口转发(Local Port Forwarding),远程端口转发(Remote Port Forwarding)以及动态端口转发(Dynamic Port Forwarding).对于本地/远程端口转发,两者的方向恰好相反.动态端口转发则可以用于kexue上网. SSH端口转发也被称作SSH隧道(SSH Tunnel),因为它们都是通过SSH登陆之后,在SSH客户端与SSH服务端之间建立了一个隧道,从而进行通信.SSH隧道是非常安全的,因为S…
前言 Transfomer是一种encoder-decoder模型,在机器翻译领域主要就是通过encoder-decoder即seq2seq,将源语言(x1, x2 ... xn) 通过编码,再解码的方式映射成(y1, y2 ... ym), 之前的做法是用RNN进行encode-decoder,但是由于RNN在某一时间刻的输入是依赖于上一时间刻的输出,所以RNN不能并行处理,导致效率低效,而Transfomer就避开了RNN,因此encoder-decoder效率高. Transformer…
写在前面 git clone速度往往很慢,我们可以先在身处美国的服务器上git clone,然后把文件用ftp传回来即可. 开始 我们以opencv为例 git clone https://github.com/opencv/opencv.git 如果你在自己的(身处中国)电脑上运行这条命令,则会很慢,如下图 12K/s的速度. 所以我先用SSH登录我的搬瓦工服务器 相关教程: Bandwagon的配置记录(一) —— kexue上网 Bandwagon的配置记录(二) —— ftp文件传输 这…
SSH登录服务器 登录的方法在Bandwagon的配置记录(一) —— kexue上网 配置前的准备 1.新建一个目录(  /home/ftp  ),以后可以把文件放在这里,这里相当于是个中转站 cd home mkdir ftp 2.修改目录权限 chmod 777 ftp 开始 1.安装vsftpd sudo apt-get install vsftpd 2.修改配置文件 sudo vi /etc/vsftpd.conf 配置文件修改方法: 先按 i (进入vi编辑界面),按照如下修改配置文…
Web服务本质 import socket def handle_request(client): request_data = client.recv(1024) print(request_data) client.send(b"HTTP/1.1 200 OK\r\n\r\n") # client.send(b"Hello, World") # client.send(b"<h1>Hello, World</h1>")…
近年来,注意力(Attention)机制被广泛应用到基于深度学习的自然语言处理(NLP)各个任务中.随着注意力机制的深入研究,各式各样的attention被研究者们提出,如单个.多个.交互式等等.去年6月,google机器翻译团队在arXiv上的<Attention is all you need>论文受到了大家广泛关注,其中,他们提出的自注意力(self-attention)机制和多头(multi-head)机制也开始成为神经网络attention的研究热点,在各个任务上也取得了不错的效果.…
paper: <Attention Augmented Convolutional Networks> https://arxiv.org/pdf/1904.09925.pdf 这篇文章是google brain的,应该有分量.上来就说:卷积神经网络有一个重要的弱点就是 它仅仅操作于于一个领域,对于没有考虑到全局信息有损失. (这就是全局和局部的辨证关系.) 注意力机制,以一种能够把握长距离作用的手段,在序列模型和生成模型里使用.这篇文章使用注意力机制到判别模型中来,作为替代卷积的手段.(非常…
1.接受端安装rsync yum -y install rsync 2.配置同步模块 vim /etc/rsyncd.conf # any name you like [backup] # destination directory for copy path = /data/backup # hosts you allow to access hosts allow = 192.168.88.88 hosts deny = * list = true uid = root gid = root…
昨晚小版本上线,使用rsync往服务器上传文件时,client报如下异常: @ERROR: auth failed on module backup rsync error: error starting client-server protocol (code 5) at main.c(1503) [Receiver=3.0.6] 首先:检查server端和client端的用户名和密码确认都无误: 服务器端检查这个/etc/rsync.pass密码文件, 注:其它系统可能密码文件名字不一样可以…
示例解释: model = Sequential() model.add(Embedding(1000, 64, input_length=10)) #输入中的数值最大值是1000,输出的第三维度是64,输入的长度是10. keras.layers.Embedding(input_dim, output_dim, embeddings_initializer='uniform', embeddings_regularizer=None, activity_regularizer=None, em…
问题一: @ERROR: chroot failed rsync error: error starting client-server protocol (code 5) at main.c(1522) [receiver=3.0.3] 原因: 服务器端的目录不存在或无权限,创建目录并修正权限可解决问题. 问题二: @ERROR: auth failed on module tee rsync error: error starting client-server protocol (code…
需达成目标:在服务器(192.168.18.211)端搭建 rsync 服务,       将 /root/rsync-server/ 目录同步到客户端 /root/rsync-local 目录 Linux系统:CentOS 6.5 一.由于CentOS6.5已经默认已经安装了 rsync,如若没有安装,可以参考如下方法: 1.检查是否安装了 rsync : rpm -qa rsync 2.如果没有安装可以使用yum安装 yum install -y rsync 3.启动 rsync : /et…
训练好的词向量模型被保存下来,该模型的本质就是一个m*n的矩阵,m代表训练语料中词的个数,n代表训练时我们设定的词向量维度.当我们训练好模型后再次调用时,就可以从该模型中直接获取到对应词的词向量. 通过上面我们可以拿到每个词的词向量,但是我们任务处理时一般是对句子或文本进行操作.当我们拿到一个词向量后,那么一个句子或一个文本就可以用词表示成矩阵(假设一个句子有5个词,词向量维度是64,那么该矩阵就是5*64),然后可以用CNN或RNN(LSTM)模型将该矩阵编码成一个一维向量,并保留大多数文本信…
五.常见问题 以下是为配置rsync时的常见问题: 问题一:@ERROR: chroot failedrsync error: error starting client-server protocol (code 5) at main.c(1522) [receiver=3.0.3] 原因:服务器端的目录不存在或无权限,创建目录并修正权限可解决问题. 问题二:@ERROR: auth failed on module teersync error: error starting client-…
2017年中,有两篇类似同时也是笔者非常欣赏的论文,分别是FaceBook的<Convolutional Sequence to Sequence Learning>和Google的<Attention is All You Need>,它们都算是Seq2Seq上的创新,本质上来说,都是抛弃了RNN结构来做Seq2Seq任务. 这篇博文中,笔者对<Attention is All You Need>做一点简单的分析.当然,这两篇论文本身就比较火,因此网上已经有很多解读了…
关闭 原 java线程安全之并发Queue(十三) 2017年11月19日 23:40:23 小彬彬~ 阅读数:12092更多 所属专栏: 线程安全    版权声明:本文为博主原创文章,未经博主允许不得转载. https://blog.csdn.net/qq_33524158/article/details/78578370 并发Queue 在并发的队列上jdk提供了两套实现,一个是以ConcurrentLinkedQueue为代表的高性能队列,一个是以BlockingQueue接口为代表的阻塞…
https://www.jianshu.com/p/25fc600de9fb 谷歌最近的一篇BERT取得了卓越的效果,为了研究BERT的论文,我先找出了<Attention is All You Need>,看看里面的Transformer模型作为基础. Transformer是为了机器翻译任务中的问题所提出的. 传统的RNN神经网络结构是可以处理任意长度的输入,它非常适合于自然语言的建模,所以它在一段时间内占据了整个神经网络中的主流.随着学术的发展,我们也会看到RNN有些不足. RNN的缺点…
The encoders are all identical in structure (yet they do not share weights). Each one is broken down into two sub-layers: https://kexue.fm/archives/4765 https://jalammar.github.io/illustrated-transformer/ http://nlp.seas.harvard.edu/2018/04/03/attent…
Attention Is All You Need 2018-04-17 10:35:25  Paper:http://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf Code(PyTorch Version):https://github.com/jadore801120/attention-is-all-you-need-pytorch Video Tutorial: https://www.youtube.com/watch?…