注册好一个账号后先创建一个仓库 点击"Create repository"创建一个版本库 填好带*号的必填项,选择是要公开仓库还是私人使用,勾选自动添加README选项 README文件可以写的非常漂亮,GitHub升级后README板块会显示在个人首页,可以做很多有个人风格的显示 README编辑方式引用久曲健的博客,贴在下面: https://www.cnblogs.com/longronglang/p/8453047.html 到此仓库的创建就完成了. 先尝试一些GitHub的基…
# coding=GBK score = 90 if score >= 80: print("好") elif score >= 60: print("及格") else: print("差") win7 64位PC, 用#coding=utf-8还是乱码…
import urllib.request import re url = 'http://stock.sohu.com/news/' html = urllib.request.urlopen(url).read() html = html.decode('GBK') pattern = re.compile("<a test=a href='http://stock.sohu.com/20160612/(.*?).shtml' target='_blank'>(.*?)</…
原理介绍 类似于版本管理,我们把我们的hexo博客文件系统在Github上建立一个分支,通过管理分支提交最新的博客文件系统,保证我们博客框架的更新.然后我们基于最新的博客框架,撰写文章,进行Github Pages网页的更新,即我们博客内容的更新. 创建两个分支,一个用于存放博客静态资源,一个用于备份博客的部署文件. 参考资料 前期准备 一台Linux系统的电脑(我的linux系统是Ubuntu 18.04.2 LTS) 安装node.js 及 npm 安装 ssh 安装 git 按照我们前面教…
<Git.Github.Gitkraken 学习笔记> 一.写在前面 1.参考资料 本文参考 <Pro Git> 一书. 在官网有免费在线版可供阅读:https://git-scm.com/book/en/v2 未看章节: 服务器上的 Git Git 内部原理 - 引用规范 2.符号备注 本文出现 [重点] 处,表示为知识的重点,可以着重看待. 二.起步 1.版本控制 (1)什么是版本控制 版本控制(Revision control)是一种记录一个或若干文件内容变化,以便将来查阅特…
转载自:http://www.cnblogs.com/xirongliu/p/4589834.html 个人从刚刚开始接触github,啥都不知道,不会用,不知道能够用来干什么,到现在坚持在github上分享自己的知识,中间搜集过很多资料,在这里汇总如下,希望能够帮到开始学习的人,github地址:https://github.com/xirong/my-git/blob/master/how-to-use-github.md ==============作为一名开发者,Github上面有很多东…
摘要 本文讲解下Git的使用,包括使用Git上传项目工程到Github,文末有彩蛋哦. 1.安装Git 使用apt-get安 sudo apt-get update sudo apt-get install git 使用下载安装 安装依赖库: sudo apt-get update sudo apt-get install build-essential libssl-dev libcurl4-gnutls-dev libexpat1-dev gettext unzip 下载: wget htt…
深度学习中优化操作: dropout l1, l2正则化 momentum normalization 1.为什么Normalization?     深度神经网络模型的训练为什么会很困难?其中一个重要的原因是,深度神经网络涉及到很多层的叠加,而每一层的参数更新会导致上层的输入数据分布发生变化,通过层层叠加,高层的输入分布变化会非常剧烈,这就使得高层需要不断去重新适应底层的参数更新.为了训好模型,我们需要非常谨慎地去设定学习率.初始化权重.以及尽可能细致的参数更新策略. 对于每一层网络得到输出向…
机器学习的面试题中经常会被问到交叉熵(cross entropy)和最大似然估计(MLE)或者KL散度有什么关系,查了一些资料发现优化这3个东西其实是等价的. 熵和交叉熵 提到交叉熵就需要了解下信息论中熵的定义.信息论认为: 确定的事件没有信息,随机事件包含最多的信息. 事件信息的定义为:\(I(x)=-log(P(x))\):而熵就是描述信息量:\(H(x)=E_{x\sim P}[I(x)]\),也就是\(H(x)=E_{x\sim P}[-log(P(x))]=-\Sigma_xP(x)l…
1. Dropout简介 1.1 Dropout出现的原因 在机器学习的模型中,如果模型的参数太多,而训练样本又太少,训练出来的模型很容易产生过拟合的现象. 在训练神经网络的时候经常会遇到过拟合的问题,过拟合具体表现在:模型在训练数据上损失函数较小,预测准确率较高:但是在测试数据上损失函数比较大,预测准确率较低. 过拟合是很多机器学习的通病.如果模型过拟合,那么得到的模型几乎不能用.为了解决过拟合问题,一般会采用模型集成的方法,即训练多个模型进行组合.此时,训练模型费时就成为一个很大的问题,不仅…