突然想起来前一个月答应了栋哥要写一篇博客的,后来一直忙于复习就忘了. 不过答应了的事就要完成嘛. 获得感言 首先就是非常高兴的了,这也是对我的能力的一种肯定 这次的获得原因是期中考最快满分,emmm侧面证明了手速的优势.但对于博客作业,说实话,我不是一个善于表达的人,我觉的有句话可能更符合我吧 Talk is cheap,show me the code 当然code也包含了注释 最后附上合照一张…
UPDATE: 应栋哥要求,上传了无遮挡的正面照(我的内心其实是拒绝的!(ㄒoㄒ)) 一.前言&背景 从大一上C++课程开始,栋哥就开始安利他大三的软工实践课. 时间过得飞快,大学转眼就过去一半了,我也成为了一名大三汪~ 本来以为软工的课程会如 邹欣老师 微博上的软件工程 这篇博文所展示的一般,又成为了大学生涯中的一门"水课". 然而,栋哥说不会让我们失望的!在安利的时候,说会带来结合<构建之法>.采用"做中学"(learning by doin…
我这次做的小项目是android的转盘抽奖,因为这个小项目中有进程的调度,加锁等细节,而我们组的竞赛系统中也有这样的问题.通过这次的实践我发现了自己的好多问题也学到了很多. 个人问题: 1.自己的动手实践能力还差很多,而且解决问题的耐心还是不行. 2.虽然现在看视频做了出来,可是我觉得还是没有理解很透侧,关掉视频让自己再做一次我不一定能做的出来 3.缺乏认真的梳理一遍,这样可以加深印象,这样不至于以后容易忘记. 3.转盘抽奖更多的是在网页上比较常见,比如百度的每日转盘抽奖.在app中其实很少用,…
20165310 <Java程序设计>课程总结 一.每周作业及实验报告博客链接汇总 预备作业一:我期望的师生关系 20165310 我期望的师生关系 预备作业二:学习基础和C语言基础调查 20165310 学习基础和C语言基础调查 预备作业三:Linux安装及学习 20165310 Linux安装及学习 第一周作业:Java入门及环境搭建 20165310 <Java程序设计>第1周学习总结 第二周作业::基本数据类型与数,运算符.表达式和语句 20165310 <Java程…
获奖感想与Java阶段性学习总结 一.Learning By Doing ​ 在此之前,其实我并没有想到能够成为小黄杉的第一批成员之一,喜悦之余,也感受到了许多的压力.小黄杉一方面代表了老师对于我这一阶段学习成果的肯定,但同时也是对我的督促与要求,使我更加不敢在学习上懈怠,以免成为反面教材,贻笑大方. ​ 回忆这一阶段的学习历程与经验,其实正应了小黄杉上印的字:Learning By Doing. 二.课程学习 ​ Java首先是一门专业课程,在专业课程的学习中,我认为理论.实践的学习都缺一不可…
引 个人感觉本次Beta冲刺最大的槽点还是--反向延长 "冲刺周期" 做的不一样很容易,做的更好才是非常困难的 遗留的问题 经历了Alpha冲刺,组内大多数同学也大都对实践感到些许厌倦:原定计划内的一些功能也都因大大小小的原因被删减掉了: 而我们的核心功能--AR扫描.识别商铺返回对应信息这样一个功能的准确率也十分堪忧,在Alpha阶段没有发现的问题也均在Alpha总结之后暴露出来: 算法端通过两个模型分别来完成检测.识别功能,这样分割模块的机制导致我们识别准确率不能达到预期较高的标准…
一,获奖感想 很荣幸能成为小黄杉的获得者,也很感谢老师对我的这份鼓励和期望.回顾本学期的python学习中,我从一名对编程一无所知的小白,成为一名刚入门的程序猿.首先,我要感谢我的任课老师娄嘉鹏老师,是他引领我走进了python的大门.同时,我也很感谢信安协会的学长学姐们,他们每周都会给我们上课,教我们很多关于python的知识,我关于python的知识很大一部分都是出于他们的帮助之下.当然,还要感谢蓝墨云班课里一起学习,相互解决问题的小伙伴们,以及神奇的CSDN博客,每次遇到什么问题,总能在这…
好久没有更新blog了,最近抽时间看了Nielsen的<Neural Networks and Deep Learning>感觉小有收获,分享给大家. 了解深度学习的同学可能知道,目前深度学习面临的一个问题就是在网络训练的过程中存在梯度消失问题(vanishing gradient problem),或者更广义地来讲就是不稳定梯度问题.那么到底什么是梯度消失呢?这个问题又是如何导致的呢?这就是本文要分享的内容. 1. 消失的梯度 首先,我们将一个网络在初始化之后在训练初期的结果可视化如下: 在…
好久没有更新blog了,最近抽时间看了Nielsen的<Neural Networks and Deep Learning>感觉小有收获,分享给大家. 了解深度学习的同学可能知道,目前深度学习面临的一个问题就是在网络训练的过程中存在梯度消失问题(vanishing gradient problem),或者更广义地来讲就是不稳定梯度问题.那么到底什么是梯度消失呢?这个问题又是如何导致的呢?这就是本文要分享的内容. 1. 消失的梯度 首先,我们将一个网络在初始化之后在训练初期的结果可视化如下: 在…
Learning to Promote Saliency Detectors 原本放在了思否上, 但是公式支持不好, csdn广告太多, 在博客园/掘金上发一下 https://github.com/lartpang/Machine-Deep-Learning 缩写标注: SD: Saliency Detection ZSL: Zero-Shot Learning 关键内容: 没有训练直接将图像映射到标签中的DNN.相反,将DNN拟合为一个嵌入函数,以将像素和显著/背景区域的属性映射到度量空间.…