论文内容 G. Hinton, O. Vinyals, and J. Dean, "Distilling the Knowledge in a Neural Network." 2015. 如何将一堆模型或一个超大模型的知识压缩到一个小模型中,从而更容易进行部署? 训练超大模型是因为它更容易提取出数据的结构信息(为什么?) 知识应该理解为从输入到输出的映射,而不是学习到的参数信息 模型的泛化性来源于错误答案的相对概率大小(一辆宝马被误判为卡车的概率大于被误判为萝卜的概率),而泛化性是学
AIstudio https://aistudio.baidu.com/aistudio/index 关于AI Studio AI Studio是基于百度深度学习平台飞桨的一站式AI开发平台,提供在线编程环境.免费GPU算力.海量开源算法和开放数据,帮助开发者快速创建和部署模型. EasyEdge 可基于多种深度学习框架.网络结构的模型,快捷生成端计算模型及封装SDK,适配多种AI芯片与操作系统. 基于Paddle Lite研发的端计算模型生成平台,能够帮助深度学习开发者将自建模型快速部署到设备
[说在前面]本人博客新手一枚,象牙塔的老白,职业场的小白.以下内容仅为个人见解,欢迎批评指正,不喜勿喷![握手][握手] [再啰嗦一下]本文衔接上一个随笔:人工智能中小样本问题相关的系列模型演变及学习笔记(一):元学习.小样本学习 三.生成对抗网络 GAN 综述 说到小样本学习,就想说比较时髦的生成对抗网络GAN.别误会,生成对抗网络并不是只针对小样本生成,还有很多别的丰富应用. 1. GAN GANs是一种结构化的概率模型,由两个对立的模型组成:生成模型(G)用于捕获数据分布,判别模型(D)用