AI 芯片的分类及技术】的更多相关文章

AI 芯片的分类及技术 人工智能芯片有两种发展路径:一种是延续传统计算架构,加速硬件计算能力,主要以 3 种类型的芯片为代表,即 GPU. FPGA. ASIC,但 CPU依旧发挥着不可替代的作用:另一种是颠覆经典的冯·诺依曼计算架构,采用类脑神经结构来提升计算能力,以 IBM TrueNorth 芯片为代表. 1. 传统 CPU 计算机工业从 1960 年代早期开始使用 CPU 这个术语.迄今为止, CPU 从形态.设计到实现都已发生了巨大的变化,但是其基本工作原理却一直没有大的改变. 通常…
深度 | AI芯片终极之战 https://mp.weixin.qq.com/s?__biz=MzA4MTQ4NjQzMw==&mid=2652712307&idx=1&sn=28806ccb69a5f5d1142ac5f79ccde395&chksm=847dba7db30a336bfde664a5f2b75fdc443ac541483542eada358f298965614f60e3faaecf7e&scene=21#wechat_redirect 2018-0…
2015年的秋天,北京的雨水比往年要多些,温度却不算太冷.这一年里,年仅23岁的姚颂刚刚拿到清华大学的毕业证书;32岁的陈天石博士毕业后已在中科院计算所待了整整8年;而在芯片界摸爬滚打了14年的老将何云鹏却毅然辞掉了长虹芯片高管的职位,华丽创业转身. 2015年的秋天,在大洋的另一端,英伟达的股价还在20多美元徘徊,谷歌公司内部却开始秘密地用上了TPU芯片;在彼岸的中国市场里,百度研究院两位高管:副院长余凯与异构计算团队负责人吴韧陆续离职,成立了两家芯片公司——地平线与异构智能. 2015年的秋…
继「人工智能AI芯片与Maker创意接轨」的(上)篇中,认识了人工智能.深度学习,以及深度学习技术的应用,以及(中)篇对市面上AI芯片的类型及解决方案现况做了完整剖析后,系列文到了最后一篇,将带领各位Maker进入智能化的世界,你也能轻松成为一位AI应用创作者. Maker如何进入AI领域? 对Maker而言,要如何进入智能化的世界呢?我们可从几个方面来综合评估:创作智能化目标.算力(AI芯片).算法(模型/网络).训练数据及开发工具. 首先,确认创作内容的输入和输出项目为何?通常输出与输入的内…
在人工智能AI芯片与Maker创意接轨(上)这篇文章中,介绍人工智能与深度学习,以及深度学习技术的应用,了解内部真实的作业原理,让我们能够跟上这波AI新浪潮.系列文来到了中篇,将详细介绍目前市面上的各类AI芯片,进一步分析不同类型的芯片. 目前市面上对人工智能(AI)芯片常见的作法大致可分成五大类:通用型的CPU(Central Processing Unit).半通用型的GPU (GraphicsProcessing Unit).半专用型的FPGA (Field Programmable Ga…
近几年来人工智能(Artificial Intelligence, AI)喴的震天价响,吃也要AI,穿也要AI,连上个厕所也要来个AI智能健康分析,生活周遭食衣住行育乐几乎无处不AI,彷佛已经来到科幻电影中的那个世界,面对这波「智能」新浪潮,身为Maker的我们自然不能缺席.本文将分成上.中.下三篇介绍AI芯片的发展,以及Maker们如何使用AI芯片与创作接轨. AI这个领域看似深不可测,大家都说你得先学个线性代数.机率再加上一堆理论以及看了就头疼的程序代码,再经过数年修练,就能小有成就.不过,…
随着深度学习的飞速发展,对处理器的性能要求也变得越来越高,随之涌现出了很多针对神经网络加速设计的AI芯片.卷积计算是神经网络中最重要的一类计算,本文分析了高性能卷积计算中的数据复用,这是AI芯片设计中需要优化的重点之一,具体思路如下 数据复用的动机 存储-计算分离框架下,针对卷积计算的优化思路 针对卷积计算的硬件架构设计分析 已经面临的挑战和解决方向 神经网络中数据复用的未来 1. 高性能卷积计算中数据复用的动机 深度学习的发展过程中,较高的计算量是制约其应用的因素之一.卷积神经网络中,主要计算…
AI 的热潮还在持续,AI 的战火自然也在升级.英伟达作为这一波 AI 浪潮中最受关注的公司之一,在很大程度上影响着 AI 的战局.上周在美国举行的 GTC 2019 上,黄仁勋大篇幅介绍了英伟达在 AI 软件和计算力方面的提升,但售价仅为 99 美元(约 664 元人民币)的 Jetson Nano 人工智能计算机却成了最受关注的焦点.本月早些时候的 TensorFlow 开发者峰会上,谷歌也发布售价 149.99 美元(约 1009 元人民币)的 Edge TPU 开发板.虽然是最受关注的…
from:https://36kr.com/p/5103044.html 到2020年,大多数先进的ML袖珍电脑(你仍称之为手机)将有能力执行一整套任务.个人助理将变的更加智能,它是打造这种功能的切入点.语音识别会不断优化.私人助理将不仅仅是云端搜索引擎的前端.因为个人AI将有拥有真正处理分析数据的能力,并使用搜索引擎来搜索数据. 以下是我的几个预测: 1)实时健康分析 - 当前,智能手表会监控您的心率和步数,并将其发送到您的手机中,之后手机会将其发送到云端.在不久的将来,您的个人AI将会实时读…
下一波大趋势和大红利从互联网+让位于人工智能+,已成业界共识.在AI的数据.算法和芯片之三剑客中,考虑到AI算法开源的发展趋势,数据与芯片将占据越来越重要的地位,而作为AI发展支柱的芯片更是AI业的竞争“核心”.在围绕AI芯片一系列跑马圈地的“运动”中,已不是“单点作战”的竞争,而是涉及路线.架构.应用.生态等全方位的维度. 路线之争 可以说,芯片将决定新AI计算时代的基础架构和未来生态.因此,谷歌.微软.IBM.Facebook等美国巨头都投巨资加速AI芯片的研发,旨在抢占制高点,而国内AI芯…
阿里巴巴第一颗自研芯片正式问世.9月25日的杭州云栖大会上,达摩院院长张建锋现场展示了这款全球最强的AI芯片——含光800.在业界标准的ResNet-50测试中,含光800推理性能达到78563 IPS,比目前业界最好的AI芯片性能高4倍:能效比500 IPS/W,是第二名的3.3倍. 张建锋说:“在全球芯片领域,阿里巴巴是一个新人,玄铁和含光800是平头哥的万里长征第一步,我们还有很长的路要走.” 含光为上古三大神剑之一,该剑含而不露,光而不耀,正如含光800带来的无形却强劲的算力.在杭州城市…
​芯片一直是个神奇的东西,表面上看是电脑.笔记本.智能手机改变了世界,其实,真正改变世界的硬件内核是芯片,芯片相关的技术才是科技界最实用.最浪漫的基础技术,也正因如此,谁掌握了芯片基础技术,谁就能立于不败之地,分分钟攫取高额的利润,最典型的例子就是三星,他们在功能机时代就同诺基亚.摩托罗拉并列为三大巨头,也被中国青年誉为"最值得购买"的三个品牌之一.现在,他们的Galaxy又是唯一能同iPhone匹敌的明星机型,毫无疑问,苹果.三星在终端市场是死对头,乔布斯曾亲自制作PPT讽刺其跟风,…
雷帝网 乐天 10月17日报道 比特大陆今日正式发布终端人工智能芯片BM1880,一同发布的还有基于云端人工智能芯片 BM1682 的算丰智能服务器 SA3.嵌入式AI迷你机 SE3.3D 人脸识别智能终端以及基于 BM1880 的开发板.AI模块.算力棒等产品. 比特大陆产品战略总监汤炜伟表示,比特大陆云端人工智能芯片以9个月的速度快速迭代,基于芯片的相关产品在实际运行中表现良好,合作正在广泛展开,很多安防项目持续落地. "同时,由于目标市场应用需要端云一体化的 AI 解决方案,为了更好地满足…
机器之心报道,作者:李泽南. 去年的 7 月 5 日,百度在北京国际会议中心开办了首届「AI 开发者大会」.在会上,百度首次喊出了「All in AI」的口号.一年的时间过去了,今天在同样地点举行的第二届开发者大会上,李彦宏说道:去年我吹过一个牛,百度的 L4 级别无人驾驶车的量产,会在 2018 年的 7 月份.今天我要说的是,这个牛,马上就要实现了!而百度的最新战略.技术实力.以及生态发展也在这场大会上一一展现在我们的面前. 本次大会的亮点: 全球首款 L4 自动驾驶巴士「阿波龙」量产下线…
课程作业,正好自己也在学深度学习,正好有所帮助,做了深度学习的AI芯片调研,时间比较短,写的比较仓促,大家随便看看 近年来,深度学习技术,如卷积神经网络(CNN).递归神经网络(RNN)等,成为计算机视觉等相关领域的研究热点之一,取得了一定的研究和应用成果.回顾人工智能发展史,早在上世纪 80 年代末期,Geoffrey Hinton等人便提出深度学习的方法,并且在数字手写体的识别问题方面取得突破性进展.进入90 年代后,由于对深度学习理论认识和硬件系统计算能力的局限性,深度学习技术的发展受到制…
据网上搜到的新闻报道,截止2019年,已经有20家企业投入到 AI 芯片的研发中,其中有很多厂商的芯片已经流片甚至商用了.为何有这么多公司在做AI芯片呢?简单来讲就是四个字:有利可图.具体来说有以下三点. 1. 算法对算力需求很大 其实神经网络.反向传播的算法早在1986年就提出来了,但是深度学习从2012年开始才大放异彩,原因是它需要输入海量数据和非常大的算力,在当时不具备这样的条件.如今随着人工智能在图像识别.语音识别.自动翻译等领域的飞速发展,新的模型每天都在出现.他们对算力的要求越来越高…
AI芯片体系结构目标图形处理 AI chip architecture targets graph processing 可编程图形流处理器(GSP)能够执行"直接图形处理.片上任务图管理和执行以及任务并行性".设计GSP是为了满足人工智能处理的需求,而这些需求以前是GPU.CPU或DSP无法满足的. GSP体系结构由一系列图形流处理器.专用数学处理器.硬件控制和各种类型的数据缓存组成.GSP可以提供:"真正的任务级并行,最小限度地使用片外存储器,深度优先的硬件图形调度,完全…
AI芯片结构目标图形处理 AI chip architecture targets graph processing 东京--AI处理器设计师Blaize,原名ThinCI(发音为"ThinkEye"),透露其完全可编程图形流处理器(GSP)将于2020年第二季度投入量产. Blaize联合创始人兼首席执行官迪纳卡•穆纳加拉(Dinakar Munagala)称,尽管这家成立6年的初创企业对其产品规格(如功率水平和基准测试结果)一无所知,但其测试芯片已于2018年年中在全球范围内进行了…
过去70年,计算机一直遵循冯·诺依曼架构设计,运行时数据需要在处理器和内存之间来回传输. 随着时代发展,这一工作模式面临较大挑战:在人工智能等高并发计算场景中,数据来回传输会产生巨大的功耗:目前内存系统的性能提升速度大幅落后于处理器的性能提升速度,有限的内存带宽无法保证数据高速传输. 12月3日,快科技获悉,达摩院成功研发新型架构芯片.该芯片是全球首款基于DRAM的3D键合堆叠存算一体AI芯片,可突破冯·诺依曼架构的性能瓶颈,满足人工智能等场景对高带宽.高容量内存和极致算力的需求. 在特定AI场…
本文由云+社区发表 作者:堵俊平 在数据爆炸与智能革命的新时代,新的平台与应用层出不穷,开源项目推动了前沿技术和业界生态快速发展.本次分享将以技术和生态两大视角来看大数据和人工智能技术的发展,通过分析当下热门的开源产品和技术,来梳理未来的行业生态以及技术趋势. 我们今天的主题分为三块,第一是从开源的角度看技术.产品和生态,第二,我们从腾讯云大数据的角度梳理开源的实践,并跟大家分享一下我们最近一段时间或者最近一年以来我们的贡献和成果.最后会跟大家一起探讨一下开源的大数据以及AI这个生态当中的一些热…
AI:机器人与关键技术--总是被科普 原文链接:www.csdn.net/article/2014-04-22/2819430 机器人发展建议: 有需求才有生产,有更高的需求才有发展: 第一条:我们的军队要使用机器人,安全稳定是一切运行的前提,军队是不在乎money这点事的:所以把这个大头咬住,必然发展迅速: 好处:减少人员伤亡,让父母和妻子少流一些泪水: 第二条:我们的老人院要使用机器人.老人不仅是历史的重建者,也是我们未来的样子.我们不希望我们的年轻人有太多的负担和忧虑,也不希望我们的未来会…
含光出自<列子·汤问>篇有“上古三剑”一章,寓意含而不露,光而不耀,象征含光 800 无形却强劲的算力. 含光 800 是一款 AI 芯片,偏重推理.据介绍,1 颗含光 800 的算力相当于 10 颗 GPU,目前基于含光 800 的 AI 云服务已在阿里云上线. 官方数据显示,含光 800 在芯片测试标准平台 Resnet 50 上的具体分数为:性能 78563 IPS,是第二名(15012)5 倍:能效比 500 IPS/W,是第二名(150)3.3 倍. 简单来说,含光 800 这样的…
3月31日,BoCloud博云.京东智联云.海尔集团联手,以“制造”到“智造”为主题,进行了IT赋能企业数字化转型实践分享. 博云售前解决方案架构师尹贺杰,京东云与AI企业云业务部高级业务技术经理吴世超,海尔集团智能制造产业技术总监亢晓飞三位制造业转型专家,分别从传统制造业互联网化改造.工业制造业融合技术和工业互联网制造企业转型等多个角度进行了实践及案例分享.我们将分三期,分别回顾活动中的精彩内容. 本期内容,我们将回顾京东云与AI企业云业务部高级业务技术经理吴世超,讲解京东智联云如何通过物联网…
AI芯片加速图像识别 AI chip accelerates image recognition 法国研究机构CEA-Leti和LIST在2020年VLSI研讨会上展示了一种概念验证芯片,该芯片集成了低功耗物联网节点和人工智能加速器,并展示了超快的唤醒时间,峰值至空闲功耗降低了1500倍.对于机器学习任务,该节点每秒可提供高达1.3tera次运算/瓦特(TOPS/W)或36个gop. 这款名为SamurAI的芯片在占用检测系统中进行了测试,该系统包括PIR传感器.224×224像素黑白摄像头.F…
本文介绍如何将基于深度学习的目标检测算法应用到具体的项目开发中,体现深度学习技术在实际生产中的价值,算是AI算法的一个落地实现.本文算法部分可以参见前面几篇博客: [AI开发]Python+Tensorflow打造自己的计算机视觉API服务 [AI开发]基于深度学习的视频多目标跟踪实现 [AI开发]视频多目标跟踪高级版(离自动驾驶又‘近’了一点点) [AI开发]centOS7.5上基于keras/tensorflow深度学习环境搭建 背景 交通领域是深度学习技术可以发挥强大作用的一个领域.道路交…
本文由云+社区发表 做为大数据生态系统中最重要的底层存储文件系统HDFS,为了保证系统的可靠性,HDFS通过多副本的冗余来防止数据的丢失.通常,HDFS中每一份数据都设置两个副本,这也使得存储利用率仅为1/3,每TB数据都需要占用3TB的存储空间.随着数据量的增长,复制的代价也变得越来越明显:传统的3份复制相当于增加了200%的存储开销,给存储空间和网络带宽带来了很大的压力.因此,在保证可靠性的前提下如何提高存储利用率已成为当前HDFS应用的主要问题之一. 针对这些问题,英特尔.Cloudera…
资料来源:头条<人工智能影响力报告>中的人工智能十大热门芯片 iPhone X内部搭载了一颗全新定制的处理器——A11 Boinic,用来承担人脸识别和移动支付的工作负荷.双核心A11芯片运算量能够达到6000亿/s.在智能手机上安装专业化的芯片,意味着主芯片运算量减少,电池寿命提高. 作为AI算法的“摆渡人”,到底有哪些智能芯片被AI热烈追求? 1.GPU GPU(Graphics Processing Unit):图形处理器,又称视觉处理器.显示核心.显示芯片,是一种专门在电脑.移动设备(…
  NB-Iot作为一种窄带物联网技术在各大行业脱颖而出,其应用涵盖多个领域.此文计讯小编将讲解NB-IoT的主要应用分类及相关特点.   一.NB-IoT是什么   NB-IoT是指窄带物联网(Narrow Band -Internet of Things)技术.NB-IOT聚焦于低功耗广覆盖(LPWA)物联网(IoT)市场,是一种可在全球范围内广泛应用的新兴技术.NB-IOT使用License频段,可采取带内.保护带或独立载波等三种部署方式,与现有网络共存.   二.NB-IoT具备四大特点…
全图化引擎又称算子执行引擎,它的介绍可以参考从HA3到AI OS -- 全图化引擎破茧之路.本文从算子化的视角介绍了编译技术在全图化引擎中的运用.主要内容有: 1. 通过脚本语言扩展通用算子上的用户订制能力,目前这些通用算子包括scorer算子,filter算子等.这一方面侧重于编译前端,我们开发了一种嵌入引擎的脚本语言cava,解决了用户扩展引擎功能的一些痛点,包括插件的开发测试效率,兼容性,引擎版本升级效率等. 2. 通过codegen技术优化全图化引擎性能,由于全图化引擎是基于tensor…
人工智能这个词可谓是耳熟能详,近几年人工智能热潮再次席卷而来,引起轰动的要数google的AlphaGo,相继打败了围棋界的韩国选手李世石以及世界冠军柯洁,见证了人工智能发展的里程碑式的变革,人工智能再度引起了众人的关注. (此图来自网页http://mini.eastday.com/mobile/171107214414785.html里面,如有侵权,请联系小编及时清除) 人工智能当然不止会下棋这么简单,其实在20年前,智能家居的开发就有不少团队在进行,只是切入点不对,所以一直没有什么起色,现…