导语:非AI专业技术人员转型AI技术,或是作为一名学生学习AI技术开发,对每个有这样诉求和经历的人来说,都希望能够看到AI技术人才的成长经历,给出自己的真实经历分享。

前言

参考塞缪尔.约翰逊(18世纪英国文学评论家、诗人,著有《英语大辞典》、《莎士比亚集》)的思路,“当一个人厌倦了学习技术,那他肯定也厌倦了IT行业;因为只有持续学习,才会有IT行业带给你的一切,包括金钱”。这是IT行业的实际情况,没有哪个人可以靠吃老本长期生存,AI技术更是如此。最近我在读《伦敦人》,书中讲述了200多位新老伦敦人对于伦敦这座城市的切身感受和故事,感觉应该就AI技术人才的成长写一篇,因此,有了本文。

非AI专业技术人员转型AI技术,或是作为一名学生学习AI技术,对每个有这样诉求和经历的人来说,可能都希望能够看到类似经历的人,给出自己的真实经历分享。

今天,我找了几位我的同事,包括我在内一共五位,我们都很有代表性,逐一介绍一下:

  • 麦克周:2004年毕业于浙江大学,计算机专业硕士,15岁开始学习编程,使用的是Basic语言,读书期间主要写C语言,2004年毕业时写的是JSP代码(一种将Java语言嵌入在HTML代码中的编写方式),工作几年后转入分布式软件技术,再后来进入大数据技术领域,最近的4年时间从事AI平台产品研发工作。
  • Mr Qiu:算法相关专业硕士,工作五年时间。2013年进入杭州电子科技大学学习人工智能和电子信息技术,硕士方式主要以嵌入式和图像算法为主,毕业后进入安防行业的大华公司,再到华为,一直从事计算机视觉、算法移植优化、训练框架优化、机器学习等工作。
  • Hannah:曼彻斯特大学电子电气工程本科,伦敦大学学院数据科学硕士,毕业后加入华为公司,已经工作两年。华为公司作为国内私有云的先驱厂商之一,在数据科学这一领域有很多沉淀。因此,工作期间有机会参与多维度的工作,从算法研究落地,到平台开发,再到POC项目开发、现场建模PK等,在短时间内加深了对数据科学这一学科的认知。
  • Doctor Zeng:国内某重点大学博士,2018年华为Special Offer。本科毕业工作五年之后回到学校,继续自己的硕博攻读。硕士期间开始协助导师做项目,接触IT行业的十余年时间,具备丰富的信息系统项目开发与管理经验、人工智能领域的项目实战经验,并作为实验室技术骨干参与若干国家级、省部级项目。博士期间的主要研究领域是NLP、知识图谱,现担任华为某算法建模团队首席专家。
  • 帆哥:20年ICT工作经验,4年信号处理机开发,5年企业数通产品研发,3年操作系统架构设计,3年大数据分析研究,5年AI产品规划,目前是华为云ModelArts首席产品管理专家。

正文

麦克周

知识不能单从经验中得出,而只能从理智的发明和观察到的事实两者比较中得出——爱因斯坦

作为一位喜欢彻底搞清楚原理的软件工程师,我的每一次转型都在大量阅读和实际操作中完成。我给的建议是根据自己的实际情况,从全局性的到具体技术的书,一本本读,不要急。

我看的第一本书是尼克的《人工智能简史》,这本书几乎全面讲述人工智能的发展史,几乎覆盖人工智能学科的所有领域,包括人工智能的起源、自动定理证明、专家系统、神经网络、自然语言处理、遗传算法、深度学习、强化学习、超级智能、哲学问题和未来趋势等,当然,他不是一本动手教你编程的书,而是给你一个宏观印象,适合AI产品经理、CTO阅读。

如果你觉得还需要进一步拓展自己对技术的全局性理解,我建议你可以读Stephen Lucci和Danny Kopec一起编写的《人工智能(第二版)》,这本书有点像高校的人工智能相关专业教材,堪称“人工智能的百科全书”,全书涵盖了人工智能简史、搜索方法、知情搜索、博弈中的搜索、人工智能中的逻辑、知识表示、产生式系统、专家系统、机器学习和神经网络、遗传算法、自然语言处理、自动规划、机器人技术、高级计算机博弈、人工智能的历史和未来等主题。

看了全局化的知识后,建议你可以根据自己的实际情况选择书籍,周志华的《机器学习》、Ian等人合著的《深度学习》、Aston Zhang等人合著的《动手学深度学习》、郑泽宇等人合著的《TensorFlow:实战Google深度学习框架(第2版)》、Vishnu Subramanian的《PyTorch深度学习》,这些书都是不错的,当然还有其他很多优秀的著作,这里不展开介绍,更多取决于你当前的状态,你是想快速动手训练模型,还是想了解清楚原理,因人情况不同而异。

除了系统化看书学习以外,我最希望的是尽快上手编码、训练模型,动手必须有IDE工具的支撑,我不太适应公有云的IDE,但是又希望使用公有云的强大的计算资源,所以我希望能有工具,帮助完成本地IDE能够与公有云平台联动,我讲一个已经实现的案例--如何使用PyCharm与ModelArts公有云服务联动开发,快速且充分地利用云端GPU计算资源。

这里我连接的是某花厂公有云AI平台。我们实际上使用一个PyCharm ToolKit工具来帮助建立从本地PyCharm IDE到ModelArts的连接通道,本案例我使用MXNet实现手写数字图像识别应用的示例,在本地快速完成代码编写,发布到ModelArts公有云完成模型的训练和模型生成,生成的模型可以进一步快速进行部署(本文没有覆盖该步骤)。安装ToolKit前需要先安装2019.2版本(目前ToolKit仅适配该版本)的PyCharm,下载地址是:https://download.jetbrains.com/python/PyCharm-professional-2019.2.exe?_ga=2.11170941.815358500.1587189937-686177363.1586569505

需要注意,如果已经安装了高版本的PyCharm,需要首先卸载(自动)已安装的PyCharm:

下载一个工具PyCharm-ToolKit-PC-2019.2-HEC-1.3.0.zip,连接本地IDE与云之间的链路:https://www.jetbrains.com/PyCharm/download/other.html

接着回到PyCharm IDE,打开Settings:

找到Plugins,选择一个插件:

重启后看到如下界面:

然后我们需要去华为云申明OBS的秘钥:

短信验证码注册成功后,请务必把csv文件保存到本机。回到PyCharm IDE:

注意,需要你重新点击edit credential按钮,退出后就能看到打钩了。

这样我们就完成了PyCharm IDE与ModelArts的对接工作,进入下一步,实际训练一个模型。首先,下载手写字的数据集,下载链接如下:https://modelarts-cnnorth1-market-dataset.obs.cn-north-1.myhuaweicloud.com/dataset-market/Mnist-Data-Set/archiver/Mnist-Data-Set.zip,登录华为云上传OBS:

创建完毕文件夹后,接着在PyCharm打开工程,填写参数,可以参考ModelArts训练模型时填写的参数:

点击“Run Training Job”,右下角是从公有云传回到PyCharm的训练日志信息:

训练完成后,训练模型保存在公有云的OBS里,你可以自己选择下载或是在云上做推理。

如果有这样的一堆工具,是我们这些实际写代码的人的福音。

Mr Qiu

“某利郡后;颇与郡人相安;日知来四处无虞;早收中熟;觉风雨如期;晚稻亦可望;惟是力绵求牧;来日方长。”——宋·文天祥《与洪度瑞明云岩书》

在介绍如何转型进入AI领域之前,先介绍下个人的经历。从接触AI到工作至今大概7年,我把它分为3段:(1)在校学习期;(2)实习转型期;(3)工作成长期。在校期间学的比较广,主要方向在人工智能、高频电子电路、传统图像算法、嵌入式系统等,这个阶段通过以赛促学方式,取得了一些不错的比赛成绩;实习期间有幸参与到某重点项目的“以图搜图”模块,积累了大量的图像、人工智能方面的实战经验;毕业参加工作后,主要围绕计算机视觉、算法移植优化,深度学习框架优化,机器学习等进入研究和实践,有了一定的全栈AI经验。偶有感慨,虽然资质平平,但好在目标明确,持续奋斗,也遇到很多值得感谢的人,才有机会在这里介绍下经验。

2012年,一年一度的ImageNet图像识别比赛,CNN网络AlexNet以碾压的分类性能超过第二名(SVM方法),从此深度学习开始吸引研究者的注意。但真正吸引工业界去大规模投入深度学习,大概到了2015年到2016年,这个时候,贾扬清在博士期间开源了深度学习框架Caffe,谷歌开源第一版的人工智能引擎TensorFlow,Caffe曾一度以其优秀的代码架构,便捷的开发接口等优点受到广大研究者和工程师的推崇。早期做AI开发,很多工具都不完善,需要造轮子,这里的轮子主要包括离线训练时需要开发图像标注工具、需要修改深度学习框架实现相关算子的前向和后向计算、实现卷积中间特征可视化来调优模型等,在线部署时需要自己实现算子的FP16和int8计算,需要自己写CUDA代码等。

现在,进入AI领域的开发者不再需要做这些轮子,真的很幸福。

图像标注工具LabelImg等已开源,可以直接拿过来使用;TensorFlow迭代到更加利于开发者使用,提供了很多优秀的示例,可视化工具和推理部署工具等;随着PyTorch的逐渐崛起,已经可以与TensorFlow评分秋色,开发者有了更多的选择;英伟达推出了基于GPU的推理加速工具TensorRT可以免费使用,华为也推出了基于自研芯片达芬奇的推理加速和框架MindSpore,以更高密度的算力丰富开发者的选择。

随着巨头公司全力投入AI,AI的工具也越来越完善,开发者可以将精力集中在模型开发以及业务的实现上,这是一个AI的好时代,也是AI开发者的好时代,我想现在开始转型AI正逢其时。

再回头看看这些年的AI发展历程和踩过的坑,以个人的角度提炼出传统软件开发转型到AI开发工程的方法,希望对大家有帮助。暂且把这些总结为3个部分,分别为(1)动手跑起来、(2)原理掌握起来、(3)推理部署起来。

1. 动手跑起来:

这个阶段就是通过现有开源的优秀项目进行学习,这里我推荐darknet YOLOv3,项目地址https://github.com/pjreddie/darknet。该项目框架基于C语言实现,框架清晰易于调试。初学者在下载到项目代码后首先要将该项目跑起来,通过跟踪数据在整个框架的流动大致掌握AI是怎么工作的,可以解决什么样的问题。同时在跑通搭建环境的过程中,可以快速掌握GPU跟深度学习框架是怎么结合起来工作的、深度学习框架在运行过程中需要有什么依赖。

2. 原理掌握起来:

作为优秀和经典的端到端检测算法,首先推荐以YOLO进行学习,从推出至今已迭代到第四版本。可以从第一版本YOLOv1开始进入,再到第四版本YOLOv4,掌握YOLO是如何演化的,分别作了哪些改进,改进为什么会起到性能提升的效果。网上已有大量优秀的博客,开发者可以自行去搜索阅读。结合动手跑起来阶段的代码调试,相信会进步的更快。研究完成YOLO演化过程后,有兴趣可以再去研究下R-CNN系列的检测算法,R-CNN系列算法区别于YOLO是召回率高、准确率高,但是耗时,所以综合考虑工业界一般用的更多还是YOLO。

3. 推理部署起来:

推理部署就是将深度学习框架训练好的模型部署到PC或者端测设备进行推理,解决实际的业务问题。这个过程主要包括模型性能调优,GPU或者D芯片的适配,业务逻辑的实现。对于模型性能调优,主要是将模型推理原有的FP32量化成FP16或者int8,从而实现推理加速,实现实时推理。这里推荐英伟达的TensorRT和华为的D芯片加速模块,它们会对模型做更高阶的优化,除了量化,还会有模型网络层之间的算子融合、kennel优化等,具体资料可以到相应的官网去搜索。模型优化完成后,通过相应的推理引擎和业务逻辑实现去完成模型的在线推理,完成真正的工业化,解决实际问题,这也是AI真正为社会产生价值的部分。

通过这三个部分的学习,日积月累,相信你也会慢慢成为AI领域的资深算法工程师。

Hannah

既然我已经踏上这条道路,那么,任何东西都不应妨碍我沿着这条路走下去。——康德

大家好,在本文的五人组里,我是一个职场小白。作为一个没啥社会经历的小白,我的大部分人生是在学校度过的,我这边就主要介绍我上学的经历吧。

本科的时候,我选择了电子电气工程这个专业。当时对于专业和工作没有什么大的概念,只是觉得理科生就该选一个“带电”的专业,我就从长长的专业列表里选了这个最多“电”的专业,然后背着我的小书包,开开心心到了曼彻斯特开始我的大学生涯。

开学后,果然和我想象的不一样,这种工科类的专业对学生的动手实验能力要求很高,我在第一次上实验课,看到一堆的实验器材的时候就懵了。当时场景对我来说是挺可怕的,同组印度小哥听了实验老师给的要求后就咔咔一顿操作,我在旁边愣住了,连把他的操作录下来后面自己回去学习这么重要的事情都忘了。在他得出实验结果后,我才小心翼翼地求教这些操作是怎么一回事。小哥哥是热心肠,用快速的印度口音英语给我解释了一遍。但是我学的英语听力,只听过英音和美音,对于印式英语实在是陌生,我只能厚脸皮让小哥再说一次。他在第三次的时候,终于失去了耐心,指着教材的一段让我读。我这才意识到,他一直都在说这段话,只是我没听懂,包括他指着读的那一次。于是,第一节实验课我是在查各种仪器名称、和同组印度小哥的高速咖喱英语解释的过程中,度过的。感恩团队没有放弃我,让我顺利度过我的大一。

到本科选择毕设方向的时候,我灵机一动,选了DSP(数字信号处理)相关的一个降噪耳机的项目。用下面的图来解释下原理:

一般主动降噪耳机内部会有一个小的麦克风用来采集外界的声音,通过计算,可以生成一个完全相反的音波,然后和外界的噪音叠加,使得噪音消减。

整个项目只是按照老师的教材和给的参考书上面的操作,实现了一个FIR-LMS算法的滤波器。算法虽然简单,但是实现效果还蛮好的。我额外做了一套麦克风的小硬件用来演示成果,在麦克风旁边用手机播放白噪,同时说话,最后从音响出来的声音是有部分降低噪音的效果的。

在做这个项目的时候最大的感触就是,这种算法不仅是可以在科研界获得一些成果,更多的是,在应用到生活中的时候,可以给我们这些普通人很多的便利。

当时很中二的我就会想,如何能接触到更多的这种科技,甚至于参与这种科技的落地。这个时候,一个动画片告诉了我答案。《超能陆战队》里的高级人工智能机器人大白,他是一个近乎全能的家庭医生。这个是AI的力量,在当时几个研究生的offer里,最终选择了数据科学作为我的研究生方向。

研究生阶段起步并不轻松,从电子电气的方向转到数据科学这个学科并不是非常的顺利。数据科学这个专业是统计系和计算机科学系合作办的,也就是说,这个专业对于统计学和计算机科学的要求是比较高的。当时老师也列出了长长的一串参考书目,印象深刻的是PRML(《模式识别与机器学习》)和BRML(《贝叶斯推理和机器学习》)。大家有兴趣也可以去看看,国内也有很好的书籍,推荐李航《统计学习方法》和周志华的《机器学习》。

这个专业依旧也是非常重视我们的实际建模的技能,几乎所有的课程都有30%以上的分数是需要我们去建模。其中有一门是应用机器学习,这门课要求我们在Kaggle上参加比赛,并用我们的名次来给我们打实验分。一个月时间内,我们组参加了三个项目,其中有一个我们拿到了前4%的成绩。Kaggle上面的项目很适合初学者练手,在学习了一堆理论知识后,初学者很多时候会对这一堆数学公式很陌生,不知道他们的实际效果。在Kaggle上的比赛给了初学者一个接触真实数据并用来建模的机会,参加这些比赛,还能根据自己的结果了解当前学习的模型在解决真实问题的时候,能否在排名中靠前,是否是真的比较好的解决方案。这让我在短时间内,对我在课堂上学习到的理论有了更深一层的认识。即使我们对于数据的实际含义并不明晰,即使数据的含义是经过加密处理的,但是还是可以使用一些机器学习技巧建模,对结果进行预测。Kaggle里的Titanic这个项目,也是很多老师选择给学生进行数据分析入门和机器学习入门首选项目,有兴趣的人可以去实际体验一下。

学术界和工业界对模型对要求和应用是不一样的,为了更加了解实际的建模过程,我在毕设的时候,选择了学校和公司合作的项目。毕设项目是我第一个数据科学方面的实习,为华纳音乐公司做一个简单的相似歌手推荐和一份歌手在英国巡演的最佳城市路线图。在这个项目中,我接触了真实的客户数据,并和公司合作,尝试在数据中挖掘更多的关联。同时我也在挖掘更多的可能,在Kaggle上参加了另一个NLP类的比赛,判断两个短文本的相似度。这些项目结束的时候,我的研究生生涯也结束了。

回国后,我休息了一段时间就加入了华为公司。在华为公司,我这边第一个大数据相关的项目是PyTorch大规模加速训练,类似于华为云上面的MoXing,但这个是基于PyTorch的一个优化。在这个项目中,我有机会接触到深度学习计算中较为底层的一些概念,并对GPU之间对通信有了了解。随后,为了给平台上增添更多的模型,我有机会更深一层去了解模型的架构,复原了当时很流行的MobileNet的效果。接着学习并在我们的产品上成功嵌入了R-CNN系列的目标检测算法。

在这一段深度学习的经历后,我又投入了我们产品的机器学习的平台和基础算法实现部分。我在华为云嵌入了LightGBM算法,并对我们机器学习平台进行了一些优化的工作。

接着,我主导了某国家级单位的算法模型POC项目和国内某大行的信用卡中心算法联创项目。再次接触到真实到数据,并针对数据进行建模的工作。这两个项目都是风险控制类的项目,在真实的数据中建模真的十分有趣。每一次使用不同行业的数据进行建模,都像是对另一个行业有了全新的认知。在这期间,我还有机会站在国外的论坛上,用英文给VIP客户介绍一些机器学习的科普知识。

在我短短两年的工作中,我尝试了专业范围内所有的工作。我现在还是觉得我的专业很棒,他帮我打开了新的世界。

Doctor Zeng

一寸光阴一寸金,寸金难买寸光阴 ——《增广贤文》

作为一位有很多年实际工作经验的计算机科学专业博士,我就直截了当讲讲自己对建模流程的理解,以及对应的实际案例。

对于IT界的从业人员而言,从事传统信息系统项目开发的项目经理、工程师,可能大多数都被这个时髦的名字所吸引,但却不知如何下手打造一个高大上的AI项目,就像古代的杨子,遇见了歧路便只知道蹲下来哭泣。好在这是一个最美的时代,我们不用再望着千百条路不知如何下脚,大量头戴智慧光环的科学家与工程师们,早已为我们打下了牢固的基础,出现了许多连业余人员都可以快速上手的AI建模平台。

说到机器学习,可能很多人会望而却步,认为需要掌握非常高深的数学知识和各种晦涩难懂的理论。幸而不幸,专业的AI人员确实需要掌握牢固的数学知识,也需要精通机器学习的各种理论,但对于构建一个AI项目却不一定要精通这些知识。这里我会从一个简单场景逐步铺开,帮助大家了解一个典型的机器学习项目构建过程。

所谓众生熙熙皆为利来,那我们就拿金融业中的场景开刀。金融业可能是大家非常关注的一个领域,就连穷得走漏了风声的我,也略微知道几个金融业术语,比如信用卡欺诈。既然第一个冒出的念头是信用卡申请欺诈,那就听从内心的声音,让我们以信用卡申请欺诈检测为例聊聊AI项目的构建过程。

万事开头难,然后中间难,最后结尾难。对于很多人而言,AI项目似乎就是这种感觉,总是让人难以捉摸。有人说,AI三要素是“数据”、“算力”和“算法”,但我认为还有一个要素也不可或缺—“业务”。与学术研究不同,工程项目通常是面向特定的业务场景及特定的业务目标的,平时我们在构建AI项目的过程中,总是习惯性地把整个过程划分为数据处理、特征工程、模型训练、模型推理及模型部署等过程,但其实对业务的分析与理解贯穿项目始终。一位前辈说,以他从事AI项目开发的经验,理解了业务、有了充足的数据、找到了合适的算法,这个项目便十拿九稳,其中吃透业务是至关紧要的一步,我深以为然。

既然业务理解会贯穿始终,那么我们首先来谈谈业务理解。简单地讲,业务理解就是要去弄清楚我们要做的事(业务常识)、这件事的现状(现有资源)以及要达成的目标(业务目标)等。对于信用卡欺诈检测项目而言,除了项目准备、资源准备等前期工作外,首先需要做的就是深入理解信用卡业务,知道什么是信用卡申请欺诈、为什么容易出现信用卡申请欺诈、我们拥有哪些可用的数据资源,以及信用卡欺诈检测系统要达成的目标,等等,然后才去思考如何做信用卡申请欺诈检测。业务理解的过程,往往需要业务专家的深度介入,需要算法建模人员与业务专家的密切配合。

在理解了业务需求后,对数据的获取、分析及处理就成为了无法绕过的重要步骤。数据的获取相对容易理解,简单点说就是在合法合规的前提下,尽可能多地收集到与业务问题密切关联的数据,比如信用卡申请人在申请信用卡过程中填写的个人信息、人行征信报告、第三方机构的信用分析报告等等,均可作为信用卡申请欺诈检测系统的输入数据。数据分析的主要目的是认识数据并从数据中提取有用信息,这又是一个一言难尽的大范畴,工具五花八门,手段也多种多样,甚至贯穿着整个AI项目构建过程。

一般而言,从不同渠道获取到的数据,其质量良莠不齐,充斥着大量的冗余、重复、缺失、异常以及不一致的数据,很难直接用于AI模型的构建过程。冗余数据的判定需要结合业务分析、相关性分析等手段,通常包括在业务上无效的数据,或与别的数据高度相关的数据等,这类数据与重复数据的处理方法很简单,简单粗暴地删除即可;缺失数据的处理方式有很多种,通常有简单删除、特殊值填补、相关数据衍生等常规方法,以及热卡填充、聚类填充、基于简单机器学习模型预测的高阶方法等;而异常值的处理,需要采用箱型图、三西格玛准则、DBSCAN聚类及孤立森林等方法进行分析,识别出数据中的异常值后,按照缺失值的处理方式进行处理;不一致数据主要指那些意义相同但表示方式不一致的数据,比如大小写混用、日期格式不规则、地址不规范以及单位不统一等,这类数据只需要结合数据规则进行统一规整即可。

数据规整后,通常需要对数据集进行切分。当数据量比较大的时候,可以切分出训练集、验证集与测试集,直接使用训练集训练模型,用验证集确定最佳的模型参数,用测试集评估模型性能;当数据量较小的时候,通常不切割出专门的验证集,而采用交叉验证的方式确定模型参数,以确保模型得到充分的训练。信用卡申请欺诈检测数据,往往总量特别大,但其中真正发生了欺诈行为的数据却很少,即存在非常严重的数据不均衡问题。因此,在数据集切分过程中,要确保欺诈类的数据能够以一定比例进入到各个数据集中。下面这张截图包含数据分割算子的平台。

数据处理完成后,便进入了复杂精巧的特征工程阶段。在传统的机器学习类项目中,数据处理和特征工程具有极高的地位,甚至有人提出数据和特征决定了机器学习的上限,而算法和模型不过是逼近这一上限而已。在我们的实践中,数据处理和特征工程的整个过程至少占据了整个项目的百分之七十以上的开发人力,通常还需要在建模过程中回过头对特征进行反复打磨。下面这张图是特征工程工作流截图。

终于,用于建模的数据准备好了,我们可以开始进行高大上的建模工作了。我更乐意把这个过程叫成模型工程,涵盖了模型选择、模型训练、模型评估和模型推理等子过程。模型选择的过程,通常既要用到很多机器学习的基本功,又需要对数据、业务等有深刻理解,还可能需要一定的建模经验(别人的经验也是经验)。

我们知道,机器学习任务通常可以根据数据集是否有标签而划分为有监督、无监督或半监督等类别,根据预测的数据是离散值还是连续值又可以划分为分类问题和回归问题两类。对于信用卡申请欺诈检测这个问题而言,最简单的处理方式就是把它当成有监督的二分类问题,即我们只需要判断用户发起的一个申请是或不是欺诈申请。现在我们用得比较多的是LGBM、XGBoost、RF等,如下图所示。

模型选定后,就进入模型训练、推理和评估的过程了。模型的训练过程就是要把准备好的训练数据喂给模型,让模型以参数等形式学习到数据中蕴含的规律和规则等。通常,在这个过程中,你要设置好模型需要的各类超参数。现在各类开源的机器学习库、便捷易用的机器学习平台俯拾皆是,大部分情况下,我们并不需要从零开始构建一个机器学习模型,只简单地做个“调包侠”调一下各种开源机器学习包或者在机器学习平台上拖拽几个算子即可。模型推理的过程很好理解,就是把测试集中的数据喂进训练好的模型中,让模型预测出结果即可。比如对于信用卡申请欺诈检测问题而言,就是将待预测的数据丢进模型中,由模型给出每一条数据对应的预测结论。模型评估过程则是通过各类指标对预测结果进行评估,度量预测结果与真实结果之间的差距。对于分类问题而言,常见的有精确率、准确率、召回率、F1值等度量指标,对于回归问题而言,常见的有MAE、MSE等度量指标。

ModelArts Miner平台评估算子结果显示界面截图

模型训练、推理和评估过程,甚至包含数据处理和特征工程过程,可能需要反复调整与锤炼,但只要功夫深,金箍棒也能磨成针,你终究会得到你想要的。好了,我们假设你已经得到想要的了,你的模型也能一定程度地预测信用卡申请单是否存在欺诈了。至此,黎明的曙光终于照亮东方的长空,天边也出现了一丝鱼肚白。现在你要做的,就是让黎明来的更猛烈一些,把你的模型部署到你的业务系统中,让你的数据欢快的畅游在AI的管道里,喷出耀眼的烟火。部署到业务系统后,你要不断地审视你的结果,并且根据最新的数据不断地调整与优化你的整个模型。但这时候,已经不是我这篇文章能帮助你的了,你展开雄壮的翅膀,去击穿苍穹,尽情翱翔吧。下面这站图是基于华为云AI平台工作流模式,针对信用卡欺诈检测全流程界面截图。

帆哥

天行健,君子以自强不息。——《周易·乾》

作为一名资深产品经理,转型搞AI后从事了多年的AI平台产品设计,我讲讲我对AI产品的理解。对于公众认知的AI开发而言,大家往往想到的都是算法开发,其实对一个商业落地的AI开发过程,会涉及到很多不同方面,它不仅仅是算法开发,还会涉及到算力、数据、迭代优化等环节。 对于AI的商业化落地中, CTO们会均衡考虑到三类方面的资源投入,不仅仅是IT基础实施还包括工程师投入:

1. 算力 –> 普惠;

2. 数据 --> 模型;

3. 算法 --> 落地; 每一个环节涉及到的人力投入不同,大致会涉及到IT工程师、数据科学家、应用工程师。

具体展开讲:

1. 算力—> 普惠(面向IT工程师)

对于AI开发而言,如何利用好算力资源,提升资源利用率是目前特别重要的工作。往往算法工程师并不擅长这些事情,需要有专业的系统级工程师来帮助是实现,从集群的搭建、运维、固件运维、底层算子优化、分布式调优,以及大量的框架维护等方面,另外面向不同部门之间的资源管理也是IT工程师需要关注的内容。对于简单开发而言,自己用开源搭建搞搞是可行的,但是一旦需要大规模的商业化,需要一个有个比较好的平台尤为重要。

2. 数据 --> 模型(面向数据科学家)

对于AI建模,本质上面是基于数据去生成模型的过程,那么一般来说,初始demo快的几天就可以出来,但是到真正落地的时候,少则花费算月,多则上年。这个过程中涉及两类的大量投入,一类投入获取训练数据,从数据收集和标注端到端,另一类投入不断模型迭代优化上,涉及到大量的领域技能。

训练数据:面向通用类的场景,会涉及大量的数据标注的工作,这会花费大量的标注人力,对于一般场景下,普通的人员就可以标注,但是面向复杂场景下,都需要专业人士去标注,如医疗影像类场景,一般人都标注不了。所以对于专业领域的标注,以及大量的数据标注下,有一个非常友好的自动化标注及数据难例的算法能力,尤为重要。

迭代优化:模型建模过程中,商业场景下,数据科学家建模过程中,更多的使用成熟的论文和算法,围绕具体的业务场景,结合数据的情况,来选择性建模,并且随着不同环境变化情况下,不断的调整算法的设计和组合优化,从而达到最佳的算法效果。这个过程中涉及到大量的场景理解。对于开发模型而言,有一个很好的案例库,能快速找到场景化的沉淀领域知识,是非常有帮助的。

3. 算法 --> 落地(面向应用工程师)

以往大家觉得算法落地就是一个类似软件开发的集成过程,其实对于AI类的应用并非那么简单。一般非常通用类的场景下,集成已有的模型去做一些识别比较成熟,如语音识别。但是往往商用类场景下,往往场景的适配度都不够好,虽然业界都在讨论万物识别的可能,但是都并不如意。所以从对于算法实际落地而言,都需要基于实际情况去不断优化。由于需要迭代优化的过程,那么应用工程师就必须要围绕思考场景下部署与训练的业务通路和方便性。一般数据科学家和算法工程师都是比较稀缺的,让数据科学家和算法工程师到每一个现场去做调优实施是不可行的,大量的现场实施工作必须有大量的应用工程师来完成。面向应用工程师去自优化模型并且不断迭代和调整模型的精度将是以往软件工程不太发生的问题。

所以这往往也需要一个系统体系化的平台,去支撑业务场景的快速迭代,从而提升应用工程师的效率。

从近20年的自身工作经历来说,商用落地一个AI业务其实是一项最复杂的系统工程的事情。它不仅仅是一个单独的算法开发这么简单,围绕商用AI落地的所需的相关技能特别多。

1、从IT工程师角度上,他需要聚焦资源效率和成本做不同的考虑,围绕底层资源管理、系统架构设计、分布式优化、资源调度管理、IT建设设计、端-边-云的部署与简便维护等做相应的设计,从而能很好的支撑算法应用落地;

2、从数据科学家角度上,他不仅仅要懂得去开发一个算法和参数优化能力,还要对行业场景做深入理解,具备行业Know-how,根据环境和数据的问题,不断迭代和建模,不断调整算法应对环境变化,达成相应的效果,期间会需要关注大量的伦理和道德,包括安全合规,模型的防攻击和可解释性类的问题等;

3、从应用工程师角度上,他不仅仅是一个应用集成,需要理解AI应用的不确定性,去选择合适的场景限制,并且根据实际的情况,去适应已有模型的能力。并且还能够有独立进行模型的训练迭代的能力,通过数据科学家预置好的流水线去迭代,自行现场去优化和迭代。从而达到真实场景下的落地。

综述,对于很多商业公司而言,他们更聚焦在AI的商用场景上面,往往会忽略AI平台的重要性。但往往对于有前瞻性的商业公司CTO/CIO们,他们都会考虑AI商业落地的时的AI平台选择。华为云ModelArts平台的初衷也是聚焦在AI商业落地的困难孕育而生,结合华为自有的昇腾芯片系统,集合ModelArts不断致力于AI的普惠。

后记

经过几十年的发展,计算机科学已经成为一门成熟的学科,当前大学计算机系的组织架构图,每个计算机系大多有三拨人:理论、系统和AI(人工智能)。20年前的美国计算机圈子曾有一种说法:理论和系统的人互相看不起,但又同时看不起AI的人。AI这几年火了,但曾经也是被压迫者。哲学曾经孕育了科学,但一旦问题确定,就分离成为单独的科学。

正如Allen Newell所言,AI的历史是一串儿对立议题的斗争,如模拟与数字、串行与并行、取代与增强、语法与语义、机械论与目的论、生物学与活力论、工程与科学、符号与连续、逻辑与心理等,在每一个议题下有进一步可分的子议题,如在逻辑与心理下又有定理证明与问题求解等,有争议才有发展的空间。

我相信这个斗争的趋势依然会存在相当长的一段时间,我们只有适应这样的斗争、进步,不断增强自己的技术、迎接新技术的挑战,我们才能保持自己职业生涯的持续前进。因此,你可以利用业界大公司提供的一揽子培训计划,不断加强自己的技术深度,例如华为云面向所有向往AI的开发者,设计了一门优质课程《2020华为云AI实战营》,内容包括图像分类、物体检测、图像分割、人脸识别、OCR、视频分析、自然语言处理和语音识别这8大热门AI领域的基础知识、经典数据集和经典算法的介绍和实践。每章课程都是由华为云AI专家精心打造的实战案例,全流程覆盖模型训练、测试、评估,配合代码讲解和课后作业,帮助您掌握八大热门AI领域的模型开发能力,转型成为一名AI开发者。

作者:周明耀,九三学社社员,2004年毕业于浙江大学,工学硕士。现任华为云AI产品研发总监,著有《大话Java性能优化》、《深入理解JVM&G1 GC》、《技术领导力-如何带领一支软件研发团队》、《程序员炼成记》等。职业生涯从软件工程师起步,后转为分布式技术工程师、大数据技术工程师,2016年开始接触AI技术。微信号michael_tec。

点击关注,第一时间了解华为云新鲜技术~

华为五大专家亲述:如何转型搞 AI?的更多相关文章

  1. 【RPA之家转载】苏桦 华为RPA 企业财务实践:RPA与AI结合,实现百万级票据、合同处理自动化

    [RPA之家转载]苏桦 华为RPA 企业财务实践:RPA与AI结合,实现百万级票据.合同处理自动化 看到大会的主题,说每一位开发者都了不起,说白了我也非常的感触,因为我自己本身也是一个开发者,我从01 ...

  2. 前端架构师亲述:前端工程师成长之路的 N 问 及 回答

    问题回答者:黄轶,目前就职于 Zoom 公司担任前端架构师,曾就职于滴滴和百度. 1. 前端开发 问题 大佬,能分享下学习路径么,感觉天天忙着开发业务,但是能力好像没有太大提升,不知道该怎么充实自己 ...

  3. 华为云PaaS首席科学家:Cloud Native +AI,企业数字化转型的最佳拍档

    近日,在2019华为全球分析师大会期间,华为云PaaS首席科学家熊英博士在+智能,见未来(华为云&大数据)的分论坛上,从云计算行业发展谈起,深入云原生发展趋势,对华为云智能应用平台做了深度解读 ...

  4. 【亲述】Uber容错设计与多机房容灾方案 - 高可用架构系列

    此文是根据赵磊在[QCON高可用架构群]中的分享内容整理而成.转载请事先联系赵磊及相关编辑. 赵磊,Uber高级工程师,08年上海交通大学毕业,曾就职于微软,后加入Facebook主要负责Messen ...

  5. Go语言大神亲述:历七劫方可成为程序员!

    “历劫1”:你坚信你可以用Go来做面向对象编程? 在经历了一次Go应用之旅之后,你可能就会开始思考:“怎么样才能让这种语言更像面向对象的编程语言?”因为你已经习惯了这种编程,你想要制作健壮的代码.想要 ...

  6. 星际争霸的虫王IA退役2年搞AI,自叹不如了

    ------------恢复内容开始------------ 金磊 发自 凹非寺 量子位|公众号 QbitA 这年头,直播讲AI,真算不上什么新鲜事.但要是连职业电竞选手,都开播主讲呢?没开玩笑,是真 ...

  7. 为你揭秘知乎是如何搞AI的——窥大厂 | 数智方法论第1期

    文章发布于公号[数智物语] (ID:decision_engine),关注公号不错过每一篇干货. 数智物语(公众号ID:decision_engine)出品 策划.编写:卷毛雅各布 「我们相信,在垃圾 ...

  8. 华为有AI,这场转型战有点大

    华为有AI,这场转型战有点大 https://mp.weixin.qq.com/s/qnUP5cgbNxXcAT82NQARtA 李根 发自 凹非寺 量子位 报道 | 公众号 QbitAI 华为有AI ...

  9. 当心,你搞的Scrum可能是小瀑布

    摘要:有的团队刚接触Scrum,一个问题令他们很困扰:迭代初期开发人员的工作较多,测试人员闲着:迭代末期开发人员闲着,测试人员的工作比较多,怎么解决资源等待的问题呢? 本文分享自华为云社区<当心 ...

随机推荐

  1. Codeforce 270D Greenhouse Effect

    Emuskald is an avid horticulturist and owns the world's longest greenhouse - it is effectively infin ...

  2. Makefile中的CFLAGS,LDFLAGS,LIBS

    CFLAGS:C编译器选项,而CXXFLAGS表示C++编译器的选项 1. CFLAGS参数 选项 说明 -c 用于把源码编译成.o对象文件,不进行链接过程 -o 用于连接生成可执行文件,在其后可以指 ...

  3. 2-MyBatisPlus教程(HelloWorld)

    1,准备数据 DROP TABLE IF EXISTS user; CREATE TABLE user ( id ) NOT NULL COMMENT '主键ID', name ) NULL DEFA ...

  4. N - 寿司晚宴 HYSBZ - 4197 状压dp

    N - 寿司晚宴 HYSBZ - 4197 推荐题解 这个题目我觉得还是很难的,借助题解写出来的,题解还看了很久,现在还是不是很理解. 首先这个数比较大有500,如果直接就像这个题目S - Query ...

  5. JavaScript 浅析数组对象与类数组对象

    数组(Array对象) 数组的操作 创建数组方法 添加与修改数组元素 删除数组元素 使用数组元素 遍历数组元素 多维数组 数组相关的函数 concat() join() pop() push() sh ...

  6. Polar码快速入门

    Polar码快速入门 本科生在学习极化码时,并不是件简单的事情.网上极化码的资料很少,而且基本上都是较难的论文.这篇文章是用来帮你快速入门极化码. Poalr码背景 2015 年,国际电信联盟无线通信 ...

  7. NLTK数据包下载频繁报错——解决方法

    问题描述:Nltk下载数据包,安装频繁报错. import nltk nltk.download() 运行上面的代码,下载nltk的数据包.但是在下载过程中因为各种问题导致网络传输失败,下载不成功. ...

  8. [hdu1402]大数乘法(FFT模板)

    题意:大数乘法 思路:FFT模板 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 ...

  9. Analysis分析器

    一.Analysis简介 场景执行过程中,loadrunner收集执行过程中的数据,存储在扩展名为.lrr的文件中,Analysis分析器打开这个文件,对文件信息进行处理,并生成图和报告. 数据分析不 ...

  10. EOS基础全家桶(十二)智能合约IDE-VSCode

    简介 上一篇我们介绍了EOS的专用IDE工具EOS Studio,该工具的优势是简单,易上手,但是灵活性低,且对系统资源开销大,依赖多,容易出现功能异常.那么我们开发人员最容易使用的,可能还是深度定制 ...