人工智能技术包括机器学习、人工智能芯片等基础支撑技术,简单介绍下这些技术功能。
机器学习
机器学习主要是研究机器模拟人的学习行为,以获得新的知识或技能,机器学习是人工智能基础技术层的软件核心。
机器学习一般在两个阶段分为训练和推理。在训练阶段,机器需要阅读大量的训练数据(类似于人类的经验)进行了广泛的培训,以生成模型(类似于人获得学习技能),在推断阶段,机器利用网络训练得到的模型。可以进行预测新数据的结果。
目前机器学习的分支和统计学习的深度学习,统计学习方式已经被成功应用到现代企业社会的各个管理方面。而深度学习技术是近年来人工智能热潮的直接推动力,深入学习框架是深度学习的核心工具,这部分的重点是主流深学习框架。
深度学习框架
随着人工智能的热潮,众多互联网和研究机构纷纷投入巨资参与研究和深入学习框架的发展,扩大影响力。目前我国市面上使用深度学习理论框架技术层出不穷、数目以及众多。我们可以从中选择影响较大且有一定代表性的11个进行分析介绍,包括TensorFlow,MXNet,Caffe,Caffe2,CNTK,Deeplearning4j,PaddlePaddle,Keras,Torch,PyTorch,Theano等。
TensorFlow
TensorFlow在2015年推出,网络结构基于图的计算,灵活的架构提供了原生支持分布式。它依托Google强大的研发技术实力和业界影响力,社区可以活跃,文档进行丰富。生态系统完备,还配备了网络经济结构数据可视化分析工具TensorBoard, TensorFlow是最集中的深度学习框架。
TensorFlow定位不限于深度学习,而是对所有机器使用一个图形的学习任务,这样复杂的构架,各种各样的概念,是有一定的学习曲线,单机性能一直不被看好不够优化,往往落在下风的基准。
MXNet
MXNet由社区DMLC(Distributed Machine Learning Community)开辟,焦点开发者是陈天奇,李沐等中国。MXNet的设计教学目标是高性能和灵活性,MXNet架构非常灵活,用户可以混合使用符号编程模式和命令式编程模式,支持多GPU的支持。分布式训练多机可在云中,台式机和移动端运行,并在性能和存储效率方面做了很多优化,MXNet的接口技术支持的语言是最丰富的,包括C++, Python, Julia, Matlab, JavaScript, Go, R, Scala, Perl等。MXNet目前我国已经被亚马逊AWS选为官方深度合作学习理论框架,MXNet是来自社区,各方面都非常,非常好。可以为基本框架的最火TensorFlow深入研究,相比TensorFlow,MXNet还具有轻量级、高性能、接口进行语言更丰富的优势。
目前的主要焦点MXNet开发商仍然专注于为开发框架,该文件周围,样品也不够丰富,入门困难。
Caffe
Caffe目前由伯克利大学视觉学中心(Berkeley Vision and Learning Center,BVLC)维护,创始人是贾清扬,贾也是TensorFlow、Caffe2的作者。 Caffe专业从事计算机视觉领域,使用方便,速度快,代码质量高,运行稳定。是国内第一大主流工业级深度学习框架,来自Caffe有一个很大的优势是社会积累了大量的培训模式,使开发人员能够轻松共享重用。
Caffe的网络经济结构设计基于层,灵活性较差,新增功能麻烦。目前研究项目管理已经很少更新。
Caffe2
Caffe2在被Facebook推出了2017年4月,Facebook的FAIR目前在贾清扬的实验室工作的核心开发人员。Caffe2沿袭了大量的 Caffe 设计,但网络经济结构改为了一个更为灵活的计算图, Caffe2是一个轻量级的、高性能的深度学习框架。定位于生产环境中,具有优秀的跨平台特性,可以在iOS、Android和树莓派上训练和部署模型。
Caffe2新架构,目前功能丰富,足以实现分布式训练更加困难。
人工智能芯片
人工进行智能控制芯片是深度合作学习的硬件设计基础,为人工智能的发展学生提供了源源不断的计算力。是人工智能技术发展的三大驱动因素之一,
通用处理器CPU已经被证明不适合深度学习,目前适用于该芯片的深度学习分为四类。GPU,FPGA,ASIC和大脑芯片。
从使用场景上看,深度合作学习能力一般也分为训练和推断两个发展阶段, 培训市场占整个深度学习市场的5%,其余95%为推理市场。
在培训阶段,大量的训练数据输入深入学习神经网络模型,并最终产生。GPU并行度非常十分之高,在此进行场景下非常具有高效。是不二方法选择。
推断阶段可以细分为推断服务器和终端设备上的推论。
在服务端的推断,GPU依然是中国第一时间选择,但FPGA也有存在一定的优势, 百度大脑项目在推理阶段采用FPGA后,性能将提高三到四倍,功耗降低50%,微软的大型数据中心也使用FPGA。谷歌则专门进行打造了TPU。
推断的终端设备,低功耗,高实时性要求,FPGA和ASIC具有良好的运行能效比逐渐占据主流,中国的深鉴科技、地平线机器人等创业公司也都专注在基于FPGA平台发展提供一个终端进行设备的芯片集成管理方案。
GPU
GPU,用于批处理同构更大的数据的处理。在深入研究可以提供高数十倍于CPU的性能,甚至上百倍。GPU因其并行进行计算技术优势最先被引入深度合作学习,在英伟达GPU的发明者占据70%的市场份额。借着中国人工进行智能的东风,Nvidia的股价在2016年飙涨了230%。
FPGA
FPGA(Field Programmable Gate Array,现场可编程门阵列),适用于需要低延迟的流处理,其峰值计算性能远低于GPU,但可以为硬件编程,以便为特定的机器学习算法开发特定的体系结构。百度,微软,IBM等公司有专门的团队为服务器做FPGA加速,FPGA的可配置性更适合中国企业、军工等应用。FPGA相比,GPU在能耗和体积优势的方面,这还需要在一些便携式产品大量的使用(如大江UAV)。目前Xilinx和Altera总计工作占据了FPGA85%的市场经济份额,Altera已经被Intel于2015年以167亿美元进行收购。
ASIC
ASIC(Application Specific Integrated Circuits,专用系统集成控制电路)是一种通过专用网络芯片。性能高、低功耗、量产具有成本低,但开发建设周期长、可配置性有限。中国是世界上第一个寒武纪深入研究,旨在创建一个专用的芯片。Google专为TensorFlow深度合作学习理论框架进行定制的芯片TPU(Tensor Processing Unit)也是作为一款ASIC。
以上就是机器学习和人工智能芯片的简单介绍。
更多产品了解
欢迎扫码加入云巴巴企业数字化交流服务群
产品交流、问题咨询、专业测评
都在这里!
2022-11-23 16:49:03
2022-11-21 14:00:06
2020-04-21 17:04:06
2020-04-29 17:12:20
2020-04-13 17:55:12
2022-11-23 16:44:17
甄选10000+数字化产品 为您免费使用
申请试用
评论列表