英伟达掌舵人黄仁勋:人工智能计算的新纪元,就是要省钱!
英伟达掌舵人黄仁勋,在GTC2017上再掀京城“AI风云”。
▲ NVIDIA CEO 黄仁勋
上场后“老黄”直接开怼,终于说出了人们憋在心中许久的结论——摩尔定律已终结。
▲ 两股力量推动计算领域的未来
但,NVIDIA的GPU计算为整个行业指出了前进的道路。
他指出,设计人员无法再创造出可以实现更高之灵系并行性的CPU架构;晶体管数每年增长50%,但CPU的性能每年仅增长10%。而NVIDIA的GPU弥补CPU的不足,加速处理高强度计算负载。
深度学习另一大“杀伤性武器”:CUDA
CUDA是一种革命性的计算架构,它将专用功能ASIC的性能与通用编程模型相结合,使开发人员实现多种算法。目前CUDA开发人员的数量在5年里增长了14倍超过60万,下载量达到180万。
▲ 适用于全球开发人员的NVIDIA AI
AI是NVIDIA CUDA GPU的“杀手级应用”,AI取得惊人进步。
阿里巴巴、百度和腾讯已在各自的云服务中采用NVIDIA Volta GPU。
华为、浪潮和联想已采用NVIDIA基于HGX的GPU服务器。
此外,NVIDIA还在为全球开发员人配置强大AI工具,全力推进“统一架构”CUDA GPU计算。
AI推理是下一个巨大挑战,重磅发布 TensorRT 3
AI推理平台必须具备可编程性,高性能,且支持庞大和复杂的网络。
随着智能机器的爆发性增长,AI会将智能注入到2000万台云服务器、上亿台汽车和制造机器人中。所以,AI推理平台必须可扩展,以解决海量计算的性能、功耗和成本需求。
▲ 宣布NVIDIA TensorRT 3
于是,老黄又来搞事了。
宣布NVIDIA TensorRT 3,全球首款可编程AI推理加速器。
TensorRT是一款适用于CUDA GPU的优化神经网络编译器,它可利用CUDA深度学习指令集创建运行时。从云、数据中心、PC、汽车到机器人,TensorRT皆能在NVIDIA全系列平台便宜出最优运行时。
▲ 运行在 V100上的 TensorRT在处理图像时可实现7ms的延时
运行的Volta上的TensorRT3在图像分类方面,比最快的CPU还要快40倍,在语言翻译方面则要快140倍。
搭配 Tesla V100 GPU 加速器的 TensorRT 每秒能够识别多达 5700 张图片,而如今所用的 CPU 则每秒仅能识别 140 张图片。
AI城市是一个巨大的AI推理挑战,它可能需要使用大约1000万个Tesla V100 GPUs来监控10亿台摄像头。
▲ NVIDIA AI城市-助力中国建设更智慧、更安全的城市
NVIDIA将携手海康威视共建AI城市。此外,大华、华为和阿里巴巴都提供基于NVIDIA平台的AI视频解决方案。
最新活动更多
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 2024 智能家居出海论坛
-
精彩回顾立即查看>> 【在线会议】多物理场仿真助跑新能源汽车
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论