订阅
纠错
加入自媒体

神经拟态计算是什么?

2020-12-18 16:38
来源: 英特尔

随着深度学习技术的出现,人工智能领域取得了不小的进步,不过与此带来了人工智能系统的功耗不断增加,成为了人工智能发展的一个技术瓶颈。

针对这个问题,英特尔找到了一种解决方案,从神经科学种找到灵感,开发了一种新型的计算机架构。相较于传统的计算机架构,神经拟态架构模糊了内存和处理器之间的界限,通过数据连接、数据编码以及电路活动处理系统内部的活动。

该系统下,在信息到达时即可处理完成。在处理数据时,依靠犹如大脑中的神经元一般的数百万个简单处理单元,进行动态交互,从而实现数据计算。这种形式可以大幅度提升计算机的能效、实时处理速度以及学习数据效率。

在2017年,英特尔发布了首款神经拟态研究芯片Loihi,这款芯片采用了14纳米制程技术,像较于其他的神经拟态芯片,灵活性、集成性和速度更具有优势。

这枚芯片的学习能力远远超过其他芯片,它并没采用浮点数和乘法累加器单元以及片外内存接口。它的所有计算都将在芯片上完成,其中的内存来源于芯片神经元之间的连接。

Loihi采用了同质架构,将许多小神经拟态核实例化,每个核的大小只有针头的一部分。通过将神经拟态结构从几核扩展到几百核,可以将小型的专用工作负载扩展至 CPU 或 GPU 大小的芯片,甚至可以无缝排列。

英特尔高级首席工程师、英特尔研究院神经拟态计算实验室主任Mike Davies 介绍说:“我们的目标是支持广泛的工作负载,而不仅仅只有深度学习。因为大脑解决问题的范围很大,所以我们认为这个目标是可以实现的。我们认为还可以将这种架构从边缘扩展到数据中心,鉴于自然界中大脑容量的巨大差异,从蚂蚁到鹦鹉,再到人类的大脑。”

声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    人工智能 猎头职位 更多
    扫码关注公众号
    OFweek人工智能网
    获取更多精彩内容
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号