突发!AI恐将灭绝人类,350名权威签署联名信
现阶段AI领域,波诡云谲。一边大模型的多模态能力一天一个样,越来越强悍;另外一边,看着AI越来越聪明,感觉人类智慧生物的地位不保,开始寻求监管AI,避免发生威胁人类生存的危机出现。
AI头号种子GPT—4自然是首当其冲,为此ChatGPT之父Sam Altman赴白宫,阐明自己的立场和观点。也配合政府制定AI监管的条例和措施。
今天,又一则有关AI威胁的消息在全网疯传,其中不乏AI领域的专家和权威。
根据彭博社报道,非营利组织人工智能安全中心(Center for AI Safety)本周二发布简短声明:“降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项”。
包括 Sam Altman 在内 350 位 AI 权威都签署了这封联名公开信,并对当前正在开发的 AI 技术可能会对人类构成生存威胁担忧。
此外还有另外两家AI领先公司的CEO签署了这一公开信:Google DeepMind 首席执行官 Demis Hassabis和Anthropic 的首席执行官 Dario Amodei。
其中还有 Geoffrey Hinton 和 Yoshua Bengio 两位人工智能的“教父”。
把AI和流行病、核战争相提并论,真有一种《毁灭者》的既视感。
然而已经不是第一次出现这种AI威胁的声音了。
在上周,Sam Altman 和另外两位 OpenAI 的高管提出应该建立类似国际原子能机构这样国际组织来安全监管 AI 的发展。
早在3月,由马斯克等人牵头签署的一份公开信,就表示了社会对AI存在的恐惧心理。
该信呼吁所有的 AI 实验立即暂停研究比 GPT-4 更先进的 AI 模型,暂停时间至少 6 个月,为的就是把这些可怕的幻想扼杀在摇篮之中。
对于这一系列呼吁和公开信,一些专家认为它过分强调了人工智能带来的风险,有些人则认同存在这种可能性,但不同意信中的建议措施。
安全人工智能中心的执行主任丹·亨德里克斯(Dan Hendrycks)告诉《纽约时报》,5月30日发布的声明很简洁,没有提出解决人工智能威胁的任何潜在方法,这是为了避免进一步产生分歧。
他说:“我们不想为此推出一个包含30种潜在干预措施的大菜单。如果这样做,它会淹没主要信息。”
最新活动更多
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 2024 智能家居出海论坛
-
精彩回顾立即查看>> 【在线会议】多物理场仿真助跑新能源汽车
推荐专题
-
10 中国AI的“六便士”时刻
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论