英政府机构专家警告:世界“恐将没时间”为应对 AI 安全风险做好准备

→ 源码教程下载地址见 →右侧下载链接 →点“登录购买”→注册登录购买后可见→
→ 这里没有广告,只有干货! 给力项目更多教程,点此加入VIP会员,即可免费下载!
→ 每日分享你意想不到的网络思维!加入红帽VIP会员,感受一下网络赚钱的快感,点击进入了解。

1 月 5 日消息,当地时间 1 月 4 日,据英国《卫报》报道,英国先进研究与发明署(Aria Agency)项目主管、AI 安全专家 David Dalrymple 警告称,前沿 AI 系统带来的安全风险发展速度之快,可能已经让世界来不及充分准备。

Dalrymple 在接受采访时指出,AI 能力的快速跃升值得高度关注。人们应当关注在现实世界中完成各类事务、并且表现优于人类的系统。“为了维持对文明、社会和地球的控制,人类需要在若干关键领域保持主导地位,而在这些领域中,人类将被全面超越。”

Dalrymple 认为,政府部门与 AI 企业之间,对即将出现的技术突破仍存在明显认知落差。从安全角度看,防护措施很可能难以跑在技术前面。在 5 年左右的时间尺度内,大多数具有经济价值的工作,可能会被机器以更低成本和更高质量完成。

他同时强调,各国政府不能假定先进 AI 系统天然可靠。“在经济压力之下,用于验证可靠性的科学方法,很可能无法及时成熟。因此,现实可行的选择,是尽可能控制并缓解潜在风险。”

他将“技术进步跑在安全前面”的后果形容为安全与经济体系的潜在失稳,并呼吁加强对先进 AI 行为的理解与控制。技术进步也可能带来积极结果,但整体风险极高,而人类社会对这场转变仍显得警觉不足。

从报道中获悉,英国 AI 安全研究所本月发布的评估显示,先进 AI 模型能力在各领域持续快速提升,部分性能指标约每 8 个月翻倍。领先模型在学徒级任务中的成功率已从去年的约 10% 升至 50%,并已能够独立完成耗时超过 1 小时的专业任务。

研究所还测试了模型的自我复制能力。由于自我复制可能导致系统失控,这被视为核心安全风险之一。测试中,两款前沿模型的成功率超过 60%,但研究所同时指出,在现实环境中出现极端失控情况的概率仍然较低。

Dalrymple 进一步判断,到 2026 年末,AI 可能具备自动完成整日研发工作的能力,并在数学和计算机科学等关键领域实现自我强化,从而推动新一轮能力加速。


温馨提示:
1、如非特别声明,本内容转载于网络,版权归原作者所有!
2、本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
3、本内容若侵犯到你的版权利益,请联系我们,会尽快给予删除处理!
我要投诉
红帽SEO工作室 » 英政府机构专家警告:世界“恐将没时间”为应对 AI 安全风险做好准备
在线客服 购买特价主机

服务热线

139-3511-2134

关注红帽网络

微信客服

微信客服