FLI最新报告:OpenAI、Anthropic、Meta、xAI等多家 AI安全不合规

作者: CBISMB

责任编辑: 宋慧

来源: CBISMB

时间: 2025-12-08 11:53

关键字: AI治理,AI安全,AI标准

浏览: 1328

点赞: 73

收藏: 7

FLI 发布的 “AI Safety Index” 指出,包括 OpenAI、Anthropic、Meta Platforms、xAI 等多家公司,都“远远未达”新兴全球 AI 安全标准。

根据未来生命研究所周三发布的新版人工智能安全指数,Anthropic、OpenAI、xAI 和 Meta 等主要人工智能公司的安全措施“远未达到新兴的全球标准”。

该研究所表示,由独立专家小组进行的安全评估发现,尽管各公司都在竞相开发超级智能,但没有一家公司拥有控制此类先进系统的有力策略。

这项研究出台之际,公众对比人类更智能、能够推理和逻辑思考的系统所带来的社会影响日益关注,此前有多起自杀和自残事件与人工智能聊天机器人有关。

“尽管最近人工智能驱动的黑客攻击以及人工智能导致人们精神错乱和自残引发了轩然大波,但美国的人工智能公司受到的监管仍然比餐馆少,并且仍在继续游说反对具有约束力的安全标准,”麻省理工学院教授兼未来生命组织主席马克斯·泰格马克说道。

生命未来研究所是一家非营利组织,致力于引发人们对智能机器给人类带来风险的担忧。该研究所成立于2014年,早期曾得到特斯拉的支持。打开新标签页首席执行官埃隆·马斯克。

10 月,包括科学家杰弗里·辛顿和约书亚·本吉奥在内的一群人呼吁禁止开发超级智能人工智能,直到公众提出要求,并且科学开辟出一条安全的道路。

谷歌DeepMind的一位发言人表示,随着其模型变得越来越先进,该公司将“继续以与能力同步的速度在安全性和治理方面进行创新”,而xAI则在一条看似自动回复中表示“传统媒体撒谎”。

OpenAI 的一位发言人表示:“我们分享我们的安全框架、评估和研究,以帮助推进行业标准,并且我们不断加强我们的保护措施,为未来的能力做好准备。”

发言人补充说,该公司在尖端安全研究方面投入巨资,并对其模型进行“严格”测试。

Anthropic、Meta、Z.ai、DeepSeek 和阿里云均未回应有关该研究的置评请求。


生命未来研究所(Future of Life Institute,FLI)是2014年由Skype联合创始人让·塔林、麻省理工学院教授马克斯·泰格马克等人在美国波士顿创立的非营利组织,旨在引导变革性技术规避极端风险,重点关注人工智能、生物技术、核武器及气候变化等领域。其顾问团队涵盖埃隆·马斯克、史蒂芬·霍金等跨领域专家。

©本站发布的所有内容,包括但不限于文字、图片、音频、视频、图表、标志、标识、广告、商标、商号、域名、软件、程序等,除特别标明外,均来源于网络或用户投稿,版权归原作者或原出处所有。我们致力于保护原作者版权,若涉及版权问题,请及时联系我们进行处理。