
连续6年不跑路的安全速度最适合国人VPN
meta 暂停部分高性能ai系统发布,优先考虑安全风险!meta首席执行官马克·扎克伯格此前曾承诺将通用人工智能(agi)公开发布,但最新发布的“前沿人工智能框架”(frontier ai framework)政策文件显示,meta将限制部分高性能ai系统的发布,以应对潜在风险。
该框架将AI系统风险分为“高风险”和“关键风险”两类,两者都可能被用于网络攻击、化学攻击和生物攻击。关键区别在于“关键风险”系统可能造成无法挽回的灾难性后果。“高风险”系统虽然也能增加攻击的可能性,但其可靠性和稳定性不如“关键风险”系统。
Meta在文件中列举了例如“对高安全企业环境进行自动化入侵”和“高影响力生物武器扩散”等具体攻击场景,并强调这些只是Meta认为最紧迫、最可能发生的风险事件。
Meta的风险评估并非单纯依靠测试结果,而是综合内部和外部专家的意见,并经高级管理层审核。Meta承认,目前的技术水平还无法对AI系统风险进行精确量化评估。
对于“高风险”系统,Meta将限制其内部访问权限,并在实施风险缓解措施后才能考虑发布。而对于“关键风险”系统,Meta将采取更严格的安全措施防止泄露,并暂停开发,直到风险降低到可接受水平。
Meta表示,“前沿人工智能框架”将持续改进,以适应人工智能领域的快速发展。此举似乎是对Meta“开放”AI开发策略的回应,旨在平衡AI技术进步与社会安全风险。Meta强调,其目标是在确保安全的前提下,将AI技术的益处惠及社会。
以上就是Meta发布前沿AI框架:会暂停开发其认为风险过高的AI系统的详细内容,更多请关注本站其它相关文章!