OpenAI公布ChatGPT安全框架,致力于保障AI安全
来衡量和跟踪潜在危害的各种指标,以及进行评估和预测。OpenAI表示将根据新数据、反馈和研究不断完善和更新框架。
OpenAI的“应对”团队将雇佣人工智能研究人员、计算机科学家、国家安全专家和政策专业人员来监测技术,并不断测试并警告公司,如果他们认为任何人工智能能力变得危险。该团队位于OpenAI的“安全系统”团队和“超对齐”团队之间。前者致力于解决人工智能中的问题,例如注入种族主义偏见,而后者研究如何确保在想象中的人工智能完全超过人类智能的未来中,人工智能不会对人类造成伤害。
据悉,“应对”团队正在招聘来自人工智能领域之外的国家安全专家,帮助OpenAI了解如何应对重大风险。他们正在与包括美国国家核安全管理局在内的组织展开讨论,以确保公司能够适当地研究人工智能的风险。
OpenAI还将允许来自OpenAI之外的“合格、独立的第三方”测试其技术。
专家表示,这两个框架都有其优点和缺点,但Anthropic的方法可能在激励和执行安全标准方面更具优势。一些观察人士还认为,OpenAI在面对对GPT-4等模型的快速和激进部署后,正在赶上安全协议方面的工作。Anthropic的政策之所以具有优势,部分原因是它是主动开发而不是被动应对。
无论差异如何,这两个框架都代表了人工智能安全领域的重要进展。随着人工智能模型变得越来越强大和普及,领先实验室和利益相关者之间在安全技术上的合作和协调现在是确保人工智能对人类的有益和道德使用的关键。
© 版权声明
文章版权归作者所有,未经允许请勿转载。