OpenAI成立新团队应对AI灾难性风险

   发布时间:2023-10-27 14:45

【媒体界】10月27日消息,OpenAI宣布成立新团队,致力于减轻AI相关的“潜在灾难性风险”,该团队将重点关注AI可能引发的一系列重大问题,进行跟踪、评估、预测和保护工作。

OpenAI强调,虽然他们相信前沿AI模型的潜力将超越当前最先进的模型,可能造福全人类,但这些模型也伴随着日益严峻的风险。因此,新团队将努力降低核威胁、生物、化学、以及放射性等潜在AI引发的严重风险,还包括AI“自我复制”可能带来的潜在危险。

据媒体界了解,OpenAI认为为确保高能力AI系统的安全,需要具备相应的理解和基础设施。这一团队将由前麻省理工学院可部署机器学习中心主任Aleksander Madry领导,他将制定并维护一项“风险知情开发政策”,用于明确OpenAI在评估和监控大型AI模型方面的工作。

此前有报道称,非营利组织AI安全中心在上个月发表了一份简短声明,将减轻人工智能带来的潜在灭绝风险与流行病、核战等社会问题等同等对待,并将其作为全球的首要任务,这一倡议获得了包括OpenAI首席执行官山姆·阿尔特曼在内的多位人工智能行业领袖的支持。

 
 
更多>同类内容
全站最新
热门内容
本栏最新