openai: openai表示,董事会可以否决CEO关于新人工智能发布安全性的意见

电脑作者 / 花爷 / 2025-03-01 21:47
"
      OpenAI表示,即使公司领导层认为人工智能模型是安全的,其董事会也可以选择推迟发布,这是这家人工智能初创公司授权

  

  

  OpenAI表示,即使公司领导层认为人工智能模型是安全的,其董事会也可以选择推迟发布,这是这家人工智能初创公司授权其董事加强尖端技术开发保障措施的另一个迹象。

  周一发布的一套指导方针详细说明了这一安排,解释了chatgpt制造商计划如何应对其最强大的人工智能系统可能带来的极端风险。

  提供学院 课程 网站印度商学院ISB产品管理访问麻省理工学院麻省理工学院技术领导力和创新访问印度理工学院勒克瑙学院金融科技,银行和应用风险管理执行计划访问

  该指导方针的发布是在OpenAI首席执行官萨姆·奥特曼(Sam Altman)被董事会短暂罢免后,该公司经历了一段动荡时期,这使得董事和公司高管之间的权力平衡成为人们关注的焦点。

  OpenAI最近宣布的“准备”团队表示,它将继续评估其人工智能系统,以确定它们在四个不同类别中的表现——包括潜在的网络安全问题以及化学、核和生物威胁——并努力减少该技术可能造成的任何危害。

  具体来说,该公司正在监控所谓的“灾难性”风险,它在指导方针中将其定义为“任何可能导致数千亿美元经济损失或导致许多人严重伤害或死亡的风险”。亚历山大·马德里(Aleksander Madry)是该准备小组的负责人,目前正在麻省理工学院(Massachusetts Institute of Technology)休假。他告诉彭博新闻社(Bloomberg News),他的团队将向一个新的内部安全咨询小组发送月度报告。

  该小组随后将分析马德里团队的工作,并向奥特曼和公司董事会提交建议。在马德里被革职后,公司董事会进行了全面改革。根据这份文件,奥特曼和他的领导团队可以根据这些报告决定是否发布新的人工智能系统,但董事会有权撤销这一决定。

  OpenAI在10月份宣布成立“准备”团队,使其成为该初创公司监督人工智能安全的三个独立团队之一。还有“安全系统”,着眼于当前的产品,如GPT-4,以及“超级对齐”,专注于未来可能存在的极其强大的人工智能系统。Madry表示,他的团队将反复评估OpenAI最先进的、尚未发布的人工智能模型,根据不同类型的感知风险将它们评为“低”、“中”、“高”或“关键”。

  该团队还将做出改变,希望减少他们在人工智能中发现的潜在危险,并衡量其有效性。根据新的指导方针,OpenAI将只推出评级为“中等”或“低”的模型。

  “人工智能不是发生在我们身上的事情,可能是好是坏,”Madry说。“这是我们正在塑造的东西。”

  Madry表示,他希望其他公司也能使用OpenAI的指导方针来评估其人工智能模型的潜在风险。

  他说,这些指导方针是OpenAI之前在评估已经发布的人工智能技术时遵循的许多流程的正规化。他说,他和他的团队在过去几个月里提出了细节,并从OpenAI内部其他人那里得到了反馈。

  关注重要的科技和创业新闻。订阅我们的每日时事通讯,获取最新和必读的科技新闻,直接发送到您的收件箱。

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读