OpenAI设立监督委员会加强AI安全评估,并启动新模型训练

AI每日新闻2个月前发布 shen
69 0
AI旋风聊天

近期,全球知名的人工智能研究组织OpenAI成立了一个全新的董事会监督委员会,以评估并提升其人工智能(AI)模型的安全性。这一新举措是在该公司解散内部安全团队及安全问题负责人离职数周之后迅速推出的,显示出OpenAI对于加强AI安全治理的坚定决心。

据彭博社报道,OpenAI新成立的监督委员会将在接下来的90天内,全面评估公司技术的保障措施,并提交详细的评估报告。OpenAI在官方博客中宣布:“董事会完成全面审查后,OpenAI将以符合安全原则的方式公开分享所采纳的建议。”这一举措旨在通过透明的评估和监督,确保AI技术的稳健发展。

OpenAI此次成立监督委员会,是对近期公司内部治理问题的一次积极回应。此前,OpenAI的治理方式受到了来自前董事会成员海伦・托纳(Helen Toner)和塔莎・麦考利(Tasha McCauley)的严厉批评。这两位前董事在《经济学人》杂志上发表文章,对OpenAI的治理方式提出了质疑,并指出公司在AI安全方面存在严重问题。

面对这些质疑,OpenAI迅速采取行动,成立监督委员会以加强AI安全评估。这一举措不仅能够提升公司内部的安全管理水平,也有助于增强公众对OpenAI的信任和认可。OpenAI设立监督委员会加强AI安全评估,并启动新模型训练

与此同时,OpenAI还宣布已经开始训练其最新的AI模型。这一进展标志着公司在人工智能技术研发方面持续取得新成果,进一步巩固了其在行业内的领先地位。据了解,OpenAI一直致力于推动AI技术的创新和发展,通过不断研发新的模型和算法,推动人工智能技术在各个领域的应用和发展。

值得注意的是,近期OpenAI公司内部也发生了一些重大变化。去年秋天,公司首席执行官萨姆・阿尔特曼(Sam Altman)与联合创始人兼首席科学家伊利亚・苏茨凯沃(Ilya Sutskever)在人工智能产品开发速度和限制危害的措施上发生冲突,导致阿尔特曼在一次董事会政变中被短暂罢免。本月,苏茨凯沃和他的得力助手Jan Leike离开公司,这两位科学家领导了OpenAI的超智能体对齐团队(superalignment team),该团队专注于研究超人类人工智能的长期威胁。Leike在辞职后表示,他的部门在OpenAI内部“争夺计算资源”方面遇到了困难。其他离职员工也表达了类似的批评意见。

面对这些挑战和批评,OpenAI选择了解散超智能体对齐团队,并由新任命的对齐科学负责人、联合创始人约翰・舒尔曼(John Schulman)领导研究部门继续相关工作。这一调整旨在优化公司内部资源配置,加强研究部门的整合和协同,推动AI技术的持续创新和发展。

此外,OpenAI还取消了之前的一项政策,该政策规定如果前员工批评公司,将取消其股票期权。这一政策的取消有助于鼓励员工积极参与公司建设和发展,增强员工对公司的归属感和忠诚度。

AI旋风认为,OpenAI此次成立监督委员会、加强AI安全评估以及启动新模型训练等举措,是公司在面临内外部挑战时作出的积极应对。这些措施不仅有助于提升公司的治理水平和AI技术的安全性,也有助于增强公众对OpenAI的信任和认可。未来,OpenAI将继续致力于推动AI技术的创新和发展,为人类社会的进步和繁荣做出更大的贡献。

© 版权声明
AI资料包

相关文章

暂无评论

暂无评论...