硅谷又现AI吹哨人:不能指望人工智能公司自觉披露风险信息!

时间:2024-06-10 09:01:29 编辑:

导读 【硅谷又现AI吹哨人:不能指望人工智能公司自觉披露风险信息!】具体的是什么情况呢,跟随小编一起来看看! 人工智能行业发展迅速,但技术...

【硅谷又现AI吹哨人:不能指望人工智能公司自觉披露风险信息!】具体的是什么情况呢,跟随小编一起来看看!

人工智能行业发展迅速,但技术发展与秩序重新规划的速度不匹配,持续引发人们对于该行业的安全担忧,就连深度参与人工智能研发的工程师们也站出来公开警告。

13名来自OpenAI、谷歌DeepMind和甲骨文的前员工和现员工在一封公开信中表示,人工智能行业缺乏安全监督,且该行业对举报人的保护并不充分。

信中指出,人工智能公司掌握着大量非公开信息,包括其系统的能力和局限性、保护措施的充分性以及不同类型伤害的风险水平。然而,公司目前只有很弱的义务向政府分享部分信息,而对民间社会则没有任何义务。

这些内部人士认为,人们不能指望人工智能企业会自愿分享这些信息。

内部发声渠道被阻断

公开信中写道,由于广泛的保密协议,内部员工被阻止表达自己的担忧。他们希望先进的人工智能公司可以承诺遵守几项原则,包括不对批评公司的员工进行报复等。

公开信强调,普通的保护举报人措施对人工智能行业来说是不够的,因为一般措施是用于保护举报非法活动的内部人士,但人工智能行业的举报人更多是公开指出许多未受到监管的风险。

OpenAI则在一份声明中为自己的做法进行了辩护,称公司有举报热线等渠道来报告公司内部问题,并且在采取保障措施之前不会发布新技术。谷歌则没有立即回应置评请求。

然而,这封信出现的时间点颇为微妙。OpenAI上月刚刚有两名高级员工离职——联合创始人兼首席技术官Ilya Sutskever和关键安全研究员Jan Leike。Leike在辞职后还直言不讳地批评OpenAI已经放弃了安全文化,转向商业利润。

此外,OpenAI等公司也确实存在较为激进的策略,来阻止员工自由发声。据报道,OpenAI要求离职员工签署极其严格的保密文件,否则就将失去所有既得股权。OpenAI首席执行官奥尔特曼在该报道后发布道歉声明,并声称将改革公司离职程序。

来源:财联社 作者:马兰

以上就是关于【硅谷又现AI吹哨人:不能指望人工智能公司自觉披露风险信息!】相关内容!

标签:

免责声明:本文由用户上传,如有侵权请联系删除!

© 2008-2024 All Rights Reserved .乐拇指 版权所有

网站地图 | 百度地图| 360地图 | 今日更新