硅谷又现AI吹哨人:不能指望人工智能公司自觉披露风险信息!
财联社6月5日讯(编辑 马兰)人工智能行业发展迅速,但技术发展与秩序重新规划的速度不匹配,持续引发人们对于该行业的安全担忧,就连深度参与人工智能研发的工程师们也站出来公开警告。
13名来自OpenAI、谷歌DeepMind和甲骨文的前员工和现员工在一封公开信中表示,人工智能行业缺乏安全监督,且该行业对举报人的保护并不充分。
信中指出,人工智能公司掌握着大量非公开信息,包括其系统的能力和局限性、保护措施的充分性以及不同类型伤害的风险水平。然而,公司目前只有很弱的义务向政府分享部分信息,而对民间社会则没有任何义务。
这些内部人士认为,人们不能指望人工智能企业会自愿分享这些信息。
内部发声渠道被阻断
公开信中写道,由于广泛的保密协议,内部员工被阻止表达自己的担忧。他们希望先进的人工智能公司可以承诺遵守几项原则,包括不对批评公司的员工进行报复等。
公开信强调,普通的保护举报人措施对人工智能行业来说是不够的,因为一般措施是用于保护举报非法活动的内部人士,但人工智能行业的举报人更多是公开指出许多未受到监管的风险。
OpenAI则在一份声明中为自己的做法进行了辩护,称公司有举报热线等渠道来报告公司内部问题,并且在采取保障措施之前不会发布新技术。谷歌则没有立即回应置评请求。
然而,这封信出现的时间点颇为微妙。OpenAI上月刚刚有两名高级员工离职——联合创始人兼首席技术官Ilya Sutskever和关键安全研究员Jan Leike。Leike在辞职后还直言不讳地批评OpenAI已经放弃了安全文化,转向商业利润。
此外,OpenAI等公司也确实存在较为激进的策略,来阻止员工自由发声。据报道,OpenAI要求离职员工签署极其严格的保密文件,否则就将失去所有既得股权。OpenAI首席执行官奥尔特曼在该报道后发布道歉声明,并声称将改革公司离职程序。
责任编辑:于健 SF069