根据外媒报道,目前多家顶尖人工智能公司,包括OpenAI在内,已自发做出承诺,将对由AI生成的内容采取措施,如添加水印等方式,以提升技术的安全性。
这些类似水印的识别方法的引入将有助于解决当前AI生成内容难以区分真伪的问题。
同时,亚马逊、Anthropic、谷歌、Inflection、Meta、微软以及OpenAI等七家公司一致同意提高其系统的安全性和透明度,包括允许第三方专家对其模型进行审查。
首先,这些公司承诺在向公众发布AI系统之前,将对其进行内部和外部的安全测试,并与相关行业参与者、政府、学术界以及公众共享信息,以协助管理人工智能带来的风险。
此外,这些公司还将投入资源于网络安全和内部威胁控制,以保护专有的和未发布的模型权重,这对于推动人工智能数据模型的安全运行至关重要。
除此之外,他们还同意支持第三方对系统中的任何安全漏洞进行调查和报告。
© 版权声明
THE END
暂无评论内容