AI内容安全措施承诺:水印与透明度的新举措

根据外媒报道,目前多家顶尖人工智能公司,包括OpenAI在内,已自发做出承诺,将对由AI生成的内容采取措施,如添加水印等方式,以提升技术的安全性。

这些类似水印的识别方法的引入将有助于解决当前AI生成内容难以区分真伪的问题。

同时,亚马逊、Anthropic、谷歌、Inflection、Meta、微软以及OpenAI等七家公司一致同意提高其系统的安全性和透明度,包括允许第三方专家对其模型进行审查。

首先,这些公司承诺在向公众发布AI系统之前,将对其进行内部和外部的安全测试,并与相关行业参与者、政府、学术界以及公众共享信息,以协助管理人工智能带来的风险。

此外,这些公司还将投入资源于网络安全和内部威胁控制,以保护专有的和未发布的模型权重,这对于推动人工智能数据模型的安全运行至关重要。

除此之外,他们还同意支持第三方对系统中的任何安全漏洞进行调查和报告。

© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容