人工智能深度伪造的规制
以文本、音频和视频为代表的人工智能深度伪造正在潜移默化渗透至生活的各个方面。比如,新闻报道可能由人工智能凭空撰写,亲友声音可能是人工智能进行的音色模拟,电影表演则可以通过人工智能换脸呈现。当自然人难以区分人工智能深度伪造和人类真实创作之时,人工智能深度伪造所伴生的风险也逐渐显现。数据安全、信息隐私、肖像权、平等权等个人权益受到冲击,人的主体性价值可能随着人工智能程度的升高而降低。此外,人工智能深度伪造所引发的媒体信任危机,不仅能够造成经济利益损失,更威胁着国家总体安全。要解决人工智能深度伪造所产生的问题,需要国家、行业和个人三方面共同努力,促进人工智能健康发展。
首先,从国家和政府方面来说,其所承担的规制义务体现于事前预防、事中监督和事后矫正三个阶段。国家可以通过立法、行政、司法等各个环节各个部门的动态连接,为人工智能深度伪造的发展划定底线,纠正技术发展的脱轨倾向,并在行业规制不足时进行强力执行。以肖像权、个人信息保护为例,根据《互联网信息服务深度合成管理规定》《人脸识别技术应用安全管理规定(试行)(征求意见稿)》等有关规定,人工智能深度伪造的技术使用者在处理人脸信息之前,需要首先进行个人信息保护影响评估,确保人脸信息的使用符合最少搜集、最小储存和个人知情同意原则,建立起肖像权和个人信息保护的事前预防机制。“具有舆论属性或者社会动员能力”的人工智能深度伪造的技术支持者和服务提供者,还需要根据《互联网信息服务算法推荐管理规定》向网信部门履行备案和变更、注销备案等手续。对可能产生虚假信息,造成舆论恐慌,甚至影响社会治安的人工智能深度伪造,还应当对其进行安全评估,在源头处限制人工智能深度伪造流入各个平台的应用实践。
(阅读全部图文内容,您需要先登录!)