生成式人工智能治理催着立法跟进
生成式人工智能的治理是今年两会上代表委员们热议的一个重要话题。生成式人工智能既带来了人工智能技术的“奇点时刻”,也带来了人工智能治理的“关键时刻”。生成式人工智能技术是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。加快对生成式人工智能领域的立法,既是防范生成式人工智能服务风险的现实需要,也是促进生成式人工智能健康发展的长远需要。前不久,欧洲议会、欧盟委员会和27个成员国的谈判代表就《人工智能法案》达成协议,这成为全球首部人工智能领域的全面监管法规,为用法律监督ChatGPT等生成式人工智能服务的发展提供了一定借鉴。在该领域,我国也进行了不少探索,2023年已正式施行的《生成式人工智能服务管理暂行办法》(以下简称《办法》)从价值规范、行为规制和过程监管等方面对生成式人工智能加强了治理。随着技术的广泛应用和不断演进,生成式人工智能服务的开发者、提供者、使用者、监管者在未来实践中都还将面临不少的法律挑战,法律上也仍有诸多可填补的空间。这些也是我国下一步针对生成式人工智能立法立规应重点关注的问题。
首先,生成式人工智能生成内容的准确性和可靠性该如何认定是一个突出的问题。人工智能准确性不仅是生成式人工智能部署和运行的重要底线,也是构建可信赖人工智能的重要前提。以目前生成式人工智能的技术水平,其技术和应用局限仍非常明显,存在生成内容准确率不高、可信性不强、文本生搬硬凑、缺乏逻辑性等问题,有时甚至出现一些脱离现实、啼笑皆非的低级错误。对此,《办法》要求,提供和使用生成式人工智能服务应当“提高生成内容的准确性和可靠性”。要落实这一要求,尚需进一步的法律规则细化。一方面,要求服务提供者使用具有合法来源的数据和基础模型;另一方面,要求其采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。同时,应正视人工智能的风险阈值,继续深入探索同生成式人工智能技术特性与产业特点相匹配的数据准确性、算法模型准确性、输出准确性和解释准确性标准,构建科学精准的风险治理框架。
(阅读全部图文内容,您需要先登录!)