做好人工智能发展的风险防范
当前,ChatGPT类大模型加速了数字世界和物理世界的深度融合,引领人工智能进入新的发展阶段。与此同时,人工智能固有的不确定性、不透明性、难以解释、事实性错误等能力局限,对经济发展、国际政治和全球治理等方面带来深远影响,引发了全球对大模型广泛应用安全风险的热议。如何应对人工智能风险并把握人工智能发展的战略主动,有效保障国家安全,已成为我国国家安全治理的重要议题。
大模型技术引发新的安全风险和治理挑战。随着技术的更新迭代,人工智能的应用门槛持续降低,伴随着误用滥用情况的增加,经济社会领域的多重安全风险也在交织叠加。
一是放大隐私信息泄露风险。当前,人工智能开发者和服务提供者可能利用用户数据进行优化训练,但相关服务条款却并未对数据使用做出解释说明,可能涉及在用户不知情情况下收集个人信息、商业秘密等,安全风险较为突出。为保护个人信息安全,部分欧洲国家对大模型进行了严格监管和审查,甚至考虑禁止ChatGPT等人工智能应用。
二是舆论引导与文化渗透风险。在舆论和文化领域,人工智能技术可被用于算法引导、平台渗透、网络监控、内容生成等信息处理环节,由大模型驱动的文本创作工具可能产生颇具影响力或说服力的信息,使得虚假信息不易被识破,负面舆情传播速度加快,进而导致侵犯他人合法权益、扰乱经济秩序和社会秩序,甚至危害国家安全和社会公共利益。
三是情报军事领域应用的新威胁。人工智能的自动生成代码功能使黑客技术的习得过程更为容易,使网络攻防的更新频率大幅提升。利用ChatGPT类大模型可以帮助机器学习识别更加复杂的文本及实体,或将扩大无人军用智能无人装备的应用,增大军事对峙摩擦,对国家安全带来严峻挑战。
加快推进人工智能安全治理。面对人工智能技术快速发展、风险持续蔓延的形势,增强人工智能的安全性成为国际组织、各国政府及产业界等共同关注的议题。
我国高度重视人工智能安全问题,不断加强人工智能发展的潜在风险研判和防范,建立健全人工智能安全治理体系,对人工智能技术本身所致的内生安全、人工智能应用中的衍生安全以及影响和决定人工智能前景的发展安全问题进行系统性治理,确保人工智能安全、可靠、可控。
全文约2027字,请下载后阅读、编辑。(阅读全部图文内容,您需要先登录!)