防范人工智能引发的伦理风险
近期,一则外国青少年因过度依赖I聊天机器人导致自杀的悲剧报道,为社会敲响了警钟。作为生成式人工智能浪潮中重要应用场景,虚拟数字人正悄然成为众多家庭的“新成员”,以其独特的存在方式为人们提供情感陪伴。在当前社会对生成式人工智能的认知尚不全面的情况下,亟须加强对人工智能发展的伦理风险研判与防范,正视其在初期应用中显现的成瘾性依恋、过度信任倾向,以及长远来看可能诱发的人机关系异化等伦理挑战,实现人工智能的安全、可靠及可控发展。
(一)
自ChatGPT问世以来,各应用商店里提供情感陪伴的人工智能应用花样迭出,从最初的简单聊天机器人,到如今的具有情感交互、个性化推荐等功能的人工智能应用,正在成为生成式人工智能的主流应用,且增长迅速。第一,与I聊天正在受到年轻人的追捧和跟风。Character.I是此类应用的代表性产品,专注于角色扮演,用户可以与I扮演的知名IP虚拟角色聊天互动,获得情绪价值、情感陪伴。该产品上线的前5个月内,用户共发送超过20亿条消息,其中活跃用户平均每天花费超过2小时与I互动。Character.I的用户留存率、使用时长和使用次数等指标均远好于ChatGPT,展现出极强的用户黏性。第二,I应用提供情感支持和陪伴对话,成为应对社交隔离和孤独感的潜在解决方案。斯坦福大学的一项研究显示,使用聊天机器人能有效减少孤独感,可以帮助患有社交恐惧症的人更好地与他人互动。第三,此类应用的成功主要得益于其拟人化设计理念。该设计在增强用户接纳度、使用频率及黏性方面至关重要。通过模拟人类的认知、情感反应和社会行为,I能够创造出吸引人的用户体验,并显著提高人机交互的效率,进而自然地融入人类社会与文化,构建更加贴近真实人际关系的互动模式。当I在思考、表达和决策方面更加接近人类时,它们便更容易与用户建立起深厚的情感联系。
(二)
随着商业上的成功,此类应用引起了一些媒体的追捧和炒作。诸如I觉醒、拥有人类意识等过度夸大、炒作,掩盖了人工智能的现实状况,妨碍了人们建立对人工智能的客观正确认知,可能导致错误的认知以及过度的期望或恐惧,继而引发成瘾依赖、过度信任、人机关系异化等一系列伦理问题。
(阅读全部图文内容,您需要先登录!)