瞭望 | 直面人工智能伦理挑战
人工智能的伦理挑战不仅体现在“技术鸿沟”中,也体现在更为广泛的领域。这些挑战集中体现在四个维度在人工智能技术与规则方面领先的国家,正处于技术优势快速积累周期,这种优势很可能成为诸如半导体领域存在的“卡脖子”工具,为人工智能后发国家的进步带来阻碍2023年成为全球人工智能伦理治理开局之年。各国政府及国际组织开始密集讨论人工智能的伦理问题,发布一系列声明、愿景及政策,试图规范人工智能的发展路径相比于治理风险,美国更不愿在确保自身技术绝对领先前就严格限制该技术的发展。因此,美国在人工智能治理上往往落后于各国进度,也滞后于技术发展文 | 李峥 张岚舒2023年,伴随着新一代生成式人工智能应用ChatGPT的横空出世,国际社会对于人工智能伦理挑战的讨论也日益升温。越来越多的观察人士发现,人工智能的快速发展可能超出了人类社会的准备,并认为其带来的风险不可忽视。伦理挑战已经成为人工智能带来的广泛争议中最为突出的话题,也将对未来人工智能与人类社会的互动过程带来深远影响。
四个维度看人工智能伦理挑战
与互联网的诞生类似,人工智能也将给世界带来重大变革。这种影响通常是一柄双刃剑,新技术既改造了世界,又冲击了世界,并不是每个人都能从中均等受益。人工智能的伦理挑战不仅体现在“技术鸿沟”中,也体现在更为广泛的领域。这些挑战集中体现在四个维度。第一个维度源于人工智能的“自主性”,这意味着该技术相比其他前沿技术更容易脱离人类控制。相关伦理挑战主要体现在人工智能是否会欺骗人类和控制人类意识,是否会消减人类的发展机会。相比互联网及社交媒体,人工智能能够更加全面地理解个体、“感知”和预测用户的所想所需。这种能力与“深度伪造”技术相结合,将进一步加剧针对不同群体的“控制”和“欺骗”。通过定向信息投喂,人工智能可能制造出更加严密的“信息茧房”、更加深度的“意识操控”。2023年,英国法院判决了一起人工智能聊天机器人怂恿一名男子刺杀女王的案件,即体现出此类风险。
全球人工智能伦理治理开局之年
英国在人工智能治理外交上投入更多资源。2023年11月,首届全球人工智能安全峰会在英国布莱奇利园召开。美国、英国、欧盟、中国、印度等多方代表参会。会议最终通过《布莱奇利宣言》,强调人工智能的许多风险本质上是国际性的,因此“最好通过国际合作来解决”。与会者同意协力打造一个“具有国际包容性”的前沿人工智能安全科学研究网络,以对尚未完全了解的人工智能风险和能力加深理解。英国为举办此次峰会开展大量前期准备和外交斡旋,意在将本国树立为全球人工智能治理的“召集人”。未来,越来越多的国家将在人工智能治理外交上投入更多资源,争夺这一新兴领域的话语权。中国高度重视人工智能治理问题,治理理念侧重于平衡发展和安全。2023年4月,国家互联网信息办公室起草《生成式人工智能服务管理办法(征求意见稿)》。《生成式人工智能服务管理暂行办法》于7月正式公布,从技术发展与治理、服务规范、监督检查和法律责任等方面对生成式人工智能做出具体规定,并于8月15日起施行,是全球首部针对生成式人工智能的专门立法。与此同时,中国在年内也推出一系列针对深度合成、算法等专门领域的规定,例如1月生效的《互联网信息服务深度合成管理规定》、3月生效的《互联网信息服务算法推荐管理规定》。10月,中国提出《全球人工智能治理倡议》,对个人隐私与数据保护、数据获取、算法设计、技术开发以及风险等级测试评估和伦理准则等提出了具体的原则准则或建议。
美国为何行动迟缓