关键词:
生成式人工智能
意识形态风险
ChatGPT
Sora
DeepSeek
摘要:
作为生成式人工智能的阶段性代表,从ChatGPT到Sora,实现了从文本生成到视频生成的发展、从自然语言交互到物理世界特定模拟的跃进,凸显了人工智能技术的加速迭代之势。生成式人工智能的发展应用必然对社会生产生活产生重塑性、变革性影响,前所未有的意识形态风险即是其一。从属性上看,生成式人工智能的技术本质并未改变,其依然扮演着合目的性的工具角色,并具有鲜明的意识认知垄断、主体观念形塑、文化内核渗透等意识形态属性。从风险生成上看,生成式人工智能发展应用的意识形态风险,具有颠覆性技术的“创造性破坏”所带来的风险生成逻辑,是资本与技术深度“合谋”的必然结果,呈现显性风险与隐性风险并存的生成样态,因数据投喂、权威解构和监管困境产生的意识形态安全风险、意识形态话语风险和意识形态治理风险是其突出表征。从风险治理上看,如何从DeepSeek掀起的国产大模型浪潮出发,建构应对以ChatGPT、Sora为代表的生成式人工智能意识形态风险的策略路径,具有重要现实意义。把握好人工智能与人类智能的本质关系,即始终明确技术创造发展的核心价值在于为人类谋福祉,人的主体性参与是人机互动的基本前提;把握好治理认知与治理策略的并进关系,即坚持“技术向善”理念、注重提升主体智能素养,确立“共建共治”原则、着力增强敏捷治理效能,反思“人机共生”走向、应对多态应用场景治理;把握好价值引领与风险规制的统一关系,即坚守价值引领、共识凝聚、“红线”维护的治理主线,坚决防范西方错误思潮借助技术的反向“渗透”,坚持制度与监管互补的法治治理,是因应生成式人工智能意识形态风险的可行之策。