关键词:
卡珊德拉效应
人工智能
算法
道德人格
遮蔽
摘要:
人工智能算法深刻影响道德人格的生成机制。预测性治理原本旨在优化伦理决策,但由于历史偏见的编码、决策外包以及技术黑箱的存在,道德判断逐渐被计算逻辑主导,伦理主体性减弱,责任归属变得模糊。研究聚焦算法如何通过数据霸权、认知规训与人机交互遮蔽道德人格,揭示训练集偏见再生产、决策代理化及价值排序技术化对伦理信念的侵蚀。基于批判性技术研究方法,结合算法透明性与责任伦理框架,分析技术系统如何重构权利关系并弱化个体自主性,导致伦理判断依赖算法逻辑而非主体反思。算法不仅规训道德认知,还塑造社会规范,使个体在适应技术最优解的过程中丧失价值多样性。为应对伦理挑战,研究提出数据去偏见、算法透明化、人机协同决策等策略,以重建道德人格自主性,增强人工智能伦理治理的规范性,为技术伦理体系的完善提供理论支撑。