关键词:
人工智能
伦理
治理
内在主义
知识表示
偏见冲突
摘要:
全球人工智能技术的发展呈现出寡头垄断与层级分化的格局。开发者的地域、文化、教育背景差异,以及训练数据的社会、文化、政治属性差异,正在加剧知识垄断和伦理垄断,放大文化偏见和价值观冲突。人工智能偏见和冲突的治理需要以大科学的研究理念,生成伦理与技术的同步链接,以确保技术与伦理的协同发展。伦理治理的内在主义进路具有哲学和技术两方面的学理基础:将伦理准则作为人工智能的逻辑起点而非评价标准,创造具有道德能动性的人工智能,是防范、化解偏见和冲突的有效策略;预训练-微调的技术范式和微调数据集是内在主义进路的技术基础。以本体表示法作为结构化伦理知识表达和语义推理的基础,设计再微调的技术路线和伦理数据集对大模型进行伦理智能优化,为建构人工智能的道德能动性提供了方法论和路线图。以中国伦理为例的本体知识表示,论证了人工智能偏见与冲突治理的内在主义进路何以可能。