建设“人机共生” 新文明形态
◎ 陈伟宏

    1942年,科幻作家艾萨克·阿西莫夫提出了机器人三定律:一是机器人不得伤害人类,也不得因不作为而使人类受到伤害;二是机器人必须服从人类给予它的命令,除非这些命令与第一法则相冲突;三是机器人必须保护自己的存在,除非这种保护与以上两条相矛盾。这为人工智能伦理提供了基础性框架,但其个体中心主义、静态规则设定,以及“人类伤害”“服从命令”等模糊表述不能适应当代人工智能的复杂性,不能解决人工智能系统可能通过算法歧视、数据滥用等方式损害群体利益,无法有效约束动态演化的人工智能行为,不能提供明确的权责划分机制。当前亟须通过多种路径校准人工智能发展的航道,构建适应人工智能迭代升级的伦理安全网。

    首先是明确人工智能开发与运用的伦理底线。一是生命安全优先。任何人工智能系统必须以保障人类生命为最高准则,尤其在自动驾驶、医疗决策等高风险场景中,通过预设算法优先级,避免直接或间接伤害人类。二是责任可追溯性。人工智能开发者和运营方需对系统行为承担法律责任,包括算法设计缺陷、数据滥用或决策失控等场景,建立从研发到应用的全链条责任追溯伦理机制,明确技术提供方与使用方的义务边界。三是数据隐私与公平性。人工智能系统必须遵循数据最小化原则,实施严格的数据保护,采用先进的加密技术和匿名化处理,禁止采集与使用未经授权的个人信息。

    其次是推动人工智能系统的预防性伦理设计。在技术层面,新一代“道德嵌入式人工智能”已进入试验阶段。这类人工智能系统内置“伦理冲突解决协议”,当医疗人工智能发现治疗方案存在资源分配不公时,系统将自动触发伦理预警。这种预防性的伦理设计,将“伦理优先”和“智能向善”的道德要求嵌入到技术架构之中。

    再次要制定相关的伦理准则或法规。我国出台的《新一代人工智能伦理规范》,将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。当然,为应对人工智能技术运用中的问题,构建全球协同的人工智能伦理治理体系势在必行。

    必须说明,为人工智能安装伦理“导航仪”,不是阻碍人工智能技术创新和进步的绊脚石,它既应保持对人工智能技术创新的包容,又应守住人类的价值底线。当人类做到在数字技术洪流中坚守伦理价值,当人工智能能够从人类伦理视角理解并坚持“有所为有所不为”时,才能确保人工智能技术革命真正服务于人类。当更聪明的人工智能带着人性的温度与人类友好相处时,那便是“人机共生”新文明形态的到来。

    (据《光明日报》)

 

当前:A4版(2025年08月14日) 上一版 下一版