孙靖鑫
当前,人工智能正以前所未有的速度重塑社会运行方式。从算法推荐到智能决策,从自动驾驶到辅助诊疗,技术不断进入资源配置和行为引导的关键环节,在显著提升效率的同时,也带来算法失范、数据滥用、深度伪造等一系列新风险。在这一过程中,技术越来越强调效率优先,但相应的规范和约束却没有及时跟上,“能做什么”和“该不该做”之间的矛盾日益突出。在这样的背景下,由工业和信息化部等十部门联合印发的《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》)出台,从制度层面对这一问题作出回应。其核心意义,不仅在于规范技术行为,更在于将公平、安全、责任等价值要求嵌入技术运行全过程,引导人工智能发展始终处于可控、有序的轨道之中。
坚持价值引领 推动人工智能规范发展
随着技术不断发展,人工智能正在从辅助工具变成影响决策的重要力量。早期人工智能主要用于计算和信息处理,而随着大模型和深度学习的发展,其运行方式从机械执行转向自主判断生成,决策过程也由“人主导”逐步转向“人机协同”,甚至在部分场景中由算法主导。
这种变化不仅体现在效率提升上,更体现在对决策方式的改变。在信息平台上,算法决定用户能看到什么内容;在消费领域,推荐系统影响选择路径;在专业领域,智能系统也开始参与判断。技术正从提供参考走向影响甚至左右选择,人的主导作用在一定程度上被削弱。
在这一过程中,人工智能逐渐具备了对资源配置和行为选择产生持续影响的能力。与此同时,风险也在不断累积。例如,算法“黑箱”使决策难以解释,潜在偏差不易发现;平台传播放大问题影响;深度伪造技术可能冲击社会信任基础。这表明,如果只强调效率而忽视规范,技术发展就可能偏离轨道,积累系统性风险。
强化制度约束 推动价值要求嵌入技术全过程
技术可以解决“怎么做”,但无法回答“该不该做”。一旦缺乏价值约束,技术就可能突破边界。因此,仅靠技术自身发展或市场调节,难以实现有效治理。
《办法》的关键作用在于通过制度把价值要求落到实处。一方面,通过明确伦理原则和审查标准,将公平、安全、责任等要求转化为具体规则,让抽象原则变成可以执行的规范;另一方面,将伦理审查提前到研发和应用初期,把风险识别从出事之后前移到问题发生之前。
通过建立伦理委员会、完善服务体系和跟踪审查机制,把伦理要求纳入组织日常运行,使其不再依赖个人自觉,而是成为稳定运行的制度安排。例如,针对高风险的人工智能应用,先在可控环境里进行测试,同时对系统的每一步操作进行记录和监督,这样就能实现全过程可监控、出了问题也能追溯责任。从根本上看,就是通过制度把“该不该做”的问题贯穿到技术发展的每一个环节。
强化协同治理 促进发展与规范良性互动
需要看到,人工智能治理并不是简单限制技术发展,而是在更高层面实现发展与规范的协调统一。效率和创新是技术进步的重要动力,而规范和边界则是技术健康发展的前提。
《办法》的制度设计正体现出这一思路:一方面,通过伦理审查和风险控制,防止技术无序扩张;另一方面,通过服务体系和技术支持,降低合规成本,保障创新活力。在制度约束下,发展与规范不再对立,而是相互促进、相互支撑。例如,第五条明确提出“加大对中小微企业人工智能科技伦理审查的支持和服务力度”。这就是在降低企业守规矩的难度和成本,不让繁琐的流程拖垮创新的脚步,在技术伦理审查的同时,加大服务力度。这一制度安排体现了一种新的治理逻辑:既鼓励技术进步,又守住安全底线,使人工智能在可控范围内释放潜力。
立足黑龙江发展实际,应以《办法》实施为契机,在推进数字经济发展的同时同步提升伦理治理能力。围绕重点应用场景完善审查与服务机制,提高风险识别和防控水平;加强人才培养和技术支撑,把伦理要求融入创新全过程,在守住安全底线的前提下释放技术潜能,以规范促进发展、以治理保障创新,推动人工智能更好服务区域高质量发展。
【作者单位:中共哈尔滨市委党校(哈尔滨市行政学院)】