展开频道 收起频道

美国AI伦理是一种伪伦理丨长江评论

新闻中心 > 武汉

2019-11-04 20:21 来源: 长江网
【字体:


  长江网评论员杨于泽
  11月1日,美国国防部下属的国防创新委员会推出了最终版的《人工智能伦理道德标准》,这份文件虽然没有强制约束力,但代表了一种官方态度,必将在美国社会产生广泛影响。《人工智能伦理道德标准》实质是一种所谓AI军用伦理原则,据专家分析,其出台相当于打开了AI军事化的闸门。


  AI合成主播播军运(资料图)
  AI军事化已经不是一种军事科技发展的远景,而是在很大程度上已经成为现实场景。2018年12月,欧盟委员会发布《人工智能道德准则》,基石性原则就是“可信赖”,展开来包括问责机制、人工智能自治的治理(人的监督)、尊重(增强)人类自主性、稳健性、安全、透明等。更早一些,美国电气和电子工程师协会(IEEE)发布了其人工智能伦理标准,其中包括一个“道德化的人工智能和自动系统的福祉衡量标准”,主张人工智能技术进步必须造福人类,而决不能变成杀人武器。
  更重要的是,联合国已经对AI军事化的前景展开行动:2016年12月,联合国裁军会议讨论了出台致命自动机器人禁令的可能性问题;2017年11月,联合国举行了致命自主武器系统会议;2018年8月,联合国召开了“常规武器公约”(CCW)致命自主武器会议。2019年3月,联合国秘书长古特雷斯声明,致命自主武器系统(LAWS)在道德上是令人厌恶的,应该受到国际法的禁止。
  现在美国国防部国防创新委员会发布《人工智能伦理道德标准》,为AI军事化打开伦理的方便之门,与国际社会的伦理意识与努力方向背道而驰。


  AI换脸app(资料图)
  伦理是基于一定道德规范的行为准则,人工智能伦理是要使人工智能的应用符合人们的道德期待、得到社会的认可,伦理的基础是共识。美军《人工智能伦理道德标准》提出五项核心标准:即负责、公平、可追踪、可靠、可控,听起来很抽象,但充其量只是处理人工智能武器系统与美国军事人员之间的关系,几乎没有顾及人工智能武器系统与对象、与人类的道德关系。这不是一个伦理标准,而更像一个内部安全保障手册。这其实是一种打着伦理旗号的伪伦理。
  【编辑:刘思】
 

一周热门