进入21世纪后,全世界的军事专家和研究人员一直在争论一个被称为“终结者”的严重问题。原因是,由于深度学习所反映出的AI的飞跃式进步,可识别敌我并能判断是否发动攻击的杀手机器人武器登场亮相,使“终结者”问题具有现实性。
根据人类多大程度参与从识别到攻击的决定,杀手机器人可以分为3类。一类是完全由人类决定、由人远程操作的无人机。具体来说,美国MQ-1“捕食者”侦察机就是典型代表。第二类是机器人可以自己判断,但中途人类可以中断或取消的半自主型。以色列的“哈比”自杀式无人机就是这种类型。这两类都已经实战部署。被视为“终结者”问题的是第三类,它是人类完全不参与决策过程的自主型杀手机器人。
关于自主型杀手机器人,其风险包括:程序错误等原因导致误伤、扩散至恐怖分子手中、自主判断做出人类意想不到的敌对行为、决定攻击作战时抑制力下降等。
推进派的专家们则主张,自主型杀手机器人“可以减少被愤怒和恐怖驱使的不必要的杀伤”“可以降低己方军队士兵的被杀伤率”“可以维持本国的军事优势”“成功量产能削减军费”等。
然而,我们真的能够允许将杀伤人类的判断交给不能承担责任的AI吗?
2024-11-21 10:13:52
2024-11-21 10:24:15
2024-11-20 09:45:53
2024-11-20 09:34:44
2024-11-18 13:29:04
2024-11-18 13:36:26
2024-11-15 09:42:12
2024-11-15 09:39:10
2024-11-14 10:29:55
2024-11-14 10:22:36
2024-11-13 09:31:22
2024-11-13 09:26:00