引发重大伦理问题
当然,这些都引发了许多伦理问题。科技公司是否应该开发公然违背“不伤害”原则的人工智能工具?
以帕兰蒂尔公司为例,这家公司曾因开发间谍工具而饱受批评。乌克兰部署人工智能增强型监控所使用的许多方法都与该公司有关。
不难想象,战场提供了一个可以进行研发而不会受到过多道德监督或审查的场所。在未来的某个时候,这项技术是否有可能被部署到战区之外?忽视这种威胁似乎是愚蠢之举。
一个重要的问题是:让机器作出杀戮决策在道德上是否说得通?例如,乌克兰的人工智能机枪技术可以识别敌方目标,但仍需人类操作员授权才能开火。然而情况会一直如此吗?
过度强调人工智能和技术在战争中的作用也是有风险的。虽然它们确实可以为宣传提供素材,也许还能引起敌人的恐惧,但我们不应忘记,绝大多数战斗和杀戮仍是由人类完成的。
将俄乌冲突描绘成主要由机器人和软件进行的战争,淡化战争所带来的恐怖和危险,这可能会让人用“技术洗白”的方式掩盖战争的残酷性。
|