拨开荷叶行,寻梦已然成。仙女莲花里,翩翩白鹭情。
IMG-LOGO
主页 文章列表 设计人工智能难以复制人类道德!

设计人工智能难以复制人类道德!

白鹭 - 2021-12-13 2334 0 2

美国国防部在2017年成立了Maven计画,加速国防部对大数据和机器学习的整合,应用计算机视觉演算法来标记监视飞机,或侦察卫星捕获的图像或影片中的人物识别。这计划因为有将人工智能「武器化」的疑虑,引起了很多的关注。

2018年当谷歌员工发现公司参与了Maven计画后,数千员工发动抗议,他们在给公司领导层的一封信中写说「谷歌不应该参与战争」,也导致一些员工辞职,谷歌在2019年就没有续签合约。

颁布人工智能指南

但「砍头的生意有人做,赔钱的生意没人做」,Maven计画依然存在,其他科技公司已经取代了谷歌的位置。然而美国国防部知道此一科技存在信任问题,在用最新科技来保家卫国之前,要让人民知道国防部不会将人工智能科技误用、滥用或错用,这需要提高透明度以让人民检视和信任。

因此美国国防部发布了一个「负责任的人工智能」指南,它将要求所有厂商在为国防建构人工智能系统时使用该指南,无论系统用于非军事的人力资源或用于战场的目标识别。

该指南为公司在规划、开发和部署期间遵循的步骤和流程提供了指导,它们包括确定谁可能使用该技术、谁可能受到该技术损害、这些损害可能是什么以及如何避免这些损害的程序,无论是在系统构建之前还是在系统启动并运行之后。

恐怕会被滥用

批评者质疑,这些本来就是任何软硬体开发商在发展系统之前都需要评估的,这个工作指南并没有带来任何有意义的改革。例如指南中根本没有提到使用致命的自主武器(Lethal Autonomous Weapons)的问题,很多人认为这种技术根本就应该禁止。试想无人机搭配上攻击的武器,不加以管制,以后不需要007就可以很容易暗杀掉不喜欢的人。

另外,监控军事科技的开发和使用非常困难,因为它通常需要安全许可。如果你的机密等级不高,就无法接触到像Maven这种重要的计画,但机密等级高的通常是政府官员或内部人员,等于自己监控自己,如何被老百姓信任?

人类智慧难复制

这更深层的就是人工智能的道德问题,到底人类是否可以发展出一套具有人类道德判断能力的人工智能系统?道德是非常主观的,我们无法将所有的道德规则都能写下来,交给一个电脑系统,然后期待电脑系统在面临道德判断或生死关头时能有人类的抉择智慧。

电力车特斯拉创办人马斯克说过:「人工智能不一定要邪恶才能毁灭人类,如果人工智能有一个目标,而人类恰好挡了它的路,它会理所当然、不假思索地毁灭人类,不会有什么难受的感觉。」诚哉斯言!


0 评论

发表评论

您的电子邮件地址不会被公开。 必填的字段已做标记 *