如果人工智能系统必须做出独立的决定,而那些决定对人类来说可能意味着生死,会发生什么?
长期以来,流行文化描绘了我们对人工智能的普遍不信任。在 2004 年的科幻电影《我,机器人》中,德尔·斯普纳(威尔·史密斯饰演)在一场车祸中被一个人救起后对机器人产生了怀疑,而一名 12 岁的女孩则被淹死。他说:“我是合乎逻辑的选择。它计算出我有 45% 的生存机会。莎拉只有 11% 的机会。那是某人的孩子——11% 绰绰有余。一个人会知道这一点.”
与人类不同,机器人缺乏道德良知,并遵循编入其中的“道德”。同时,人类的道德是高度可变的。在任何情况下做的“正确”的事情都取决于你问的是谁。
为了让机器能够帮助我们充分发挥其潜力,我们需要确保它们的行为符合道德规范。那么问题就变成了:AI 开发人员和工程师的道德规范如何影响 AI 的决策?
自动驾驶的未来
想象一下完全自主的自动驾驶汽车的未来。如果一切按预期进行,早上通勤将是为当天的会议做准备、了解新闻或坐下来放松的机会。
但是如果出现问题怎么办?汽车接近红绿灯,但突然刹车失灵,计算机不得不在瞬间做出决定。它可以突然转向附近的杆子并杀死乘客,或者继续前进并杀死前方的行人。
控制汽车的计算机只能访问通过汽车传感器收集的有限信息,并且必须基于此做出决定。尽管这看起来很戏剧化,但我们距离可能面临这样的困境只有几年的时间。
自动驾驶汽车通常会提供更安全的驾驶,但事故将不可避免——尤其是在可预见的未来,当这些汽车将与人类驾驶员和其他道路使用者共享道路时。