人工智能的行为该由谁来负责?

 新闻资讯     |      2020-04-10 09:58

判定刑事责任要依据其行为和意图,因此以下三种情况之一可用于人工智能系统(来源于《麻省理工科技评论》2018年3月刊)。

第一种是通过他者犯罪的肇事者。当患有精神疾病的人或动物犯罪时,他们无需承担责任。

但对主使精神疾病患者犯罪的人,则需要追究其刑事责任。例如,狗主人命令自家的狗去袭击他人,那么就应该对狗主人进行追责。

第二种是自然可能后果。如果人工智能的正常行为被用于实施犯罪,那么这一罪名就能成立。这种情况曾发生于日本的一家摩托车工厂。一个机器人误把一名员工当作其执行任务的威胁,并计算得出消除威胁的最有效方法是把其推向附近一台正在运行的机器,从而立刻杀死他。

第三种是直接责任,这一罪名的判定也要依据其行为和意图。人工智能的行为是最直接的证据,能证明它是否采取了犯罪行为,或者在需要承担责任时是否无动于衷。

要判定人工智能的意图则更加困难,但仍然可行。如果无人驾驶的汽车在其行驶道路上超速,那么人工智能系统就会被追究刑事责任,因为这是严格的责任违法。而车主可能不需要承担责任。

最近几年的专利申请大幅增长,其中大多数都和人工智能有关。自2013年以来,在和人工智能有关的34万项专利中,53%都已经被发表。其中,中国一骑绝尘,发表了最多的专利(《金融时报》,2019年10月)。

现在,科学家们正在开发能在创造者能力之外提出新想法的机器。这也就引发了一个新的问题,人工智能创造的知识产权应该归谁所有呢?

问题的关键在于,如果人们不认可人工智能的发明者身份,那么人工智能的开发者将不能保护它们创造的知识产权。因此,这样会打击开发者进一步发展人工智能的积极性。否定人工智能的发明者身份显然不利于创新的蓬勃发展。

虽然人们现在似乎还无需考虑是否应该对人工智能的知识产权进行保护,但随着有关人工智能的发明创造与日俱增,这一问题也会变得更加迫切。

随着更深入的学习算法越来越流行,研究者们也越来越难以理解机器是如何得出结果,进而创造出只有机器可读的黑匣子。

许多领域都是如此。就在最近,一个人工智能系统以极高的精准度预测出了一名测试对象的死亡时间,但是研究者们却不明白机器是如何得出这一结论的。

黑盒算法有一个特定领域,那就是GANs(生成对抗网络),即两个神经网络在博弈中彼此对抗(这可以用博弈论来解释,但并不总是以零和博弈的形式出现)。

这一技术能利用给定训练集,产出和该训练集具有相同统计信息的新数据。比如用一些照片去训练一台机器,使其产出新的有照片质量的图片。

在这一技术的支持下,如果用一名作曲家的曲子去训练机器,那么机器就能找出这个作曲家的风格和最独特的地方,并在此基础上作出一支原创的曲目。

属于原来那位作曲家吗?他提供了能做出新曲子的原始数据。或者属于人工智能系统的开发者吗?因为是他发明的技术创造了这支新曲子?又或者应该属于作曲的人工智能系统本身吗?

另一个例子就是正在崛起的deep fakes,这一技术能创造出极为逼真的图像和声音来模仿他人说话。如果人们不能意识到他们所看见的一切都是由机器创造而出,那么这一技术加上社交媒体,一定会制造一场大灾难。

想象一下,如果利用deep fake模仿一名国家领导人,并用他的虚假影像对其他国家宣战,这件事会带来怎样的后果?这一消息会像野火一样迅速传播,在大家意识到这是deep fake的杰作之前造成巨大的影响。又或者利用deep fake制作某公司CEO的虚假影像,引起市场动荡。同时股市会迅速采取相关举措,从而造成巨大的影响。

所以,在这些情况下,谁能在FCA(英国金融市场管理局)或者海牙国际仲裁庭的面前,为机器的决定或自己的不当使用辩护呢?

相信这些问题会在未来引发激烈讨论,现在我们将它提前摆放在圆桌上,大家一起来讨论。