近日,多家外媒报道称,一位使用亚马逊智能语音助手Alexa的用户Danni Morritt,在询问心动周期的问题时,竟然得到了如下答案:
“心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。”
这一回答吓坏了Danni,表示十分害怕,因为Alexa正身处在世界各地成千上万的家庭中。她警告身边的人Alexa有严重的安全缺陷,并担心孩子们可能会遭受暴力或图像内容的伤害。Danni表示:“Alexa真的非常残酷,它竟然告诉我要刺入心脏,这太暴力了。我只是为自己的课程学习一些知识,结果被告知要自杀。我简直不敢相信。我被吓坏了。”
很快,亚马逊回应称,确认存在一个已经修复的bug。Alexa可能从任何人都可以编辑的维基百科上下载了有恶意性质的文本。
在此之前,Alexa还出现过很多所谓的bug。
比如,Alexa时常发出瘆人的笑声,还拒听用户指令。“那笑声根本不是Alexa的声音,听起来就像是真人。”
广东知明律师事务所律师表示,这对普通人来说可能不过虚惊一场,但是对一些特殊人群却是致命的,比如抑郁症患者。
如果人工智能致人损害,法律责任要怎么认定?
首先,这取决于人类是想让人工智能实现行为自主,还是思考能力也能自主?所以在讨论法律责任之前,我们必须先给人工智能下一个明确的定义。
人工智能大致可以分为三类:弱人工智能、强人工智能和超人工智能。什么意思呢?简单来说大致就是:
弱人工智能,能模仿人类某一项能力。比如无人驾驶汽车,仅能驾驶;战胜围棋冠军的AlphaGo,仅会下棋;再比如此次事件中的亚马逊智能语音助手Alexa也属于弱人工智能。
强人工智能,人类能完成的它也能,具有人类的智慧和学习能力等。比如2017年被授予沙特公民身份的女性机器人索菲娅。
超人工智能,在大多领域比具有智慧的人类还要聪明,能进行独立思考,还可以像人类实现生物上的进化一样,对自身进行重编程和改进。
人类当前已掌握弱人工智能技术,并逐步迈入强人工智能时代,因此本文主要就当前所处的弱人工智能阶段进行讨论。
弱人工智能只能算作一个工具,在法律上它和一把刀没有本质区别。因此,人工智能致人损害可以分两种情况来看:一种是产品质量问题引发,一种是他人通过或借助人工智能实施违法行为。
第一种情况:人工智能发生质量问题造成了人身伤亡的,即既违约又侵权。购买人既可以要求销售者、生产者承担违约责任,也可以要求其承担侵权责任,但这两个责任只能择一行使,不能同时并用。
第二种情况:他人将人工智能当成作案工具,则应视具体情况追究该当事人的法律责任。若生产者、销售者、所有人存在技术或管理上过错的,应当承担一定的赔偿责任,没有过错的,不承担责任。
人工智能的不断进化是无法避免的趋势,而任何一个新事物的出现也必然产生诸多问题,我们既不能因噎废食,也应时刻谨记霍金先生的话:人类需警惕人工智能的发展威胁。