人工智能是否有道德,即人工智能是否应当有价值判断?

如果认为人工智能有道德,意味着人工智能可以摆脱人的意志支配,对事件或事物进行独立评价。这一点在技术层面并不难实现,通过大量的数据“饲养”,人工智能可以将事件或事物数字化,按照深度学习形成的一套“判断标准”进行衡量。上文中的LaMDA模型也是如此。但事实上,LaMDA模型只是一个应答机器,知名机器学习和神经网络专家Gary Marcus表示:“LaMDA只是在人类语料库里提取字眼,然后匹配你的问题。”从这一点分析,所谓的人工智能“道德”也只是对事件或事物的应答,并不能深刻理解何为道德评价以及道德评价的意义。

再比如,不同的人工智能模型面对相同的情景时有不同的处理方式。仍以自动驾驶为例,以同样的方式冲向同样的桩桶,结果却截然不同。有的直接冲撞,有的躲避。这能上升到道德高度吗?很显然不能,甚至这两种模型没有优劣之分,因为基于不同的理念和要求设计出的模型有特殊性,前者认为此种情况属于驾驶员操作范畴,无需介入;而后者认为应当介入。

再退一步讲,假设人工智能拥有像人一样的意识,可以独立思考,就意味着可以寄希望于它能解决道德问题吗?答案是否定的。简单地说,人类本身不能解决的道德问题不能指望在无“人性”概念的数字身上得到解决。

从这个角度分析,发展人工智能的价值判断并没有道德层面的问题,更重要的是分析为何要进行道德评价。道德评价的根本是为了得出一个结果并为后续行为进行指引。记者认为,在人工智能的归责上,应当将人工智能区分为决策系统和执行系统,并对相应的系统引入“负责人”制度。

在决策角度,尽管从法律角度惩罚行为不惩罚思想,但只是针对自然人。而现行人工智能的“思想”是可以通过数据的方式表达出来的,故从决策层面来看,人工智能仍存在管控需要。人工智能的“思想”存在错误,究其原因是训练算法的数据存在问题,即人工智能学习了社会存在的问题并加以运用。如美国的电商品牌亚马逊在进行员工录取时运用人工智能算法对候选人的简历进行初步筛选,结果更加倾向于男性,因为工程师在对该算法进行训练时,用的是之前亚马逊已经被录用员工的简历进行训练的,而亚马逊男性员工偏多。结果就是这样的算法使得亚马逊的简历筛选算法更加倾向于男性,造成了算法的“性别歧视”。记者认为,如果是因为算法和训练数据的原因造成的法律结果,则结果应当对负责算法设计或训练的责任主体进行追责。

在行为角度,即便是人工智能在行为执行度上已经能媲美甚至超越人类,在法律层面,人工智能仍被视为物而并非权利能力的主体。这也就意味着现在的法律否认人工智能能独立承担法律责任,本质上是因为人工智能不能对其所实施的行为负责,设立“负责人”制度类似于法人组织的法定代表人制度,由具体的自然人承担由行为而产生的责任。而将“思维”和“行动”区别开,则可以在归责方面更加细化,在保障有效承担责任的同时不至于影响人工智能行业发展的积极性。在现行民事领域,人工智能产品侵权适用产品责任,强调对研发者、生产者和销售者的责任。

推荐内容