“算法黑箱”,台下的人都不陌生。人工智能模仿人脑进行学习,比如,人类交给AI大量猫的图片、狗的图片,它就可以层层提取对象特征,自己学会“什么是猫”“什么是狗”,可人类目前不能解释AI的工作原理,不能明白机器为何要做某些事情、为何得出某些结论。根据输出,有些思路简单易懂,比如猫狗的轮廓、颜色,可很多时候并非如此——也就是说,人类看不懂。它给了人类空前的可能,也给了人类无尽的困惑。有人说,让 AI 向人类解释一个东西,相当于让人类向狗解释一个东西,听着就让人沮丧。 可人类历史充分表明,只有一个决策可以被解释、被分析,人类才能充分了解它的优点和它的缺陷,进一步评估风险,知道它在多大程度上能被信赖。然而现在,每个学者的头脑中都萦绕着几个问题:我们能信任 AI 吗?我们能在多大程度上信任 AI ?我们能在生死攸关时信任 AI 吗?