“伪AI”:精心炮制的随机数生成器罢了
AI时代,以AI之名行骗的“伪AI”产品屡见不鲜,甚至影响越来越广泛。
有位名叫阿文德·纳拉亚南(Arvind Narayanan)的普林斯顿CS副教授坐不住了。他炮轰道:
某些公司为了卖货,利用公众的不了解,不管卖的是什么通通贴上“AI”的标签。
更可怕的是,像AlphaGo这样优秀的AI们吸引来了大量的投资者。光环之下,“伪AI”产品同样能募集到巨额资金,甚至在资本的推动之下,成为趋势,影响越来越多的人。
阿文德以AI面试举例。现在,全球已有百万求职者经历过或正在经历AI面试官的“凝视”。
提供这类产品的公司非只一家,其中最知名的HireVue,声称全球有超过700家公司使用他们的产品,其中不乏世界500强企业。目前,这家公司已募集资金9300万美元(约合6.55亿元人民币)。
阿文德指出:
没有经过同行评审的证据能够表明,这些东西真的可以预测工作绩效。数百万求职者面对的不过是精心设计的随机数生成器。
令人怀疑的,还远不只是这一种产品。
为了让大家不被这样的最新“智商税”收割,阿文德决心教会大家如何识别这些AI界的骗子们。
他的这份“防骗指南”登场数小时,就已经在推特上收获了1500赞。
AI骗子长什么样
首先,阿文德认为,现在的AI应用可以分成三类:
真正卓有成效的项目
不完美但进展明显的项目
根本不靠谱的项目
总结起来,在人脸识别这样的感知任务,和推荐算法这样的自动判断任务上,AI的表现都比较靠谱。
而“伪AI”嫌疑人所做的,是预测和人有关的“未来”。
人们无法预测未来本来应该是常识,但遇上AI,常识总是被抛到脑后。
当然,口说无凭,阿文德引用了普莱斯顿大学脆弱家庭和儿童福祉研究的一项研究结果(地址见文末)。
这项研究旨在探明孩子们的表现到底是不是可以预测的。
流程是这样:先通过深入访谈和家庭观察收集大量孩子及其家庭的数据。然后,用这些数据训练预测模型。输入的变量有近13000个,输出结果将预测这些孩子在15岁时6种表现。如果模型能够完美预测出结果,R^2=1,如果模型啥也没学会,R^2=0。
但训练的结果,却让参与研究的研究人员们大跌眼镜。即使是表现最好的模型,也并没有哪一项预测结果是让人信服的,甚至不如用4个变量线性回归拟合出来模型靠谱。
这一结果并非个例。在一项再犯罪率的预测研究中(论文链接见文末),AI的预测准确率只比随机结果好一点点,还是比逻辑回归的结果低了2个百分点。
并且,不止是预测结果不靠谱,这样的预测AI,还暗含着更多风险。
首先,训练这样的AI需要收集大量个人隐私数据。谁都没有办法保证,这些数据会绝对安全。
其次,人们对这类AI的盲目信任,会使得一个领域的话语权,从领域专家和从业人员身上,大规模转移到掌握AI的科技公司。
更重要的是,AI的黑盒子属性使得它给出的结果缺乏解释性。
就像是一开始举的AI面试的例子,AI面试官给你打了个低分,谁也没法儿解释,到底是因为你表现不够自信,还是你身边的噪声影响了它的判断。
不是每一只AI都叫AlphaGo。阿文德承认,人工智能在某些任务上表现得十分出色,但如果有人把AI当成了万金油,只为了分得AI风口上的一杯羹,那么,就要擦亮双眼,该反对反对,该抵制抵制。