普林斯顿大学的3位社会科学家最近对160个研究小组进行了一项大规模实验,以查看他们中是否有一个能预测孩子的生活会如何。为参与者提供了15年的数据,并允许他们使用他们想要的任何技术,从老式的统计分析到现代人工智能。
实验的最终结局是没人能给出确切的结果,那是因为人工智能(AI)无法预测未来。当然,它可以预测趋势,并且在某些情况下可以提供有价值的见解,可以帮助行业做出最佳决策,但是确定孩子是否成功将需要蛮力数学无法提供的先知能力。
根据普林斯顿团队的研究论文:
我们使用常见任务方法通过科学的大规模协作调查了这个问题;160个团队使用来自脆弱家庭和儿童幸福研究的数据建立了六种生命结局的预测模型,这是一项高质量的出生队列研究。尽管使用了丰富的数据集并应用了针对预测进行了优化的机器学习方法,但最佳预测并不是非常准确,仅比简单基准模型的预测好一点。
调查新闻媒体于2016年在美国法院系统上揭露了有关预测AI的阴险事实。通过一系列调查报告,它从经验上证明了美国法院使用的机器学习系统中的种族歧视是导致黑人被判处比白人更严厉的罪魁祸首的原因,而没有任何方式可以证明或解释原因。
这些系统通常存在于“黑匣子”中,这意味着原始开发人员和最终用户都无法确定为什么机器最终会得出特定结论。AI可以告诉我们它的“预测”,但无法解释原因。例如,当我们处理销售预测时,这些见解很有用。当我们处理人类的生活和自由时,或者试图弄清楚一个孩子是否会成功时,他们基本上只是猜测。从统计学上来说,不是很好。
麻省理工学院的研究员也涵盖了这项研究。他们写道,人工智能负责人和公平负责人合伙制合伙人项翔表示,统计数字仅略高于盲目运气:
对于研究在社会上使用AI的专家来说,结果并不令人惊讶。例如,即使是刑事司法系统中最准确的风险评估算法,最高也能达到60%或70%。她补充说:“也许摘要听起来有些不错。”但无论如何,重新提出建议的比率都可能低于40%。这意味着预测没有重新进攻将使您的准确率超过60%。
最后,尽管向研究团队提供了为期15年的“脆弱家庭”研究中收集的有关入学儿童生活的数据,但没人能给出准确的预测结果。根据普林斯顿团队前面提到的研究论文:
换句话说,即使脆弱家庭数据包含成千上万的变量来帮助科学家了解这些家庭的生活,但参与者仍无法对扣留案例做出准确的预测。此外,最好的提交通常使用复杂的机器学习方法并且可以访问数千个预测变量,仅比使用线性回归的简单基准模型的结果好一些。
这进一步证实了预测性AI在直接影响人类生活时就显得毫无意义。
本文发布者:最黑网,转载请注明出处:https://www.zuiheikeji.org/1042.html