人工智能变得如此聪明,我们需要它来展示其作品

经过:帕特里克·基格(Patrick J. Kiger)

计算机思维变得如此复杂,我们开始失去其推理。我们如何确保我们知道为什么人工智能做出决定?乍得·贝克/盖蒂图像“width=
计算机思维变得如此复杂,我们开始失去其推理。我们如何确保我们知道为什么人工智能做出决定?乍得·贝克/盖蒂图像

如果您想对大量的数字图像进行整理,或按主题对数量的书面信息进行分类,那么您最好依靠人工智能(AI)称为神经网络的系统,它们在数据中寻找模式并根据其观察结果进行训练以进行预测。

但是,当涉及到高风险领域,例如医疗信息,如果犯错或错误预测的成本可能是威胁生命的,那么我们人类有时不愿相信程序提出的答案。那是因为神经网络使用机器学习,他们在其中训练自己如何弄清楚事情,而我们的微弱的肉大脑看不到这个过程。

广告

虽然机器学习方法“灵活,并且通常会产生准确的预测,但它们几乎没有人透露有关为什么要做出特定预测的人,”马萨诸塞州技术学院电气工程和计算机科学教授Tommi Jaakkola说,通过电子邮件通过电子邮件。

将其视为在制机学习中等同于在黑板上写出数学问题以展示您的作品的等效物。

如果您是一个癌症患者,试图根据疾病如何进展的预测来选择治疗选择,或者试图弄清楚如何通过退休储蓄来做些什么,那么盲目信任机器可能会有些恐怖,尤其是因为我们''教机器做出决定,但我们没有一个很好的观察方式如何他们正在做他们。

但是没有恐惧。在新的科学论文,马萨诸塞州理工学院的Jaakkola和其他研究人员开发了一种检查神经网的答案的方法。将其视为在制机学习中等同于在黑板上写出数学问题以展示您的作品的等效物。

作为麻省理工学院新闻稿细节,AI神经网络实际上模仿了人脑的结构。它们由许多处理节点组成,这些节点像我们的神经元一样联手并结合了解决问题的计算能力。在此过程中,他们参与了研究人员所谓的“深度学习”,将培训数据从节点传递到节点,然后将其与神经网络试图学习如何做的任何类型的分类相关联。结果经过不断改进以改进,几乎与人类随着时间的推移通过反复试验学习的方式。

最大的问题是,即使是对网络进行编程的计算机科学家也无法真正观察节点的情况,这使得很难弄清计算机如何实际做出决定。

Jaakkola解释说:“我们不会试图解释复杂模型的内部工作。”“相反,我们强迫该模型以使人能够轻松验证是否正确验证预测是否正确的方式进行操作。”

“我们的方法学会了为每个预测产生一个理由。理由是简洁的文本,容易对人进行检查,仅此而已就可以做出相同的预测。为了实现这一目标,我们将整个模型架构分为两个可分开的架构组件 - 生成器和编码器。生成器选择一个理由(例如一段文本),然后将其传递给编码器以做出预测。该组合被学会了作为预测指标一起工作。”

贾克科拉写道:“因此,即使我们的生成器和编码器本身是复杂的深度学习方法,但组合的模型被迫以直接验证的方式进行预测,因为预测是基于选定的理由。”

在他们的论文中,科学家根据啤酒,口感和外观等啤酒属性,利用他们的系统从啤酒爱好者网站上对评论进行了一些乐趣。Jaakkola说:“啤酒评论数据集已经对产品的特定方面进行了注释,因此我们可以直接将自动产生的理由与人类选择进行比较。”在实验中,他们发现神经网与80%至96%的时间的人类注释一致,具体取决于特征的特征。

广告

特色

广告

加载...