您的位置:首页 > 科技资讯 > 正文

深度:我们真的永远也理解不了人工智能吗?

来源:网络 作者: 时间:2020-11-19

在神经网络中,数据从一层传递到另一层,每一步都经历一些简单的转变。在输入层和输出层之间还隐藏着若干层,以及众多节点组和连接。其中往往找不出可被人类解读的规律,与输入或输出也没有明显的联系。“深度”网络便是隐藏层数量较多的神经网络。在现代机器学习算法中,可解释性与精确度难以两全其美。深度学习精确度最高,同时可解释性最低。

  以下为文章全文:

  作为IBM的一名研究科学家,迪米特里·马里奥托夫(Dmitry Malioutov)其实不太说得上来自己究竟打造了什么。他的部分工作内容是打造机器学习系统、解决IBM公司客户面临的棘手问题。例如,他曾为一家大型保险公司编写了一套程序。这项任务极具挑战性,要用到一套十分复杂的算法。在向客户解释项目结果时,马里奥托夫更是大伤脑筋。“我们没办法向他们解释这套模型,因为他们没受过机器学习方面的培训。”

  其实,就算这些客户都是机器学习专家,可能也于事无补。因为马里奥托夫打造的模型为人工神经网络,要从特定类型的数据中寻找规律。在上文提到的例子中,这些数据就是保险公司的客户记录。此类网络投入实际应用已有半个世纪之久,但近年来又有愈演愈烈之势。从语音识别到语言翻译,从下围棋的机器人到自动驾驶汽车,各行各业都在该技术的驱动下出现了新的突破。

  虽然现代神经网络的表现令人激动,但也面临一个棘手的问题:没人理解它们的运行机制,这也就意味着,没人能预测它们何时可能失灵。

  以机器学习专家里奇·卡鲁阿纳(Rich Caruana)和同事们前几年报告的一起事件为例:匹兹堡大学医学中心的一支研究团队曾利用机器学习技术预测肺炎患者是否会出现严重并发症。他们希望将并发症风险较低的患者转移到门诊进行治疗,好腾出更多床位和人手。该团队试了几种不同的方法,包括各种各样的神经网络,以及由软件生成的决策树,后者可总结出清晰易懂、能被人类理解的规则。

  神经网络的正确率比其它方法都要高。但当研究人员和医生们分析决策树提出的规则时,却发现了一些令人不安的结果:按照其中一条规则,医生应当让已患有哮喘的肺炎病人出院,而医生们都知道,哮喘患者极易出现并发症。

  这套模型完全遵从了指令:从数据中找出规律。它之所以给出了如此差劲的建议,其实是由数据中的一个巧合导致的。按照医院政策,身患哮喘的肺炎患者需接受强化护理。而这项政策效果极佳,哮喘患者几乎从不会产生严重并发症。由于这些额外护理改变了该医院的患者记录,算法预测的结果也就截然不同了。
包头二手房网 https://bt.c21.com.cn/ershoufang/c1063641/pg1

【责任编辑:admin】