安防资讯网

首页 > 人工智能 人工智能的可解释性为什么重要?

人工智能的可解释性为什么重要?

近今年以后,人工智能的发展可谓突飞猛进,在图像识别,语音识别,自然语言交互等很多方面都取得了进展。

但是当前的人工智能存在的一个问题是不可解释性问题或者可解释性很差,意思就是AI的能力很强,但是缺少逻辑性,AI不能说明为什么是A结果而不是B结果,就是不可解释,人类不能理解其原因。

究其根本原因,主要是因为人工智能在训练过程中,采用了大量的非线性的计算,非线性计算以及大规模的参数使得人们无法理解为什么AI得出了正确的结论。就是无法说清楚输入与输出之间的逻辑关系。

可解释性可以说是人类理性的标志,人们做一件事情的时候,都是需要找到依据,就是可以为什么是这样不是那样。理性思考就是找到推进事物发展的原因, 如果一个事物不知道原因就去做,就容易引入风险,引入恐惧,而恐惧也是人类的天性,恐惧其实也是促进人类发展的一种属性。

因此,AI的不可解释性,实际上是加深了人类的恐惧心理。从这个角度看,AI的重要发展方向就是可解释性,也是目前AI科学家,工程师的发展发向,比如以人类为中心的AI,透明的AI等等。

文章来源:http://www.anfangnews.com/2022/1016/1250.shtml