如何增强深度学习的可解释性?
NVIDIA中国GPU应用市场总监侯宇涛:
对于深入学习,专家定义它为黑盒子,在隐藏的网络中,你没有办法从输出端一步步可逆,去看到它如何去形成这些权重的参数。由于深度学习在一些比较关键的流程中都不太管用,在结构上,大家也不知道机器是怎么学出来的。因此对于可解释性,目前还没有看到特别好的解决办法。
问题来源