论文部分内容阅读
近日,微软前全球执行副总裁沈向洋通过直播方式分享了对AI可解释性与AI偏见相关问题的研究与看法.他提到,AI就像一个黑匣子,能自己做出决定,但是人们并不清楚其中缘由.所以,我们目前需要做的就是将其打开,了解AI想表达的意思和可能会做出的决定.这就需要设计和构建“负责任”的AI.rn那么,AI的可解释性指什么?是什么导致人们无法对AI的行为进行解释?人工智能如何做决策?研究人员可以怎样做让这些决策更加透明?