:::

什麼是機器學習的可解釋性? / What is the Interpretability to Artifact Intelligency?

2023-0626-161052.png

​這是以「可解釋機器學習:黑盒模型可解釋性理解指南」第二章「可解釋性」(interpretability)製作的投影片,供大家參考。


投影片 / Slide

參考文獻 / Reference

cover.png

Molnar C.(2021)。可解釋機器學習:黑盒模型可解釋性理解指南(朱明超譯)。電子工業。

簡介 / Description

面對排山倒海的深度學習人工智慧,人們總是會想問「為什麼會是這樣的結果」。一部份的人轉而將希望投注在xAI (Explainable AI)上,也就是本篇在講的可解釋性的機器學習,嘗試讓人工智慧提供預測結果的理由。然而,可解釋性並不是聖杯,更不是銀彈。更多時候,可解釋性帶來的並不是讓人釋懷的解釋,而是更多難以理解的問題。

這份投影片擷取自「可解釋機器學習:黑盒模型可解釋性理解指南」書本的第二章「可解釋性」,嘗試說明「可解釋性」的重要性、侷限性,以及什麼叫作好的「解釋」。值得注意的是,中文翻譯很多時候會混用「interpretability」跟「explainability」兩個詞彙。雖然兩者十分相似,但前者「interpretability」主要是用來觀察變項與變項之間的關聯,而後者「explainability」則更偏向於面對人類決策者的解釋。目前的xAI大多著重在前者,而這可能會與一般人期待的「可解釋性」有很大的落差。

在我看來,xAI提供的分析結果並非是一錘定音的證據,但卻是促進人們思考的線索。這個特性適合需要促進思考的人們,例如分析師、研究者、以及學生,但並不適合需要快速下決定的第一線工作人員。

在使用xAI的時候,我們可能需要更了解自己在追求的「解釋」是什麼,才能正確地活用這個工具。


文章最後要來問的是:你信任AI給的結果嗎?

  • 1. 信啦,那次不信的。AI都這麼普及了。
  • 2. 參考用。AI的建議就當作多個參考來源之一吧。
  • 3. 不需要AI,我自己判斷就好了。

下面留言喔!