什麼是機器學習的可解釋性? / What is the Interpretability to Artifact Intelligency?
這是以「可解釋機器學習:黑盒模型可解釋性理解指南」第二章「可解釋性」(interpretability)製作的投影片,供大家參考。
投影片 / Slide
- Google簡報線上檢視: https://docs.google.com/presentation/d/1xnJJNMe_1aQw7RBBcaUvXG9QcGCnDTnpxXqRt4b_u9s/edit?usp=sharing
- 轉換成PowerPoint格式後的下載連結:GitHub, Google Drive, One Drive, Mega, Box, MediaFire, SlideShare
參考文獻 / Reference
Molnar C.(2021)。可解釋機器學習:黑盒模型可解釋性理解指南(朱明超譯)。電子工業。
簡介 / Description
面對排山倒海的深度學習人工智慧,人們總是會想問「為什麼會是這樣的結果」。一部份的人轉而將希望投注在xAI (Explainable AI)上,也就是本篇在講的可解釋性的機器學習,嘗試讓人工智慧提供預測結果的理由。然而,可解釋性並不是聖杯,更不是銀彈。更多時候,可解釋性帶來的並不是讓人釋懷的解釋,而是更多難以理解的問題。
這份投影片擷取自「可解釋機器學習:黑盒模型可解釋性理解指南」書本的第二章「可解釋性」,嘗試說明「可解釋性」的重要性、侷限性,以及什麼叫作好的「解釋」。值得注意的是,中文翻譯很多時候會混用「interpretability」跟「explainability」兩個詞彙。雖然兩者十分相似,但前者「interpretability」主要是用來觀察變項與變項之間的關聯,而後者「explainability」則更偏向於面對人類決策者的解釋。目前的xAI大多著重在前者,而這可能會與一般人期待的「可解釋性」有很大的落差。
在我看來,xAI提供的分析結果並非是一錘定音的證據,但卻是促進人們思考的線索。這個特性適合需要促進思考的人們,例如分析師、研究者、以及學生,但並不適合需要快速下決定的第一線工作人員。
在使用xAI的時候,我們可能需要更了解自己在追求的「解釋」是什麼,才能正確地活用這個工具。
文章最後要來問的是:你信任AI給的結果嗎?
- 1. 信啦,那次不信的。AI都這麼普及了。
- 2. 參考用。AI的建議就當作多個參考來源之一吧。
- 3. 不需要AI,我自己判斷就好了。
下面留言喔!