微軟開源可解釋機器學習工具包lnterpretML
【 圖片來源:Microsoft Research Blog 所有者:Microsoft Research Blog 】
人類創造出人工智能,并且被人工智能影響著自己的生活。如果人工智能的行為具有可理解性,那么人類可以更進一步地利用人工智能。近期,微軟研究院就機器學習的可理解性發表了相關文章,雷鋒網全文編譯如下。
當人工智能系統能夠影響人類生活時,人們對它的行為理解是非常重要的。通過理解人工智能系統的行為,數據科學家能夠適當地調試它們的模型。如果能夠解釋模型的行為原理,設計師們就能夠向最終用戶傳遞這些信息。如果醫生、法官或者其它決策制定者相信這個強化智能系統的模型,那他們就可以作出更好的決策。更廣泛的講,隨著模型的理解更加全面,最終用戶可能會更快接受由人工智能驅動的產品和解決方案,同時,也可能更容易滿足監管機構日益增長的需求。
事實上,要實現可理解性是復雜的,它高度依賴許多變量和人為因素,排除了任何“一刀切”的方法。可理解性是一個前沿的、跨學科的研究領域,它建立在機器學習、心理、人機交互以及設計的思想上。
微軟研究院這些年一直致力于研究如何創造出具有可理解性的人工智能,如今,如今微軟在MIT開源協議下開源了lnterpretML軟件工具包,開源地址是 https://github.com/Microsoft/interpret,它將使開發人員能夠嘗試各種方法去解釋模型和系統。InterpretML能夠執行許多可理解的模型,包括可解釋的Boosting Machine(相對于一般的加性模型做了改進),以及為黑箱模型的行為或者它們的個別預測生成解釋的幾種方法。
通過一些簡單的方式去評估可理解性方法,開發人員就能夠比較不同方法產生的解釋,從而去選擇那些***他們需求的方法。例如,通過檢查方法之間的一致性,這樣一來,比較法就能夠幫助數據科學家去了解在多大程度上相信那些解釋。
微軟正期待與開源社區合作,繼續開發InterpretML,開源地址是https://github.com/Microsoft/interpret
本文轉自雷鋒網,如需轉載請至雷鋒網官網申請授權。