成人网18视频网站,qvod激情视频在线观看,色国产精品一区在线观看,久久99热国产这有精品,天天舔天天爽,国产日韩视频,伊人久久精品成人网


首頁(yè)
產(chǎn)品系列
行業(yè)應用
渠道合作
新聞中心
研究院
投資者關(guān)系
技術(shù)支持
關(guān)于創(chuàng )澤
| En
 
  當前位置:首頁(yè) > 新聞資訊 > 機器人知識 > 深度學(xué)習的可解釋性研究(一)— 讓模型具備說(shuō)人話(huà)的能力  
 

深度學(xué)習的可解釋性研究(一)— 讓模型具備說(shuō)人話(huà)的能力

來(lái)源:圖靈人工智能      編輯:創(chuàng )澤      時(shí)間:2020/6/4      主題:其他   [加盟]
1. 可解釋性是什么?

廣義上的可解釋性指在我們需要了解或解決一件事情的時(shí)候,我們可以獲得我們所需要的足夠的可以理解的信息。比如我們在調試bug的時(shí)候,需要通過(guò)變量審查和日志信息定位到問(wèn)題出在哪里。比如在科學(xué)研究中面臨一個(gè)新問(wèn)題的研究時(shí),我們需要查閱一些資料來(lái)了解這個(gè)新問(wèn)題的基本概念和研究現狀,以獲得對研究方向的正確認識。反過(guò)來(lái)理解,如果在一些情境中我們無(wú)法得到相應的足夠的信息,那么這些事情對我們來(lái)說(shuō)都是不可解釋的。比如劉慈欣的短篇《朝聞道》中霍金提出的“宇宙的目的是什么”這個(gè)問(wèn)題一下子把無(wú)所不知的排險者卡住了,因為再G等的文明都沒(méi)辦法理解和掌握造物主創(chuàng )造宇宙時(shí)的全部信息,這些終J問(wèn)題對我們來(lái)說(shuō)永遠都是不可解釋的。

而具體到機器學(xué)習L域來(lái)說(shuō),以用戶(hù)友好的決策樹(shù)模型為例,模型每作出一個(gè)決策都會(huì )通過(guò)一個(gè)決策序列來(lái)向我們展示模型的決策依據:比如男性&未婚&博士&禿頭的條件對應“不感興趣”這個(gè)決策,而且決策樹(shù)模型自帶的基于信息理論的篩選變量標準也有助于幫助我們理解在模型決策產(chǎn)生的過(guò)程中哪些變量起到了顯著(zhù)的作用。所以在一定程度上,我們認為決策樹(shù)模型是一個(gè)具有比較好的可解釋性的模型,在以后的介紹中我們也會(huì )講到,以決策樹(shù)為代表的規則模型在可解釋性研究方面起到了非常關(guān)鍵的作用。再以用戶(hù)不友好的多層神經(jīng)網(wǎng)絡(luò )模型為例,模型產(chǎn)生決策的依據是什么呢?大概是以比如 1/(e^-(2*1/(e^(-(2*x+y))+1) + 3*1/(e^(-(8*x+5*y))+1))+1) 是否大于0.5為標準(這已經(jīng)是簡(jiǎn)單的模型結構了),這一連串的非線(xiàn)性函數的疊加公式讓人難以直接理解神經(jīng)網(wǎng)絡(luò )的“腦回路”,所以深度神經(jīng)網(wǎng)絡(luò )習慣性被大家認為是黑箱模型。

17年ICML的Tutorial中給出的一個(gè)關(guān)于可解釋性的定義是:

Interpretation is the process of giving explanations to Human.

總結一下就是“說(shuō)人話(huà)”,“說(shuō)人話(huà)”,“說(shuō)人話(huà)”,不以人類(lèi)可以理解的方式給出的解釋都叫耍流氓,記住這三個(gè)字,你就差不多把握了可解釋性的精髓所在。

2. 我們?yōu)槭裁葱枰山忉屝裕?

廣義上來(lái)說(shuō)我們對可解釋性的需求主要來(lái)源于對問(wèn)題和任務(wù)了解得還不夠充分。具體到深度學(xué)習/機器學(xué)習L域,就像我們上文提到的多層神經(jīng)網(wǎng)絡(luò )存在的問(wèn)題,盡管G度的非線(xiàn)性賦予了多層神經(jīng)網(wǎng)絡(luò )JG的模型表示能力,配合一些堪稱(chēng)現代煉丹術(shù)的調參技術(shù)可以在很多問(wèn)題上達到非常喜人的表現,大家如果經(jīng)常關(guān)注AI的頭條新聞,那些機器學(xué)習和神經(jīng)網(wǎng)絡(luò )不可思議的新突破甚至經(jīng)常會(huì )讓人產(chǎn)生AI馬上要取代人類(lèi)的恐懼和幻覺(jué)。但正如近日貝葉斯網(wǎng)絡(luò )的創(chuàng )始人Pearl所指出的,“幾乎所有的深度學(xué)習突破性的本質(zhì)上來(lái)說(shuō)都只是些曲線(xiàn)擬合罷了”,他認為今天人工智能L域的技術(shù)水平只不過(guò)是上一代機器已有功能的增強版。雖然我們造出了準確度JG的機器,但后只能得到一堆看上去毫無(wú)意義的模型參數和擬合度非常G的判定結果,但實(shí)際上模型本身也意味著(zhù)知識,我們希望知道模型究竟從數據中學(xué)到了哪些知識(以人類(lèi)可以理解的方式表達的)從而產(chǎn)生了終的決策。從中是不是可以幫助我們發(fā)現一些潛在的關(guān)聯(lián),比如我想基于深度學(xué)習模型開(kāi)發(fā)一個(gè)幫助醫生判定病人風(fēng)險的應用,除了終的判定結果之外,我可能還需要了解模型產(chǎn)生這樣的判定是基于病人哪些因素的考慮。如果一個(gè)模型完全不可解釋?zhuān)敲丛诤芏郘域的應用就會(huì )因為沒(méi)辦法給出更多可靠的信息而受到限制。這也是為什么在深度學(xué)習準確率這么G的情況下,仍然有一大部分人傾向于應用可解釋性G的傳統統計學(xué)模型的原因。

不可解釋同樣也意味著(zhù)危險,事實(shí)上很多L域對深度學(xué)習模型應用的顧慮除了模型本身無(wú)法給出足夠的信息之外,也有或多或少關(guān)于安全性的考慮。比如,下面一個(gè)非常經(jīng)典的關(guān)于對抗樣本的例子,對于一個(gè)CNN模型,在熊貓的圖片中添加了一些噪聲之后卻以99.3%的概率被判定為長(cháng)臂猿。

在熊貓圖片中加入噪聲,模型以99.3%的概率將圖片識別為長(cháng)臂猿

事實(shí)上其他一些可解釋性較好的模型面對的對抗樣本問(wèn)題可能甚至比深度學(xué)習模型更多,但具備可解釋性的模型在面對這些問(wèn)題的時(shí)候是可以對異常產(chǎn)生的原因進(jìn)行追蹤和定位的,比如線(xiàn)性回歸模型中我們可以發(fā)現某個(gè)輸入參數過(guò)大/過(guò)小導致了后判別失常。但深度學(xué)習模型很難說(shuō)上面這兩幅圖到底是因為哪些區別導致了判定結果出現了如此大的偏差。盡管關(guān)于對抗樣本的研究近也非;馃,但依然缺乏具備可解釋性的關(guān)于這類(lèi)問(wèn)題的解釋。

當然很多學(xué)者對可解釋性的必要性也存有疑惑,在NIPS 2017會(huì )場(chǎng)上,曾進(jìn)行了一場(chǎng)非常激烈火爆的主題為“可解釋性在機器學(xué)習中是否必要”的辯論,大家對可解釋性的呼聲還是非常G的。但人工智能三巨頭之一的Yann LeCun卻認為:人類(lèi)大腦是非常有限的,我們沒(méi)有那么多腦容量去研究所有東西的可解釋性。有些東西是需要解釋的,比如法律,但大多數情況下,它們并沒(méi)有你想象中那么重要。比如世界上有那么多應用、網(wǎng)站,你每天用Facebook、Google的時(shí)候,你也沒(méi)想著(zhù)要尋求它們背后的可解釋性。LeCun也舉了一個(gè)例子:他多年前和一群經(jīng)濟學(xué)家也做了一個(gè)模型來(lái)預測房?jì)r(jià)。個(gè)用的簡(jiǎn)單的線(xiàn)性于猜測模型,經(jīng)濟學(xué)家也能解釋清楚其中的原理;第二個(gè)用的是復雜的神經(jīng)網(wǎng)絡(luò ),但效果比個(gè)好上不少。結果,這群經(jīng)濟學(xué)家想要開(kāi)公司做了。你說(shuō)他們會(huì )選哪個(gè)?LeCun表示,任何時(shí)候在這兩種里面選擇都會(huì )選效果好的。就像很多年里雖然我們不知道藥物里的成分但一直在用一樣。

但是不可否認的是,可解釋性始終是一個(gè)非常好的性質(zhì),如果我們能兼顧效率、準確度、說(shuō)人話(huà)這三個(gè)方面,具備可解釋性模型將在很多應用場(chǎng)景中具有不可替代的優(yōu)勢。

3. 有哪些可解釋性方法?

我們之前也提到機器學(xué)習的目的是從數據中發(fā)現知識或解決問(wèn)題,那么在這個(gè)過(guò)程中只要是能夠提供給我們關(guān)于數據或模型的可以理解的信息,有助于我們更充分地發(fā)現知識、理解和解決問(wèn)題的方法,那么都可以歸類(lèi)為可解釋性方法。如果按照可解釋性方法進(jìn)行的過(guò)程進(jìn)行劃分的話(huà),大概可以劃分為三個(gè)大類(lèi):

1. 在建模之前的可解釋性方法

2. 建立本身具備可解釋性的模型

3. 在建模之后使用可解釋性方法對模型作出解釋

4. 在建模之前的可解釋性方法

這一類(lèi)方法其實(shí)主要涉及一些數據預處理或數據展示的方法。機器學(xué)習解決的是從數據中發(fā)現知識和規律的問(wèn)題,如果我們對想要處理的數據特征所知甚少,指望對所要解決的問(wèn)題本身有很好的理解是不現實(shí)的,在建模之前的可解釋性方法的關(guān)鍵在于幫助我們迅速而多面地了解數據分布的特征,從而幫助我們考慮在建模過(guò)程中可能面臨的問(wèn)題并選擇一種合理的模型來(lái)逼近問(wèn)題所能達到的優(yōu)解。

數據可視化方法就是一類(lèi)非常重要的建模前可解釋性方法。很多對數據挖掘稍微有些了解的人可能會(huì )認為數據可視化是數據挖掘工作的后一步,大概就是通過(guò)設計一些好看又唬人的圖表或來(lái)展示你的分析挖掘成果。但大多數時(shí)候,我們在真正要研究一個(gè)數據問(wèn)題之前,通過(guò)建立一系列方方面面的可視化方法來(lái)建立我們對數據的直觀(guān)理解是非常需要的,特別是當數據量非常大或者數據維度非常G的時(shí)候,比如一些時(shí)空G維數據,如果可以建立一些一些交互式的可視化方法將會(huì )J大地幫助我們從各個(gè)層次角度理解數據的分布,在這個(gè)方面我們實(shí)驗室也做過(guò)一些非常不錯的工作。

還有一類(lèi)比較重要的方法是探索性質(zhì)的數據分析,可以幫助我們更好地理解數據的分布情況。比如一種稱(chēng)為MMD-critic方法中,可以幫助我們找到數據中一些具有代表性或者不具代表性的樣本。

使用MMD-critic從Imagenet數據集中學(xué)到的代表性樣本和非代表性樣本(以?xún)煞N狗為例)

5. 建立本身具備可解釋性的模型

建立本身具備可解釋性的模型是我個(gè)人覺(jué)得是關(guān)鍵的一類(lèi)可解釋性方法,同樣也是一類(lèi)要求和限定很G的方法,具備“說(shuō)人話(huà)”能力的可解釋性模型大概可以分為以下幾種:

1. 基于規則的方法(Rule-based)

2. 基于單個(gè)特征的方法(Per-feature-based)

3. 基于實(shí)例的方法(Case-based)

4. 稀疏性方法(Sparsity)

5. 單調性方法(Monotonicity)

基于規則的方法比如我們提到的非常經(jīng)典的決策樹(shù)模型。這類(lèi)模型中任何的一個(gè)決策都可以對應到一個(gè)邏輯規則表示。但當規則表示過(guò)多或者原始的特征本身就不是特別好解釋的時(shí)候,基于規則的方法有時(shí)候也不太適用。

基于單個(gè)特征的方法主要是一些非常經(jīng)典的線(xiàn)性模型,比如線(xiàn)性回歸、邏輯回歸、廣義線(xiàn)性回歸、廣義加性模型等,這類(lèi)模型可以說(shuō)是現在可解釋性G的方法,可能學(xué)習機器學(xué)習或計算機相關(guān)專(zhuān)業(yè)的朋友會(huì )認為線(xiàn)性回歸是基本低J的模型,但如果大家學(xué)過(guò)計量經(jīng)濟學(xué),就會(huì )發(fā)現大半本書(shū)都在討論線(xiàn)性模型,包括經(jīng)濟學(xué)及相關(guān)L域的論文其實(shí)大多數也都是使用線(xiàn)性回歸作為方法來(lái)進(jìn)行研究。這種非常經(jīng)典的模型全世界每秒都會(huì )被用到大概800多萬(wàn)次。為什么大家這么青睞這個(gè)模型呢?除了模型的結構比較簡(jiǎn)單之外,更重要的是線(xiàn)性回歸模型及其一些變種擁有非常solid的統計學(xué)基礎,統計學(xué)可以說(shuō)是看重可解釋性的一門(mén)學(xué)科了,上百年來(lái)無(wú)數數學(xué)家統計學(xué)家探討了在各種不同情況下的模型的參數估計、參數修正、假設檢驗、邊界條件等等問(wèn)題,目的就是為了使得在各種不同情況下都能使模型具有有非常好的可解釋性,如果大家有時(shí)間有興趣的話(huà),除了學(xué)習機器學(xué)習深度模型模型之外還可以盡量多了解一些統計學(xué)的知識,可能對一些問(wèn)題會(huì )獲得完全不一樣的思考和理解。

基于實(shí)例的方法主要是通過(guò)一些代表性的樣本來(lái)解釋聚類(lèi)/分類(lèi)結果的方法。比如下圖所展示的貝葉斯實(shí)例模型(Bayesian Case Model,BCM),我們將樣本分成三個(gè)組團,可以分別找出每個(gè)組團中具有的代表性樣例和重要的子空間。比如對于下面類(lèi)聚類(lèi)來(lái)說(shuō),綠臉是具有代表性的樣本,而綠色、方塊是具有代表性的特征子空間。

使用BCM學(xué)到的分類(lèi)及其對應的代表性樣本和代表性特征子空間

基于實(shí)例的方法的一些局限在于可能挑出來(lái)的樣本不具有代表性或者人們可能會(huì )有過(guò)度泛化的傾向。

基于稀疏性的方法主要是利用信息的稀疏性特質(zhì),將模型盡可能地簡(jiǎn)化表示。比如如下圖的一種圖稀疏性的LDA方法,根據層次性的單詞信息形成了層次性的主題表達,這樣一些小的主題就可以被更泛化的主題所概括,從而可以使我們更容易理解特定主題所代表的含義。

Graph-based LDA 中的主題層次結構

基于單調性的方法:在很多機器學(xué)習問(wèn)題中,有一些輸入和輸出之間存在正相關(guān)/負相關(guān)關(guān)系,如果在模型訓練中我們可以找出這種單調性的關(guān)系就可以讓模型具有更G的可解釋性。比如醫生對患特定疾病的概率的估計主要由一些跟該疾病相關(guān)聯(lián)的G風(fēng)險因素決定,找出單調性關(guān)系就可以幫助我們識別這些G風(fēng)險因素。

6. 在建模之后使用可解釋性性方法作出解釋

建模后的可解釋性方法主要是針對具有黑箱性質(zhì)的深度學(xué)習模型而言的,主要分為以下幾類(lèi)的工作:

1. 隱層分析方法

2. 模擬/代理模型

3. 敏感性分析方法

這部分是我們接下來(lái)介紹和研究的重點(diǎn),因此主要放在后續的文章中進(jìn)行講解,在本篇中不作過(guò)多介紹。

除了對深度學(xué)習模型本身進(jìn)行解釋的方法之外,也有一部分工作旨在建立本身具有可解釋性的深度學(xué)習模型,這和我們前面介紹通用的可解釋性模型有區別也有聯(lián)系,也放到后面的文章中進(jìn)行介紹。

參考文獻

[1] Google Brain, Interpretable Machine Learning: The fuss, the concrete and the questions.

[2] Kim B, Koyejo O, Khanna R, et al. Examples are not enough, learn to criticize! Criticism for Interpretability[C]. neural information processing systems, 2016: 2280-2288.

[3] Kim B, Rudin C, Shah J. The Bayesian Case Model: A Generative Approach for Case-Based Reasoning and Prototype Classification[J]. Computer Science, 2015, 3:1952-1960.

[4] Doshi-Velez F, Wallace B C, Adams R. Graph-sparse LDA: a topic model with structured sparsity[J]. Computer Science, 2014.





不完美場(chǎng)景下的神經(jīng)網(wǎng)絡(luò )訓練方法

騰訊優(yōu)圖實(shí)驗室高級研究員Louis在分享了自適應缺陷數據,業(yè)務(wù)場(chǎng)景下的神經(jīng)網(wǎng)絡(luò )訓練方法

AI在COVID-19診斷成像中的應用

人工智能技術(shù)支持的圖像采集可以顯著(zhù)幫助掃描過(guò)程實(shí)現自動(dòng)化,還可以重塑工作流程,最大限度地減少與患者的接觸,為成像技術(shù)人員提供最佳保護

國內外舵機參數性能價(jià)格比較

舵機是步態(tài)服務(wù)機器人的核心零部件和成本構成,是包含電機、傳感器、控制器、減速器等單元的機電一體化元器件

SLAM與V-SLAM特征對比

基于激 光雷達的SLAM(激光SLAM)和基于視覺(jué)的SLAM(V-SLAM)。激光SLAM目前發(fā)展比較成熟、應用廣泛,未來(lái)多傳感器融合的SLAM 技術(shù)將逐漸成為技術(shù)趨勢,取長(cháng)補短,更好地實(shí)現定位導航。

《視覺(jué)SLAM十四講》作者高翔:非結構化道路激光SLAM中的挑戰

SLAM階段:解決從原始傳感器數據開(kāi)始,構建某種基礎地圖的過(guò)程,標注階段:在SLAM結果基礎上進(jìn)行人為標注,實(shí)現更精細的交通規則控制

圖像檢索入門(mén)、特征和案例

圖像檢索是計算機視覺(jué)中基礎的應用,可分為文字搜圖和以圖搜圖。借助于卷積神經(jīng)網(wǎng)絡(luò )CNN強大的建模能力,圖像檢索的精度越發(fā)提高

如何加快解決數據產(chǎn)權問(wèn)題

數據所有權方面,1原始數據屬于個(gè)人,2企業(yè)享有衍生數據所有權,3政府享有政府數據的歸屬權

戴瓊海院士:搭建腦科學(xué)與人工智能的橋梁

腦科學(xué)的發(fā)展將推動(dòng)人工智能科學(xué)從感知人工智能到認知人工智能的跨越

“觸控一體化”的新型機械手指尖研究

機械手面臨的難點(diǎn)在于如何在柔性物體上施加可控的擠壓力,以及在非穩定狀況下確保精確、穩健的抓握與柔性指端操控

微信提出推薦中的深度反饋網(wǎng)絡(luò ),在“看一看”數據集上達到SOTA

DFN模型綜合使用了用戶(hù)的隱式正反饋(點(diǎn)擊行為)、隱式負反饋(曝光但未點(diǎn)擊的行為)以及顯式負反饋(點(diǎn)擊不感興趣按鈕行為)等信息

基于腦肌融合的軟體康復手研究

軟體機械手充分利用和發(fā)揮各種柔性材料的柔順性,及其非線(xiàn)性、粘彈性和遲滯特性等在軟體手運動(dòng)和控制中潛在的“機械智能”作用,降低控制的復雜度,實(shí)現高靈活性、強適應性和良好交互性,在醫療康復領(lǐng)域有重要應用價(jià)值

情感分析技術(shù):讓智能客服更懂人類(lèi)情感

智能客服系統中人機結合的服務(wù)形式,從五個(gè)維度總結和介紹情感分析技術(shù)在智能客服系統中的應用場(chǎng)景,包括情感分析算法模型的原理及實(shí)際落地使用方式和效果分析
 
資料獲取
新聞資訊
== 資訊 ==
» 智能服務(wù)機器人的足式移動(dòng)方案的優(yōu)勢和適用
» 智能服務(wù)機器人的輪式移動(dòng)方案的優(yōu)勢和適用
» 多技術(shù)棧驅動(dòng)的具身智能:移動(dòng)+操作+交互
» 選擇合適的機器人形態(tài):3自由度、300自
» 通用具身智能機器人的多元形態(tài):專(zhuān)用+類(lèi)人
» 服務(wù)機器人商業(yè)模式變革:產(chǎn)品矩陣助力全棧
» DeepSeek等大模型工具使用手冊-實(shí)
» 艾瑞《中國人工智能產(chǎn)業(yè)研究報告》-AI產(chǎn)
» 2025中國人工智能行業(yè)大模型應用實(shí)踐與
» 2025人工智能+行業(yè)發(fā)展藍皮書(shū)-典型應
» 疾控工作者應該怎么利用DeepSeek等
» 從DeepSeek爆火看2025年AI的
» 2025人工智能賦能新型工業(yè)化范式變革與
» 人形機器人大規模量產(chǎn)在即,關(guān)注核心環(huán)節投
» 智能具身機器人的交互的四個(gè)層級:HCI,
 
== 機器人推薦 ==
 
迎賓講解服務(wù)機器人

服務(wù)機器人(迎賓、講解、導診...)

智能消毒機器人

智能消毒機器人

機器人底盤(pán)

機器人底盤(pán)

 

商用機器人  Disinfection Robot   展廳機器人  智能垃圾站  輪式機器人底盤(pán)  迎賓機器人  移動(dòng)機器人底盤(pán)  講解機器人  紫外線(xiàn)消毒機器人  大屏機器人  霧化消毒機器人  服務(wù)機器人底盤(pán)  智能送餐機器人  霧化消毒機  機器人OEM代工廠(chǎng)  消毒機器人排名  智能配送機器人  圖書(shū)館機器人  導引機器人  移動(dòng)消毒機器人  導診機器人  迎賓接待機器人  前臺機器人  導覽機器人  酒店送物機器人  云跡科技潤機器人  云跡酒店機器人  智能導診機器人 
版權所有 © 創(chuàng )澤智能機器人集團股份有限公司     中國運營(yíng)中心:北京·清華科技園九號樓5層     中國生產(chǎn)中心:山東日照太原路71號
銷(xiāo)售1:4006-935-088    銷(xiāo)售2:4006-937-088   客服電話(huà): 4008-128-728