秋霞电影网午夜鲁丝片无码,真人h视频免费观看视频,囯产av无码片毛片一级,免费夜色私人影院在线观看,亚洲美女综合香蕉片,亚洲aⅴ天堂av在线电影猫咪,日韩三级片网址入口

深度學(xué)習(xí)匯報(bào)

上傳人:小** 文檔編號(hào):44828660 上傳時(shí)間:2021-12-06 格式:DOC 頁(yè)數(shù):29 大小:1.29MB
收藏 版權(quán)申訴 舉報(bào) 下載
深度學(xué)習(xí)匯報(bào)_第1頁(yè)
第1頁(yè) / 共29頁(yè)
深度學(xué)習(xí)匯報(bào)_第2頁(yè)
第2頁(yè) / 共29頁(yè)
深度學(xué)習(xí)匯報(bào)_第3頁(yè)
第3頁(yè) / 共29頁(yè)

下載文檔到電腦,查找使用更方便

24 積分

下載資源

還剩頁(yè)未讀,繼續(xù)閱讀

資源描述:

《深度學(xué)習(xí)匯報(bào)》由會(huì)員分享,可在線閱讀,更多相關(guān)《深度學(xué)習(xí)匯報(bào)(29頁(yè)珍藏版)》請(qǐng)?jiān)谘b配圖網(wǎng)上搜索。

1、 深度學(xué)習(xí)(Deep Learning) Outline ? 2/25 DL訓(xùn)練過(guò)程 廳 ? #/25 DL訓(xùn)練過(guò)程 廳 什么是deep learning? 鋁七 深度學(xué)習(xí):一種基于無(wú)監(jiān)督特征 學(xué)習(xí)和特征層次結(jié)構(gòu)的學(xué)習(xí)方法。 本質(zhì):通過(guò)構(gòu)建多隱層的模型和 海量訓(xùn)練數(shù)據(jù),來(lái)學(xué)習(xí)更有用的特征, 從而最終提升分類或預(yù)測(cè)的準(zhǔn)確性。 隠展 含多隱層的多層感知器就是一 輸入層 含等個(gè)隱層的深度學(xué)習(xí)模型 種深度學(xué)習(xí)結(jié)構(gòu)。 深度學(xué)習(xí)的基本思想. 對(duì)于Deep Learning,需要自動(dòng)地學(xué)習(xí)特征,假設(shè)有一堆輸入I,輸出是O,

2、設(shè)計(jì)一個(gè)系統(tǒng)S (有n層),形彖地表示為:I =>S1=>S2=>..…=>Sn => O, 通過(guò)調(diào)整系統(tǒng)中參數(shù),使得它的輸岀仍然是輸入I,那么就可以自動(dòng)地獲取 得到輸入I的一系列層次特征,即SI, ...,Sno 深度學(xué)習(xí)訓(xùn)練過(guò)程: 第一步:采用自下而上的無(wú)監(jiān)督學(xué)習(xí) 1) 逐層構(gòu)建單層神經(jīng)元。 2) 每層采用wake-sleep算法進(jìn)行調(diào)優(yōu)。每次僅調(diào)整一層,逐層調(diào) 整。 ? 4/25 DL訓(xùn)練過(guò)程 廳 wake?sleep 算法: 1) wake階段: 認(rèn)知過(guò)程,通過(guò)外界的特征和向上的權(quán)重(認(rèn)知權(quán)重)產(chǎn)生每一層的抽彖表示 (結(jié)點(diǎn)狀態(tài)),并且使用梯度下降修改層間的下行

3、權(quán)重(生成權(quán)重)。 2) sleep階段: 生成過(guò)程,通過(guò)上層概念(Code)和向下的生成(Decoder)權(quán)重,生成下層 的狀態(tài),再利用認(rèn)知(Encoder)權(quán)重產(chǎn)生一個(gè)抽彖景彖。利用初始上層概念和新 建抽象景彖的殘差,利用梯度下降修改層間向上的認(rèn)知(Encoder)權(quán)重。 5/25 DL訓(xùn)練過(guò)程 ? 6/25 DL訓(xùn)練過(guò)程 ? #/25 DL訓(xùn)練過(guò)程 第二步:自頂向下的監(jiān)督學(xué)習(xí) 這一步是在第一步學(xué)習(xí)獲得各層參數(shù)進(jìn)的基礎(chǔ)上,在最頂?shù)木幋a層添加一個(gè) 分類器(例如羅杰斯特回歸、SV

4、M等),而后通過(guò)帶標(biāo)簽數(shù)據(jù)的監(jiān)督學(xué)習(xí),利 用梯度下降法去微調(diào)整個(gè)網(wǎng)絡(luò)參數(shù)。 ? #/25 DL訓(xùn)練過(guò)程 ? #/25 DL訓(xùn)練過(guò)程 label prediction ? #/25 皿模型 深度學(xué)習(xí)的具體模型及方法: 1、 自動(dòng)編碼器(AutoEncoder ) 2、 稀疏自動(dòng)編碼器(Sparse AutoEncoder) 3、 限制波爾茲曼機(jī)(Restricted Boltzmann Machine) 4、 深信度網(wǎng)絡(luò)(Deep Belief Networks) 5、 卷積神經(jīng)

5、網(wǎng)絡(luò)(Convolutional Neural Networks) ? 7/25 自動(dòng)編碼器 ? #/25 ? #/25 1、自動(dòng)編碼器(AutoEncoder ) 將input輸入一個(gè)encoder^碼器,就會(huì)得到一個(gè)code,這個(gè)code也就是輸入的一個(gè) 表示,神加一個(gè)decoder?解碼器,這時(shí)候decoder?就會(huì)輸岀一個(gè)信息,那么如果輸岀的 這個(gè)信息和一開(kāi)始的輸入信號(hào)mput是很像的(理想情況下就是一樣的),就有理由相 信這個(gè)code是靠譜的。所以,通過(guò)調(diào)整encoder?和decoder的參數(shù),使得重構(gòu)誤差最小

6、, 就得到了輸入input信號(hào)的第一個(gè)表示了,也就是編碼codeTo 因?yàn)槭菬o(wú)標(biāo)簽數(shù)據(jù),所以誤差的來(lái)源就是直接重構(gòu)后與原輸入相比得到。 稀疏自動(dòng)編碼器 2、稀疏自動(dòng)編碼器(Sparse AutoEncoder) 在AutoEncoder的基礎(chǔ)上加上L1的Regularity限制(L1主要是約束每一 層中的節(jié)點(diǎn)中大部分都要為0,只有少數(shù)不為0),就可以得到Sparse AutoEncoder 法。 input 如上圖,其實(shí)就是限制每次得到的表達(dá)code盡量稀疏。因?yàn)橄∈璧?表達(dá)往往比其他的表達(dá)要有效。 ? 9/25 RBM 3、限制波爾茲曼機(jī)(RBM)

7、 定義:假設(shè)有一個(gè)二部圖,同層節(jié)點(diǎn)Z間沒(méi)有鏈接,一層是可視層,即輸入數(shù) 據(jù)層(v), —層是隱藏層(h),如果假設(shè)所有的節(jié)點(diǎn)都是隨機(jī)二值(0, 1)變量節(jié)點(diǎn), 同時(shí)假設(shè)全概率分布P (v, h)滿足Boltzmann分布,稱這個(gè)模型是RBM。 hidden variables RBM 訓(xùn)練模型: 聯(lián)合組態(tài)(jointconfiguration)的能量可以表示為: E(v. h; B)=—刀閃可坊心—刀bg —工叼心 ij < j 0 = {W,a,b} model parameters. 而某個(gè)組態(tài)的聯(lián)合概率分布可以通過(guò)Boltzmann分布(和這個(gè)組態(tài)的能量)來(lái)確定

8、: potential functions 厲(v? h)=爲(wèi) exp (- E(v. h;砒)=缶 II 2(0)=刀 exp (-F(v.h; 0)) Parbtion 伽 chon h?V 給定隱層h的基礎(chǔ)上,可視層的概率確定: P(v|h2 n F仙h)叫=l|h)=】+唧(一工川也7) (可視層節(jié)點(diǎn)之間是條件獨(dú)立的) 11/25 RBM 給定可視層V的基礎(chǔ)上,隱層的概率確定: p(hiv)=np(/lJ.|v:p(/l>=iiv)=1+唧(_嚴(yán)丹_引) 給定一個(gè)滿足獨(dú)立同分布的樣本集:D={v(n, VM},我們需要學(xué)習(xí)參數(shù) 0={\A4a,b}o

9、最大似然估計(jì): v 1 JL \ 厶⑹=亓工噸丹&⑹)一訓(xùn)叼恰 n=l 對(duì)最大對(duì)數(shù)似然函數(shù)求導(dǎo),就可以得到L最大時(shí)對(duì)應(yīng)的參數(shù)WTo 務(wù)譽(yù)=EFda』如]一 Ep&M如]-等%? DBN 4、深信度網(wǎng)絡(luò)(DBN) DBNs是一個(gè)概率生成模型,與傳統(tǒng)的判別模型的神經(jīng)網(wǎng)絡(luò)相對(duì),生成 模型是建立一個(gè)觀察數(shù)據(jù)和標(biāo)簽Z間的聯(lián)合分布,對(duì)P (Observation |Label) 和P(Label |Observation)都做了評(píng)估,而判別模型僅僅而已評(píng)估了后者, 也就是P (Label | Observation)。 對(duì)于在深度神經(jīng)網(wǎng)絡(luò)應(yīng)用傳統(tǒng)的BP算法的時(shí)候,DBNs遇到了以下

10、問(wèn)題: (1) 需要為訓(xùn)練提供一個(gè)有標(biāo)簽的樣本集; (2) 學(xué)習(xí)過(guò)程較慢; (3) 不適當(dāng)?shù)膮?shù)選擇會(huì)導(dǎo)致學(xué)習(xí)收斂于局部最優(yōu)解。 > 13/25 DBN DBNs由多個(gè)限制玻爾茲曼機(jī)(RBM)層組成,一個(gè)典型的神經(jīng)網(wǎng)絡(luò)類型如下圖 所示。 Assoaative Memory 14/25 #/25 Hidden Units Detection Weights 丫 Generative Weights Hidden Units Hidden Visible RBM Layer Observation Vector v (

11、e.g., 32x32 Image) 在最高兩層,權(quán)值被連接到一起,更低層的輸出將會(huì)提供一個(gè)參考的線 索或者關(guān)聯(lián)給頂層,頂層就會(huì)將其聯(lián)系到它的記憶內(nèi)容。 #/25 CNN Input Cl S2 C3 S4 5、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks) 卷積神經(jīng)網(wǎng)絡(luò)是一個(gè)多層的神經(jīng)網(wǎng)絡(luò),每層由多個(gè)二維平而組成,而每個(gè)平面 由多個(gè)獨(dú)立神經(jīng)元組成。CNNs是第一個(gè)真正成功訓(xùn)練多層網(wǎng)絡(luò)結(jié)構(gòu)的學(xué)習(xí)算法。 概念示范:輸入圖像通過(guò)與 m個(gè)可訓(xùn)練的濾波器和可加偏置 進(jìn)行卷積,在C1層產(chǎn)生m個(gè)特征 映射圖,然后特征映射圖中每組 的n個(gè)像素再進(jìn)行求和

12、,加權(quán)值, 加偏置,通過(guò)一個(gè)Sigmoid函數(shù) 得到m個(gè)S2層的特征映射圖。這 些映射圖再經(jīng)過(guò)濾波得到C3層。 這個(gè)層級(jí)結(jié)構(gòu)再和S2—樣產(chǎn)生 S4。最終,這些像素值被光柵 化,并連接成一個(gè)向量輸入到傳 統(tǒng)的神經(jīng)網(wǎng)絡(luò),得到輸岀。 關(guān)于參數(shù)減少與權(quán)值共享: Example; 1000x1000 imoge IM hidden units ■I 10*12 poramdz川 Example lOOOx 1000 ima^e IM hidden units Filter size; 10x10 100M ? Spatial correlation is local ? Better to

13、 put resources elsewhere1 減少參數(shù)的方法: /每個(gè)神經(jīng)元無(wú)需對(duì)全局圖像做感受,只需感受局部區(qū)域(Feature Map),在高層 會(huì)將這些感受不同局部的神經(jīng)元綜合起來(lái)獲得全局信息。 /每個(gè)神經(jīng)元參數(shù)設(shè)為相同,即權(quán)值共享,也即每個(gè)神經(jīng)元用同一個(gè)卷積核去卷積圖 像。 > 18/25 CNN 隱層神經(jīng)元數(shù)量的確定: STATIONAftTTy? Statistics is similar of different locations Example; lOOOxlCXJO image IM hidden units Filter size; 10x1

14、0 100M parameters 神經(jīng)元數(shù)量與輸入圖像大小、 濾波器大小和濾波器的滑動(dòng)步長(zhǎng) 有關(guān)。 例如,輸入圖像是1000x1000 像素,濾波器大小是10X10,假 設(shè)濾波器間沒(méi)有重疊,即步長(zhǎng)為 10,這樣隱層的神經(jīng)元個(gè)數(shù)就是 (1000x1000 )/ (10x10)=10000 個(gè)。 總之,卷積網(wǎng)絡(luò)的核心思想是將:局部感受野、權(quán)值共享以及時(shí)間或 空間子采樣這三種結(jié)構(gòu)思想結(jié)合起來(lái)獲得某種程度的位移、尺度、形變 不變性。 CNN的優(yōu)點(diǎn): 1、 避免了顯式的特征抽取,而隱式地從訓(xùn)練數(shù)據(jù)中進(jìn)行學(xué)習(xí); 2、 同一特征映射而上的神經(jīng)元權(quán)值相同,從而網(wǎng)絡(luò)可以并行學(xué)習(xí),降低了網(wǎng) 絡(luò)的復(fù)雜

15、性; 3、 采用時(shí)間或者空間的子采樣結(jié)構(gòu),可以獲得某種程度的位移、尺度、形變 魯棒性; 4、 輸入信息和網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)能很好的吻合,在語(yǔ)音識(shí)別和圖像處理方面有著 獨(dú)特優(yōu)勢(shì)。 > 20/25 應(yīng)用 > 21/25 應(yīng)用 深度學(xué)習(xí)的應(yīng)用: 1、深度學(xué)習(xí)在圖像識(shí)別上的應(yīng)用 空間金字塔 Layer 3 v Caltech 256 > Layer 3 activation (coefficients) W Layer 1 activation (coefficients) image Layer 2 activation (coeffic

16、ients) #of training images 30 60 Griffin et al. [2] 34.10 - vanGemert et al., PAMI 2010 27.17 ■ ScSPM [Yang et al., CVPR 2009] 34.02 40.14 LLC [Wang etal., CVPR 2010] 41.19 47.68 Sparse CRBM [Sohn et al., ICCV 2011] 42.05 47.94 Filter visualization Example imagi 7A 實(shí)驗(yàn)在Caltec

17、h 256數(shù)據(jù)集上, 利用單特征識(shí)別,Sparse CRBM 性能最優(yōu)。 > 23/25 應(yīng)用 > #/25 應(yīng)用 > #/25 應(yīng)用 2、深度學(xué)習(xí)在音頻識(shí)別上的應(yīng)用 許多專家還發(fā)現(xiàn),不僅圖像存在這個(gè)規(guī)律,聲音也存在。他們從未 標(biāo)注的聲音中發(fā)現(xiàn)了20種基本的聲音結(jié)構(gòu),其余的聲音可以由這20種基 本結(jié)構(gòu)合成。 (Lee, Urgman, Pham, Nr, nips 2009) -^\/VW

18、\/v M/Vw T臉g ? V: ? p ? y ? 1/ 處如”卜rVW J Speaker identification TIM IT Speaker identiflcation Accuracy Prior art (Reynolds, 1995) 99.7% Convolutional DBN 100.0% 3、 深度學(xué)習(xí)在視頻識(shí)別上的應(yīng)用 4、 深度學(xué)習(xí)在自然語(yǔ)言處理上的應(yīng)用 5、 深度學(xué)習(xí)在多模態(tài)學(xué)習(xí)中的應(yīng)用 6、 深度學(xué)習(xí)在多任務(wù)學(xué)習(xí)中的應(yīng)用 7、 基于深度學(xué)習(xí)的遷移學(xué)習(xí)應(yīng)用 8、 深度學(xué)習(xí)在大尺度數(shù)據(jù)集上的應(yīng)用 > 22/25

19、 目前的困難程度 深度學(xué)習(xí)面臨的問(wèn)題: 1、 理論問(wèn)題 理論問(wèn)題主要體現(xiàn)在兩個(gè)方面,一個(gè)是統(tǒng)計(jì)學(xué)方面的,即需 要多少訓(xùn)練樣本才能學(xué)習(xí)到足夠好的深度模型;另一個(gè)是計(jì)算 方面的,即需要多少的計(jì)算資源才能通過(guò)訓(xùn)練得到更好的模型, 理想的計(jì)算優(yōu)化方法是什么? 2、 建模問(wèn)題 針對(duì)具體應(yīng)用問(wèn)題,如何設(shè)計(jì)一個(gè)最合適的深度模型來(lái)就解 決問(wèn)題?是否町以建立一個(gè)通用的深度模型或深度模型的建模 語(yǔ)言,作為統(tǒng)一的框架來(lái)處理語(yǔ)音、圖像和語(yǔ)言? 另外,對(duì)于怎么用深度模型來(lái)表示像語(yǔ)義這樣的結(jié)構(gòu)化的信 息還需要更多的研究。 3、 工程問(wèn)題 對(duì)于互聯(lián)網(wǎng)公司而言,如何在工程上利用大規(guī)模的并行計(jì)算 平臺(tái)

20、來(lái)實(shí)現(xiàn)海量數(shù)據(jù)訓(xùn)練,這是首要解決的問(wèn)題。 目前的困難程度 未來(lái)需解決的問(wèn)題: (1) 對(duì)于一個(gè)特定的框架,對(duì)于多少維的輸入它可以表現(xiàn)得 較優(yōu)(如果是圖像,可能是上百萬(wàn)維)? (2) 對(duì)捕捉短時(shí)或者長(zhǎng)時(shí)間的時(shí)間依賴,哪種架構(gòu)才是有效 的? (3) 如何對(duì)于一個(gè)給定的深度學(xué)習(xí)架構(gòu),融合多種感知的信 息? (4) 有什么正確的機(jī)理可以去增強(qiáng)一個(gè)給定的深度學(xué)習(xí)架構(gòu), 以改進(jìn)其魯棒性和對(duì)扭曲和數(shù)據(jù)丟失的不變性? 模型方面是否有其他更為有效且有理論依據(jù)的深度模型 學(xué)習(xí)算法? ? 24/25 > 25/25 Thank You

展開(kāi)閱讀全文
溫馨提示:
1: 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
2: 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
3.本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
5. 裝配圖網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

相關(guān)資源

更多
正為您匹配相似的精品文檔
關(guān)于我們 - 網(wǎng)站聲明 - 網(wǎng)站地圖 - 資源地圖 - 友情鏈接 - 網(wǎng)站客服 - 聯(lián)系我們

copyright@ 2023-2025  zhuangpeitu.com 裝配圖網(wǎng)版權(quán)所有   聯(lián)系電話:18123376007

備案號(hào):ICP2024067431號(hào)-1 川公網(wǎng)安備51140202000466號(hào)


本站為文檔C2C交易模式,即用戶上傳的文檔直接被用戶下載,本站只是中間服務(wù)平臺(tái),本站所有文檔下載所得的收益歸上傳人(含作者)所有。裝配圖網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)上載內(nèi)容本身不做任何修改或編輯。若文檔所含內(nèi)容侵犯了您的版權(quán)或隱私,請(qǐng)立即通知裝配圖網(wǎng),我們立即給予刪除!