秋霞电影网午夜鲁丝片无码,真人h视频免费观看视频,囯产av无码片毛片一级,免费夜色私人影院在线观看,亚洲美女综合香蕉片,亚洲aⅴ天堂av在线电影猫咪,日韩三级片网址入口

深度學(xué)習(xí) vs. 概率圖模型 vs. 邏輯學(xué)

上傳人:沈*** 文檔編號:136354966 上傳時間:2022-08-16 格式:DOCX 頁數(shù):7 大小:382.12KB
收藏 版權(quán)申訴 舉報 下載
深度學(xué)習(xí) vs. 概率圖模型 vs. 邏輯學(xué)_第1頁
第1頁 / 共7頁
深度學(xué)習(xí) vs. 概率圖模型 vs. 邏輯學(xué)_第2頁
第2頁 / 共7頁
深度學(xué)習(xí) vs. 概率圖模型 vs. 邏輯學(xué)_第3頁
第3頁 / 共7頁

下載文檔到電腦,查找使用更方便

10 積分

下載資源

還剩頁未讀,繼續(xù)閱讀

資源描述:

《深度學(xué)習(xí) vs. 概率圖模型 vs. 邏輯學(xué)》由會員分享,可在線閱讀,更多相關(guān)《深度學(xué)習(xí) vs. 概率圖模型 vs. 邏輯學(xué)(7頁珍藏版)》請在裝配圖網(wǎng)上搜索。

1、今天,我們一起來回顧過去50年人工智能(AI)領(lǐng)域形成的三大范式:邏輯學(xué)、概率方法和深度學(xué)習(xí)。如今,無論依靠經(jīng)驗和“數(shù)據(jù)驅(qū)動”的方式,還是大數(shù)據(jù)、深度學(xué)習(xí)的概念,都已經(jīng)深入人心,可是早期并非如此。很多早期的人工智能方法是基于邏輯,并且從基于邏輯到數(shù)據(jù)驅(qū)動方法的轉(zhuǎn)變過程受到了概率論思想的深度影響,接下來我們就談?wù)勥@個過程。 本文按時間順序展開,先回顧邏輯學(xué)和概率圖方法,然后就人工智能和機器學(xué)習(xí)的未來走向做出一些預(yù)測。 圖片來源:Coursera的概率圖模型課 1. 邏輯和算法 (常識性的“思考”機) 許多早期的人工智能工作都是關(guān)注邏輯、自動定理證明和操縱各種符號。John McCar

2、thy于1959年寫的那篇開創(chuàng)性論文取名為《常識編程》也是順勢而為。 如果翻開當(dāng)下最流行的AI教材之一——《人工智能:一種現(xiàn)代方法》(AIMA),我們會直接注意到書本開篇就是介紹搜索、約束滿足問題、一階邏輯和規(guī)劃。第三版封面(見下圖)像一張大棋盤(因為棋藝精湛是人類智慧的標(biāo)志),還印有阿蘭·圖靈(計算機理論之父)和亞里士多德(最偉大的古典哲學(xué)家之一,象征著智慧)的照片。 AIMA?的封面,它是CS專業(yè)本科AI課程的規(guī)范教材 然而,基于邏輯的AI遮掩了感知問題,而我很早之前就主張了解感知的原理是解開智能之謎的金鑰匙。感知是屬于那類對于人很容易而機器很難掌握的東西。(延伸閱讀:《計算機視

3、覺當(dāng)屬人工智能》,作者2011年的博文)邏輯是純粹的,傳統(tǒng)的象棋機器人也是純粹算法化的,但現(xiàn)實世界卻是丑陋的,骯臟的,充滿了不確定性。 我想大多數(shù)當(dāng)代人工智能研究者都認為基于邏輯的AI已經(jīng)死了。萬物都能完美觀察、不存在測量誤差的世界不是機器人和大數(shù)據(jù)所在的真實世界。我們生活在機器學(xué)習(xí)的時代,數(shù)字技術(shù)擊敗了一階邏輯。站在2015年,我真是替那些死守肯定前件拋棄梯度下降的傻子們感到惋惜。 邏輯很適合在課堂上講解,我懷疑一旦有足夠的認知問題成為“本質(zhì)上解決”,我們將看到邏輯學(xué)的復(fù)蘇。未來存在著很多開放的認知問題,那么也就存在很多場景,在這些場景下社區(qū)不用再擔(dān)心認知問題,并開始重新審視這些經(jīng)典的想

4、法。也許在2020年。 延伸閱讀:《邏輯與人工智能》斯坦福哲學(xué)百科全書 2. 概率,統(tǒng)計和圖模型(“測量”機) 概率方法在人工智能是用來解決問題的不確定性?!度斯ぶ悄?一種現(xiàn)代方法》一書的中間章節(jié)介紹“不確定知識與推理”,生動地介紹了這些方法。如果你第一次拿起AIMA,我建議你從本節(jié)開始閱讀。如果你是一個剛剛接觸AI的學(xué)生,不要吝嗇在數(shù)學(xué)下功夫。 來自賓夕法尼亞州立大學(xué)的概率論與數(shù)理統(tǒng)計課程的PDF文件 大多數(shù)人在提到的概率方法時,都以為只是計數(shù)。外行人很容易想當(dāng)然地認為概率方法就是花式計數(shù)方法。那么我們簡要地回顧過去統(tǒng)計思維里這兩種不相上下的方法。 頻率論方法很依賴經(jīng)驗——這

5、些方法是數(shù)據(jù)驅(qū)動且純粹依靠數(shù)據(jù)做推論。貝葉斯方法更為復(fù)雜,并且它結(jié)合數(shù)據(jù)驅(qū)動似然和先驗。這些先驗往往來自第一原則或“直覺”,貝葉斯方法則善于把數(shù)據(jù)和啟發(fā)式思維結(jié)合做出更聰明的算法——理性主義和經(jīng)驗主義世界觀的完美組合。 最令人興奮的,后來的頻率論與貝葉斯之爭,是一些被稱為概率圖模型的東西。該類技術(shù)來自計算機科學(xué)領(lǐng)域,盡管機器學(xué)習(xí)現(xiàn)在是CS和統(tǒng)計度的重要組成部分,統(tǒng)計和運算結(jié)合的時候它強大的能力才真正釋放出來。 概率圖模型是圖論與概率方法的結(jié)合產(chǎn)物,2000年代中期它們都曾在機器學(xué)習(xí)研究人員中風(fēng)靡一時。當(dāng)年我在研究生院的時候(2005-2011),變分法、Gibbs抽樣和置信傳播算法被深深植

6、入在每位CMU研究生的大腦中,并為我們提供了思考機器學(xué)習(xí)問題的一個極好的心理框架。我所知道大部分關(guān)于圖模型的知識都是來自于Carlos Guestrin和Jonathan Huang。Carlos Guestrin現(xiàn)在是GraphLab公司(現(xiàn)改名為Dato)的CEO,這家公司生產(chǎn)大規(guī)模的產(chǎn)品用于圖像的機器學(xué)習(xí)。Jonathan Huang現(xiàn)在是Google的高級研究員。 下面的視頻盡管是GraphLab的概述,但它也完美地闡述了“圖形化思維”,以及現(xiàn)代數(shù)據(jù)科學(xué)家如何得心應(yīng)手地使用它。Carlos是一個優(yōu)秀的講師,他的演講不局限于公司的產(chǎn)品,更多的是提供下一代機器學(xué)習(xí)系統(tǒng)的思路。 概率

7、圖模型的計算方法介紹(視頻和PPT下載) Dato?CEO,Carlos Guestrin教授 如果你覺得深度學(xué)習(xí)能夠解決所有機器學(xué)習(xí)問題,真得好好看看上面的視頻。如果你正在構(gòu)建一套推薦系統(tǒng),一個健康數(shù)據(jù)分析平臺,設(shè)計一個新的交易算法,或者開發(fā)下一代搜索引擎,圖模型都是完美的起點。 延伸閱讀: 置信傳播算法維基百科 圖模型變分法導(dǎo)論 Michael Jordan的技術(shù)主頁(Michael Jordan系推理和圖模型的巨頭之一) 3. 深度學(xué)習(xí)和機器學(xué)習(xí)(數(shù)據(jù)驅(qū)動機) 機器學(xué)習(xí)是從樣本學(xué)習(xí)的過程,所以當(dāng)前最先進的識別技術(shù)需要大量訓(xùn)練數(shù)據(jù),還要用到深度神經(jīng)網(wǎng)絡(luò)和足夠耐心。深度學(xué)習(xí)強

8、調(diào)了如今那些成功的機器學(xué)習(xí)算法中的網(wǎng)絡(luò)架構(gòu)。這些方法都是基于包含很多隱藏層的“深”多層神經(jīng)網(wǎng)絡(luò)。注:我想強調(diào)的是深層結(jié)構(gòu)如今(2015年)不再是什么新鮮事。只需看看下面這篇1998年的“深層”結(jié)構(gòu)文章。 LeNet-5,Yann LeCun開創(chuàng)性的論文《基于梯度學(xué)習(xí)的文檔識別方法》 你在閱讀LeNet模型導(dǎo)讀時,能看到以下條款聲明: 要在GPU上運行這個示例,首先得有個性能良好的GPU。GPU內(nèi)存至少要1GB。如果顯示器連著GPU,可能需要更多內(nèi)存。 當(dāng)GPU和顯示器相連時,每次GPU函數(shù)調(diào)用都有幾秒鐘的時限。這么做是必不可少的,因為目前的GPU在進行運算時無法繼續(xù)為顯示器服務(wù)。如

9、果沒有這個限制,顯示器將會凍結(jié)太久,計算機看上去像是死機了。若用中等質(zhì)量的GPU處理這個示例,就會遇到超過時限的問題。GPU不連接顯示器時就不存在這個時間限制。你可以降低批處理大小來解決超時問題。 我真的十分好奇Yann究竟是如何早在1998年就把他的深度模型折騰出一些東西。毫不奇怪,我們大伙兒還得再花十年來消化這些內(nèi)容。 更新:Yann說(通過的評論)ConvNet工作可以追溯到1989年?!八写蠹s400K連接,并且在一臺SUN4機器上花了大約3個星期訓(xùn)練USPS數(shù)據(jù)集(8000個訓(xùn)練樣本)?!薄狶eCun 深度網(wǎng)絡(luò),Yann1989年在貝爾實驗室的成果 注:大概同一時期(1

10、998年左右)加州有兩個瘋狂的家伙在車庫里試圖把整個互聯(lián)網(wǎng)緩存到他們的電腦(他們創(chuàng)辦了一家G打頭的公司)。我不知道他們是如何做到的,但我想有時候需要超前做些并不大規(guī)模的事情才能取得大成就。世界最終將迎頭趕上的。 延伸閱讀: Y.LeCun, L.Bottou, Y.Bengio, and P.Haffner.Gradient-based learning applied to document recognition.Proceedings of the IEEE, November 1998. Y.LeCun, B.Boser, J.S.Denker, D.Henderson, R.E

11、.Howard, W.Hubbard and L.D.Jackel:Backpropagation Applied to Handwritten Zip Code Recognition, Neural Computation, 1(4):541-551, Winter 1989 Deep Learning code: Modern?LeNet implementation in Theano?and docs. 結(jié)論 我沒有看到傳統(tǒng)的一階邏輯很快卷土重來。雖然在深度學(xué)習(xí)背后有很多炒作,分布式系統(tǒng)和“圖形思維”對數(shù)據(jù)科學(xué)的影響更可能比重度優(yōu)化的CNN來的更深遠。深度學(xué)習(xí)沒有理由不和GraphLab-style架構(gòu)結(jié)合,未來幾十年機器學(xué)習(xí)領(lǐng)域的重大突破也很有可能來自這兩部分的結(jié)合。

展開閱讀全文
溫馨提示:
1: 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
2: 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
3.本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
5. 裝配圖網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

相關(guān)資源

更多
正為您匹配相似的精品文檔
關(guān)于我們 - 網(wǎng)站聲明 - 網(wǎng)站地圖 - 資源地圖 - 友情鏈接 - 網(wǎng)站客服 - 聯(lián)系我們

copyright@ 2023-2025  zhuangpeitu.com 裝配圖網(wǎng)版權(quán)所有   聯(lián)系電話:18123376007

備案號:ICP2024067431-1 川公網(wǎng)安備51140202000466號


本站為文檔C2C交易模式,即用戶上傳的文檔直接被用戶下載,本站只是中間服務(wù)平臺,本站所有文檔下載所得的收益歸上傳人(含作者)所有。裝配圖網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對上載內(nèi)容本身不做任何修改或編輯。若文檔所含內(nèi)容侵犯了您的版權(quán)或隱私,請立即通知裝配圖網(wǎng),我們立即給予刪除!