亚洲欧美国产97综合首页,久久丝袜精品综合网站,精品国产电影久久九九,国产一区二区免费精品

  • <small id="kosyt"><tbody id="kosyt"><small id="kosyt"></small></tbody></small>

          <td id="kosyt"><ins id="kosyt"><label id="kosyt"></label></ins></td>
        1. <source id="kosyt"><ins id="kosyt"></ins></source>
               登錄    注冊(cè)
            

          機(jī)器學(xué)習(xí)從理論到實(shí)踐升級(jí)版視頻教程下載

          • 贊助費(fèi):¥10元   在線客服:有事聯(lián)系我哦     點(diǎn)擊這里給我發(fā)消息    itying微信客服    交流群:it營(yíng)
          • 課程講師: 鄒博
          • 適合人群: 初級(jí)
          • 課時(shí)數(shù)量: 24講
          • 更新程度: 完成
          • 主要技術(shù): 機(jī)器學(xué)習(xí)
          • 用到技術(shù): 機(jī)器學(xué)習(xí)
          • 涉及項(xiàng)目: HMM
          • 瀏覽次數(shù): 2574 次     付款后在訂單列表獲取下載地址

          瀏覽歷史

          課程描述

          相關(guān)課程

          還購(gòu)買(mǎi)過(guò)

          機(jī)器學(xué)習(xí)從理論到實(shí)踐升級(jí)版視頻教程下載

           


           




          課程介紹:

          此套機(jī)器學(xué)習(xí)從理論到實(shí)踐升級(jí)版視頻教程的特點(diǎn)是從數(shù)學(xué)層面推導(dǎo)最經(jīng)典的機(jī)器學(xué)習(xí)算法,以及每種算法的示例和代碼實(shí)現(xiàn)(Python)、如何做算法的參數(shù)調(diào)試、以實(shí)際應(yīng)用案例分析各種算法的選擇等。教程共二十四課時(shí),從理論到實(shí)踐,由淺入深,逐步講解,很容易理解上手的一套機(jī)器學(xué)習(xí)教程。


          機(jī)器學(xué)習(xí)從理論到實(shí)踐升級(jí)版視頻教程包括:視頻+代碼

           

          機(jī)器學(xué)習(xí)從理論到實(shí)踐升級(jí)版視頻教程內(nèi)容特色:

                1.  拒絕簡(jiǎn)單的“調(diào)包”——增加3次“機(jī)器學(xué)習(xí)的角度看數(shù)學(xué)”和3次“Python數(shù)據(jù)清洗和特征提取”,提升學(xué)習(xí)深度、降低學(xué)習(xí)坡度。
                2.  增加網(wǎng)絡(luò)爬蟲(chóng)的原理和編寫(xiě),從獲取數(shù)據(jù)開(kāi)始,重視將實(shí)踐問(wèn)題轉(zhuǎn)換成實(shí)際模型的能力,分享工作中的實(shí)際案例或Kaggle案例:廣告銷(xiāo)量分析、環(huán)境數(shù)據(jù)異常檢測(cè)和分析、數(shù)字圖像手寫(xiě)體識(shí)別、Titanic乘客存   活率預(yù)測(cè)、用戶-電影推薦、真實(shí)新聞組數(shù)據(jù)主題分析、中文分詞、股票數(shù)據(jù)特征分析等。
                3.  強(qiáng)化矩陣運(yùn)算、概率論、數(shù)理統(tǒng)計(jì)的知識(shí)運(yùn)用,掌握機(jī)器學(xué)習(xí)根本。
                4.  闡述機(jī)器學(xué)習(xí)原理,提供配套源碼和數(shù)據(jù);確保“懂推導(dǎo),會(huì)實(shí)現(xiàn)”。
                5.  刪去過(guò)于晦澀的公式推導(dǎo),代之以直觀解釋,增強(qiáng)感性理解。
                6.  重視項(xiàng)目實(shí)踐(如工業(yè)實(shí)踐、Kaggle等),重視落地。
                7.  對(duì)比不同的特征選擇帶來(lái)的預(yù)測(cè)效果差異。
                8.  思考不同算法之間的區(qū)別和聯(lián)系,提高在實(shí)際工作中選擇算法的能力。
                9.  涉及和講解的部分Python庫(kù)有:Numpy/Scipy/matplotlib/Pandas/scikit-learn/XGBoost/libSVM/LDA/Gensim/NLTK/HMMLearn,涉及的其他“小”庫(kù)在課程的實(shí)踐環(huán)節(jié)會(huì)逐一講解。
                10.  每個(gè)算法模塊按照“原理講解->自己動(dòng)手實(shí)現(xiàn)->使用已有機(jī)器學(xué)習(xí)庫(kù)”的順序,切實(shí)做到“頂天立地”。


          機(jī)器學(xué)習(xí)從理論到實(shí)踐升級(jí)版視頻教程目錄結(jié)構(gòu)介紹:

           

          第一課:機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)1 - 數(shù)學(xué)分析

                1.  機(jī)器學(xué)習(xí)的一般方法和橫向比較
                2.  數(shù)學(xué)是有用的:以SVD為例
                3.  機(jī)器學(xué)習(xí)的角度看數(shù)學(xué)
                4.  復(fù)習(xí)數(shù)學(xué)分析
                5.  直觀解釋常數(shù)e
                6.  導(dǎo)數(shù)/梯度
                7.  隨機(jī)梯度下降
                8.  Taylor展式的落地應(yīng)用
                9.  gini系數(shù)
                10. 凸函數(shù)
                11. Jensen不等式
                12. 組合數(shù)與信息熵的關(guān)系

          第二課:機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)2 - 概率論與貝葉斯先驗(yàn)
                1.  概率論基礎(chǔ)
                2.  古典概型
                3.  貝葉斯公式
                4.  先驗(yàn)分布/后驗(yàn)分布/共軛分布
                5.  常見(jiàn)概率分布
                6.  泊松分布和指數(shù)分布的物理意義
                7.  協(xié)方差(矩陣)和相關(guān)系數(shù)
                8.  獨(dú)立和不相關(guān)
                9.  大數(shù)定律和中心極限定理的實(shí)踐意義
                10.深刻理解最大似然估計(jì)MLE和最大后驗(yàn)估計(jì)MAP
                11.過(guò)擬合的數(shù)學(xué)原理與解決方案

          第三課:機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)3 - 矩陣和線性代數(shù)
                1.  線性代數(shù)在數(shù)學(xué)科學(xué)中的地位
                2.  馬爾科夫模型
                3.  矩陣乘法的直觀表達(dá)
                4.  狀態(tài)轉(zhuǎn)移矩陣
                5.  矩陣和向量組
                6.  特征向量的思考和實(shí)踐計(jì)算
                7.  QR分解
                8.  對(duì)稱陣、正交陣、正定陣
                9.  數(shù)據(jù)白化及其應(yīng)用
                10.向量對(duì)向量求導(dǎo)
                11.標(biāo)量對(duì)向量求導(dǎo)
                12.標(biāo)量對(duì)矩陣求導(dǎo)

          第四課:Python基礎(chǔ)1 - Python及其數(shù)學(xué)庫(kù)
                1.  解釋器Python2.7與IDE:Anaconda/Pycharm
                2.  Python基礎(chǔ):列表/元組/字典/類(lèi)/文件
                3.  Taylor展式的代碼實(shí)現(xiàn)
                4.  numpy/scipy/matplotlib/panda的介紹和典型使用
                5.  多元高斯分布
                6.  泊松分布、冪律分布
                7.  典型圖像處理

          第五課:Python基礎(chǔ)2 - 機(jī)器學(xué)習(xí)庫(kù)
                1.  scikit-learn的介紹和典型使用
                2.  損失函數(shù)的繪制
                3.  多種數(shù)學(xué)曲線
                4.  多項(xiàng)式擬合
                5.  快速傅里葉變換FFT
                6.  奇異值分解SVD
                7.  Soble/Prewitt/Laplacian算子與卷積網(wǎng)絡(luò)
                8.  卷積與(指數(shù))移動(dòng)平均線
                9.  股票數(shù)據(jù)分析

          第六課:Python基礎(chǔ)3 - 數(shù)據(jù)清洗和特征選擇
                1.  實(shí)際生產(chǎn)問(wèn)題中算法和特征的關(guān)系
                2.  股票數(shù)據(jù)的特征提取和應(yīng)用
                3.  一致性檢驗(yàn)
                4.  缺失數(shù)據(jù)的處理
                5.  環(huán)境數(shù)據(jù)異常檢測(cè)和分析
                6.  模糊數(shù)據(jù)查詢和數(shù)據(jù)校正方法、算法、應(yīng)用

          第七課: 回歸
                1.  線性回歸
                2.  Logistic/Softmax回歸
                3.  廣義線性回歸
                4.  L1/L2正則化
                5.  Ridge與LASSO
                6.  Elastic Net
                7.  梯度下降算法:BGD與SGD
                8.  特征選擇與過(guò)擬合
                9.  Softmax回歸的概念源頭
                10.最大熵模型
                11.K-L散度

          第八課:回歸實(shí)踐
                1.  機(jī)器學(xué)習(xí)sklearn庫(kù)介紹
                2.  回歸代碼實(shí)現(xiàn)和調(diào)參
                3.  Ridge回歸/LASSO/Elastic Net
                4.  Logistic/Softmax回歸
                5.  廣告投入與銷(xiāo)售額回歸分析
                6.  鳶尾花數(shù)據(jù)集的分類(lèi)
                7.  回歸代碼實(shí)現(xiàn)和調(diào)參
                8.  交叉驗(yàn)證
                9.  數(shù)據(jù)可視化

          第九課:決策樹(shù)和隨機(jī)森林
                1.  熵、聯(lián)合熵、條件熵、KL散度、互信息
                2.  最大似然估計(jì)與最大熵模型
                3.  ID3、C4.5、CART詳解
                4.  決策樹(shù)的正則化
                5.  預(yù)剪枝和后剪枝
                6.  Bagging
                7.  隨機(jī)森林
                8.  不平衡數(shù)據(jù)集的處理
                9.  利用隨機(jī)森林做特征選擇
               10. 使用隨機(jī)森林計(jì)算樣本相似度

          第十課:隨機(jī)森林實(shí)踐
                1.  隨機(jī)森林與特征選擇
                2.  決策樹(shù)應(yīng)用于回歸
                3.  多標(biāo)記的決策樹(shù)回歸
                4.  決策樹(shù)和隨機(jī)森林的可視化
                5.  葡萄酒數(shù)據(jù)集的決策樹(shù)/隨機(jī)森林分類(lèi)

          第十一課:提升
                1.  提升為什么有效
                2.  Adaboost算法
                3.  加法模型與指數(shù)損失
                4.  梯度提升決策樹(shù)GBDT
                5.  XGBoost算法詳解

          第十二課:XGBoost實(shí)踐
                1.  自己動(dòng)手實(shí)現(xiàn)GBDT
                2.  XGBoost庫(kù)介紹
                3.  Taylor展式與學(xué)習(xí)算法
                4.  KAGGLE簡(jiǎn)介
                5.  泰坦尼克乘客存活率估計(jì)

          第十三課:SVM
                1.  線性可分支持向量機(jī)
                2.  軟間隔的改進(jìn)
                3.  損失函數(shù)的理解
                4.  核函數(shù)的原理和選擇
                5.  SMO算法
                6.  支持向量回歸SVR

          第十四課:SVM實(shí)踐
                1.  libSVM代碼庫(kù)介紹
                2.  原始數(shù)據(jù)和特征提取
                3.  調(diào)用開(kāi)源庫(kù)函數(shù)完成SVM
                4.  葡萄酒數(shù)據(jù)分類(lèi)
                5.  數(shù)字圖像的手寫(xiě)體識(shí)別
                6.  SVR用于時(shí)間序列曲線預(yù)測(cè)
                7.  SVM、Logistic回歸、隨機(jī)森林三者的橫向比較

          第十五課:聚類(lèi)
                1.  各種相似度度量及其相互關(guān)系
                2.  Jaccard相似度和準(zhǔn)確率、召回率
                3.  Pearson相關(guān)系數(shù)與余弦相似度
                4.  K-means與K-Medoids及變種
                5.  AP算法(Sci07)/LPA算法及其應(yīng)用
                6.  密度聚類(lèi)DBSCAN/DensityPeak(Sci14)
                7.  譜聚類(lèi)SC
                8.  聚類(lèi)評(píng)價(jià)和結(jié)果指標(biāo)

          第十六課:聚類(lèi)實(shí)踐
                1.  K-Means++算法原理和實(shí)現(xiàn)
                2.  向量量化VQ及圖像近似
                3.  并查集的實(shí)踐應(yīng)用
                4.  密度聚類(lèi)的代碼實(shí)現(xiàn)
                5.  譜聚類(lèi)用于圖片分割

          第十七課:EM算法
                1.  最大似然估計(jì)
                2.  Jensen不等式
                3.  樸素理解EM算法
                4.  精確推導(dǎo)EM算法
                5.  EM算法的深入理解
                6.  混合高斯分布
                7.  主題模型pLSA

          第十八課:EM算法實(shí)踐
                1.  多元高斯分布的EM實(shí)現(xiàn)
                2.  分類(lèi)結(jié)果的數(shù)據(jù)可視化
                3.  EM與聚類(lèi)的比較
                4.  Dirichlet過(guò)程EM
                5.  三維及等高線等圖件的繪制
                6.  主題模型pLSA與EM算法

          第十九課:貝葉斯網(wǎng)絡(luò)
                1.  樸素貝葉斯
                2.  貝葉斯網(wǎng)絡(luò)的表達(dá)
                3.  條件概率表參數(shù)個(gè)數(shù)分析
                4.  馬爾科夫模型
                5.  D-separation
                6.  條件獨(dú)立的三種類(lèi)型
                7.  Markov Blanket
                8.  混合(離散+連續(xù))網(wǎng)絡(luò):線性高斯模型
                9.  Chow-Liu算法:最大權(quán)生成樹(shù)MSWT

          第二十課:樸素貝葉斯實(shí)踐
                1.  GaussianNB
                2.  MultinomialNB
                3.  BernoulliNB0
                4.  樸素貝葉斯用于鳶尾花數(shù)據(jù)
                5.  樸素貝葉斯用于18000+篇新聞文本的分類(lèi)

          第二十一課:主題模型LDA
                1.  貝葉斯學(xué)派的模型認(rèn)識(shí)
                2.  共軛先驗(yàn)分布
                3.  Dirichlet分布
                4.  Laplace平滑
                5.  Gibbs采樣詳解

          第二十二課:LDA實(shí)踐
                1.  網(wǎng)絡(luò)爬蟲(chóng)的原理和代碼實(shí)現(xiàn)
                2.  停止詞和高頻詞
                3.  動(dòng)手自己實(shí)現(xiàn)LDA
                4.  LDA開(kāi)源包的使用和過(guò)程分析
                5.  Metropolis-Hastings算法
                6.  MCMC
                7.  LDA與word2vec的比較

          第二十三課:隱馬爾科夫模型HMM
                1.  概率計(jì)算問(wèn)題
                2.  前向/后向算法
                3.  HMM的參數(shù)學(xué)習(xí)
                4.  Baum-Welch算法詳解
                5.  Viterbi算法詳解
                6.  隱馬爾科夫模型的應(yīng)用優(yōu)劣比較

          第二十四課:HMM實(shí)踐
                1.  動(dòng)手自己實(shí)現(xiàn)HMM用于中文分詞
                2.  多個(gè)語(yǔ)言分詞開(kāi)源包的使用和過(guò)程分析
                3.  文件數(shù)據(jù)格式UFT-8、Unicode
                4.  停止詞和標(biāo)點(diǎn)符號(hào)對(duì)分詞的影響
                5.  前向后向算法計(jì)算概率溢出的解決方案
                6.  發(fā)現(xiàn)新詞和分詞效果分析
                7.  高斯混合模型HMM
                8.  GMM-HMM用于股票數(shù)據(jù)特征提取 

           

           

          機(jī)器學(xué)習(xí)從理論到實(shí)踐升級(jí)版視頻教程部分資料截圖展示:

           

           

           

           

          IT營(yíng)(itying.com)官網(wǎng)轉(zhuǎn)載的文章、圖片等資料的版權(quán)歸版權(quán)所有人所有,因無(wú)法和版權(quán)所有者一一聯(lián)系,如果本網(wǎng)站選取的文/圖威脅到您的權(quán)益,請(qǐng)您及時(shí)和IT營(yíng)站長(zhǎng)聯(lián)系。
          我們會(huì)在第一時(shí)間內(nèi)采取措施,避免給雙方造 成不必要的損失。IT營(yíng)(itying.com)官網(wǎng)商品均為虛擬商品,因發(fā)貨后無(wú)法收回,故購(gòu)買(mǎi)后不支持退款,請(qǐng)悉知。有問(wèn)題可以聯(lián)系客服咨詢(客服上班時(shí)間:8:00-21:30)。

          在線客服:點(diǎn)擊這里給我發(fā)消息      點(diǎn)擊這里給我發(fā)消息      有事聯(lián)系我哦   

          公安備案:鄂公網(wǎng)安備 42050202000392號(hào)  ICP備案證書(shū)號(hào):鄂ICP備17020565號(hào)-1