課程描述INTRODUCTION
人工智能的浪潮正在席卷全球,各種培訓課程應運而生,但真正能讓學員系統(tǒng)、全面掌握知識點,并且能學以致用的實戰(zhàn)課程并不多見。本課程包含機器學習、深度學習的重要概念及常用算法(決策樹、關聯(lián)規(guī)則、聚類、貝葉斯網(wǎng)絡、神經(jīng)網(wǎng)絡、支持向量機、隱馬爾科夫模型、遺傳算法、CNN、RNN、GAN等),以及人工智能領域當前的熱點。通過6天的系統(tǒng)學習、案例講解和動手實踐,讓學員能初步邁入機器學習和深度學習的知識殿堂。 本課程力圖理論結合實踐,強調從零開始,重視動手實踐;課程內容以原理講解為根本,以應用落地為目標。課程通過大量形象的比喻和手算示例來解釋復雜的機器學習理論,既能將原理充分講懂講透,也避免了繁復而枯燥的公式推導。
· IT人士· 技術總監(jiān)· 系統(tǒng)工程師· 軟件工程師· 技術主管



日程安排SCHEDULE
課程大綱Syllabus
Day初識機器學習
上午
概述入門
數(shù)據(jù)預處理
概述(第一天——)
.概念與術語(人工智能、數(shù)據(jù)挖掘、機器學習)
.數(shù)據(jù)挖掘的對象
.數(shù)據(jù)挖掘的關鍵技術
.知識的表達
.Python的安裝
數(shù)據(jù)預處理(第一天——2)
.數(shù)據(jù)清理
.規(guī)范化
.模糊集
.粗糙集
.無標簽時:PCA
.有標簽時:Fisher線性判別
數(shù)據(jù)壓縮(DFT、小波變換)
案例實踐:
.python安裝
.Tensorflow安裝
.PCA的實驗
.DFT的實驗
Day初識機器學習
下午
回歸與時序分析
決策樹
回歸與時序分析 (第一天——3)
.線性回歸
.非線性回歸
.logistics回歸
.平穩(wěn)性、截尾與拖尾
.ARIMA
決策樹(第一天——4)
.分類和預測
.熵減過程與貪心法
.ID3
.C4.5
.其他改進方法
決策樹剪枝
案例實踐:
.回歸的實驗
.ARIMA預測實驗
.決策樹的實驗
Day2機器學習中的典型算法
上午
聚類
關聯(lián)規(guī)則
樸素貝葉斯與KNN
聚類(第二天——)
.監(jiān)督學習與無監(jiān)督學習
.K-means與k-medoids
.層次的方法
.基于密度的方法
.基于網(wǎng)格的方法
.孤立點分析
關聯(lián)規(guī)則(第二天——2)
.頻繁項集
.支持度與置信度
.提升度
.Apriori性質
.連接與剪枝
樸素貝葉斯與KNN(第二天——3)
.KNN
.概率論基礎:條件概率、聯(lián)合概率、分布、共軛先驗。
.“概率派”與“貝葉斯派”
.樸素貝葉斯模型
案例實踐:
.鳶尾花數(shù)據(jù)的聚類
.超市購物籃——關聯(lián)規(guī)則分析
.樸素貝葉斯案例:皮馬印第安人患糖尿病的風險
Day2機器學習中的典型算法
下午
極大似然估計與EM算法
性能評價指標
極大似然估計與EM算法(第二天——4)
.極大似然估計
.對數(shù)似然函數(shù)
.EM算法
性能評價指標(第二天——5)
.準確率;*率、召回率;F
.真陽性率、假陽性率
.混淆矩陣
.ROC與AUC
.對數(shù)損失
.Kappa系數(shù)
.回歸:平均*誤差、平均平方誤差
.聚類:蘭德指數(shù)、互信息
.k折驗證
案例實踐:
.正態(tài)分析的參數(shù)估計
.EM算法應用案例:雙正態(tài)分布的參數(shù)估計
.繪制ROC并計算AUC、F
.繪制擬合曲線,計算擬合優(yōu)度
Day3神經(jīng)網(wǎng)絡專題
上午
BP神經(jīng)網(wǎng)絡
模擬退火算法與其他神經(jīng)網(wǎng)絡
BP神經(jīng)網(wǎng)絡 (第三天——)
.人工神經(jīng)元及感知機模型
.前向神經(jīng)網(wǎng)絡
.sigmoid
.徑向基函數(shù)神經(jīng)網(wǎng)絡
.誤差反向傳播
模擬退火算法與其他神經(jīng)網(wǎng)絡 (第三天——2)
.模擬退火算法
.Hopfield網(wǎng)絡
.自組織特征映射神經(jīng)網(wǎng)絡(SOM)
.受限布爾茲曼機
案例實踐:
.可以手算的神經(jīng)網(wǎng)絡
.神經(jīng)網(wǎng)絡模擬一個圓錐曲面
.“貨郎擔”問題(模擬退火算法)
.識別破損的字母(Hopfield網(wǎng)絡)
.聚類的另一種解法(SOM)
Day3神經(jīng)網(wǎng)絡專題
下午
機器學習中的最優(yōu)化方法
遺傳算法
機器學習中的最優(yōu)化方法(第三天——3)
.參數(shù)學習方法
.損失函數(shù)(或目標函數(shù))
.梯度下降
.隨機梯度下降
.牛頓法
.擬牛頓法
遺傳算法 (第三天——4)
.種群、適應性度量
.交叉、選擇、變異
.基本算法
案例實踐:
.隨機梯度下降的例子
.牛頓法求Rosenbrock(香蕉函數(shù))的極值
.“同宿舍”問題:遺傳算法
Day4機器學習進階
上午
支持向量機
隱馬爾科夫模型
支持向量機 (第四天——)
.統(tǒng)計學習問題
.支持向量機
.核函數(shù)
.多分類的支持向量機
.用于連續(xù)值預測的支持向量機
隱馬爾科夫模型(第四天——2)
.馬爾科夫過程
.隱馬爾科夫模型
.三個基本問題(評估、解碼、學習)
.前向-后向算法
.Viterbi算法
.Baum-Welch算法
案例實踐:
.SVM:iris的三個分類
.HMM示例:天氣與地表積水、罐中的彩球
.HMM之前向算法:擲骰子的序列
.HMM之viterbi算法:是否生病了?
Day4機器學習進階
下午
文本挖掘
從LSA到LDA
文本挖掘(第四天——3)
、文本分析功能
2、文本特征的提取
4、TF-IDF
5、文本分類
5、文本聚類
從LSA到LDA(第四天——3)
.LSA
.pLSA
.LDA
案例實踐:
.英文文本分析;
.中文文本分析:《絕代雙驕》
.中文語句情感分析
.LSA和LDA的比較
Day5機器學習進階與深度學習初步
上午
利用無標簽的樣本
集成學習
利用無標簽的樣本(第五天——)
.半監(jiān)督學習
.直推式學習
.主動學習
集成學習(第五天——2)
.bagging
.co-training
.adaboost
.隨機森林
.GBDT
案例實踐:
.半監(jiān)督學習:SVM標簽擴展;
.主動學習:手寫數(shù)字
3、bagging、adaboost、RF、GBDT的例子
Day5機器學習進階與深度學習初步
下午
強化學習
深度學習-
強化學習(第五天——3)
.agent的屬性
.exploration and exploitation
.Bellman期望方程
.最優(yōu)策略
.策略迭代與價值迭代
.Q學習算法
深度學習-(第五天——4)
.連接主義的興衰
.深度學習與神經(jīng)網(wǎng)絡的區(qū)別與聯(lián)系
.目標函數(shù)
.激勵函數(shù)
學習步長
案例實踐:
.強化學習示例:走迷宮
.強化學習:谷底的小車
.深度學習示例:模式識別
Day6深度學習
上午
深度學習-2
深度學習-3
深度學習-2(第六天——)
.優(yōu)化算法
.Adagrad
.RMSprop
.Adam
.避免過適應
深度學習-3(第六天——2)
.典型應用場景
.CNN
.各種CNN
.RNN
LSTM、GRU
案例實踐:
.CNN的準備示例
.CNN處理MNIST手寫數(shù)字數(shù)據(jù)集
.RNN準備示例
.RNN分析股票趨勢
.LSTM的準備示例
Day6深度學習
下午
深度學習-4
.GAN
.DQN
案例實踐:
.DQN結合CNN:“flappy bird”
轉載:http://www.yniwn.cn/gkk_detail/65027.html
已開課時間Have start time
- 葉梓
預約1小時微咨詢式培訓
人工智能內訓
- 從人工到智能 穆生一
- 從傳統(tǒng)到智能 穆生一
- 《用好Deepseek,H 徐莉
- 《AI賦能政務高效辦公—— 張峰A
- 《用好Deepseek,職 徐莉
- Deepseek賦能組織效 穆生一
- 《Deepseek助力結構 徐莉
- 從業(yè)務痛點到能力圖譜 穆生一
- 從經(jīng)驗到數(shù)據(jù) 穆生一
- 《AI高效辦公實戰(zhàn)——重構 張峰A
- 從經(jīng)驗到智能 穆生一
- 《AI賦能醫(yī)療行業(yè)——De 張峰A