Contents
2-1 分類(一)
2-1-1 鳶尾花資料集羅吉斯迴歸分類
2-1-2鳶尾花資料集SGD分類
2-2 分類(二)
2-2-1 鳶尾花資料集KNN分類
2-2-2 鳶尾花資料集最近質心分類
2-3 分類(三)鳶尾花資料集投票分類
2-4 羅吉斯迴歸_鐵達尼號生存預測
2-5 支持向量機分類_寶可夢屬性分類
2-5-2 寶可夢屬性分類104-SVC
2-6 決策樹分類、運用決策樹於紅酒資料集
2-6-2 運用決策樹於紅酒資料集
2-7 整體學習
2-8 隨機森林_汽車品質預測、隨機森林分類
2-9 分類器比較

2-1 分類(一)
- 分類是監督學習的一個實例,根據已知訓練集提供的樣本,通過計算選擇特徵參數,建立判別函式以對樣本進行的分類
2-1-1 鳶尾花資料集羅吉斯迴歸分類
羅吉斯迴歸(Logistic regression)
- 是一種對數機率模型(Logit model)
- 是離散選擇法模型之一
- 用於分類而非迴歸的線性模型
- 使用邏輯函數對描述單個試驗可能結果的概率進行建模
操作實例:應用羅吉斯迴歸於鳶尾花資料集
2-1-1鳶尾花資料集羅吉斯迴歸分類
2-1-2鳶尾花資料集SGD分類
梯度下降法(GD)
- 通常也稱為最陡下降法,必須向函數上當前點對應梯度(或者是近似梯度)的反方向的規定步長距離點進行疊代搜索
- 傳統的梯度下降法(gradient descent, GD)用全部訓練集的數據去計算,算出損失函數的梯度後,就更新一次參數,接著繼續算下一次結果逐漸獲得最佳解
隨機梯度下降法(SGD)
- SGD(stochastic gradient descent)一次跑一個樣本或小批次(mini-batch)樣本,樣本是隨機抽取的
✅ 可以加快學習速率