創建時間:2025-01-27
首發時間:2025-01-29
最后編輯時間:2025-01-29
作者:Geeker_LStar
你好呀~這里是 Geeker_LStar 的人工智能學習專欄,很高興遇見你~
我是 Geeker_LStar,一名高一學生,熱愛計算機和數學,我們一起加油~!
?(●’?’●) ?
那就讓我們開始吧!
好耶!!(撒花)
這個專欄一歲啦!!從初三寒假寫到高一寒假,它見證了我一年的成長。
一周年之際,也算是完結之際,這篇文章是對整個專欄的介紹~!
關于這個專欄的 2W1H
- What:這個專欄是什么?
- Why:為什么我會寫這個專欄?
- How:如何使用這個專欄?
- Passion Is All You Need.
What:這個專欄是什么?
正如標題中【】框起來的部分,這是一個由高中生寫的機器學習專欄。
這個專欄從 2024.01.29 開始更新,這篇介紹寫于 2025.01.29,恰好是一周年,也恰好是專欄(第一次)完結的時間。
這個專欄的宗旨是 “用最具象的方式講最抽象的東西”。(此處的 “抽象” 有兩層意思啊不是(
專欄中每一篇文章我都寫得很認真,每一篇的思路鏈條都經過了一次次地修改和完善。除了對算法和公式的講解,我也會加入自己在學習這個算法的時候遇到的問題,以及我更多的思考。
我努力把每個算法背后的 motivation 展現出來,在我看來,這是一個算法最核心的東西。理解了 motivation,數學推導也就沒有那么難了。
這是專欄中所有文章的合集:
【機器學習】全系列合集,戳這里!(更新中)
\begin 注意:
序號 3-15 的文章是初三(主要是初三寒假)的時候寫的,可能會出現一些漏洞(理解 & 符號使用 & 公式,等等很多方面),如果覺得有問題歡迎找我!!! 這部分的文章會在后面的一年中進行更多的打磨和修改!
序號 15 往后的文章主要是高一上學期寫的,相對來講會更專業一些~后面也會進行一些打磨!
\end 注意
(噗哈哈哈這個 \begin 和 \end 不是渲染的問題,我就是這么打的))
Why:為什么我會寫這個專欄?
——因為我覺得現有的機器學習資料對初學者太不友好了😭。
“默認” 的數學基礎、堆在一起還缺乏解釋的公式,無處不在的 “顯然” 和 “省略”…
這真的會讓人爆炸的🤯,我初學機器學習的那兩個月幾乎每天都處在這種 “爆炸” 當中。
所以我想寫一點對初學者,對很多和我一樣的初學者友好的東西,說得再直白點就是讓人能看懂的東西。包括但不限于輕松的語言風格,豐富具體的例子,包含詳細解釋的數學推導,等等。
這個想法在當時可以說是一種沖動,這種沖動大約持續了一個月,隨后則成為了一種習慣——在后來的十一個月當中。
That’s all.
接著,我們來說點執行層面的事情(???bruh 這個詞為什么這么熟悉)——這個專欄應該怎么看?以什么樣的順序看?每一篇文章有沒有具體需要注意的點?
How:如何使用這個專欄?
好呀~那我們就來聊聊具體應該如何使用這個專欄吧!
首先,在深入學習每一個算法之前,你需要對機器學習的一些基礎知識有一個大致的了解。
嗯…這個專欄的第一、二篇文章一直沒有寫,其實它們就是給 “機器學習概述” 留的位置啦!等我寫好了會放在這里的!
不過其實,雖然現在還沒寫好,但是寫過的一些內容也涵蓋了機器學習的基礎知識,如下啦~
用于參數估計(模型優化)的兩大方法:
12. 似然函數和極大似然估計:原理、應用與代碼實現
15. EM 算法一萬字詳解!一起來學!
一些可以評估模型性能的指標:
6. 分類算法中常用的模型評價指標有哪些?here!
11. 回歸算法中常用的模型評價指標有哪些?here!
確定模型超參數的方法:
7. 交叉驗證是什么?有哪些?怎么實現?來看!
同時,還可以簡單了解一下熵的概念,有助于更好地理解后面具體算法中的內容:
22. 信息論基礎:信息熵、交叉熵、相對熵
okay!把這些看完之后,你對機器學習應該已經有了一個不錯的了解!接下來我們可以進入具體算法的研究了…
先從監督學習開始吧!
不妨讓線性回歸成為第一個算法,這估計是最簡單的一個算法了:
10. 新手向,線性回歸算法原理一篇吃透!
接著我們可以學習一下 KNN,它是最簡單的分類算法:
8. KNN 算法原理 & 實踐一篇講清!
里面 KD-tree 相關的部分如果看不懂可以先跳過。
接下來可以看一看樸素貝葉斯,核心公式只有一個,相對來講是比較簡單的:
5. 從概率到樸素貝葉斯算法,一篇帶你看明白!
嗷,后面的部分會變得稍微難一些。
邏輯回歸是用得很廣的分類模型,公式比前面幾個稍多一些,但難度不大:
14. 手撕公式,一篇帶你理解邏輯回歸!
從邏輯回歸出發,我們可以拓展到更為一般化的最大熵原理:
23. 最大熵模型詳解+推導來啦!解決 why sigmoid!
然后我們來看一個非常經典的分類模型,也是我學的第一個模型——支持向量機:
3. 支持向量機(SVM)一萬字詳解!超全超詳細超易懂!
注意,支持向量機對偶問題那部分很難,可以 jump jump jump()
ok 呀,接下來我們進入樹模型的部分,樹模型是機器學習中很重要的組成部分。
first 是基礎的決策樹,比較直觀,公式不難:
13. 決策樹算法一萬字詳解!一篇帶你看懂!
決策樹之后就是繞不開的集成學習。這里可以先了解一下偏差—方差分解,理解集成學習出現的原因:
24. 從偏差—方差分解到集成學習!包全的!
其中的很多數學細節可以跳過。
然后可以分別學習 Bagging 和 Boosting。建議先學 Bagging,因為數學部分比較簡單:
28. 集成學習之 Bagging & 隨機森林!
然后是 Boosting:
25. AdaBoost 算法詳解+推導來啦!
26. 梯度提升樹 GBDT 超詳細講解!
oh,接下來就是更為進階的主題了——概率圖模型。
概率圖模型可以分為貝葉斯網絡和馬爾可夫網絡兩個部分去學,建議先從貝葉斯網絡開始:
27. 貝葉斯網絡詳解!超!系!統!
這個里面也寫了概率圖模型的介紹。
貝葉斯網絡的一大實例是經典的標注算法隱馬爾可夫模型:
20. 隱馬爾可夫模型好難?看過來!(上篇)
21. 隱馬爾可夫模型好難?看過來!(下篇)
學完貝葉斯網絡,再來看看它的另一半——馬爾可夫網絡:
29. 馬爾可夫隨機場 2w 字詳解!超!系!統!
條件隨機場是馬爾可夫網絡的實例,也是經典的標注算法之一:
30. 理解條件隨機場最清晰的思路!(上篇)
31. 理解條件隨機場最清晰的思路!(下篇)
好耶!!學完這些,基本的監督學習算法你就已經全都 get 到啦!!!
接下來我們進入無監督學習吧!
無監督學習的算法相對少一些。
我們可以先了解一下幾種經典的聚類算法,聚類比較簡單,不涉及太多的數學:
19. 各種經典聚類算法,一篇帶你過完!(上)
接下來我們來學習一個經典的降維算法——主成分分析。
降維算法的數學普遍比較復雜,如果覺得太難,可以適當跳過一些數學推導:
16. 線代小白也能看懂的矩陣奇異值分解!
17. 講人話的主成分分析,它來了!(上篇)
18. 講人話的主成分分析,它來了!(下篇)
無監督學習的基本算法其實也就這兩個啦~
恭喜你!!!如果你看完了以上所有文章,你已經成功入門了機器學習!!
(再次撒花!)
嘿嘿~ 那對這個專欄的介紹就到這里啦~ 歡迎幫我宣傳呀嘿嘿!!祝學習順利!!?~
Passion Is All You Need.
最后,這句話送給你,也送給我。
這篇文章介紹了整個專欄?。
歡迎三連!!一起加油!🎇
——Geeker_LStar