? ? ? ?說起AI大模型不得不說下機器學習的發展史,機器學習包括傳統機器學習、深度學習,而大模型(Large Models)屬于機器學習中的深度學習(Deep Learning)領域,具體來說,它們通常基于神經網絡架構。
1.機器學習的發展史
? ? ? ?機器學習技術的發展歷程可以追溯到20世紀50年代,當時提出了感知機、神經網絡等概念。80年代末期,反向傳播算法的發明,給機器學習帶來了希望,掀起了基于統計模型的機器學習熱潮。21世紀以來,隨著數據量的增加、計算能力的提升和算法的改進,機器學習技術進入了深度學習時代,取得了令人矚目的成就。機器學習技術在很多領域都有應用,例如圖像識別、自然語言處理、推薦系統等,為人類社會帶來了巨大的價值和意義。
機器學習技術的發展可以分為以下幾個階段:
1. 早期階段:上世紀50年代到70年代初期,機器學習被視為人工智能的一個子領域。這個階段的主要方法是基于符號邏輯的推理和規則表達,例如專家系統、決策樹等。1943年Warren McCulloch和Walter Pitts就提出首個神經網絡模型,模擬神經元的工作方式。1949年Donald Hebb提出Hebbian學習理論,為神經網絡學習奠定了基礎。但1969年由于Marvin Minsky和Seymour Papert指出感知機的局限性,加之當時計算能力不足和數據稀缺限制了機器學習的發展,導致神經網絡研究陷入低谷。
2. 統計學習階段:20世紀80年代到90年代初期,機器學習開始采用統計學習方法,如最小二乘法、最大似然估計等。這個階段的代表性算法包括神經網絡、支持向量機、樸素貝葉斯等。但這個階段是已統計學習為主的階段,因為1990年開始神經網絡因計算復雜性和理論限制再次遇冷,研究轉向統計學習。
3.深度學習階段:2006年以來,隨著計算能力的提升和數據量的增加,深度學習開始崛起。深度學習是一種基于神經網絡的機器學習方法,可以處理大規模、高維度的數據。深度學習的代表性算法包括卷積神經網絡(CNN)、循環神經網絡(RNN)、生成對抗網絡(GAN)等。
4.現代發展階段:自2017年Transformer架構的提出,一統深度學習領域的江湖之后,徹底改變了自然語言處理領域,BERT、GPT等模型相繼問世。大規模預訓練模型(如GPT-3、GPT-4)在多個任務上表現出色,推動了通用人工智能(AGI)的研究。強化學習、自監督學習、聯邦學習等新興方向快速發展。
5.未來趨勢:研究如何讓機器具備更廣泛的智能,如AI與生物醫學、量子計算的融合。確保AI技術的公平性、透明性和安全性。目前大模型還有更大的挑戰這也是我們后邊要說的局限性。
2.GPT大模型發展歷程
? ? ? ?大模型的發展,必然離不開GPT,為什么要說他,不僅他是現在最優秀的模型之一。還因為他驗證了隨著模型尺寸變大、學習的知識更多,模型的性能會大幅提升。這就是OpenAI 在 2020 年發表的論文《Scaling Laws for Neural Language Models》中提出了 Scaling Laws。雖然這篇論文在2020年提出,但當時卻影響甚微。因為從GPT2開始部分閉源了,GPT3已經完全閉源,雖然在GPT3 中生成1750億相比GPT2 1.7億的參數有了100倍的能力提升,由于閉源,加之GPT只基于 Transformer 的解碼器(Decoder-only)架構,沒有編碼器部分,行業內也并未有太大的影響。直到2022 年 11 月,OpenAI 發布了基于 GPT 模型的人工智能對話應用服務ChatGPT。ChatGPT沿用了InstructGPT的訓練技術,并針對對話能力進行了優化。它結合了人類生成的對話數據進行訓練,展現出豐富的世界知識、復雜問題求解能力、多輪對話上下文追蹤與建模能力以及與人類價值觀對齊的能力。ChatGPT還支持插件機制,擴展了功能,超越了以往所有人機對話系統的能力水平,引發了社會的高度關注。雖然GPT沒有在技術上突破,但他用實踐證明了scaling laws。從ChatGPT發布后,行業內多家巨頭爭相大知識量訓練自家模型,也就短短幾個月讓模型學習全網人類幾百年的知識。灌注了大量的知識后,再進行微調,人類對齊就產生現在的通用大模型。現在百模齊放,離不開GPT的貢獻。OpenAI始終把創建安全、通用的大模型為自己的使命,他的成功有一定的偶然,但也是必然的。
3.大模型的發展局限性
? ? ? 大模型分為推理學習、數據學習,舉個相似的例子,推理學習和數據學習就像數據與物理的關系,正在輸出.....待完善!