LangChain終極內幕指南,學會langchain就看它了

1.概述

在人工智能迅速演進的時代,諸如Open AI的ChatGPT和Google的Bard等大型語言模型(LLMs)正徹底改變我們與技術互動的方式。這些技術巨頭和SaaS公司正在競相利用LLMs的威力,創造更為智能和實用的應用程序。

然而,真正的變革并非僅僅停留在這些獨立運行的人工智能模型,而是蘊藏在它們與其他工具、插件以及知識庫相互融合的時刻。正是在這個潮流中,LangChain嶄露頭角——這個前沿框架旨在為語言模型賦予超能力,重新定義了在人工智能領域的可能性邊界。本文將深入解析LangChain的重要性,揭示它為企業將LLMs整合到其軟件中提供的看似神奇的能力,并展望LangChain是如何在人工智能的世界中改變游戲規則的。

2.內容

在人工智能領域,‘LangChain’這個名字融合了’Lang’(代表語言)和’Chain’(代表鏈接或串聯),象征著將不同元素鏈接(或串聯)起來,創造圍繞這些LLMs的先進應用程序。在這里,我們將深入探討構成LangChain骨干功能的幾個關鍵概念。這些概念不僅僅是技術術語,更代表了LangChain用于實現其所有魔力的獨特策略和技術。

注意: 從現在開始,當你看到“model”一詞時,知道我們指的是類似OpenAI的GPT-4這樣的LLM。而當你看到“prompting”時,這是指通過詢問特定問題或提出某些陳述來“與模型交流”的方式。

2.1 LangChain的關鍵概念

2.1.1 思維鏈(CoT)

思維鏈就像一個語言模型在大聲思考,提供其思考過程的逐步分解。這是一種促使模型生成一系列中間推理步驟的提示技術,使其認知過程一覽無余。這就像與模型進行對話,讓它解釋其推理過程,使其成為需要復雜問題解決的任務更有效的工具。

2.1.2 行動計劃生成

這是一種提示技術,利用語言模型生成要采取的行動。這些行動的結果可以反饋到語言模型中生成后續的行動。這就像與模型進行動態對話,它建議行動,然后根據這些行動的結果做出反應。這使模型更具交互性和響應性,能夠適應變化的情況和要求。

2.1.3 ReAct(推理與行動)

ReAct是思維鏈和行動計劃生成的完美結合。它不僅是模型建議行動,更關乎行動背后的“為什么”。這涉及到模型花時間思考、推理,然后行動。這創造了與模型更為有深度的對話,使你的交互不僅僅是一系列命令和響應,而是一場動態的對話。

2.1.4 自問自答

想象一下一個語言模型不僅僅是對提示的回應,而且主動向自己提出跟進問題。這就是自問自答。這是一種提示方法,鼓勵模型在內部更主動、好奇。這些問題不是面向用戶或外部實體,而是在模型“頭腦中”引導生成后續響應。這將模型從被動回應者轉變為主動學習者,使其在需要探索和學習或當模型不知道正確答案時更為有效。

2.1.5 提示串聯

這涉及將多個LLM調用結合起來,使一個步驟的輸出成為下一個步驟的輸入,從而創造出串聯效果。就像進行接力賽一樣,接力棒從一個跑步者傳遞到另一個,每個貢獻者都推動團隊整體進展。

2.1.6 模因代理

這個概念利用語言模型模擬知名人物或情境來塑造其響應。通過將討論框架置于模型識別的上下文中,例如學生與老師之間的對話或向著名哲學家提出的道德問題,鼓勵模型以特定方式響應。這種方法有效地編碼了復雜的任務和對問題背景的假設,使模型更具適應性和響應性。這涉及將模型的響應調整到對話的上下文,并使用文化信息和眾所周知的場景來引導模型的行為。

2.1.7 自洽性

這個概念通過創建多個解決方案并選擇最一致的方案,使AI的響應更可靠。它有助于確保AI的答案合理且不互相矛盾,使其成為更值得信賴和可靠的工具。

2.1.8 Inception(第一人稱指導)

這個概念通過在提示中包含模型響應的開始,鼓勵模型以某種方式思考。它旨在引導模型的思考過程,使其成為在需要特定推理或方法的任務中更為有效的工具。例如,你可以讓模型“給我講個笑話,讓它以“哈哈哈”開始”,其中以“哈哈哈”開始是你給出的指導性指令。

2.1.9 記憶提示

這個概念類似于一個從過去交互中學習的個人助手。它記錄了當系統誤解你的請求以及你提供的改進意見的情況。下一次你提出類似的問題時,記憶提示使用這個“記憶”來改進其響應。這是系統持續改進并適應你的需求的一種方式,使其隨著時間更為可靠和有效。

2.1.10 記憶提示

這個概念類似于一個從過去交互中學習的個人助手。它記錄了系統誤解你請求以及你對如何做得更好的反饋。下一次你提出類似問題時,MemPrompt使用這個“記憶”來改進響應。這是系統不斷改進并適應你需求的方式,使其隨著時間變得更加可靠和有效。

到目前為止,我們已經深入探討了構成LangChain基礎的關鍵概念,這些是指導其操作的理論基礎和創新的AI技術。這些概念提供了LangChain的“為什么”和“是什么” - 為什么它以這種方式工作,它的目標是什么。在這個過程中,我們不僅僅是看到LangChain的實現方式,還將了解它的組成部分,以及這些關鍵概念如何在實際應用中相互作用,為用戶提供令人驚嘆的體驗。

2.2 理解推動系統能力的核心組件

深入了解LangChain的世界,我們遇到了其核心框架,一個經過精心設計的結構,將各種元素集結在一起,打造成一個強大的語言模型應用工具。該框架圍繞兩個主要理念構建:組件和用例特定鏈。

2.2.1 組件

組件是LangChain的構建模塊,它們是匯聚在一起創建整體系統的個體元素。這些組件包括模型、提示、索引、記憶、鏈和代理。在LangChain生態系統中,每個組件都發揮著特定的作用,了解這些作用對于掌握LangChain的全部潛力至關重要。

2.2.2 用例特定鏈

另一方面,用例特定鏈是LangChain提供的“快速入門”解決方案。想想你想要構建什么,選擇最符合你目標的鏈,然后從那里開始構建。它們是預構建的、定制的鏈,專為特定用例設計,如個人助手、聊天機器人、信息提取和摘要等,使其成為一個真正多才多藝的工具。

在接下來的部分中,我們將更詳細地了解這些組件和用例特定鏈,揭示它們的作用、重要性以及它們如何共同努力,使LangChain成為一個強大的工具。做好準備,因為我們即將深入探討LangChain的核心!

2.2.3 Schema(LangChain的藍圖)

Schema在LangChain中是指導數據解釋和交互的基礎結構。這非常類似于建筑的藍圖,勾勒出一切的位置和如何相互配合。

截至今天,與語言模型交互的主要界面是通過文本。這就是“文本輸入,文本輸出”概念發揮作用的地方。簡單來說,LangChain中的許多模型都是基于這一原則運作的。你輸入文本,模型處理它,然后輸出文本。因此,理解Schema是基本的,因為它構建了LangChain如何結構和解釋數據的基礎。這就像在開始玩游戲之前設定游戲規則一樣。

2.3 LangChain的引擎

迄今為止,我們已經多次提到模型,因為它們確實是推動LangChain功能的引擎。然而,值得更深入地挖掘一下,以更好地了解這些模型究竟有多重要。畢竟,它們處理所有的輸入并生成所有的輸出——沒有它們,LangChain將無法存在。

LangChain使用三種主要類型的模型進行使用和交互:

2.3.1 大型語言模型(LLMs)

大型語言模型(LLMs)如OpenAI的GPT、Google的PaLM和META的LLaMA構成了LangChain的核心。通過在大量文本數據上進行訓練,這些模型學習語言的模式和結構,以生成有意義的輸出。它們處理語言輸入并生成響應,實現動態和交互式語言應用。每個LLM都有其獨特的優勢,使它們成為LangChain生態系統中各種任務的多功能工具。

2.3.2 聊天模型

另一方面,聊天模型提供了一種更有結構的方法。盡管它們通常由語言模型支持,但與它們交互的方式更有結構。它們將消息列表作為輸入,并返回一條消息作為輸出。通常,輸入列表中的每條消息都有兩個屬性:‘role’和’content’。‘role’通常由’system’、'user’或’assistant’組成,而’content’包含消息的文本。這正是ChatGPT的工作方式!這種定義明確的結構允許與LLM進行更微妙和互動的對話,并賦予它一種類似人類聊天的感覺。

重要的是要注意,雖然LLMs和聊天模型都用于生成文本,但關鍵區別在于它們處理輸入和輸出的方式。LLMs處理文本字符串,而聊天模型處理結構化的消息列表,使它們更適合進行交互式對話,如實時來回對話。

2.3.3 文本嵌入模型

LangChain利用的第三種也是最后一種模型組件是文本嵌入模型。文本嵌入模型有點像語言翻譯器,但與其將一種語言翻譯成另一種語言不同,它們將文本翻譯成數字。它們將文本作為輸入,將其轉換為一系列數字(或’floats’),創建原始文本的數值表示并將其存儲在數據庫中。

將文本轉換為數字的這種轉換非常有用,因為它意味著模型現在可以訪問文本在所謂的矢量數據庫中的信息(想象一下一個三維空間,在這個空間的所有方向上LLM可以“思考和查看”——前進、后退、上升、下降、左移、右移、內部和外部)。這個四維數據庫允許進行語義風格的搜索,其中看似不相關的文本片段可以在矢量空間中進行相似性比較。

簡單來說,這是LLM從文本中獲取含義的一種方式,而不需要人告訴它含義應該是什么。有趣的是,這有點類似于我們人類大腦的工作方式。我們將感官輸入(文本)轉換為電信號(數值)并存儲在大腦中(矢量數據庫)。

無論是LLM、聊天模型還是文本嵌入模型,它們都共同作為推動LangChain功能的引擎,理解它們是發揮系統全部潛力的關鍵。在其實際應用中,你可能會看到它們集成到一個聊天機器人中,最初,我們使用聊天模型處理用戶輸入并生成適當的響應。它調用LLM生成更微妙的響應。我們還使用文本嵌入模型將用戶的輸入(例如,他們的幫助文檔、支持資源等)上傳并轉換為數值格式,存儲在矢量數據庫中。當聊天機器人需要檢索相關信息時,它使用搜索工具有效地掃描矢量數據庫并找到正確的答案。

2.4 Prompt在LangChain中的作用

或許你最近已經聽說過“prompts”或“prompting”這個術語,因為提示在根本上是與LLMs進行交互的入口點。在最簡單的術語中,提示是你輸入到模型的問題或陳述。它們就像汽車的方向盤,引導模型朝著你想要的方向前進。當涉及到LangChain時,提示的使用由三個基本方面塑造,即Prompt模板、示例選擇器和輸出解析器。

2.4.1 Prompt模板

Prompt模板就像創建模型輸入的食譜。這不僅僅是關于你問模型什么,而是關于你如何問它。提示模板可以引導模型以特定的方式呈現其響應,使輸出對你的具體需求更有用。

使用這種“食譜”格式,一個提示可以包含對語言模型的具體指令,對模型的問題,甚至是一組“few-shot”示例(few-shot示例本質上是你提供給模型的一小組帶有上下文的示例,幫助它理解你期望的響應類型)。

2.4.2 示例選擇器

在這個功能中,LangChain引入了示例選擇器。這些工具允許你在提示中包含示例。但與之前的固定示例不同,示例選擇器根據用戶輸入動態選擇它們,為提示增加了一層額外的適應性。

2.4.3 輸出解析器

最后,我們有輸出解析器。這些工具幫助構造模型的響應。它們指導模型如何格式化其輸出,然后將這個輸出轉換為所需的格式。這可能是從模型的響應中提取特定信息,也可能是將響應轉換成清晰、有序的數據表、圖表,甚至編碼語言。

讓我們想象一個實際的場景。假設你是一名產品營銷經理,想要使用你的LangChain驅動的應用程序為新產品生成一份潛在功能清單。你可以使用Prompt模板指導模型以項目列表的形式生成其想法。示例選擇器可以根據你的輸入動態選擇示例,為模型的響應增添深度和相關性。而輸出解析器可以將這些響應結構化成清晰、有序的格式,便于與團隊進行審查和討論。

簡而言之,在LangChain中,提示充當導航輔助工具,引導與模型的對話,塑造其響應,并最大化其輸出的實用性。它們既是藍圖,也是安全措施,將LangChain和LLMs轉變為強大、靈活且量身定制的與語言模型互動的工具。

2.5 索引在LangChain中的作用

在龐大的數字圖書館LangChain中,索引就像一位知識淵博的圖書管理員。它們高效地組織和檢索信息,默默地在幕后工作,確保你與LangChain的交互是流暢而高效的。

2.5.1 文檔加載器

想象一下,你在一家擁有成千上萬本書的圖書館里,正在尋找一本特定的書。如果沒有圖書管理員或索引系統,這將是一項艱巨的任務。類似地,LangChain處理大量數據,如果沒有索引,查找特定信息就像大海撈針。

在LangChain中,索引將文檔結構化,使LLMs能夠有效地與它們進行交互。這種交互通常涉及到“檢索”步驟,類似于向圖書管理員詢問特定的書。圖書管理員,或在這種情況下,索引,根據你的查詢返回最相關的文檔。

2.5.2 文本分割器

一旦圖書(文檔)在圖書館中,它們需要以有意義的方式進行組織。這就是文本分割器發揮作用的地方。它們將大塊文本分解成更小、更易管理的部分。這類似于將一部長篇小說分成章節,使查找特定部分更容易。

這種分割的原因是由于語言模型的上下文窗口。語言模型一次只能考慮一定數量的文本,稱為上下文窗口。通過將文本分割成較小的部分,我們確保語言模型能夠有效地處理其上下文窗口內的信息,從而最大程度地提高結果的準確性和相關性。

2.5.3 向量存儲

說到向量存儲可能需要用到向量數據庫。它們是LangChain中索引系統的核心。它們是依賴于embedding的最常見類型的索引。

如果我們的圖書館類比仍然成立,那么在向量存儲中,embedding就像分配給每本書的唯一代碼。這個代碼或數值代表文檔的內容,使其更容易與相關的查詢匹配。

2.5.4 檢索器

最后,我們有檢索器,我們數字圖書館的圖書管理員。它們是用于獲取與語言模型組合的相關文檔的接口。當查詢進來時,檢索器遍歷索引,找到最相關的文檔,并呈現它們供語言模型進一步處理。

在現實世界中,假設你是一位客戶成功主管,正在使用LangChain分析客戶反饋。反饋是豐富而多樣的,就像圖書館中的書一樣。借助索引的幫助,你可以快速檢索與產品的特定功能相關的具體反饋。這種高效的信息檢索使你能夠更快地獲取見解,做出基于數據的決策。

總的來說,你需要知道的是,LangChain中的索引是一種強大的工具,可以高效地結構化和檢索數據。它們是確保你與LangChain的交互流暢、高效和高產的來源。

2.6 LangChain中記憶的關鍵作用

在LangChain的世界中,記憶在創造無縫互動體驗方面起著至關重要的作用。就像人類的記憶一樣,LangChain的記憶負責保留和回憶信息。

2.6.1 短時記憶

短時記憶就像一個記事本,你在其中記下需要短時間記住的事物。在LangChain中,短時記憶跟蹤當前的對話。這就像記住剛剛在對話中說了什么,這對于理解上下文并做出適當的回應至關重要。

2.6.2 長時記憶

長時記憶就像一個長時間內積累的大量信息的圖書館。在LangChain中,長時記憶用于記住AI與用戶在不同對話中的互動。這就像記住朋友的偏好或過去的經歷,可以用來提供更個性化和相關的回應。

2.6.3 索引與記憶:目錄系統與連續保持者

或許你會想知道,記憶與我們之前討論過的索引或向量數據庫的概念有何不同?這里有一個區別:

索引和向量數據庫就像圖書館的目錄系統一樣,它們有助于高效地組織和檢索文檔。它們不記住互動的順序,而是專注于為當前查詢找到最相關的響應。

相反,記憶就像圖書管理員的知識,它有助于記住過去的互動,并為將來的對話提供上下文。換句話說,根據先前的言論或提問理解上下文。

在現實世界中,假設你是一名產品經理,正在使用LangChain進行產品開發。你正在收集用戶反饋以改進產品。借助LangChain的記憶功能,AI可以記住與每個用戶的過去互動,根據他們的使用歷史了解反饋的上下文,并對其建議或關切提供個性化的回應。這使你能夠更深入地了解用戶需求和偏好,幫助你更明智地做出有關產品改進的決策。

2.7 LangChain的編排系統

LangChain將迄今討論的各種不同組件匯聚在一起,以創建一種與語言模型產生有意義和相關響應的交互。它們充當主導者,幫助創建一個緊密而可用的系統。

2.7.1 LangChain的定義

鏈條就像工廠里的生產線,每個組件執行特定的任務,最終產品是所有這些任務按照特定順序執行的結果。有兩種常見類型的鏈條,LLMChain和與索引相關的鏈條。

2.7.2 LLMChain

迄今為止,最常見的鏈條類型是LLMChain。它結合了我們迄今為止討論的許多要素,其中包括:

  • PromptTemplate:準備原材料(輸入)
  • Model(LLM或ChatModel):處理這些材料
  • Guardrails(可選):確保最終產品符合要求標準的質量檢查

你可以將LLMChains視為通常與模型進行交互和參與的默認方式。

2.7.3 與索引相關的LangChain

根據你的用例,您還將遇到與索引相關的LangChain。這些LangChain專門用于與索引進行交互,將您自己的數據(存儲在索引中)與LLMs相結合。

有四種主要類型的與索引相關的LangChain,每種都具有處理多個文檔的獨特方法。讓我們來詳細了解:

1.Stuffing

這是最簡單的方法,其中所有相關數據都“填充”到提示中作為上下文傳遞給語言模型。

  • 優勢: 僅對LLM進行一次調用。在生成文本時,LLM一次性訪問所有數據。
  • 劣勢: 大多數LLMs都有上下文長度限制,對于大型文檔(或許多文檔),這種方法將無法工作,因為它會導致大于上下文長度的提示。
2.Map Reduce

此方法涉及在每個數據塊上運行初始提示(對于摘要任務,這可能是該塊的摘要;對于問答任務,這可能是僅基于該塊的答案)。然后運行另一個提示以組合所有初始輸出。

  • 優勢: 可以擴展到更大的文檔(和更多文檔)。對各個文檔的LLM調用是獨立的,因此可以同時進行。
  • 劣勢: 需要比Stuffing更多的對LLM的調用。在最終組合調用期間會丟失一些信息。
3.Refine

此方法涉及在第一個數據塊上運行初始提示,生成一些輸出。對于剩余的文檔,將傳遞該輸出以及下一個文檔,要求LLM根據新文檔調整輸出。

  • 優勢: 可以引入更相關的上下文,可能比Map Reduce更準確。
  • 劣勢: 需要比Stuffing更多的對LLM的調用。這些調用也不是獨立的,這意味著它們無法與Map Reduce同時進行。還有一些關于文檔排序的潛在規則需要遵循。
4.Map-Rerank

此方法涉及在每個數據塊上運行初始提示,該提示不僅嘗試完成任務,還為其回答的確定程度打分。然后根據此分數對響應進行排名,并將最高分返回給您。

  • 優勢: 與Map Reduce相似的優勢,盡管與Map Reduce相比,需要的調用較少。
  • 劣勢: 無法在文檔之間組合信息。這意味著在您希望在單個文檔中獲得單一簡單答案時最有用。

這些LangChain提供了一系列處理多個文檔的選項,滿足不同的需求和場景。無論你處理少量數據還是大型文檔語料庫,LangChain的與索引相關的鏈條都提供了一種靈活而高效的方式來與你的數據和LLMs進行交互。

2.8 代理

代理是LangChain中的自治實體,代表用戶與生態系統中的其他代理和工具進行交互。它們是決策者,根據用戶輸入和目標選擇要利用的工具。這種適應性和即時智能使代理成為處理復雜多步任務的關鍵組件。

2.8.1 代理的角色

在LangChain中,代理的角色就像交響樂團的指揮,協調各個組件以創建和諧的互動。它們負責解釋用戶輸入,決定使用哪些工具,并管理系統內的信息流。這種適應性和智能使代理成為處理復雜多步任務的關鍵組件。

2.8.2 代理的類型

LangChain支持兩種主要類型的代理:動作代理和計劃執行代理。

1.動作代理

動作代理更傳統,適用于小型任務。它們就像比賽中的短跑者,快速而專注于單一任務。

2.計劃執行代理

計劃執行代理更適用于復雜或長時間運行的任務。它們處理初始規劃步驟,有助于保持長期目標和專注。它們就像馬拉松選手,具有戰略性和耐力性。

2.8.3 代理在實際場景中的應用

在現實場景中,代理可以以各種方式使用。例如,產品經理可以使用代理來分析客戶反饋并生成見解。代理可能決定使用情感分析工具來了解反饋的整體情感,然后使用總結工具將反饋濃縮為關鍵要點。

同樣,設計師可以使用代理根據用戶輸入生成設計思路。代理可能決定使用頭腦風暴工具生成思路列表,然后使用排名工具根據特定標準對思路進行排序。

3.總結

在LangChain的世界中,我們探討了系統的各個組成部分,從模型和提示到索引、記憶、鏈和代理。這個系統巧妙地利用這些組件,創造了一個強大的語言模型應用工具。模型是引擎,索引是高效的圖書館管理員,記憶是延續對話的守護者,鏈是協調器,而代理是決策者。

Prompt是與LLMs互動的入口,而索引則像圖書館的目錄系統,幫助我們高效組織和檢索信息。記憶分為短時記憶和長時記憶,使LangChain能夠以連貫的方式處理對話,就像人類記憶一樣。鏈則將所有組件有機地結合在一起,創建有意義且相關的模型響應。最后,代理是LangChain中的決策者,像交響樂團的指揮,協調各個組件,處理復雜多步任務。

這個全面而精致的系統展現了LangChain如何利用先進的語言模型技術,通過巧妙的設計和智能決策,為用戶提供卓越的體驗。

如何系統的去學習AI大模型LLM ?

作為一名熱心腸的互聯網老兵,我意識到有很多經驗和知識值得分享給大家,也可以通過我們的能力和經驗解答大家在人工智能學習中的很多困惑,所以在工作繁忙的情況下還是堅持各種整理和分享。

但苦于知識傳播途徑有限,很多互聯網行業朋友無法獲得正確的資料得到學習提升,故此將并將重要的 AI大模型資料 包括AI大模型入門學習思維導圖、精品AI大模型學習書籍手冊、視頻教程、實戰學習等錄播視頻免費分享出來

😝有需要的小伙伴,可以V掃描下方二維碼免費領取🆓

在這里插入圖片描述

一、全套AGI大模型學習路線

AI大模型時代的學習之旅:從基礎到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型報告合集

這套包含640份報告的合集,涵蓋了AI大模型的理論研究、技術實現、行業應用等多個方面。無論您是科研人員、工程師,還是對AI大模型感興趣的愛好者,這套報告合集都將為您提供寶貴的信息和啟示。

img

三、AI大模型經典PDF籍

隨著人工智能技術的飛速發展,AI大模型已經成為了當今科技領域的一大熱點。這些大型預訓練模型,如GPT-3、BERT、XLNet等,以其強大的語言理解和生成能力,正在改變我們對人工智能的認識。 那以下這些PDF籍就是非常不錯的學習資源。

img

在這里插入圖片描述

四、AI大模型商業化落地方案

img

階段1:AI大模型時代的基礎理解

  • 目標:了解AI大模型的基本概念、發展歷程和核心原理。
  • 內容
    • L1.1 人工智能簡述與大模型起源
    • L1.2 大模型與通用人工智能
    • L1.3 GPT模型的發展歷程
    • L1.4 模型工程
      - L1.4.1 知識大模型
      - L1.4.2 生產大模型
      - L1.4.3 模型工程方法論
      - L1.4.4 模型工程實踐
    • L1.5 GPT應用案例

階段2:AI大模型API應用開發工程

  • 目標:掌握AI大模型API的使用和開發,以及相關的編程技能。
  • 內容
    • L2.1 API接口
      - L2.1.1 OpenAI API接口
      - L2.1.2 Python接口接入
      - L2.1.3 BOT工具類框架
      - L2.1.4 代碼示例
    • L2.2 Prompt框架
      - L2.2.1 什么是Prompt
      - L2.2.2 Prompt框架應用現狀
      - L2.2.3 基于GPTAS的Prompt框架
      - L2.2.4 Prompt框架與Thought
      - L2.2.5 Prompt框架與提示詞
    • L2.3 流水線工程
      - L2.3.1 流水線工程的概念
      - L2.3.2 流水線工程的優點
      - L2.3.3 流水線工程的應用
    • L2.4 總結與展望

階段3:AI大模型應用架構實踐

  • 目標:深入理解AI大模型的應用架構,并能夠進行私有化部署。
  • 內容
    • L3.1 Agent模型框架
      - L3.1.1 Agent模型框架的設計理念
      - L3.1.2 Agent模型框架的核心組件
      - L3.1.3 Agent模型框架的實現細節
    • L3.2 MetaGPT
      - L3.2.1 MetaGPT的基本概念
      - L3.2.2 MetaGPT的工作原理
      - L3.2.3 MetaGPT的應用場景
    • L3.3 ChatGLM
      - L3.3.1 ChatGLM的特點
      - L3.3.2 ChatGLM的開發環境
      - L3.3.3 ChatGLM的使用示例
    • L3.4 LLAMA
      - L3.4.1 LLAMA的特點
      - L3.4.2 LLAMA的開發環境
      - L3.4.3 LLAMA的使用示例
    • L3.5 其他大模型介紹

階段4:AI大模型私有化部署

  • 目標:掌握多種AI大模型的私有化部署,包括多模態和特定領域模型。
  • 內容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的關鍵技術
    • L4.3 模型私有化部署的實施步驟
    • L4.4 模型私有化部署的應用場景

學習計劃:

  • 階段1:1-2個月,建立AI大模型的基礎知識體系。
  • 階段2:2-3個月,專注于API應用開發能力的提升。
  • 階段3:3-4個月,深入實踐AI大模型的應用架構和私有化部署。
  • 階段4:4-5個月,專注于高級模型的應用和部署。
這份完整版的大模型 LLM 學習資料已經上傳CSDN,朋友們如果需要可以微信掃描下方CSDN官方認證二維碼免費領取【保證100%免費

😝有需要的小伙伴,可以Vx掃描下方二維碼免費領取🆓

在這里插入圖片描述

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/web/40010.shtml
繁體地址,請注明出處:http://hk.pswp.cn/web/40010.shtml
英文地址,請注明出處:http://en.pswp.cn/web/40010.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

低壓電工精選歷年真題附答案

1.當電壓為5V時,導體的電阻值為5歐,那么當電阻兩端電壓為2V時,導體的電阻值為()歐。[單選題] A 、10B、5(正確答案) C、2 2.當電氣火災發生時,應首先切斷電源再滅火,但當電源無法切斷時,只能帶電滅火&…

Finding and exploting an unused API endpoint

Using 0$ account buy a piece of lether priced at $133 1、嘗試訪問api接口 大概率可能訪問不到,但是可以嘗試訪問下 /api/swagger/v1 /openapi.json 2、頁面功能點尋找 api send to Repeter 3、Find Supported HTTP請求 POST方法測試 通過測試得知支持GET方法和PATC…

C語言實現的人員管理系統(順序表版)

該系統具有以下主要功能: 添加人員信息:在有空間的前提下,用戶輸入人員的工號、姓名、性別、聯系電話和 QQ 號等信息,系統會自動檢查編號的唯一性,確保不重復。查找人員信息:提供按工號和姓名兩種查找方式…

av_read_frame 代碼研究

------------------------------------------------------------ author: hjjdebug date: 2024年 07月 05日 星期五 11:02:51 CST av_read_frame 代碼研究 ------------------------------------------------------------ 有人只標注一層,標注一層太膚淺了.不能了解底層之精妙…

Lianwei 安全周報|2024.07.01

新的一周又開始了,以下是本周「Lianwei周報」,我們總結推薦了本周的政策/標準/指南最新動態、熱點資訊和安全事件,保證大家不錯過本周的每一個重點! 政策/標準/指南最新動態 01 出于安全考慮,拜登下令禁用卡巴斯基殺毒…

【康復學習--LeetCode每日一題】3115. 質數的最大距離

題目: 給你一個整數數組 nums。 返回兩個(不一定不同的)質數在 nums 中 下標 的 最大距離。 示例 1: 輸入: nums [4,2,9,5,3] 輸出: 3 解釋: nums[1]、nums[3] 和 nums[4] 是質數。因此答案是…

SpringBoot各類數量限制及超出后拋出的異常

前言 在使用SpringBoot開發接口時,動不動的就發生各種超過默認值的限制,這里總結了下SpringBoot默認限制的設置以及可能會發生的異常,便于問題的排查和快速修改默認值。 配置項配置項說明默認值超過大小后拋出的異常spring.servlet.multipa…

系統管理(System Keeping):全新迭代,優化您的開發體驗

隨著科技的不斷進步和用戶需求的日益增長,系統管理(System Keeping)不斷進行迭代更新,致力于為用戶帶來更加高效、便捷的開發體驗。本次全新迭代,不僅在界面與交互上進行了革新,更在功能整合、個性化與安全…

ECOLOGY9重置系統管理員密碼

ECOLOGY9系統管理員密碼忘記需要重置: 1、KB2110之后版本加了防篡改邏輯,數據庫中初始話密碼需要將hashdata、signdata更新為空,執行如下語句初始化 update HrmResourceManager set password ‘C4CA4238A0B923820DCC509A6F75849B’,salt‘’…

Android --- Service

出自于此,寫得很清楚。關于Android Service真正的完全詳解,你需要知道的一切_android service-CSDN博客 出自【zejian的博客】 什么是Service? Service(服務)是一個一種可以在后臺執行長時間運行操作而沒有用戶界面的應用組件。 服務可由其他應用組件…

萬字長文|關于 OpenAI 接口開發你應該知道的一切

這篇文章中個人結合自己的實踐經驗把 OpenAI 官方文檔解讀一遍。但是原文檔涉及內容眾多,包括微調,嵌入(Embeddings)等眾多主題,我這里重點挑選自己開發高頻使用到的,需要詳細了解的可以自行前往官網閱讀。…

Java中的文本搜索與全文檢索引擎

Java中的文本搜索與全文檢索引擎 大家好,我是免費搭建查券返利機器人省錢賺傭金就用微賺淘客系統3.0的小編,也是冬天不穿秋褲,天冷也要風度的程序猿! 在現代應用程序中,處理和搜索大量文本數據是一項關鍵任務。傳統的…

2024科技文化節程序設計競賽

補題鏈接 https://www.luogu.com.cn/contest/178895#problems A. 簽到題 忽略掉大小為1的環&#xff0c;答案是剩下環的大小和減環的數量 #include<bits/stdc.h> #include<iostream> #include<cstdio> #include<vector> #include<map> #incl…

c進階篇(四):內存函數

內存函數以字節為單位更改 1.memcpy memcpy 是 C/C 中的一個標準庫函數&#xff0c;用于內存拷貝操作。它的原型通常定義在 <cstring> 頭文件中&#xff0c;其作用是將一塊內存中的數據復制到另一塊內存中。 函數原型&#xff1a;void *memcpy(void *dest, const void…

多模態融合算法應用:CT + 臨床文本數據 + pyradiomics提取到的圖像特征

多模態融合算法應用 CT 臨床文本數據 pyradiomics提取圖像特征 單模態建模臨床數據建模pyradiomics提取圖像特征建模CT建模 多模態建模前融合為什么能直接合并在一起&#xff1f; 后融合Med-CLIP&#xff1a;深度學習 可解釋性 單模態建模 臨床數據建模 臨床文本數據&…

WPF Menu實現快捷鍵操作

很多小伙伴說&#xff0c;在Menu中&#xff0c;實現單個快捷鍵操作很簡單&#xff0c;怎么實現多個快捷鍵操作和&#xff0c;組合快捷鍵呢&#xff0c;今天他來了。 上代碼和效果圖 一、Ctrl Shift 任意子母鍵實現快捷鍵組合 <Window x:Class"XH.TemplateLesson.M…

【測試開發】【postman】按順序循環執行接口

postman按順序循環執行接口 新建接口接口排序執行請求集合 新建接口 Request 001 Request 002 Request 003 接口排序 在Request 001的Tests中添加代碼 postman.setNextRequest("Request 002");在Request 002的Tests中添加代碼 postman.setNextRequest("Requ…

Redis 7.x 系列【17】四種持久化策略

有道無術&#xff0c;術尚可求&#xff0c;有術無道&#xff0c;止于術。 本系列Redis 版本 7.2.5 源碼地址&#xff1a;https://gitee.com/pearl-organization/study-redis-demo 文章目錄 1. 概述2. 案例演示2.1 無持久化2.2 RDB2.3 AOF2.4 混合模式2.4.1 方式一&#xff1a;…

線性代數|機器學習-P21概率定義和Markov不等式

文章目錄 1. 樣本期望和方差1.1 樣本期望 E ( X ) \mathrm{E}(X) E(X)1.2 樣本期望 D ( X ) \mathrm{D}(X) D(X) 2. Markov 不等式&Chebyshev不等式2.1 Markov不等式公式 概述2.2 Markov不等式公式 證明&#xff1a;2.3 Markov不等式公式 舉例&#xff1a;2.4 Chebyshev不…

AI繪畫 Stable Diffusion圖像的臉部細節控制——采樣器全解析

大家好&#xff0c;我是畫畫的小強 我們在運用AI繪畫 Stable Diffusion 這一功能強大的AI繪圖工具時&#xff0c;我們往往會發現自己對提示詞的使用還不夠充分。在這種情形下&#xff0c;我們應當如何調整自己的策略&#xff0c;以便更加精確、全面地塑造出理想的人物形象呢&a…