【第二十四周】從大語言模型到多模態大模型的發展

摘要

大語言模型(Large Language Model, LLM)是指一類基于深度學習的人工智能系統,它們被設計用來理解和生成自然語言。這些模型通常是在大量的文本數據上進行訓練的,通過學習文本中的模式和結構,它們能夠執行各種各樣的自然語言處理任務,如文本生成、問答、翻譯、摘要等。隨著BERT、GPT系列、PaLM系列、LLaMA系列、PanGu系列等大型語言模型不斷發展和成熟,在各種任務的文本理解和生成方面表現出強大的能力。與此同時,計算機視覺領域中的跨模態模型(Cross-modal Model)也出現了,比如CLIP和Stable Diffusion。此外,在LLM基礎上發展起來的多模態大模型(Large Multimodal Models, lmm)也取得了重大進展和突破,逐漸形成了通用通用人工智能(Artificial General Intelligence, AGI)的雛形。

Abstract

Large Language Model (LLM) refers to a class of artificial intelligence systems based on deep learning, designed to understand and generate natural language. These models are typically trained on vast amounts of text data, learning the patterns and structures within the text, which enables them to perform a wide variety of natural language processing tasks such as text generation, question answering, translation, summarization, and more. With the continuous development and maturation of large language models like BERT, the GPT series, PaLM series, LLaMA series, and PanGu series, they have demonstrated powerful capabilities in text understanding and generation across various tasks. Meanwhile, cross-modal models (Cross-modal Model) in the field of computer vision have also emerged, such as CLIP and Stable Diffusion. Additionally, significant progress and breakthroughs have been made in large multimodal models built upon the foundation of LLMs, gradually forming the prototype of general artificial intelligence.

1.大語言模型

1.1.LLM的結構

大語言模型的結構主要有三種:

  • 第一種是編碼器-解碼器(Encoder-Decoder)。這種結構起源于 RNN 和 LSTM,首先由 Transformer
    運用到大語言模型中。Encoder-Decoder架構的編碼器負責將輸入序列編碼為固定長度的上下文向量,解碼器則根據這個上下文向量生成輸出序列。在Transformer模型中,編碼器使用雙向注意力機制,解碼器使用單向注意力機制,但解碼器可以關注編碼器輸出的上下文信息。這種機制確保了模型能夠同時處理輸入和輸出的復雜關系。這種結構通常用于序列到序列(Seq2Seq)任務,如機器翻譯、文本摘要等,能夠同時處理輸入和輸出序列,實現復雜的序列轉換任務。
  • 第二種結構是僅有編碼器(Encoder-Only),也被稱為單向架構,僅包含編碼器部分,沒有解碼器。它主要適用于理解任務,如文本分類、情感分析等。這種結構側重于編碼器側,它通常使用雙向自注意機制獲取上下文語言表示,主要用于涉及只需要輸入處理的單向任務的場景,例如文本分類和情感分析。這類的代表性模型包括BERT、RoBERTa和ALBERT。在BERT模型中,采用雙向注意力機制,能夠同時關注序列中的前后詞語,從而獲得更全面的上下文理解。此外,BERT還使用掩碼語言模型(Masked
    Language Model, MLM)進行訓練,提高了模型的泛化能力。
  • 第三種結構是僅有解碼器(Decoder-Only)。此結構關注序列中后續輸出token的預測。它還可以分為兩種變體:因果解碼器(Causal Decoder)和前綴解碼器(Prefix Decoder),其區別在于所使用的注意機制。因果解碼器完全依賴于之前的token來預測下一個token。而前綴解碼器(也稱非因果解碼器)可以看做是Encoder-Decoder模型的變體,在輸入部分采用雙向注意力機制,這意味著模型在處理輸入序列時,任意兩個token都可以相互看見。而在輸出部分,前綴解碼器則采用單向注意力,即待生成的token可以看到Encoder側所有token(包括上下文)和Decoder側已經生成的token,但不能看未來尚未產生的token。這種模型架構允許模型在生成文本時同時考慮前綴信息和單向生成的特性,適用于需要同時理解上下文和生成文本的任務。只有解碼器的架構框架特別適合于文本生成任務,并且構成了當前大型語言模型中的流行選擇,如GPT系列。

1.2.LLM的預訓練

預訓練是大型語言模型訓練中最重要的步驟之一,它指的是在擁有大量文本數據的語料庫上進行的一個初始訓練階段。這個過程旨在讓模型學習到語言的基本模式、結構和特征,而不需要針對特定任務進行專門訓練。預訓練的目標是使模型獲得通用的語言理解能力,能夠捕捉到詞匯、語法、語義等層次上的規律,并形成對語言的一種內在表示。

常見的預訓練目標包括以下三種主要策略:

  • 自回歸語言建模(Autoregressive Language Modeling,ALM):
    自回歸模型是一種基于先前單詞預測下一個單詞的概率分布的語言模型。這種模型以序列的方式工作,即它在生成文本時一次只考慮一個詞,并且該詞的生成依賴于之前的詞。最著名的例子是傳統的RNN、LSTM和GRU等循環神經網絡,以及像GPT系列這樣的Transformer解碼器模型。這種方法采用的是因果(或稱為單向)注意力機制,即在預測每個位置的詞時,只能看到該位置之前的詞,而不能看到之后的詞。在訓練過程中,模型試圖最大化給定前文條件下預測下一個詞的對數似然。這意味著它學習到如何根據前面的上下文來預測后續的詞匯,這使得它擅長理解語言中的因果關系或順序性信息。
  • 前綴語言建模(Prefix Language Modeling,PLM):
    前綴語言模型是一種特殊的自回歸模型,它不僅使用過去的上下文(即句子的開頭部分),還可以利用未來的某些部分作為條件輸入。然而,這里的“未來”并不是指整個后續的句子,而是僅限于當前詞之前的一小段文本。在這種策略中,模型不僅需要根據過去的上下文預測未來的內容,還需要能夠處理輸入序列的一部分作為“前綴”,然后基于這個前綴生成后續內容。這種方式允許模型更好地適應對話系統等應用場景,在這些場景中,模型可能需要根據對話歷史生成回復。這種方法結合了雙向和單向的特性,既可以讓模型利用已知的前綴信息,又保持了生成過程中的連貫性和邏輯性。比如UniLM。
  • 掩碼語言建模(Masked Language Modeling,MLM):
    掩碼語言建模是一種非自回歸的方法,它通過隨機遮蔽輸入文本中的某些單詞,然后讓模型嘗試預測這些被遮蔽掉的詞是什么。這種方法打破了傳統的從左到右或從右到左的生成方式,使模型能夠在訓練期間同時看到左右兩邊的上下文信息。BERT是一個采用掩碼語言建模的經典例子。在BERT的預訓練階段,大約15%的詞會被隨機替換為特殊標記MASK,然后模型的任務就是基于周圍的上下文來預測這些被遮蓋住的詞。這種方法有助于模型學習到更加豐富的語義表示,因為它是基于雙向上下文進行預測的。MLM使模型能夠從雙向上下文中學習,因為它同時考慮序列中的前上下文和后上下文。與ALM和PLM相比,MLM在保持并行化效率的同時,為模型提供了對上下文更全面的理解。

1.3.LLM的全量微調(Full Fine-Tuning)

全量微調是指一個大語言模型適應特定下游任務的過程,包括了使用特定任務的數據更新預訓練模型的所有參數,這是大模型遷移學習的具體體現。例如,GPT最初在一個龐大的語料庫上進行預訓練,隨后在12個不同的NLP下游任務上進行全量微調。在這個微調階段之后,GPT變體在這些目標任務中的9個上實現了最先進的性能。對于處理下游NLP任務的大語言模型來說,全量微調是目前最流行的方法。然而,全量微調的一個重要缺陷是隨著大語言模型的規模不斷升級,參數的數量也不斷增長,最后導致計算的消耗無法承受。

1.4.LLM的參數高效微調(?Parameter-Efficient Fine-Tuning)

與全量微調不同,參數高效微調是一種旨在以最少的參數更新和計算資源實現預訓練模型微調的方法。參數高效調優的主流方法包括:

  • 適配器調優(Adapter Tuning):Adapter
    Tuning的基本思想是在預訓練模型的中間層中插入輕量級的適配器(Adapter),以便在微調特定任務時僅修改少量的參數。這樣做的好處是,我們可以在不顯著增加模型參數數量的情況下,提高模型的表現。由于維度較低,適配器可以在保留原始模型權重的同時,專門針對這些新添加的參數進行微調,從而確保了微調的可行性并保持了計算效率。
  • 低秩自適應(Low-Rank Adaptation,LoRA) :
    LoRA背后的核心思想是通過將某些權重矩陣分解為兩個更小的矩陣(即低秩近似)來進行微調,只對這兩個較小矩陣進行更新就可以有效地修改整個模型的行為,從而顯著減少所需參數的數量,同時保持與全量微調相當的性能。
  • 量化低秩自適應(Quantized Low-Rank
    Adaptation,,QLoRA):在LoRA的基礎上,QLoRA集成了量化。它引入量化運算,進一步壓縮可訓練參數的空間。QLoRA在資源受限環境中部署和更新深度學習模型的場景中尤其具有優勢,例如邊緣設備。

1.5.LLM的提示工程(Prompt-Engineering)

提示工程將提示作為可學習的參數,而不需要更新預訓練模型的參數。通過只優化極小數量的參數,提示工程可以提高預訓練模型在各種下游任務中的性能,同時接近完全量微調的功效。

  • Prefix-Tuning:Prefix
    Tuning通過在預訓練模型的輸入層之前添加一系列可訓練的連續向量(即前綴Prefix),這些前綴作為額外的輸入與原始輸入一起被模型處理。通過優化這些前綴的參數,模型可以學會生成適應新任務輸出的提示,而無需改變模型的主要參數。在訓練過程中,只有前綴向量的參數是可訓練的,預訓練模型的參數被凍結。
  • P-Tuning:P-Tuning通過在模型的輸入中加入一小段可訓練的模板,使得模型能夠針對特定任務進行調整,而不需要對整個模型進行全量微調。它能夠將離散提示映射到可訓練的連續提示的嵌入中,利用LSTM和MLP來構造提示編碼器。與前綴調優不同,P-Tuning在輸入層的任意位置插入提示token。這些token通過提示編碼器依次轉換為隱藏狀態,并與輸入嵌入一起聯合訓練。然而,為了實現更佳的性能效果,必須在整體模型調優過程中同步優化提示嵌入。
  • Prompt-Tuning:Prompt-Tuning 可以被視為 P-Tuning和Prefix Tuning的簡化版本,
    核心思想是在預訓練模型中引入任務特定的指令(Prompt),這些指令可以是文本片段、圖像、語音流等,用于為模型提供特定任務的上下文。這種方法旨在降低預訓練模型與下游任務之間的語義差異,并復用預訓練模型強大的表達能力。Prompt
    Tuning將一系列提示與輸入序列連接起來,形成模型的輸入。嵌入的提示和輸入嵌入共同構成一個參數矩陣,該矩陣由模型處理,其中只有提示的參數被更新,而預訓練模型的原始權重保持不變。這種方法表現出高度的參數更新效率,并隨著模型參數數量的增長變得越來越有競爭力。即使在模型參數超過數十億的情況下,它也能夠達到與全量微調相當的性能。通過
    Prompt-Tuning,單個預訓練模型可以通過為每個下游任務訓練不同的提示參數,高效地重新用于多個下游任務。
  • 上下文學習:GPT-3的少樣本性能突顯了上下文學習的潛力,使語言模型能夠在沒有額外模型調優的情況下,僅依賴少數示范樣例掌握下游任務。上下文學習被分解為兩個不同的階段,即訓練階段和推理階段。在訓練階段,模型通過預訓練目標獲得上下文學習的能力。在推理階段,通過精心設計示例和選擇適當的評估機制,展示了模型的上下文學習能力。
  • 思維鏈:思維鏈概念的本質在于通過向模型提供適度的范例集合來模仿人類解決復雜問題的認知過程。解決方案被分解成一系列用自然語言表達的中間推理步驟,同時清晰地描繪了從查詢到解決的邏輯軌跡。

prompt tuning、P-tuning和prefix tuning的結構如下所示:
在這里插入圖片描述

1.6.目前比較具有代表性的幾個大語言模型

在這里插入圖片描述
Transformer(2017):Transformer是在2017年由谷歌的研究人員提出的一種模型。Transformer一個最大的特點就是引入了注意力機制,革新了自然語言處理(NLP)領域,并且迅速成為許多先進AI應用的核心組件,如機器翻譯、文本生成、問答系統等。此外,將多頭注意機制合并到Transformer架構中允許所得到的模型同時使用幾個獨立的自注意頭,從而促進并行學習大量不同的注意子空間。
Transformer 的核心原理其實就是以下這條公式:
在這里插入圖片描述

T5(2019): T5是由谷歌研究院開發的一種基于Transformer架構的模型,專門設計用于各種文本到文本的任務,采用了編碼器-解碼器框架。與BERT和GPT等其他流行的預訓練語言模型不同,T5將所有自然語言處理任務統一為文本到文本的形式,這使得它能夠更加靈活地處理廣泛的任務類型。
在這里插入圖片描述
GPT-3(2020):GPT-3是由OpenAI開發的第三代生成式預訓練Transformer模型,采用了Transformer-Decoder架構。它代表了自然語言處理領域的一個重大進展,因其龐大的規模和出色的文本生成能力而廣受關注。

CPM-2 (2021): CPM-2與其前身基于純解碼器架構的CPM不同,采用了傳統Transformer模型的編碼器-解碼器框架。CPM-2由兩個不同的版本組成:標準的CPM-2版本擁有110億個參數,而其混合專家(MoE)版本擁有前所未有的規模,擁有1980億個參數。CPM-2的核心創新在于其具有成本效益的設計;它采用知識繼承策略,利用預訓練語言模型的現有知識,促進CPM-2的訓練過程。此外,它利用了提示調諧,與微調相比,這種方法只需要更新模型參數的0.01%,但仍然能夠達到與完全微調相當的性能。

PaLM (2022): PaLM是具有多種參數尺度的純解碼器Transformer語言模型,包括80億、620億和5400億參數的模型。該模型是在一個龐大的數據集上進行預訓練的,總計7800億個token,其中一半這些數據由社交媒體對話組成,27%來自網頁內容,其余部分包括書籍和代碼等來源。PaLM的創新之處在于其利用Pathways系統進行大規模預訓練,促進了TPU v4集群內多個pod的協同計算,實現了模型參數的同步更新,實現了高效并行處理,顯著降低了時間成本。在評估方面,在BIG-bench上進行的實驗表明,具有5400億個參數的PaLM版本在短時學習能力上超過了最先進的模型,如GPT-3、Gopher和Chinchilla。此外,該模型在大多數被評估任務上的表現超過了人類的平均水平。

OPT (2022): OPT模型經歷了GPT-3 175B的全尺寸復制。采用相同的純解碼器架構,并保持相同的最大參數數量1750億。重要的是,該團隊已經向開源社區完整地發布了OPT模型權重、代碼和訓練日志。OPT使用的預訓練語料庫完全由可公開訪問的數據組成,總計約180億個token。它集成了RoBERTa、the Pile和PushShift.io Reddit語料庫。OPT和GPT-3在16個數據集上進行了比較,包括零樣本、多樣本和對話實驗。結果表明,OPT的性能與GPT-3大致相當。此外,該團隊還分析了OPT的局限性,例如它對說明性指令的次優響應以及產生有害或歧視性內容的可能性。

LLaMA(2023)::LLaMA是由Meta AI開發的一系列大型語言模型,采用了純解碼器的transformer架構,利用了自注意力機制來捕捉文本中的長距離依賴關系。此外,它還采用了多種優化技術以提高訓練速度和推理效率。LLaMA展示了出色的零樣本、少樣本學習能力,可以在沒有或僅有少量額外訓練的情況下完成各種復雜的NLP任務。例如,它可以進行高質量的文本摘要、對話生成、代碼編寫等。

PanGu-Σ(2023)::PanGu-Σ 是由華為研發的大型預訓練語言模型,它代表了中國企業在自然語言處理領域的重要進展。PanGu-Σ 擁有超過2000億個參數,這使得它成為全球已知的最大規模之一的語言模型之一。這種龐大的參數量有助于提高模型在復雜任務上的表現,如多步推理、長文本生成等。PanGu-Σ 特別注重對中文的支持,使用了大量的中文語料庫進行預訓練,包括但不限于新聞、書籍、維基百科等內容。這使得它在處理中文相關的任務時表現出色,例如中文文本生成、問答系統、機器翻譯等。

在這里插入圖片描述

2.多模態大模型

隨著大語言模型的興起,多模態大模型(Large Multimodal Models,lmm)成為一個熱門的研究課題,多模態大模型是指能夠處理和理解來自多種不同數據類型或模態(如文本、圖像、音頻、視頻等)的大型預訓練模型。這些模型利用LLM作為中心樞紐來處理多模態任務,從單一的文本模態擴展到包括圖像、音頻和視頻等模態,通過整合不同模態的信息,提供了比單一模態模型更豐富和全面的數據表示,從而能夠在多種任務中得到出色的表現。

2.1.LMM的結構

多模態大模型通常由以下五個部分組成,分別是多模態編碼器、輸入模態對齊器、預訓練的LLM主干、輸出模態對齊器和多模態解碼器。

多模態編碼器旨在從多種輸入模態(如文本、圖像、視頻和音頻)中提取特征。在lmm的背景下,預訓練編碼器通常使用其參數凍結,以利用其特征提取能力。

輸入模態對齊器負責將由多模態編碼器提取的來自不同模態的特征向量對齊到文本特征空間,然后將它們轉換為與LLM兼容的特征表示。在這種情況下使用的主要輸入模態對齊器包括線性映射器、多層感知機(MLP)、Querying-Transformer、Prompting-Transformer、多尺度查詢Transformer和交叉注意層。

上游LMM使用預訓練或微調的LLM作為主干,這是LMM架構的核心。上游LLM主干接收對齊的多模態輸入,利用其在文本特征空間中的理解、推理和生成能力來生成文本輸出或指令token。這些指令token響應用戶提供的提示,并用于引導其他組件執行更復雜的跨模態任務。

輸出模態對齊器與輸入模態對齊器相比,輸出模態對齊器將上游LLM主干產生的指令token映射為與解碼為目標非語言模態兼容的特征表示。常用的輸出模態對齊器包括線性對齊器、多層感知機(MLP)和帶Encoder-Decoder結構的Transformer。

多模態解碼器是指對經過輸出模態對齊器后處理的特征進行解碼的組件。其目的是生成各種目標模態的輸出,不同的多模態內容類型采用不同的解碼器選項。

2.2.LMM的訓練

LMM的訓練不包含多模態編碼器、上游LLM骨干和多模態解碼器這些預訓練組件,而僅需要分別訓練輸入模態對齊器和輸出模態對齊器。LMM的訓練目標有兩個,第一是通過輸入模態對齊器將多模態輸入對齊到文本特征空間中,第二是通過訓練輸出模態對齊器將指令 token 映射回生成器可理解的特征來確保多模態輸出的質量。

2.3.LMM的指令調優

在這里插入圖片描述

指令調優最初是在FLAN中引入的一種訓練技術,涉及使用包含特定格式指令的小型專業化數據集對預訓練的大語言模型進行精煉。該技術旨在以減少的數據集規模和更少的參數更新,實現微調和提示的效果,從而增強模型理解人類指令的能力,并提高其零樣本性能。

許多單模態大語言模型(如 GPT-3 、InstructGPT 、T0 )上的指令調優的成功也可以擴展到多模態領域。目前,多模態指令調優數據集主要采用三種構建形式:數據集適配、自我指令合成以及兩者的結合。

  • 數據集適配(dataset Adaptation):數據集適配以低成本和高速度的特點調整現有大規模標注數據集的格式,從而創建合適的指令數據。這種方法已被 MiniGPT-4和 InstructBLIP 等模型采用。然而,它依賴于人工干預,并且通過直接采用或淺層次修改原始注釋的方法缺乏新穎性,這使得其在廣泛推廣到新場景時可能存在缺陷。
  • 自我指令合成(Self-Instruction Synthesis):自我指令合成利用了大語言模型(LLM)的理解和生成能力,通過少量手動標注的模板樣本指導像 GPT-4 這樣的大型語言模型重構現有的標注數據集,以創建指令數據。Shikra、VideoChat和 LLaVAR 等模型采用了這種方法。它具有靈活的數據生成機制,確保了指令數據的多樣性和對現實世界情境的泛化能力。然而,依賴于 LLM 的LMM也引入了與這些模型相關的固有幻覺問題。

2.4.LMM的提示工程

在大模型中,提示工程為了避免更新模型參數,通過使用提示token來優化大模型的性能。而在多模態大模型中,提示工程將大語言模型的上下文學習和思維鏈演變為多模態上下文學習和多模態思維鏈范式。

  • 多模態上下文學習:大語言模型利用上下文學習技術,使他們能夠在推理階段實現與微調相當的幾次性能,這僅僅依賴于下游任務的少量演示。而在多模態大模型中,通過提供跨模態的演示,將上下文學習擴展到多模態上下文學習時,可以提高性能。
    在這里插入圖片描述

  • 多模態思維鏈:思維鏈的概念最初是作為大語言模型中一種處理復雜推理任務的技術而出現的。它促使語言模型將復雜問題分解為一系列子問題并迭代求解,從而顯著提高LLM的性能。一些研究將單模態 CoT 推廣到了多模態 CoT(M-CoT),可以根據不同的提示范式分類,如零樣本 M-CoT、少樣本M-CoT 和微調 M-CoT。在零樣本 M-CoT下,不使用任何示例來引導 LMM 進行 CoT 過程;相反,在推理階段通過簡單的文本指令觸發模型的推理能力。少樣本 M-CoT類似于上下文學習,提供少量詳細說明中間推理步驟的示例。而微調M-CoT需要使用特定數據集對 LMM 的推理能力進行微調。通常,前兩種方法更適用于較大的 LLM,而后一種方法常用于較小的模型。關于模態對齊,M-CoT 可進一步分為翻譯映射和可學習映射。翻譯映射指的是將非文本模態輸入直接轉換為文本描述,通過“翻譯”有效地將非文本模態信息傳遞給文本模態,然后再參與 CoT 推理。不過這個過程不可避免地會丟失一些模態特定的信息。而可學習映射構建一個可訓練的模型,將其他模態的特征整合到文本特征空間中,形成聯合嵌入,這將作為輸入供 LLM 進行 CoT 推理。

2.5.LMM的分類

2.5.1.Image+Text to Text

在這里插入圖片描述

“圖像+文本到文本”模型也被稱為圖像理解模型,構成了LMM領域內研究最廣泛的一類模型。在目前主流的圖像理解模型中,CLIP-ViT是目前采用最廣泛的視覺編碼器,緊隨其后的是Eva-CLIP-ViT。這些編碼器明顯優于其他類型的視覺編碼器。這種優勢可能源于CLIP采用的對比學習范式,再加上它的4億個高質量圖像-文本對,這兩者共同賦予了它強大的視覺特征提取能力。

此外,線性映射器和交叉注意層經常被用作多模態對齊器,這可能是因為與P-former等對齊器相比,它們的結構簡單且性能效率高。還有一種方法是采用自定義的模態對齊器設計。例如,mPLUGOwl2引入了一種模態自適應模塊,旨在準確計算和比較共享語義空間內不同模態之間的相似性。與此同時,MobileVLM系列使用了輕量級下采樣投影器(LDP),與Q-former不同,它在架構輕量級的同時保持了視覺特征的空間位置信息。

對于上游LLM的偏好,Vicuna已經超過了LLaMA系列成為了主流選擇。Vicuna作為一種衍生模型,在ShareGPT.com的監督數據上進行微調,與LLaMA相比,表現出更優越的性能。這一現象闡明了圖像理解模型領域內的一種技術偏好,即傾向于結合輕量級、低訓練成本和高質量對話的LLM。

2.5.2.Video+Text to Text

在這里插入圖片描述

與圖像理解模型相比,用于視頻理解的“視頻+文本到文本”模型的數量相對較少。由于在處理視頻和圖像方面具有相似性,視頻理解模型也具有理解圖像的能力。

在圖像生成模型的背景下,CLIP ViT通常作為視覺編碼器組件的普遍選擇,Stable Diffusion模型主要用作視覺生成器。此外,上游大語言模型主干的選擇呈現出更高程度的多樣性,從Vicuna到LLaMA,甚至延伸到基于web的ChatGPT。這些模型的特點是實現方法更加多樣化。例如在Visual-ChatGPT和DiffusionGPT中,模型結構并不是端到端設計,而是整合ChatGPT來細化提示優化。

2.5.3.Image+Text to Text+Image

在這里插入圖片描述

“Image+Text to Text+Image”類別中的模型不應被視為單純的圖像生成模型,而應該被視為圖像編輯模型和生成模型。這類模型被賦予了對輸入圖像執行各種操作的能力,包括提取、注釋和分割,這導致它們被歸類為圖像處理模型。例如,CogCoM能夠執行裁剪和放大操作以獲取詳細的本地視覺內容,并且可以通過OCR識別圖像中的文本信息,同時基于視覺輸入進行推理。雖然圖像編輯并不等同于圖像生成,但它確實體現了LMM理解和操縱視覺輸入數據的能力。

2.5.4.Video+Text to Text+Video

在這里插入圖片描述

“視頻+文本到文本+視頻”模型可以概念化為視頻生成模型,例如CoDi-2、ModaVerse和NExT-GPT等模型體現了能夠理解或生成文本、音頻、圖像和視頻內容的“任意到任意”大型多模態模型。

在所使用的組件中,ImageBind是最常用的視覺編碼器,而LLaMA 2代表了上游LLM主干的普遍選擇。對于視頻生成器,主流的選擇是HuggingFace的ZeroScope系列開源模型,這是阿里巴巴DAMO研究院開發的視頻生成模型。該模型自動生成與用戶提供的文本描述一致的視頻,融合了視覺元素(場景)、音頻元素(音樂和音效)和字幕。此外,HuggingGPT采用了Visual-ChatGPT的設計理念,采用ChatGPT作為其上游LLM主干,對用戶提示進行理解、處理和細化。此外,它利用社區內各種現有外部模型的功能來促進多模態輸入-輸出交互。

目前,無論是基于LMM、Latent Diffusion models,還是基于gan,視頻生成模型都只能生成幾秒的視頻,并且在邏輯一致性和真實性方面都還存在不足。在此背景下,OpenAI于2024年2月推出了Sora模型,該模型通過理解文本描述,不僅可以生成長達一分鐘的高清視頻內容,而且還遵守現實世界的物理定律并保持邏輯連續性。但是,Sora模型的技術細節和內部工作原理都沒有公開披露,真實性仍然存疑。

4.總結

本文簡單回顧了從單模態大語言模型到多模態的發展軌跡,分別從兩者的結構、訓練、調優和提示工程等方面進行了詳細的介紹。大語言模型(LLM)的發展從基于文本的單一模態處理迅速擴展至多模態領域,催生了能夠理解和生成多種數據類型(如文本、圖像、音頻、視頻等)的大型多模態模型(LMM)。多模態大模型進一步推動了這一趨勢,通過整合不同模態的信息,實現了比單一模態模型更豐富全面的數據表示。在應用層面,LMM不僅限于“圖像+文本到文本”類別的圖像理解,還包括“視頻+文本到文本”、“圖像+文本到文本+圖像”和“視頻+文本到文本+視頻”的模型,展示了其在圖像編輯、視頻生成等領域的潛力。盡管當前的視頻生成模型在長度和邏輯一致性上仍存在局限,但諸如Sora這樣的新模型已經展現出突破性的進展,預示著未來多模態模型將在通用人工智能(AGI)發展中扮演重要角色。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/web/62350.shtml
繁體地址,請注明出處:http://hk.pswp.cn/web/62350.shtml
英文地址,請注明出處:http://en.pswp.cn/web/62350.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

https ssl免費證書申請,自動續期,acme、certd

本文為個人筆記,方便自己需要時查閱,同時提供出來給大家作為免費ssl證書自動續簽需求的一種參考 大部分免費證書的有效期僅有3個月,所以證書管理會涉及到自動續期管理的問題 一、acme證書 大佬們常用的證書證書申請管理方式,提…

uniapp的生命周期

在 UniApp 中,生命周期函數是指在組件(如頁面、視圖等)創建和銷毀過程中會自動觸發的一些函數。UniApp 提供了多種生命周期函數,幫助開發者在適當的時機進行相關的邏輯處理。 UniApp 的生命周期函數可以分為 頁面生命周期 和 組件…

unity打包到安卓幀率降低

這個問題遇到過很多次了我的做法就是直接設置Application.targetFrameRate60 參考

【Vue】v-model、ref獲取DOM

目錄 v-moel v-model的原理 v-model用在組件標簽上 方式 defineModel()簡寫 ref屬性 獲取原生DOM 獲取組件實例 nextTick() v-moel v-model:雙向數據綁定指令 數據變了,視圖跟著變(數據驅動視圖)視圖變了,數…

Kubernetes 常用操作大全:全面掌握 K8s 基礎與進階命令

Kubernetes(簡稱 K8s)作為一種開源的容器編排工具,已經成為現代分布式系統中的標準。它的強大之處在于能夠自動化應用程序的部署、擴展和管理。在使用 Kubernetes 的過程中,熟悉常用操作對于高效地管理集群資源至關重要。本文將詳…

sqlmap --os-shell的原理(MySQL,MSSQL,PostgreSQL,Oracle,SQLite)

1. MySQL 條件 數據庫用戶需要具備高權限(如 FILE 權限)。數據庫服務運行用戶需要對目標目錄有寫權限。Web 服務器有可寫目錄,且支持執行上傳的腳本(如 PHP、JSP 等)。 原理 利用 MySQL 的 SELECT ... INTO OUTFIL…

Springboot 2.x 升級到Springboot 2.7.x問題匯總

Springboot 2.x 升級到Springboot 2.7.x問題 Springboot 2.x 升級到Springboot 2.7.x問題匯總 不廢話 上干貨 改變 1.mysql依賴groupId和artifactId更改&#xff1b; <dependency><groupId>com.mysql</groupId><artifactId>mysql-connector-j</…

【計算機網絡】實驗13:運輸層端口

實驗13 運輸層端口 一、實驗目的 本次實驗旨在驗證TCP和IP運輸層端口號的作用&#xff0c;深入理解它們在網絡通信中的重要性。通過實驗&#xff0c;我將探討端口號如何幫助區分不同的應用程序和服務&#xff0c;使得在同一臺主機上能夠同時運行多個網絡服務而不發生沖突。此…

【Redis】Redis基礎——Redis的安裝及啟動

一、初識Redis 1. 認識NoSQL 數據結構&#xff1a;對于SQL來說&#xff0c;表是有結構的&#xff0c;如字段約束、字段存儲大小等。 關聯性&#xff1a;SQL 的關聯性體現在兩張表之間可以通過外鍵&#xff0c;將兩張表的數據關聯查詢出完整的數據。 查詢方式&#xff1a; 2.…

vuex 是什么?怎么使用?哪種功能場景使用它?

Vuex是Vue.js的狀態管理庫。它可以用來管理應用程序中的共享狀態&#xff0c;并提供了一種集中式的方式來管理狀態的變化。 使用Vuex&#xff0c;首先需要安裝它&#xff1a; npm install vuex --save然后&#xff0c;在Vue應用程序的入口文件中&#xff0c;導入Vuex并在Vue實…

ElK 8 收集 MySQL 慢查詢日志并通過 ElastAlert2 告警至飛書

文章目錄 1. 說明2. 啟個 mysql3. 設置慢查詢4. filebeat 設置5. 觸發慢查詢6. MySQL 告警至飛書 1. 說明 elk 版本&#xff1a;8.15.0 2. 啟個 mysql docker-compose.yml 中 mysql&#xff1a; mysql:# restart: alwaysimage: mysql:8.0.27# ports:# - "3306:3306&q…

PyTorch基本使用-張量的索引操作

在操作張量時&#xff0c;經常要去獲取某些元素進行處理或者修改操作&#xff0c;在這里需要了解torch中的索引操作。 準備數據&#xff1a; data torch.randint(0,10,[4,5]) print(data--->,data)輸出結果&#xff1a; data---> tensor([[3, 9, 4, 0, 5],[7, 5, 9, …

【服務器監控】grafana+Prometheus+node exporter詳細部署文檔

我們在進行測試時&#xff0c;不可能一直手動看著服務器的性能消耗&#xff0c;這時候就需要有個工具替我們監控服務器的性能消耗。這里記錄下grafanaPrometheusnodeExporter的組合用于監控服務器。 簡單介紹&#xff1a; grafana&#xff1a;看板工具&#xff0c;所有采集的…

第十七章 使用 MariaDB 數據庫管理系統

1. 數據庫管理系統 數據庫是指按照某些特定結構來存儲數據資料的數據倉庫。在當今這個大數據技術迅速崛起的年代&#xff0c;互聯網上每天都會生成海量的數據信息&#xff0c;數據庫技術也從最初只能存儲簡單的表格數據的單一集中存儲模式&#xff0c;發展到了現如今存儲海量…

Jenkins授權策略的配置

簡介:在Jenkins中,通過系統管理下的“Manage and Assign Roles”以及“Manage Roles”來配置角色,是實現權限管理的關鍵步驟。以下是關于這兩個功能配置角色時的意義及注意事項的詳細解釋: 一、配置角色的意義 實現權限控制: 通過創建和分配角色,可以精確地控制不同用戶…

centos 7.9 安裝jdk1.8 mysql redis等

環境&#xff1a; centos 7.9 1、安裝OpenJDK 1.8 步驟 1: 更新系統 首先&#xff0c;確保你的系統是最新的&#xff0c;執行以下命令來更新所有軟件包&#xff1a; sudo yum update -y步驟 2: 安裝 OpenJDK 1.8 CentOS 7 默認的包管理器是 yum&#xff0c;你可以通過以下命…

計算機鍵盤的演變 | 鍵盤鍵名稱及其功能 | 鍵盤指法

注&#xff1a;本篇為 “鍵盤的演變及其功能” 相關幾篇文章合輯。 英文部分機翻未校。 The Evolution of Keyboards: From Typewriters to Tech Marvels 鍵盤的演變&#xff1a;從打字機到技術奇跡 Introduction 介紹 The keyboard has journeyed from a humble mechanical…

Methods and Initializers

1 Method Declarations 這回不從comipler開始&#xff0c;從runtime開始。 GC也需要follow 接下來難點在于如何填充這些表 2 Compiling method declarations 難點&#xff1a; 一個類可以聲明任意數量的方法。運行時需要查找并綁定所有這些方法。如果將這些方法都打包到一條…

飛飛5.4游戲源碼(客戶端+服務端+工具完整源代碼+5.3fix+5.4patch+數據庫可編譯進游戲)

飛飛5.4游戲源碼&#xff08;客戶端服務端工具完整源代碼5.3fix5.4patch數據庫可編譯進游戲&#xff09; 下載地址&#xff1a; 通過網盤分享的文件&#xff1a;【源碼】飛飛5.4游戲源碼&#xff08;客戶端服務端工具完整源代碼5.3fix5.4patch數據庫可編譯進游戲&#xff09; 鏈…

開源C代碼之路:一、Gitee

開源c代碼之路&#xff1a;一&#xff0c;Gitee 前言1、開源項目2、從哪里找&#xff1f;3、舉個例子4、總結&#xff1a; 本系列回顧清單開源代碼示例 前言 從開源開發的角度&#xff0c;由淺入深&#xff0c;一步步初探C語言編程的入門之路。 本篇講解&#xff1a;Gitee 1…