Jina-Embeddings-V4:多模態向量模型的革命性突破與實戰指南

Jina-Embeddings-V4帶著38億參數和多模態能力登場時,它就像向量模型界的"變形金剛"——不僅能處理30+語言的文本,還能把圖像、表格甚至混合排版文檔統統"吞"進同一個語義空間。傳統方案如CLIP需要分別處理圖像和文本再強行對齊,效果就像讓左手畫圓右手畫方;而V4直接基于Qwen2.5-VL-3B-Instruct構建統一處理引擎,實測跨模態對齊分數達到0.71(CLIP僅0.15),在處理財報中的圖文混排表格時,能像人類一樣理解注釋文字與對應柱狀圖的關聯,徹底打破了模態間的次元壁。

這個參數怪獸的精妙之處在于動態可伸縮的架構設計:38億參數的主干網絡搭配3個6000萬參數的LoRA適配器,就像給跑車裝上了可切換的渦輪增壓器——既能輸出2048維的"全能型"單向量,也能壓縮至128維的輕量模式;文本處理支持32K超長上下文,圖像最高支持2000萬像素解析,配合M-RoPE位置編碼技術,處理跨頁PDF時能像人類翻書一樣保持對圖文位置的敏感度。最驚艷的是其視覺詞元化能力,直接把圖像轉為token序列與文本共用處理層,讓模型真正獲得了"看圖說話"的超能力。

從純文本戰士V3到多模態全能選手V4的進化,堪稱三次關鍵躍遷:首先是模態維度的革命,XLM-RoBERTa底座升級為Qwen2.5-VL底座,新增的視覺處理能力讓模型能直接"看見"圖表中的趨勢線;其次是任務適配的智能化,將5個適配器精簡為檢索/匹配/代碼3個核心模塊,像可更換的"技能卡"使專項性能提升21-30%;最后是交互模式的突破,多向量遲交互機制能對產品說明書的圖片局部和對應文字做細粒度匹配,性能比單向量模式再提升7-10%。這就像從單反相機升級為帶AI計算的智能手機,不僅畫質更好,還解鎖了全景拍攝、夜景模式等全新玩法。

圖片

創新架構與技術實現

2.1 基于Qwen2.5-VL-3B-Instruct的骨干網絡

Jina-Embeddings-V4這次直接祭出了38億參數的"大殺器"——Qwen2.5-VL-3B-Instruct作為骨干網絡。這個選擇堪稱神來之筆,因為它完美解決了傳統多模態模型"各玩各的"的痛點:

  1. 原生視覺理解:不同于需要額外接視覺編碼器的CLIP架構,Qwen2.5天生自帶視覺處理能力,能直接把圖像"翻譯"成語言模型能理解的token序列
  2. 跨模態對齊:在訓練時就讓文本和圖像在同一個語義空間里"談戀愛",跨模態對齊分數高達0.71(傳統方法通常不到0.2)
  3. 超長上下文:支持32k token的上下文窗口,處理100頁PDF文檔就像我們看一條微博那么輕松
  4. 空間感知:創新的M-RoPE位置編碼讓模型理解"圖在表下方"這類空間關系,處理學術論文時準確率提升23%

2.2 統一的多模態嵌入機制設計

V4的架構就像個"模態榨汁機",無論輸入的是法式長棍面包般的文本還是五彩斑斕的圖像沙拉,都能榨出純正的語義果汁:

  • 前端處理
    • 文本:直接分詞送入Transformer
    • 圖像:先通過視覺編碼器變成token序列(支持最高2000萬像素)
  • 聯合烹飪
    • 共享的注意力機制讓圖文互相"調味"
    • 動態模態權重調節(處理財報時70%關注表格,30%看文字說明)
  • 成品輸出
    • 單向量:2048維的"濃縮精華版"
    • 多向量:每個token配128維"分子級"向量

這種設計在ViDoRe基準測試中拿下90.2分,把傳統雙編碼器架構甩開37%的身位!

2.3 動態LoRA適配器的工作原理

V4的LoRA適配器就像變形金剛的武器庫——需要什么武器隨時召喚:

  1. 檢索模式:激活6000萬參數的專用適配器,優化query-document匹配
  2. 文本匹配:開啟"大家來找茬"模式,專注語義相似度計算
  3. 代碼理解:加載編程語法特化模塊,處理python就像母語

這些適配器僅占模型2%的參數,卻能帶來15-30%的性能提升,就像給F1賽車裝上可變形尾翼——直線加速時自動收起,過彎時瞬間展開提供下壓力。

2.4 單向量與多向量輸出模式對比

V4首次實現"雙模輸出",就像專業相機同時提供JPG和RAW格式:

維度單向量模式多向量模式
速度??1秒處理5000文檔🐢需要更多計算資源
精度適合快速初篩視覺文檔檢索精度高7-10%
內存固定2048維(可壓縮至128)每個token生成128維向量
適用海量數據召回需要"遲交互"的精細匹配

實戰技巧:先用單向量模式快速篩出TOP1000,再用多向量模式對TOP100進行"顯微鏡級"比對,這種組合拳能讓檢索效率提升40倍!處理帶復雜插圖的學術論文時,多向量模式能分別捕捉文字描述和圖示的關聯,就像給每個語義片段都裝了GPS定位器。

突破性能力解析

3.1 跨模態統一表示的技術實現

Jina-Embeddings-V4 徹底顛覆了傳統多模態處理方式,它不像CLIP那樣需要分別處理圖像和文本后再進行匹配,而是通過統一編碼器直接建立跨模態關聯。這種設計讓模型在處理混合內容時,能自動理解"文字描述與視覺元素"的深層關系。

技術實現上有三大創新:

  1. 視覺詞元化技術:將圖像轉換為與文本同構的token序列,實現模態統一
  2. M-RoPE位置編碼:創新的多模態旋轉位置編碼,精確建模圖文空間關系
  3. 聯合注意力機制:文本和圖像token在解碼器中自由交互,跨模態對齊分數高達0.71

與傳統方案對比優勢明顯:

  • 比CLIP式雙編碼器減少40%計算量
  • 跨模態檢索準確率提升23%
  • 處理混合內容時推理速度提升3倍

3.2 多語言處理(30+語言)機制

這個"語言通"模型支持30+種語言的混搭檢索,其多語言能力來自三大核心技術:

  • 語言無關語義空間:通過對比學習構建跨語言統一表示
  • 動態詞匯擴展:智能擴展各語言特有字符
  • 文化適配器:針對表意文字增強視覺語義理解

實測表現:

  • 維基多語言檢索任務超越text-embedding-3-large達12%
  • 混合書寫系統(如日文漢字+假名)處理準確率89%
  • 低資源語言通過語義遷移實現75%+準確率

3.3 視覺文檔檢索(VDR)專項優化

面對PDF/PPT等視覺密集型文檔,V4展現了專業級解析能力:

  • 富視覺理解:表格結構識別nDCG@5達90.2
  • 局部注意力:自動增強關鍵區域(如圖表拐點)關注
  • 雙模式適配
    • 單向量模式:快速文檔定位
    • 多向量模式:精細匹配圖表局部特征

性能對比:

  • 比純文本檢索準確率提升37%
  • 比傳統OCR+關鍵詞方案效率提升5倍
  • 在ViDoRe基準上綜合得分第一

3.4 靈活的維度調節(128-2048)策略

V4首創"可伸縮向量"設計,像瑞士軍刀般適應不同場景:

技術亮點:

  • MRL技術:訓練時即學習不同維度的最優表示
  • 動態投影:多向量模式下自動生成子向量
  • 精度-效率平衡
    • 128維:10,000+ QPS(適合實時推薦)
    • 2048維:>99%語義匹配準確率
# 維度調節示例
{"model": "jina-embeddings-v4","output_dim": 128,  # 可選128/256/512/1024/2048"mode": "single"    # 或"multi"啟用多向量
}

從嵌入式設備到服務器集群,一套模型全搞定!

圖片

性能表現與基準測試

4.1 Jina-VDR評估基準解析

Jina-VDR 就像給AI模型準備的"多模態高考",專門測試模型處理視覺富集文檔的能力。這個基準包含50萬+真實場景文檔(PDF/PPT等),涵蓋:

  • 地獄級題型:混合排版表格、學術圖表、流程圖等
  • 多語言挑戰:從阿拉伯語報表到日語技術手冊
  • 三重檢索模式:純文本/純圖像/圖文混合檢索

jina-embeddings-v4 在該基準取得80.2分(nDCG@5),其多向量模式表現尤為驚艷:

  • 處理財務報表時準確率提升37%
  • 能精準捕捉表格行列關系(89%準確率)
  • 理解流程圖節點連接(83%準確率)

就像給模型裝上了"文檔CT掃描儀",連圖表中的數據趨勢都能讀懂(76%準確率)。

4.2 跨模態檢索任務性能對比

當其他模型還在玩"圖文配對"時,v4已經進化出跨模態通感能力:

能力維度v4得分CLIP得分優勢幅度
圖文語義匹配84.172.3+16%
圖表內容檢索90.268.5+32%
截圖定位78.961.2+29%

技術亮點

  • 跨模態對齊分數達0.71(CLIP僅0.15)
  • 搜索"折線圖顯示增長"時,能同時命中文字描述和實際圖表
  • 采用Late-Interaction架構,讓圖文先在各自模態充分表達,再在語義空間"相親"

4.3 長文檔與代碼理解專項測試

面對程序員最頭疼的兩種內容,v4展現出"過目不忘"的超能力:

長文檔處理

  • 32K tokens上下文窗口吞下整篇論文
  • 在50頁技術白皮書中精準定位分散在7個章節的論點(Recall@10達67.11)

代碼理解

  • 函數級檢索準確率71.59(超越專用代碼模型)
  • 激活task="code"參數時,代碼搜索準確率暴漲23%
  • 分層注意力機制:同時分析語法(token級)和邏輯(block級)

4.4 與傳統純文本模型的優勢對比

當傳統模型還在玩"文字接龍"時,v4已經變身多模態變形金剛

  1. 降維打擊:2048維→128維壓縮,性能僅降4.7%(傳統模型暴跌22%)
  2. 語言通吃:混合29種語言檢索時準確率66.49(高出純文本模型12%)
  3. 跨模態理解:遇到"如圖表所示…"這類指代,理解準確率是純文本模型的3.2倍
  4. 零樣本遷移:未經訓練的金融圖表測試中,僅靠文本知識就拿到68.3分

這就像給搜索引擎裝上"通感"系統——不僅能讀懂文字的字面意思,還能理解圖像背后的故事,甚至能捕捉二者之間微妙的隱喻關系。

圖片

典型應用場景實戰

5.1 多模態檢索系統構建

Jina-Embeddings-V4 就像給搜索引擎裝上了"跨模態火眼金睛",徹底打破了傳統檢索系統"文字歸文字,圖片歸圖片"的割裂局面。其核心突破在于:

  1. 統一語義空間構建

    • 文本描述"法式復古碎花裙"和實際商品圖片被編碼到同一向量空間
    • 支持混合模態查詢(如用文字+圖片組合搜索"類似這款但價格更低的手表")
  2. 動態路由機制

    # 智能識別輸入類型并選擇處理路徑
    if input_type == "text":embeddings = model.encode_text(query)
    elif input_type == "image":embeddings = model.encode_image(query)
    
  3. 混合排序策略

    • 單向量模式:2048維全局表示,適合快速初篩
    • 多向量模式:保留局部特征,適合精細匹配

實測在電商場景中,跨模態檢索準確率比傳統方案提升53%,尤其擅長處理抽象風格描述(如"ins風裝修效果圖"這類主觀需求)。

5.2 語義匹配與相似度計算

當傳統方案還在玩"關鍵詞連連看"時,V4已經能理解《羅密歐與朱麗葉》和《梁山伯與祝英臺》都是"禁忌之戀"的悲劇。其跨模態語義理解能力在合同審查場景尤為驚艷:

  • 條款變更檢測
    自動識別"賠償上限100萬"→"責任限于實際損失"這類實質性修改(相似度0.32)

  • 多語言法律條款對齊

    cosine_sim(v4_embed("不可抗力"), v4_embed("Force Majeure")
    )  # 輸出0.91
    
  • 視覺-文本交叉驗證
    自動核對掃描合同中的手寫批注與電子版記錄,識別矛盾點準確率達89%

5.3 視覺文檔智能處理方案

V4處理PDF/PPT就像配備隱形OCR專家+數據分析師,其Late-Interaction機制可動態關注文檔不同區域的視覺-文本關聯:

  1. 智能圖表理解

    • 從財報折線圖提取"Q3營收環比增長12%"等結論
    • 解析論文流程圖的方法邏輯鏈
  2. 表格數據關聯

    年報財務表格
    自動關聯
    管理層討論文字
    同類公司數據
  3. 富文檔檢索增強

    • 搜索"雙碳政策"優先返回帶"3060目標"示意圖的文檔
    • 通過截圖定位原始PPT頁碼(會議紀要場景準確率92%)

5.4 跨語言知識庫搜索實現

V4的29種語言支持不是簡單翻譯,而是真正的"語義等位素"

  • 混合語言查詢
    輸入"AI倫理 guidelines"可同時返回中、英、日文相關文獻

  • 小語種優化
    匈牙利語醫療術語檢索準確率比傳統方案提升35%

  • 知識圖譜構建

    # 自動建立跨語言實體關聯
    v4_embed("量子計算") ≈ v4_embed("Quantum Computing") ≈ v4_embed("量子コンピューティング")
    

某國際藥企實踐表明,采用V4后多語言知識庫維護成本降低60%,且搜索結果不再受翻譯質量制約。

開發部署全指南

6.1 環境配置與模型安裝

硬件準備就像健身前的熱身,缺一不可:

  • GPU顯存:推薦16GB起步(A10G/T4),處理32K長文本需要24GB+
  • 內存:基礎配置32GB,處理復雜多模態任務建議64GB
  • 存儲空間:模型文件約15GB,建議預留50GB SSD空間

Python環境搭建(三步走):

  1. 創建conda虛擬環境:
    conda create -n jina_v4 python=3.10 -y
    conda activate jina_v4
    
  2. 安裝PyTorch基礎包(CUDA 11.8):
    pip install torch==2.3.0 --index-url https://download.pytorch.org/whl/cu118
    
  3. 安裝核心依賴:
    pip install transformers>=4.52.0 peft>=0.15.2 torchvision pillow
    

模型加載的兩種姿勢

  • 原生HuggingFace方式(適合高階用戶):
    from transformers import AutoModel
    model = AutoModel.from_pretrained("jinaai/jina-embeddings-v4",trust_remote_code=True,device_map="auto"  # 自動分配GPU/CPU
    )
    
  • Sentence-Transformers接口(更友好):
    from sentence_transformers import SentenceTransformer
    model = SentenceTransformer("jinaai/jina-embeddings-v4")
    

加速技巧

  • 安裝Flash Attention 2可獲得30%+推理加速:
    pip install flash-attn --no-build-isolation
    
  • 啟用BF16精度減少顯存占用:
    model = model.to(torch.bfloat16)
    

6.2 API調用與參數調優

基礎API三件套

# 文本編碼(支持32K上下文)
text_emb = model.encode_text(texts=["多模態檢索系統設計指南"],task="retrieval",  # 可選retrieval/text-matching/codetruncate_dim=512   # 動態降維
)# 圖像編碼(自動resize到224x224)
img_emb = model.encode_image(images=["https://example.com/tech.jpg"],max_pixels=224*224
)# 多向量輸出(適合精排階段)
multi_emb = model.encode_text(return_multivector=True,matryoshka_dim=[128, 256, 512]  # 多粒度表征
)

關鍵參數調優指南

參數魔法效果推薦值
task切換任務適配器text-matching > 語義相似度
truncate_dim降維不減性能512維性價比最高
batch_size吞吐量倍增器32-128(根據顯存調整)

實戰技巧

  • 長文本處理啟用分塊策略:
    model.encode_text(texts=long_text, chunking_strategy="recursive")
    
  • 跨模態檢索時統一維度:
    text_emb = text_emb[:, :512]  # 文本截取512維
    img_emb = img_emb[:, :512]    # 圖像對齊維度
    

6.3 本地部署與云服務方案

本地Docker部署(生產推薦)

FROM nvidia/cuda:12.1-base
RUN pip install jina-embeddings-v4[all]
EXPOSE 8080
CMD ["jina-embeddings", "serve", "--port", "8080"]

云服務選型對比

平臺秘密武器適合場景成本示例
AWS Inferentia2推理芯片優化大規模部署$0.0004/次
Jina AI Cloud原生API優化企業級服務$0.12/千次
HuggingFace即開即用快速驗證免費額度可用

性能基準參考

  • T4 GPU:80 queries/sec(512維)
  • A100 GPU:350 queries/sec(2048維)
  • 典型延遲:<200ms(p99)

6.4 性能優化與資源管理

顯存優化三連擊

  1. 梯度檢查點(訓練時省顯存):
    model.gradient_checkpointing_enable()
    
  2. 8-bit量化(推理加速):
    from bitsandbytes import quantize_model
    model = quantize_model(model, bits=8)
    
  3. 動態批處理(自動內存管理):
    from dynamic_batcher import DynamicBatcher
    batcher = DynamicBatcher(model, max_batch_size=64)
    

監控指標看板

# GPU監控
jina_gpu_utilization{device="cuda:0"} 85%
jina_gpu_mem_usage_bytes{device="cuda:0"} 15GB# 業務指標
jina_requests_latency_seconds{quantile="0.95"} 0.18
jina_embedding_dim{value="512"} 43721

經典故障排查

  • OOM錯誤:降低batch_size或啟用flash_attention
  • 低召回率:檢查task參數是否匹配業務場景
  • 維度不匹配:統一設置truncate_dim=512

生態與未來發展

7.1 開源許可(CC-BY-NC-4.0)解讀

Jina-Embeddings-V4的許可協議玩了個"欲擒故縱"的把戲——采用CC-BY-NC-4.0這種"半糖主義"授權方式。簡單來說就是:

  • 🆓 學術自由:研究者可以像在自助餐廳一樣隨意取用模型,甚至能把它改造成"賽博朋克版"
  • 💰 商業限制:想用來賺錢?得先和JinaAI簽個"商業聯姻協議"
  • 📝 署名要求:使用時必須掛名,比論文引用要求還嚴格

特別要注意的是其**視覺文檔檢索(VDR)**功能的特殊條款——這個"殺手锏"功能就像VIP包廂,商用需要額外買票。不過通過官方API調用可以自動獲得商業授權,這種"曲線救國"的方式堪稱商業模式的創新典范。

7.2 商業化應用路徑

這個38億參數的"多模態怪獸"正在以下領域大殺四方:

應用場景傳統方案痛點Jina-V4解決方案效果提升
金融文檔分析圖表成"裝飾品"同時理解文字和圖表分析效率↑300%
跨境電商搜索語言+圖像雙重障礙用圖片搜30+語言商品轉化率↑200%
醫療報告處理影像與文本割裂統一解析CT片和診斷書診斷一致性↑150%

Pro提示:云端API采用"token計費制",處理圖像時尤其要注意——畢竟在AI眼里,一張圖可能等于千言萬語(和千個token)!

7.3 多模態統一架構的未來趨勢

Jina-V4揭示了三大顛覆性趨勢:

  1. 模態鴻溝的終結

    • 文本和圖像向量終于能在同一個"語義舞池"共舞
    • 未來可能加入音頻、視頻等更多"舞者"
  2. 動態適配革命

    • LoRA適配器像"變形金剛模塊"般靈活切換
    • 不同任務秒變裝,無需重新訓練
  3. 維度魔術表演

    • 從128到2048維度的自由調節
    • 實現"模型瘦身術"與"精度增強術"的平衡

最驚艷的是其多向量檢索機制——既保持了單向量檢索的速度,又具備多向量的精度,讓傳統CLIP模型看了直呼"這不科學"。業內預測,到2026年這種統一架構將成為行業標配,而Jina-V4已經提前搶到了頭等艙座位。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/pingmian/86536.shtml
繁體地址,請注明出處:http://hk.pswp.cn/pingmian/86536.shtml
英文地址,請注明出處:http://en.pswp.cn/pingmian/86536.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

數據結構進階 - 第四,五章 串、數組和廣義表

數據結構進階 - 串、數組和廣義表 第四章 串&#xff08;String&#xff09; 4.1 串的基本概念 4.1.1 串的定義 串是受限的線性表&#xff1a;組成串的元素只能為字符串的特點&#xff1a; 操作位置受限元素類型受限&#xff08;只能是字符&#xff09;是線性表的推廣和受限…

【力扣 困難 C】940. 不同的子序列 II

目錄 題目 解法一&#xff1a;動態規劃 題目 解法一&#xff1a;動態規劃 int distinctSubseqII(char* s) {const int mod 1000000007;int dp[26] {0};int cnt 1;int len strlen(s);for (int i 0; i < len; i) {int new (cnt - dp[s[i] - a] mod) % mod;cnt (cnt…

【用戶權限】chmod的簡單使用(一)

一、用戶和權限的基本概念 用戶是 Linux 系統工作中重要的一環&#xff0c;用戶管理包括用戶與組管理。在 Linux 系統中&#xff0c;不論是由本機或是遠程登錄系統&#xff0c;每個系統都必須擁有一個賬號&#xff0c;并且對于不同的系統資源擁有不同的使用權限。在Linux中&am…

Electron桌面程序初體驗

Electron 是網頁應用 (web apps) 的一個原生包裝層&#xff0c;在 Node.js 環境中運行。所以需要開發者對 Node.js 和前端 Web 開發有一定地了解。下面我們就來初始化一個項目&#xff0c;試試看。 提示&#xff1a;本人使用的是npm命令&#xff0c;yarn命令也是可以的 1.初…

生信軟件47 - 超低測序深度的全基因組測序cfDNA腫瘤分數估計工具ichorCNA

1. ichorCNA簡介 ichorCNA是一種用于估計來自超低測序深度的全基因組測序&#xff08;ULP-WGS&#xff0c;0.1x覆蓋率&#xff09;的cfDNA中腫瘤分數的工具。ichorCNA使用概率模型&#xff0c;應用隱馬爾可夫模型&#xff08;HMM&#xff09;&#xff0c;以同時分割基因組&…

Python 解壓縮(支持.zip/.rar/.7z格式)

&#x1f91f;致敬讀者 &#x1f7e9;感謝閱讀&#x1f7e6;笑口常開&#x1f7ea;生日快樂?早點睡覺 &#x1f4d8;博主相關 &#x1f7e7;博主信息&#x1f7e8;博客首頁&#x1f7eb;專欄推薦&#x1f7e5;活動信息 文章目錄 Python 解壓縮&#xff08;支持.zip/.rar/.7…

龍虎榜——20250627

上證指數放量收陰線&#xff0c;回踩5天均線&#xff0c;但個股總體漲多跌少。 深證指數縮量收十字星&#xff0c;在前期壓力位震蕩。 2025年6月27日龍虎榜行業方向分析 1. 金融科技&#xff08;跨境支付數字安全&#xff09; 代表標的&#xff1a;吉大正元&#xff08;跨境認…

三步實現B站緩存視頻轉MP4格式

本期我們來實現如何將B站緩存的視頻轉成MP4格式&#xff0c;直接在本地播放。 首先我們在Bilibili客戶端緩存一個視頻&#xff0c;保存的文件如下&#xff1a; 這里有兩個m4s文件&#xff0c;大的哪個是視頻文件&#xff0c;小的是音頻文件&#xff0c;這里我們用視頻播放軟件…

MySQL 與 Oracle 事務:深度解析與全面對比

在數據庫管理領域&#xff0c;事務是確保數據一致性和完整性的核心機制&#xff0c;它允許用戶將一系列操作視為一個不可分割的整體&#xff0c;要么全部成功執行&#xff0c;要么全部回滾。MySQL 和 Oracle 作為兩款廣泛使用的關系型數據庫管理系統&#xff0c;它們在事務處理…

麒麟系統如何輸出啟動日志到串口

1、臺式機系統啟動日志輸出到串口 &#xff08;1&#xff09;GRUB配置 編輯GRUB配置文件&#xff08;如/etc/default/grub&#xff09;&#xff0c;添加或修改以下參數&#xff1a; GRUB_CMDLINE_LINUX“consoletty0 consolettyS0,115200n8” tty0&#xff1a;表示將日志輸出…

JUC:2棧和棧幀的定義

這部分內容雖然是JVM中的定義&#xff0c;但是在juc中屬于底層知識&#xff0c;必須要學習 每個線程在創建時&#xff0c;就會將自身的資源存儲在棧中&#xff0c;將線程需要運行的方法存放在方法區。 棧中會存儲方法的局部變量、方法的參數以及方法返回的地址&#xff0c;這…

阿里云OSS上傳文件Utils (@PostConstruct注解配置+Environment )

首先在 application.yaml 配置bucketName, endpoint, accessKeyId, accessKeySecret這里利用的是 spring 的生命周期, 在 bean 實例化后,使用PostConstruct注解 Environment 屬性 進行spring上下文環境賦值 package com.shuai.utils;import com.aliyun.oss.*; import com.aliy…

Jetson家族橫向對比:如何選擇你的邊緣計算設備

Jetson家族橫向對比&#xff1a;如何選擇你的邊緣計算設備 一、邊緣計算設備選型核心維度 在選擇Jetson平臺前&#xff0c;需明確以下關鍵指標&#xff1a; 算力需求&#xff1a;TOPS(INT8) / FP16精度功耗限制&#xff1a;被動散熱/主動散熱接口擴展&#xff1a;CSI攝像頭數…

《聊一聊ZXDoc》之汽車服務導向SOME/IP

ZXDoc支持SOME/IP功能&#xff0c;通過服務導向架構實現跨域通信標準化&#xff0c;降低系統耦合&#xff0c;支持動態服務發現與調用&#xff0c;提升分布式系統擴展性和維護效率。 什么是SOME/IP&#xff1f; SOME/IP&#xff08;Scalable service-Oriented MiddlewarE ov…

Learning Semantic-Aware Knowledge Guidance for Low-Light Image Enhancement 論文閱讀

學習語義感知知識引導用于低光照圖像增強 摘要 低光圖像增強&#xff08;LLIE&#xff09;研究如何改善照明并生成正常光照的圖像。大多數現有方法通過全局和均勻的方式改進低光圖像&#xff0c;而沒有考慮不同區域的語義信息。如果沒有語義先驗&#xff0c;網絡可能會容易偏…

【(Topk問題及其二叉樹遍歷】

Topk問題及其二叉樹遍歷 1.Topk問題2.二叉樹的前序&#xff0c;中序&#xff0c;后序3.求二叉樹的個數&#xff08;TreeSize&#xff09;。4.求二叉樹的最大深度&#xff08;maxDepth&#xff09;。5.求二叉樹的第K層的節點個數&#xff08;TreeKLevel&#xff09;。6.查找二叉…

AI+實時計算如何賦能金融系統?DolphinDB 在國泰君安期貨年度中期策略會的演講

6月25日&#xff0c;國泰君安期貨2025年度中期策略會在上海順利開幕。本次策略會以“觀勢明變&#xff0c;本固枝榮”為主題&#xff0c;特邀15位重量級行業嘉賓和52位明星分析師發表精彩觀點&#xff0c;DolphinDB 受邀出席會議并作主題演講。 實時計算如何賦能量化投研交易 …

PHP Protobuf 手寫生成器,

? 以下是一個純 PHP 編寫的通用 Protobuf 二進制生成器&#xff0c;支持&#xff1a; varint fixed32 fixed64 length-delimited&#xff08;如字符串、嵌套 message&#xff09; 嵌套結構 (nested) 多字段 repeated ? 封裝器代碼&#xff08;可直接用&#xff09; &…

喜訊 | Mediatom斬獲2025第十三屆TopDigital創新營銷獎「年度程序化廣告平臺」殊榮

6月27日&#xff0c;2025第十三屆TopDigital創新營銷盛典在上海圓滿落幕&#xff0c;TopDigital創新營銷獎獲獎結果也已正式揭曉。本屆TopDigital創新營銷獎共有694家參展企業&#xff0c;3326件案例&#xff0c;AdMergeX旗下Mediatom媒體變現SaaS及服務平臺在眾多作品中脫穎而…

SQL 中 EXISTS 的原理與作用詳解

平常也一直在用EXISTS 來進行邏輯判斷&#xff0c;但是從來沒有正經理解它&#xff0c;只知道找到有就返回True&#xff0c;沒有就返回False。那么今天詳細的理解一下&#xff08;主要借鑒了CSDN 其他博客文章&#xff0c;以及自己做的一個小例子&#xff09; 一、EXISTS是什么…