【硬核數學】2.3 AI的“想象力”:概率深度學習與生成模型《從零構建機器學習、深度學習到LLM的數學認知》

歡迎來到本系列的第八篇文章。在前七章中,我們已經構建了一個強大的深度學習工具箱:我們用張量來處理高維數據,用反向傳播來高效地計算梯度,用梯度下降來優化模型參數。我們訓練出的模型在分類、回歸等任務上表現出色。

但它們有一個共同的“性格缺陷”:過于自信。一個標準的神經網絡,其數百萬個權重參數在訓練結束后都被確定為一個固定的點估計值。這就像一個學生,在學完所有知識后,認為自己對每個問題的答案都了如指掌,沒有任何懷疑。但在現實世界中,尤其是在自動駕駛、醫療診斷等高風險領域,我們不僅希望模型能給出答案,更希望它在不確定的時候能“舉手示意”,告訴我們:“對于這個輸入,我不太確定,請人類專家介入。”

為了實現這一點,我們需要將貝葉斯思想的精髓與深度學習的強大表示能力相結合,這就是貝葉斯深度學習 (Bayesian Deep Learning)。更進一步,我們將利用這種概率框架,構建出能夠學習數據內在分布、并從中“無中生有”地創造出新數據的生成模型 (Generative Models),如VAE和GAN。這正是AI“想象力”和“創造力”的數學源頭。

第一部分:會“懷疑”的神經網絡 —— 貝葉斯深度學習

在第三篇文章中,我們學習了貝葉斯定理,其核心思想是用數據(證據)來更新我們對假設的信念(概率分布)。在標準的深度學習中,我們通過最大似然估計(MLE)或最大后驗概率(MAP)來尋找一組“最好”的參數 θ \theta θ。這本質上是在尋找一個點估計

而貝葉斯深度學習則完全不同。它的核心主張是:我們不應該學習參數的單一最優值,而應該學習參數的完整后驗概率分布 P ( θ ∣ D ) P(\theta | D) P(θD)

點估計 vs. 分布估計

讓我們直觀地理解這個根本性的轉變。

  • 標準神經網絡 (點估計):訓練結束后,第一層的某個權重 w 1 w_1 w1? 的值就是 1.37 1.37 1.37。它是一個確定的標量。
  • 貝葉斯神經網絡 (分布估計):訓練結束后,權重 w 1 w_1 w1? 不再是一個數,而是一個概率分布,比如均值為1.37,標準差為0.2的正態分布 w 1 ~ N ( 1.37 , 0. 2 2 ) w_1 \sim \mathcal{N}(1.37, 0.2^2) w1?N(1.37,0.22)

在這里插入圖片描述

這張圖直觀地展示了兩種范式的核心區別。貝葉斯網絡的每一個權重,都是一個“概率云”,而非一個固定的“點”。

擁有不確定性的預測

這種權重上的不確定性,會自然地傳播到模型的預測中。當我們將一個輸入 x ? x^* x? 送入貝葉斯神經網絡時,我們實際上是在進行一次“蒙特卡洛”模擬:

  1. 從每個權重的后驗分布中,采樣出一組具體的權重值,構成一個“普通”的神經網絡。
  2. 用這個采樣出的網絡對 x ? x^* x? 進行一次前向傳播,得到一個預測值。
  3. 重復上述過程成百上千次。

最終,我們得到的不是一個單一的預測,而是一個預測值的分布!我們可以計算這個分布的均值作為最終的預測結果,更重要的是,我們可以計算它的方差,這個方差就直接量化了模型對該預測的不確定性

在這里插入圖片描述

(這張圖展示了一個回歸任務,數據點分布在一條曲線周圍。一條標準的神經網絡擬合出一條確定的曲線。而貝葉斯神經網絡會擬合出一個“置信區間”帶,在數據點密集的區域,這個帶很窄(高確定性);在數據點稀疏的區域,這個帶會變得很寬(高不確定性)。)

這就是貝葉斯深度學習的魅力所在:它為模型的預測提供了原則性的、數學上完備的不確定性量化 (Uncertainty Quantification) 方法。

貝葉斯推斷的“天塹”

這一切聽起來都太美好了。但我們如何得到那個至關重要的后驗分布 P ( θ ∣ D ) P(\theta | D) P(θD) 呢?根據貝葉斯定理:
P ( θ ∣ D ) = P ( D ∣ θ ) P ( θ ) P ( D ) P(\theta | D) = \frac{P(D | \theta) P(\theta)}{P(D)} P(θD)=P(D)P(Dθ)P(θ)?
這里的挑戰在于分母——證據 (Evidence) P ( D ) P(D) P(D)
P ( D ) = ∫ P ( D ∣ θ ) P ( θ ) d θ P(D) = \int P(D | \theta) P(\theta) d\theta P(D)=P(Dθ)P(θ)dθ
對于一個擁有數百萬參數 θ \theta θ 的深度神經網絡,這個積分是在一個數百萬維的空間上進行的。這是一個絕對無法直接計算 (intractable) 的怪物。這個“證據”積分,是橫亙在理想的貝葉斯推斷和實際應用之間的“天塹”。

第二部分:跨越天塹的兩種“神功” —— MCMC 與變分推斷

既然無法精確計算后驗分布,我們就只能退而求其次,去近似它。在機器學習領域,有兩種主流的近似推斷技術,就像武林中的兩大門派。

馬爾可夫鏈蒙特卡洛 (MCMC) —— “慢工出細活”的采樣派

MCMC是一類算法的總稱,其核心思想是:我們不直接計算后驗分布的數學形式,而是設計一種巧妙的隨機游走過程(馬爾可夫鏈),使得這個過程最終會穩定在后驗分布上。然后,我們通過從這個穩定過程中不斷采樣,來獲得大量來自后驗分布的樣本點,從而近似地描繪出后驗分布的形狀。

  • 優點:理論上,只要時間足夠長,MCMC可以任意精確地逼近真實的后驗分布,被認為是近似推斷的“黃金標準”。
  • 缺點慢!非常慢! 對于高維度的深度學習模型,要達到收斂需要極長的計算時間,使得MCMC在大多數大規模深度學習應用中不切實際。它更多地被用于學術研究和對精度要求極高的場景。

變分推斷 (Variational Inference, VI) —— “快刀斬亂麻”的優化派

如果說MCMC是“采樣”,那么VI就是“優化”。這是目前在概率深度學習中占主導地位的方法。其核心思想是:
既然我無法求出那個復雜的目標后驗分布 P ( θ ∣ D ) P(\theta|D) P(θD),那我就自己定義一個更簡單的、可控的近似分布 Q ( θ ; ? ) Q(\theta; \phi) Q(θ;?)(例如,一個多元正態分布),然后通過調整 Q Q Q 的參數 ? \phi ?,使得 Q Q Q P P P 盡可能地接近。

我們如何衡量兩個分布的“接近程度”?在第五篇文章中我們學過,KL散度 (Kullback-Leibler Divergence) 正是為此而生。我們的目標,就是找到一組參數 ? ? \phi^* ??,使得 D K L ( Q ( θ ; ? ) ∣ ∣ P ( θ ∣ D ) ) D_{KL}(Q(\theta; \phi) || P(\theta|D)) DKL?(Q(θ;?)∣∣P(θD)) 最小。

但直接最小化這個KL散度還是需要知道 P ( θ ∣ D ) P(\theta|D) P(θD),問題又繞回來了。幸運的是,數學家們發現,最小化這個KL散度,等價于最大化一個被稱為證據下界 (Evidence Lower Bound, ELBO) 的東西。而ELBO,是可以計算的!
ELBO ( ? ) = E Q ( θ ; ? ) [ log ? P ( D ∣ θ ) ] ? D K L ( Q ( θ ; ? ) ∣ ∣ P ( θ ) ) \text{ELBO}(\phi) = \mathbb{E}_{Q(\theta; \phi)}[\log P(D|\theta)] - D_{KL}(Q(\theta; \phi) || P(\theta)) ELBO(?)=EQ(θ;?)?[logP(Dθ)]?DKL?(Q(θ;?)∣∣P(θ))
讓我們來解讀這個神奇的ELBO公式,它把一個困難的推斷問題,轉化成了一個我們熟悉的優化問題:

  • E Q ( θ ; ? ) [ log ? P ( D ∣ θ ) ] \mathbb{E}_{Q(\theta; \phi)}[\log P(D|\theta)] EQ(θ;?)?[logP(Dθ)]期望對數似然。這個項鼓勵我們的近似分布 Q Q Q 將高概率分配給那些能夠很好地解釋數據 D D D 的參數 θ \theta θ。這非常像標準機器學習中的損失函數(例如,交叉熵或均方誤差)。
  • D K L ( Q ( θ ; ? ) ∣ ∣ P ( θ ) ) D_{KL}(Q(\theta; \phi) || P(\theta)) DKL?(Q(θ;?)∣∣P(θ))KL散度。這個項衡量了我們的近似分布 Q Q Q 與我們設定的先驗分布 P ( θ ) P(\theta) P(θ) 之間的差異。它起到了正則化的作用,防止 Q Q Q 為了過分擬合數據而偏離我們對參數的初始信念。

現在,整個流程豁然開朗:

  1. 我們假設一個簡單的近似分布族 Q Q Q(例如,所有參數都服從獨立的正態分布)。
  2. 我們將ELBO作為我們的新的損失函數
  3. 我們使用梯度下降和反向傳播來尋找能最大化ELBO的參數 ? \phi ?(即 Q Q Q 中所有正態分布的均值和方差)。

通過變分推斷,我們巧妙地將一個棘手的積分問題,轉化成了一個可以用深度學習現有全套工具鏈解決的優化問題。

在這里插入圖片描述

第三部分:AI的創世紀 —— 概率生成模型

掌握了變分推斷這一利器后,我們不僅能讓模型“會懷疑”,更能賦予模型“創造力”。這就是生成模型的領域。生成模型的目標是學習訓練數據的潛在概率分布,然后從這個分布中采樣,生成全新的、與訓練數據類似但又不完全相同的數據。

變分自編碼器 (VAE) —— 優雅的概率生成框架

變分自編碼器 (Variational Autoencoder, VAE) 是變分推斷思想在生成模型上的完美體現。它是一種包含編碼器 (Encoder)解碼器 (Decoder) 的神經網絡結構。

在這里插入圖片描述

讓我們跟隨這張圖,一步步解析VAE的工作流程:

  1. 編碼器 (Encoder):它接收一個輸入數據 x x x(比如一張人臉圖片),但它輸出的不是一個編碼向量,而是一個概率分布的參數——通常是一個正態分布的均值 μ \mu μ 和標準差 σ \sigma σ。這構成了我們的近似后驗分布 Q ( z ∣ x ) Q(z|x) Q(zx),其中 z z z 是圖像在低維潛在空間 (Latent Space) 中的表示。
  2. 潛在空間 (Latent Space):我們從編碼器輸出的分布 N ( μ , σ 2 ) \mathcal{N}(\mu, \sigma^2) N(μ,σ2)采樣一個點 z z z。這個 z z z 就是原始圖像的一個壓縮的、概率化的“精華”表示。
  3. 解碼器 (Decoder):它接收潛在向量 z z z,并盡力將其重構回原始的輸入數據 x ′ x' x
  4. 損失函數:VAE的損失函數就是我們前面講的 ELBO(或者說最小化負ELBO)。
    • 重構損失(對應ELBO的第一項):衡量重構數據 x ′ x' x 與原始數據 x x x 的差異,例如使用均方誤差或交叉熵。這迫使編碼器和解碼器學習如何有效地壓縮和解壓數據。
    • KL散度損失(對應ELBO的第二項):衡量編碼器輸出的分布 Q ( z ∣ x ) Q(z|x) Q(zx) 與一個標準正態分布先驗 P ( z ) = N ( 0 , I ) P(z)=\mathcal{N}(0, I) P(z)=N(0,I) 的差異。這起到了關鍵的正則化作用,它強迫編碼器學習到的潛在空間是規整、連續的。它防止編碼器為每個輸入都“私藏”一個完美的編碼區域,而是讓所有編碼都圍繞在原點附近,形成一個結構良好的“星云”。

VAE的“創造力”:訓練完成后,我們可以扔掉編碼器,直接從先驗分布 N ( 0 , I ) \mathcal{N}(0, I) N(0,I) 中隨機采樣一個點 z n e w z_{new} znew?,然后將其送入解碼器。由于潛在空間的連續性和規整性,解碼器能夠將這個新的、從未見過的潛在向量,解碼成一張全新的、合理的人臉圖片。這就是VAE的生成過程。

生成對抗網絡 (GAN) —— 藝術偽造者與鑒賞家的博弈

如果說VAE是基于概率和優化的“科學家”,那么生成對抗網絡 (Generative Adversarial Network, GAN) 就是基于博弈論的“藝術家”。GAN的框架中包含兩個相互競爭的神經網絡:

  1. 生成器 (Generator, G):它的任務是“無中生有”。它接收一個隨機噪聲向量(通常來自標準正態分布),并嘗試將其變換成一張看起來像真實數據的圖片。它就像一個藝術偽造者
  2. 判別器 (Discriminator, D):它的任務是“明辨真偽”。它是一個標準的二元分類器,接收一張圖片,并判斷這張圖片是來自真實數據集,還是由生成器偽造的。它就像一個藝術鑒賞家

訓練過程是一場“零和游戲”

  • 判別器D的目標是:盡可能準確地給真實圖片打高分(接近1),給偽造圖片打低分(接近0)。
  • 生成器G的目標是:盡可能地“欺騙”判別器,即它生成的圖片要讓判別器也打出高分。

它們交替訓練,相互促進:

  • 一個更強的判別器,能給生成器提供更準確的“反饋”,告訴它偽造的“破綻”在哪里。
  • 一個更強的生成器,能產生更以假亂真的圖片,迫使判別器學習更精細的鑒別特征。

經過成千上萬輪的“對抗”訓練,最終,生成器將能夠產生出讓判別器也難以分辨的、高度逼真的圖片。

在這里插入圖片描述

(這張圖會清晰地展示GAN的結構:一個隨機噪聲向量輸入生成器,輸出一張假圖片。真實圖片和假圖片同時被送入判別器,判別器輸出一個“真/假”的概率。這個概率被用來計算生成器和判別器各自的損失,并反向傳播更新它們的參數。)

GAN vs. VAE

  • 生成質量:GAN通常能生成比VAE更清晰、更逼真的圖像,因為它的對抗性訓練機制迫使其關注細節。
  • 訓練穩定性:GAN的訓練是出了名的不穩定,容易出現“模式崩潰”(生成器只學會生成少數幾種樣本)等問題。VAE的訓練則穩定得多,因為它是在優化一個明確的損失函數(ELBO)。
  • 理論基礎:VAE基于貝葉斯推斷和變分法,有堅實的概率論基礎。GAN則基于博弈論,其理論分析更為復雜。

融會貫通:概率——賦予AI靈魂的第二次浪潮

今天,我們為概率統計知識體系進行了一次深刻的“深度”升級。我們不再滿足于用概率來描述數據,而是將其深深地植入到模型的骨髓之中。

  1. 貝葉斯深度學習:通過將模型的參數從點估計升級為概率分布,我們讓神經網絡擁有了量化自身不確定性的能力,這是邁向更可靠、更安全的AI的關鍵一步。
  2. 近似推斷:我們學習了跨越貝葉斯推斷“天塹”的兩大神功——MCMC和變分推斷(VI)。特別是VI,它將復雜的推斷問題轉化為優化問題,完美地融入了現代深度學習的框架。
  3. 生成模型:基于概率推斷的框架,我們見證了AI“創造力”的誕生。
    • VAE利用變分推斷,構建了一個結構化的潛在空間,能夠優雅地生成新數據。
    • GAN則通過一場精彩的“貓鼠游戲”,將生成圖像的逼真度推向了新的高度。

從經典機器學習的樸素貝葉斯,到深度學習的VAE和GAN,概率論的思想貫穿始終,并且在深度學習時代爆發出前所未有的能量。它不僅讓我們的模型更“誠實”,還賦予了它們“想象”的能力。在后續的文章中,我們將回到優化理論,看看在訓練這些龐大而復雜的模型時,我們需要對經典的梯度下降做出哪些至關重要的改進。


習題

第1題:概念辨析
請解釋貝葉斯神經網絡(BNN)與標準神經網絡在處理模型“權重”上的根本區別是什么?這個區別如何導致BNN能夠量化預測的不確定性?

第2題:VAE核心思想
在變分自編碼器(VAE)中,KL散度損失項 D K L ( Q ( z ∣ x ) ∣ ∣ P ( z ) ) D_{KL}(Q(z|x) || P(z)) DKL?(Q(zx)∣∣P(z)) 起到了什么關鍵作用?如果去掉這個損失項,只用重構損失來訓練模型,可能會發生什么?

第3題:GAN的“引擎”
生成對抗網絡(GAN)的訓練過程被描述為一場“博弈”。請問這場博弈的雙方是誰?它們各自的目標是什么?為什么說它們的相互競爭能夠提升生成模型的性能?


答案

第1. 答案:

  • 根本區別:標準神經網絡的權重在訓練后是確定的數值(點估計)。而貝葉斯神經網絡的權重是概率分布(例如,一個均值和方差定義的高斯分布)。
  • 如何導致不確定性量化:因為權重是分布,所以每次進行預測(前向傳播)時,都可以從這些分布中采樣一組不同的權重值,從而得到一個略有不同的預測結果。重復這個過程多次,就會得到一系列的預測結果,這些結果本身構成了一個預測分布。這個預測分布的方差或標準差,就自然地量化了模型對該預測的“不確定性”。如果權重分布很寬(不確定性大),那么預測結果的分布也會很寬,反之亦然。

第2. 答案:

  • 關鍵作用:KL散度損失項起到了對潛在空間進行正則化的關鍵作用。它強迫編碼器產生的近似后驗分布 Q ( z ∣ x ) Q(z|x) Q(zx)(對每個輸入x)都去逼近一個固定的先驗分布 P ( z ) P(z) P(z)(通常是標準正態分布)。這使得學習到的潛在空間變得連續、規整且密集地分布在原點周圍
  • 去掉后的后果:如果去掉KL散度損失,模型的目標就只剩下完美地重構輸入。編碼器會“作弊”,它會為每個輸入數據在潛在空間中學習一個相距很遠的、孤立的“完美”編碼點,而不管這些點構成的空間是否連續。這將導致:
    1. 失去生成能力:潛在空間不再是連續的,在兩個編碼點之間進行插值或隨機采樣一個點,解碼器將無法生成任何有意義的內容,因為它從未見過這些“空白”區域的編碼。
    2. 模型退化為一個普通的、可能性能還不錯的自編碼器 (Autoencoder),但不再是生成模型

第3. 答案:

  • 博弈雙方生成器 (Generator)判別器 (Discriminator)
  • 各自目標
    • 生成器的目標:生成盡可能逼真的“假”數據,以“欺騙”判別器,讓判別器將其誤判為“真”數據。
    • 判別器的目標:盡可能準確地分辨出“真”數據(來自真實數據集)和“假”數據(來自生成器)。
  • 為什么競爭能提升性能:這是一個最小-最大博弈 (Minimax Game)。生成器的進步(生成更逼真的圖像)會給判別器帶來更大的挑戰,迫使判別器學習更精細、更本質的特征來區分真假。而一個更“火眼金睛”的判別器,又能為生成器提供更準確的梯度信號,告訴它在哪些方面“偽造”得還不夠好。在這種相互對抗、共同進化的過程中,雙方的能力都得到了極大的提升,最終的“勝利果實”就是一個能夠生成高度逼真數據的強大生成器。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/diannao/89083.shtml
繁體地址,請注明出處:http://hk.pswp.cn/diannao/89083.shtml
英文地址,請注明出處:http://en.pswp.cn/diannao/89083.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

華為云Flexus+DeepSeek征文|Dify平臺開發搭建口腔牙科24小時在線問診系統(AI知識庫系統)

引言:為什么需要口腔牙科24小時在線問診系統? 在口腔醫療領域,“時間”是患者最敏感的需求之一——深夜牙齒突發疼痛、周末想提前了解治療方案、異地患者無法及時到院……傳統“工作時間在線”的咨詢模式已無法滿足用戶需求。同時&#xff0…

嵌入式硬件中電容的基本原理與詳解

大家好我們今天重討論點知識點如下: 1.電容在電路中的作用 2.用生活中水缸的例子來比喻電容 3.電容存儲能力原理 4.電容封裝的種類介紹電容種類圖片辨識 5.X 電容的作用介紹 6.Y 電容的作用介紹7.鉭電容的優點及特性 7.鉭電容的缺點及特性 8. 鋁電解電容的優點及特性…

中央空調控制系統深度解析:從原理到智能AIOT運維

——附水冷式系統全電路圖解與技術參數 一、中央空調系統架構與技術演進 1. 兩大主流系統對比 技術趨勢:2023年全球冷水機組市場占比達68%(BSRIA數據),其核心優勢在于: - 分區控溫精度:0.5℃&#…

document.write 和 innerHTML、innerText 的區別

document.write 與 innerHTML、innerText 的區別 document.write 直接寫入 HTML 文檔流&#xff0c;若在頁面加載完成后調用會覆蓋整個文檔。常用于動態生成內容&#xff0c;但會破壞現有 DOM 結構&#xff0c;不推薦在現代開發中使用。 document.write("<p>直接寫…

日志分析與實時監控:Elasticsearch在DevOps中的核心作用

引言 在現代DevOps實踐中&#xff0c;日志分析與實時監控是保障系統穩定性與性能的關鍵。Elasticsearch作為分布式搜索與分析引擎&#xff0c;憑借其高效的索引與查詢能力&#xff0c;成為構建日志管理與監控系統的核心組件。本文將深入探討Elasticsearch在DevOps中的應用&…

Unity Catalog 三大升級:Data+AI 時代的統一治理再進化

在剛剛落幕的 2025 Databricks Data AI Summit 上&#xff0c;Databricks 重磅發布了多項 Lakehouse 相關功能更新。其中&#xff0c;面向數據湖治理場景的統一數據訪問與管理方案 —— Unity Catalog&#xff0c;迎來了三大關鍵升級&#xff1a;全面支持 Apache Iceberg、面向…

電容屏觸摸不靈敏及跳點問題分析

在電容屏的使用過程中&#xff0c;觸摸不靈敏和觸點不精準是極為常見且讓人困擾的問題。這些問題不僅影響用戶的操作體驗&#xff0c;在一些對觸摸精度要求較高的場景&#xff0c;如工業控制、繪圖設計等領域&#xff0c;還可能導致嚴重的后果。下面我們就來深入剖析一下這兩個…

小程序學習筆記:導航、刷新、加載、生命周期

在小程序開發的領域中&#xff0c;掌握視圖與邏輯相關的技能是打造功能完備、用戶體驗良好應用的關鍵。今天&#xff0c;咱們就來深入梳理一下小程序視圖與邏輯的學習要點&#xff0c;并結合代碼示例&#xff0c;讓大家有更直觀的理解。 一、頁面之間的導航跳轉 在小程序里實…

生成樹基礎實驗

以太網交換網絡中為了進行鏈路備份&#xff0c;提高網絡可靠性&#xff0c;通常會使用冗余鏈路。但是使用冗余鏈路會在交換網絡上產生環路&#xff0c;引發廣播風暴以及 MAC地址表不穩定等故障現象&#xff0c;從而導致用戶通信質量較差&#xff0c;甚至通信中斷。 為解決交換…

flex布局實例:把色子放進盒子里

目錄 一、flex布局實例&#xff1a;把色子放進盒子里 1、基礎樣式 二、justify-content 屬性 三、flex-direction 屬性 四、align-items 屬性 五、flex-wrap 屬性 二、flex布局應用到常見場景 非常詳細的講解flex布局&#xff0c;看一看&#xff0c;練一練&#xff01; …

Netty編解碼器

目錄 1、概念 2、Netty提供的編解碼器類型 2.1 解碼器 2.1.1 ByteToMessageDecoder 2.1.2 ReplayingDecoder 2.1.3 MessageToMessageDecoder 2.2 編碼器 2.2.1 MessageToByteEncoder 2.2.2 MessageToMessageEncoder 2.3 編解碼器 2.3.1 ByteToMessageCodec 2.3.2 M…

企業內部安全組網技術解析:安全通道選型、零信任架構與數據合規加密防護

一、引言&#xff1a;企業內部安全組網的重要性 隨著企業數字化轉型的深入以及遠程辦公需求的增加&#xff0c;企業內部異地組網逐漸成為企業信息技術部門關注的重要話題。如何在合規合法的前提下&#xff0c;保障企業內部網絡連接的安全性、穩定性&#xff0c;并有效保護企業…

Windows 4625日志類別解析:未成功的賬戶登錄事件

Windows 4625日志類別解析&#xff1a;未成功的賬戶登錄事件 什么是Windows 4625日志&#xff1f; Windows 4625日志屬于安全日志&#xff08;Security Log&#xff09; 的一部分&#xff0c;記錄系統中未成功的賬戶登錄嘗試&#xff08;Failed Logon&#xff09;。它是追蹤非…

3D看房實現房屋的切換

作為3D看房的補充&#xff0c;在這里&#xff0c;我們講一下如何實現房屋的切換&#xff0c;我這里提供兩種思路&#xff0c; 切換貼圖&#xff0c;切換場景&#xff0c; 接下我們按照較復雜的場景切換來講&#xff0c;切換貼圖也就水到渠成&#xff1a; 初始化場景&#xf…

[Android]ANR的線程

ANR的原理是進行了超時告警&#xff0c;在執行一個需要被監控的任務時&#xff0c;注冊一個超時提醒&#xff0c;如果很快執行好了&#xff0c;刪除這個提醒&#xff0c;如果超時&#xff0c;這個提醒就被觸發&#xff0c;這個超時處理是通過handler方式來調用的&#xff0c;這…

RLVR來做Agent任務能力增強訓練

和上一篇其實有點承接 上一篇的爭論其實是因為要優化agent的任務規劃和實現能力的 所以有了self-learning之爭 當我們說Self-learning&#xff0c;其實是在說什么&#xff1f; 其實上一篇最后時候提了一點拿RLVR來做agent的任務提升 正好今天看到了一篇應景的論文&#xf…

如何運營一個開源項目并取得較大影響力?

開源不僅是主要的軟件開發方法論&#xff0c;還是助力快速創新、分散協作、 生態系統建設和職業發展的卓越戰略。如今&#xff0c;無論在哪里&#xff0c;都離不開與 開源的互動。開源存在于你的手機、汽車和冰箱中&#xff0c;它使你最喜歡的節 目或電影的制作和發行成為可能&…

華為高斯數據庫的數據類型

華為高斯數據庫的數據類型 國產數據庫華為高斯的GaussDB的數據類型 華為高斯數據庫的數據類型? 一、數值類型&#xff08;Numeric Types&#xff09;? 二、字符類型&#xff08;Character Types&#xff09;? 三、布爾類型&#xff08;Boolean Type&#xff09;? 四、日期和…

生物實驗室安全、化學品安全

zhihu.com/column/c_1922752541369800632 Docs 目錄 第七章 7.1 實驗室生物安全等級 7.1.1 生物安全基本概念 7.1.2 生物的危害等級 7.1.2.1 國內生物危害等級 7.1.3 實驗室生物安全防護水平分級 7.2 實驗室生物安全控制 7.2.1 實驗室生物儀器設備安全控制 7.2.1.1 生…

【QT】第一個QT程序 || 對象樹 || 編碼時的注意事項

一、編寫第一個 Qt 程序 1. 開發環境搭建 安裝 Qt Creator&#xff08;推薦使用官方在線安裝器&#xff09;安裝 Qt 庫&#xff08;如 Qt 5.15.2 或 Qt 6.x&#xff09;配置編譯器&#xff08;MinGW / MSVC / GCC&#xff09; 2. 創建一個簡單的 Qt GUI 應用程序 打開 Qt C…