【AI算法崗面試八股面經【超全整理】——概率論】

AI算法崗面試八股面經【超全整理】

  • 概率論
  • 信息論
  • 機器學習
  • CV
  • NLP

目錄

    • 1、古典概型、幾何概型
    • 2、條件概率、全概率公式、貝葉斯公式
    • 3、先驗概率、后驗概率
    • 4、離散型隨機變量的常見分布
    • 5、連續型隨機變量的常見分別
    • 6、數學期望、方差
    • 7、協方差、相關系數
    • 8、獨立、互斥、不相關
    • 9.大數定理
    • 10、中心極限定理
    • 11、最大似然估計(極大似然估計)

1、古典概型、幾何概型

古典概型:(有限等可能)

  • 樣本空間的數量是有限的
  • 每個樣本點的發生是等可能性的

幾何概型:(無限等可能)

  • 樣本空間的樣本點有無限個
  • 每個樣本點發生的可能性是均等的

2、條件概率、全概率公式、貝葉斯公式

條件概率
設A、B是兩個時間,且 P ( A ) > 1 P(A)>1 P(A)>1代表關節位置,則稱 P ( B ∣ A ) = P ( A B ) P ( A ) P(B|A)=\frac{P(AB)}{P(A)} P(BA)=P(A)P(AB)?為事件A發生條件下B的條件概率。

  • P ( A ) > 0 P(A)>0 P(A)>0時, P ( A B ) = P ( A ) P ( B ∣ A ) P(AB)=P(A)P(B|A) P(AB)=P(A)P(BA)
  • P ( B ) > 0 P(B)>0 P(B)>0時, P ( A B ) = P ( B ) P ( A ∣ B ) P(AB)=P(B)P(A|B) P(AB)=P(B)P(AB)

全概率公式
若事件 A 1 , A 2 , A 3 , ? , A n A_1,A_2, A_3,\cdots,A_n A1?,A2?,A3?,?,An?滿足以下條件:

  • ? i =? j , A i A j = ? \forall{i\not=j},A_iAj=\emptyset ?i=j,Ai?Aj=?
  • A 1 ? A 2 ? A 3 ? ? ? A n = Ω A_1\bigcup A_2\bigcup A_3\bigcup\cdots\bigcup A_n=\Omega A1??A2??A3????An?=Ω

則稱 A 1 , A 2 , A 3 , ? , A n A_1,A_2, A_3,\cdots,A_n A1?,A2?,A3?,?,An?為完備事件組
全概率公式為:
P ( B ) = ∑ i = 1 n P ( A i ) P ( B ∣ A i ) \begin{aligned} P(B)=\sum_{i=1}^{n}P(A_i)P(B|A_i) \\ \end{aligned} P(B)=i=1n?P(Ai?)P(BAi?)?

貝葉斯公式
已知結果找原因,發生了結果B, A k A_k Ak?被視作導致B發生的原因
A 1 , A 2 , A 3 , ? , A n A_1,A_2, A_3,\cdots,A_n A1?,A2?,A3?,?,An?為完備事件組,且 P ( A i ) > 0 ( i = 1 , 2 , ? , n ) P(A_i)>0(i=1,2,\cdots,n) P(Ai?)>0(i=1,2,?,n),B為任意事件, P ( B ) > 0 P(B)>0 P(B)>0,則
P ( A k ∣ B ) = P ( A k ) P ( B ∣ A k ) P ( B ) = P ( A k ) P ( B ∣ A k ) ∑ i = 1 n P ( A i ) P ( B ∣ A i ) \begin{aligned} P(A_k|B)=\frac{P(A_k)P(B|A_k)}{P(B)}= \frac{P(A_k)P(B|A_k)}{\sum_{i=1}^{n}P(A_i)P(B|A_i)}\\ \end{aligned} P(Ak?B)=P(B)P(Ak?)P(BAk?)?=i=1n?P(Ai?)P(BAi?)P(Ak?)P(BAk?)??
通常把 P ( A 1 ) , P ( A 2 ) , … , P ( A n ) P(A_1),P(A_2),\dots,P(A_n) P(A1?),P(A2?),,P(An?)叫做先驗概率,就是在做試驗前的概率,而把 P ( A k ∣ B ) ( k = 1 , 2 , … , n ) P(A_k|B)(k=1,2,\dots, n) P(Ak?B)(k=1,2,,n)
叫做后驗概率。

3、先驗概率、后驗概率

先驗概率

  • 由原因推結果
  • 事情未發生,只根據以往數據統計,分析事情發生的可能性,即先驗概率。
  • 先驗概率是指根據以往經驗和分析得到的概率,如全概率公司,它往往作為“由因求果”問題中的“因”出現。

后驗概率

  • 由結果推原因
  • 事情已發生,已有結果,求引起這件事情發生的因素的可能性,“由果求因”,即后驗概率。
  • 后驗概率是指一句得到的結果信息所計算出的最有可能是哪種事件發生,如貝葉斯公式,是“由因求果”中的因。

全概率公式、貝葉斯公式與先驗、后驗概率的關系?

  • 全概率公式,總結幾種因素,事件發生的概率的并集,由因求果
  • 貝葉斯公式,事情已經發生,計算引起結果的各因素的概率,由因求果,同后驗概率
  • 全概率是用原因推結果,貝葉斯是用結果推原因
  • 后驗概率的計算,是一先驗概率為前提條件的,如果只知道事情結果,而不知道先驗概率(沒有以往數據統計),是無法計算后驗概率的。后驗概率需要應用到貝葉斯公式。

4、離散型隨機變量的常見分布

0-1分布(伯努利分布)

  • 隨機變量只取0或1兩種值(概率分布是p和1-p)
  • 隨機試驗只做一次
    X ~ B ( 1 , p ) \begin{aligned} X\sim B(1,p)\\ \end{aligned} XB(1,p)?

二項分布(伯努利概型)

  • 設試驗E只有兩種可能結果: A A A A  ̄ \overline{A} A,則稱E為伯努利試驗
  • 將E獨立重復地進行n次,則稱這一連串獨立的重復試驗為n重伯努利分布

隨機變量依然也是兩種0或1(概率分布是p和1-p),但是此時隨機試驗做了n次,其中事件X發生了k次

X ~ B ( n , p ) \begin{aligned} X\sim B(n,p)\\ \end{aligned} XB(n,p)?
P ( A = k ) P(A=k) P(A=k)表示在n次試驗里面,事件A發生了k次的概率:
P ( A = k ) = C n k p k ( 1 ? p ) n ? k \begin{aligned} P(A=k)=C_n^kp^k{(1-p)}^{n-k}\\ \end{aligned} P(A=k)=Cnk?pk(1?p)n?k?
泊松分布
X ~ P ( λ ) \begin{aligned} X\sim P(\lambda)\\ \end{aligned} XP(λ)?

P ( A = k ) = λ k k ! e ? λ \begin{aligned} P(A=k)=\frac{\lambda^k }{k!}e^{-\lambda}\\ \end{aligned} P(A=k)=k!λk?e?λ?

幾何分布
X ~ G ( p ) \begin{aligned} X\sim G(p)\\ \end{aligned} XG(p)?
在伯努利試驗中,記每次試驗中事件A發生的概率為0,試驗進行到時間A出現為止,此時所進行的試驗次數為X,其分布律為

P ( A = k ) = ( 1 ? p ) k ? 1 p ( k = 0 , 1 , 2 , … ) \begin{aligned} P(A=k)={(1-p)}^{k-1}p ~~~~~~ (k=0,1,2,\dots )\\ \end{aligned} P(A=k)=(1?p)k?1p??????(k=0,1,2,)?

5、連續型隨機變量的常見分別

均勻分布
X ~ U ( a , b ) \begin{aligned} X\sim U(a,b)\\ \end{aligned} XU(a,b)?
f ( n ) = { 1 b ? a , a < x < b 0 other \begin{aligned} f(n)= \begin{cases} \frac{1}{b-a}, & \text {$a<x<b$} \\ 0 & \text{other} \end{cases}\\ \end{aligned} f(n)={b?a1?,0?a<x<bother??

指數分布
X ~ E ( λ ) \begin{aligned} X\sim E(\lambda)\\ \end{aligned} XE(λ)?
f ( n ) = { λ e ? λ x , x > 0 0 other \begin{aligned} f(n)= \begin{cases}\lambda e^{-\lambda x}, & \text {$x>0$} \\ 0 & \text{other} \end{cases}\\ \end{aligned} f(n)={λe?λx,0?x>0other??

正態分布/高斯分布
X ~ N ( μ , σ 2 ) \begin{aligned} X\sim N(\mu, \sigma ^2)\\ \end{aligned} XN(μ,σ2)?

f ( x ) = 1 2 π σ e ? ( x ? μ ) 2 2 σ 2 \begin{aligned} f(x)=\frac{1 }{\sqrt{2\pi}\sigma}e^{-\frac{{(x-\mu)^2} }{2\sigma^2}}\\ \end{aligned} f(x)=2π ?σ1?e?2σ2(x?μ)2??

特別地,當 μ = 0 , σ = 1 \mu=0,\sigma=1 μ=0,σ=1時為標準正態分布, X ~ N ( 0 , 1 ) X\sim N(0, 1) XN(0,1)

6、數學期望、方差

數學期望
數學期望(或均值、簡稱期望)是試驗中每次可能結果的概率乘以其結果的總和。
方差
方差是衡量源數據與期望值相差的度量值。(平方的期望-期望的平方)
D ( X ) = E ( ( X ? E ( X ) ) 2 ) = E ( X 2 ) ? E 2 ( X ) D(X)=E({(X-E(X))}^2)=E(X^2)-E^2(X) D(X)=E((X?E(X))2)=E(X2)?E2(X)

7、協方差、相關系數

協方差
期望值分別為 E ( X ) E(X) E(X) E ( Y ) E(Y) E(Y)的兩個實隨機變量X與Y之間的協方差 C o v ( A , Y ) Cov(A,Y) Cov(A,Y)定義為:
C o v ( X , Y ) = E [ ( X ? E [ X ] ) ( Y ? E [ Y ] ) ] = E [ X Y ] ? 2 E [ Y ] E [ X ] + E [ X ] E [ Y ] = E [ X Y ] ? E [ X ] E [ Y ] Cov(X,Y)=E[(X-E[X])(Y-E[Y])]\\=E[XY]-2E[Y]E[X]+E[X]E[Y]\\=E[XY]-E[X]E[Y] Cov(X,Y)=E[(X?E[X])(Y?E[Y])]=E[XY]?2E[Y]E[X]+E[X]E[Y]=E[XY]?E[X]E[Y]
即X,Y的協方差等于每一個X減去X的平均值乘上每一個Y減去Y的平均值的乘積的和的平均值。

相關系數
(皮爾遜相關系數)
p x y = C o v ( X , Y D ( X ) D ( Y ) p_{xy}=\frac{Cov(X,Y}{\sqrt{D(X)}\sqrt{D(Y)}} pxy?=D(X) ?D(Y) ?Cov(X,Y?
即,用X,Y的協方差除以X的標準差和Y的標準差

8、獨立、互斥、不相關

獨立
事件A與事件B獨立的定義是:
P ( A B ) = P ( A ) P ( B ) P(AB)=P(A)P(B) P(AB)=P(A)P(B)

互斥
事件A與事件B互斥的定義是:
集合A與集合B沒有相同的樣本點,即 A ? B = ? A\bigcap B =\empty A?B=?

不相關
事件A與事件B不相關的定義是:
C o v ( A , B ) = E [ A B ] ? E [ A ] E [ B ] = 0 Cov(A,B)=E[AB]-E[A]E[B]=0 Cov(A,B)=E[AB]?E[A]E[B]=0

  • 如果事件A和事件B發生的概率都不為0,那么獨立和互斥有這樣一層關系:互斥不獨立,獨立不互斥
  • 在數學期望存在的情況下:獨立必不相關,不相關未必獨立

9.大數定理

通俗一點來講,就是樣本數量很大的時候,樣本均值和數學期望充分接近,也就是說當我們大量重復某一相同的實驗的時候,其最后的實驗結果可能會穩定在某一數值附近。
如果有一個隨機變量X,不斷地觀察并且采樣這個隨機變量,得到了n個采樣值, X 1 , X 2 , … , X n X_1,X_2,\dots,X_n X1?,X2?,,Xn?,然后求得這n個采樣值的平均值 X  ̄ n \overline{X}_n Xn?,當n趨于正無窮的時候,這個平均值就收斂于這個隨機變量X的期望。
lim ? n → + ∞ 1 n ∑ i = 1 n x i = μ \lim_{n \to +\infty} \frac{1}{n}\sum_{i=1}^{n}x_i=\mu n+lim?n1?i=1n?xi?=μ

10、中心極限定理

設隨機變量 X 1 , X 2 , … , X n X_1,X_2,\dots,X_n X1?,X2?,,Xn?相互獨立,服從同一分布,且具有數學期望和方差: E ( X k ) = μ E(X_k)=\mu E(Xk?)=μ D ( X k ) = θ 2 ( k = 0 , 1 , 2 , … ) D(X_k)=\theta^2(k=0,1,2,\dots) D(Xk?)=θ2(k=0,1,2,),則隨機變量之和 ∑ k = 1 n X k \sum_{k=1}^{n}X_k k=1n?Xk?的標準化變量:
Y n = ∑ k = 1 n X k ? E ( ∑ k = 1 n X k ) D ( ∑ k = 1 n X k ) = ∑ k = 1 n X k ? n μ n θ Y_n=\frac{\sum_{k=1}^{n}X_k-E(\sum_{k=1}^{n}X_k)}{\sqrt{D(\sum_{k=1}^{n}X_k)}}=\frac{\sum_{k=1}^{n}X_k-n\mu}{\sqrt{n}\theta} Yn?=D(k=1n?Xk?) ?k=1n?Xk??E(k=1n?Xk?)?=n ?θk=1n?Xk??nμ?
對于均值為 μ \mu μ,方差為 θ 2 \theta^2 θ2的獨立同分布的隨機變量 X 1 , X 2 , … , X n X_1,X_2,\dots,X_n X1?,X2?,,Xn?之和 ∑ k = 1 n X k \sum_{k=1}^{n}X_k k=1n?Xk?,當n足夠大時,有:
1 n ∑ k = 1 n X k ? μ θ n ~ N ( 0 , 1 ) \frac{\frac{1}{n}{\sum_{k=1}^{n}X_k}-\mu}{\frac{\theta}{\sqrt{n}}}\sim N(0,1) n ?θ?n1?k=1n?Xk??μ?N(0,1)
N個獨立同分布的隨機變量,當N充分大時,其均值服從正態分布。
大數定律和中心極限定理的區別

  • 大數定理更關注的是樣本均值,后者關注的是樣本均值的分布。
  • 比如擲骰子,假設一輪擲骰子n次,重復了m輪,當n足夠大時,大數定理指出這n次的均值等于隨機變量的數學期望,而中心極限定理指出這m輪的均值分布符合數學期望的正態分布。

11、最大似然估計(極大似然估計)

一個簡單的 n 重伯努利模型(二項分布):事件 A 發生的概率為 p,不發生的概率為 1-p,獨立驗概 n 次,事件 A 發生 k 次的概率為:
P ( A = k ) = C n k p k ( 1 ? p ) n ? k P(A=k)=C_n^kp^k{(1-p)}^{n-k} P(A=k)=Cnk?pk(1?p)n?k
這是一個概率模型,即已知概率p,求另一些概率,即由因求果
而一個數理統計模型是由果溯因,即求解一下問題,p是多大時,事件A發生k次的概率最大,實際上就是一個求參數問題。

  • 概率質量函數(Probability Mass Function,PMF)是離散型隨機變量在個特定取值上的概率
  • 概率密度函數(Probability Density Function,PDF)是統計學中常用的參數估計方法

最大似然估計(Maximum Likelihood Estimation,MLE)是統計學中常用的參數估計方法,用于根據已觀測到的樣本數據,選擇使得觀測數據出現概率最大的參數值。

  • 對于離散型隨機變量,似然函數是概率質量函數的乘積:

L ( θ ) = P ( X = x 1 ) × P ( X = x 2 ) × ? × P ( X = x n ) L(\theta)=P(X=x_1)\times P(X=x_2)\times \cdots \times P(X=x_n) L(θ)=P(X=x1?)×P(X=x2?)×?×P(X=xn?)

  • 對于連續型隨機變量,似然函數是概率密度函數的乘積:

L ( θ ) = f ( x 1 ∣ θ ) × f ( x 2 ∣ θ ) × ? × f ( x n ∣ θ ) L(\theta)=f(x_1|\theta)\times f(x_2|\theta)\times \cdots \times f(x_n|\theta) L(θ)=f(x1?θ)×f(x2?θ)×?×f(xn?θ)

最大似然估計的目標是找到使得似然函數最大化的參數值。

概率、似然
1、概率(發生前推測)

  • 某件事情發生的可能性,在結果沒有產生之前依據環境所對應的參數來預測某件事情發生的可能性
  • 例如拋硬幣之前,推測正面朝上的概率為50%

2、似然(發生后推測,參數)

  • 是在確定的結果之后推測產生這個結果的可能環境(參數)
  • 例如拋一枚硬幣1000次,其中500次正面朝上,推測這是一枚標準硬幣,正面吵上的概率為50%

統計學兩大學派
1、頻率學派

  • 認為樣本信息來自總體,通過對樣本信息的研究可以合理地推斷、估計總體信息,并且隨著樣本的增加,推斷結果更加準確
  • 極大似然估計

2、貝葉斯學派

  • 將先驗信息和后驗信息相結合,通過貝葉斯公式將先驗信息與樣本數據結合起來,得到后驗分布,并以此作為對未知參數的推斷(先驗分布具有主觀性)

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/bicheng/18479.shtml
繁體地址,請注明出處:http://hk.pswp.cn/bicheng/18479.shtml
英文地址,請注明出處:http://en.pswp.cn/bicheng/18479.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

【PB案例學習筆記】-11動畫顯示窗口

寫在前面 這是PB案例學習筆記系列文章的第11篇&#xff0c;該系列文章適合具有一定PB基礎的讀者。 通過一個個由淺入深的編程實戰案例學習&#xff0c;提高編程技巧&#xff0c;以保證小伙伴們能應付公司的各種開發需求。 文章中設計到的源碼&#xff0c;小凡都上傳到了gite…

ESP32 - Micropython ESP-IDF 雙線教程 WIFI (2)

ESP32 - Micropython ESP-IDF 雙線教程 WIFI ESP32 - IDF WIFI轉換為ESP32-IDF的示例代碼main/main.c 代碼解釋 ESP32 - IDF WIFI 轉換為ESP32-IDF的示例代碼 以下是使用ESP-IDF&#xff08;Espressif IoT Development Framework&#xff09;編寫的連接到Wi-Fi網絡的示例代碼…

頸源性頭痛癥狀及表

頸源性頭痛一般表現為&#xff0c;就是說從枕后一直顳側&#xff0c;到太陽穴附近&#xff0c;這個是枕小的一個疼痛&#xff0c;還有一部分人從枕后&#xff0c;沿著一個弧線&#xff08;如下圖&#xff09;的軌跡到了前額&#xff0c;到我們前額&#xff0c;這樣一個疼痛&…

Bitbucket的原理及應用詳解(一)

本系列文章簡介&#xff1a; 在數字化和全球化的今天&#xff0c;軟件開發和項目管理已經成為企業成功的關鍵因素之一。隨著團隊規模的擴大和項目的復雜化&#xff0c;如何高效地協同開發、管理代碼和確保代碼質量成為了開發者和管理者面臨的重要挑戰。Bitbucket作為一款功能強…

深入解析線程上下文切換:掌握線程上下文切換的核心原理

1. 進程與線程的基本概念 1.1 進程與線程的區別 在操作系統中&#xff0c;進程和線程是兩個基本的概念&#xff0c;它們共同構成了程序的執行環境。了解它們的區別是理解線程上下文切換的基礎。 進程&#xff1a;進程是程序的一次執行實例。它是操作系統資源分配的基本單位。…

pytest的斷言與Selenium 模擬操作的一個例子

在Python中&#xff0c;pytest是一個流行的單元測試框架&#xff0c;而Selenium是一個用于自動化瀏覽器操作的工具。結合這兩者&#xff0c;我們可以編寫自動化測試腳本來驗證網頁的行為是否符合預期。下面是一個簡單的例子&#xff0c;展示了如何使用pytest的斷言功能以及Sele…

解決在Mac下使用npm報錯:Error: EACCES: permission denied

原因說明&#xff1a;沒有足夠的權限在 /usr/local/lib/node_modules 目錄下創建文件夾 這個錯誤表明你在安裝或更新 Vue.js&#xff08;vue&#xff09;包時&#xff0c;沒有足夠的權限在 /usr/local/lib/node_modules 目錄下創建文件夾。這通常是因為默認情況下&#xff0c;普…

【頭歌-Python】文件自學引導

禁止轉載&#xff0c;原文&#xff1a;https://blog.csdn.net/qq_45801887/article/details/139258793 參考教程&#xff1a;B站視頻講解——https://space.bilibili.com/3546616042621301 如果代碼存在問題&#xff0c;麻煩大家指正 ~ ~有幫助麻煩點個贊 ~ ~ 文件自學引導 第…

算數運算符

算術運算符是用于數值類型變量計算的運算符。 它的返回結果是數值。 賦值符號 關鍵知識點&#xff1a;先看右側&#xff0c;再看左側&#xff0c;把右側的值賦值給左側的變量。 附上代碼&#xff1a; string myName "唐唐"; int myAge 18; float myHeight 177.5…

202312青少年軟件編程(Python)等級考試試卷(四級)

第 1 題 【單選題】 下列有關分治算法思想的描述不正確的是?(?) A :將問題分解成的子問題具有相同的模式 B :將問題分解出的各個子問題相互之間有公共子問題 C :當問題足夠小時,可以直接求解 D :可以將子問題的求解結果合并成原問題的解 正確答案:B 試題解析: 第 2…

ADIL簡單測試實例

參考資料&#xff1a;https://blog.csdn.net/geyichongchujianghu/article/details/130045373這個連接是Java的代碼&#xff0c;我根據它的鏈接寫了一個kotlin版本的。 AIDL&#xff08;Android Interface Definition Language&#xff09;是Android平臺上用于進程間通信&…

AI辦公自動化:kimi批量新建文件夾

工作任務&#xff1a;批量新建多個文件夾&#xff0c;每個文件夾中的年份不一樣 在kimi中輸入提示詞&#xff1a; 你是一個Python編程專家&#xff0c;要完成一個編寫關于錄制電腦上的鍵盤和鼠標操作的Python腳本的任務&#xff0c;具體步驟如下&#xff1a; 打開文件夾&…

FFmpeg編解碼的那些事(1)

看了網上很多ffmpeg的編解碼的文章和代碼&#xff0c;發現有很多文章和代碼都過時了&#xff0c;主要還是ffmpeg有很多接口都已經發生變化了。 這里簡單說一下&#xff0c;什么是編碼和解碼。 1.視頻編碼 對于視頻來說&#xff0c;可以理解為多張&#xff08;rgb或者yuv&…

Python散點圖矩陣代碼模版

本文分享Python seaborn實現散點圖矩陣代碼模版&#xff0c;節選自&#x1f449;嫌Matplotlib繁瑣&#xff1f;試試Seaborn&#xff01; 散點圖矩陣&#xff08;scatterplot matrix&#xff09;展示原始數據中所有變量兩兩之間關系&#xff0c;可以規避單一統計指標的偏差&…

二分查找算法詳講(三種版本寫法)原創

介紹: 二分查找算法&#xff08;Binary Search&#xff09;是一種在有序數組中查找目標元素的算法。 它的基本思想是通過將目標元素與數組的中間元素進行比較&#xff0c;從而將搜索范圍縮小一半。 如果目標元素等于中間元素&#xff0c;則搜索結束&#xff1b;如果目標元素小…

Neural Filters:照片恢復

Ps菜單&#xff1a;濾鏡/Neural Filters/恢復/照片恢復 Neural Filters/RESTORATION/Photo Restoration 照片恢復 Photo Restoration借助 AI 強大功能快速恢復舊照片&#xff0c;提高對比度、增強細節、消除劃痕。將此濾鏡與著色相結合以進一步增強效果。 “照片恢復”濾鏡利用…

Scikit-Learn隨機森林

Scikit-Learn隨機森林 1、隨機森林1.1、集成學習1.2、Bagging方法1.3、隨機森林算法1.4、隨機森林的優缺點2、Scikit-Learn隨機森林回歸2.1、Scikit-Learn隨機森林回歸API2.2、隨機森林回歸實踐(加州房價預測)1、隨機森林 隨機森林是一種由決策樹構成的集成算法,它在大多情況…

mac安裝的VMware虛擬機進行橋接模式配置

1、先進行網絡適配器選擇&#xff0c;選擇橋接模式 2、點擊網絡適配器 設置... 3、選擇WiFi&#xff08;我使用的是WiFi&#xff0c;所以選擇這個&#xff09;&#xff0c;注意看右邊的信息&#xff1a;IP和子網掩碼&#xff0c;后續配置虛擬機的ifcfg-ens文件會用到 4、編輯if…

【論文閱讀筆記】The Google File System

1 簡介 Google File System (GFS) 是一個可擴展的分布式文件系統&#xff0c;專為快速增長的Google數據處理需求而設計。這篇論文發表于2003年&#xff0c;此前已在Google內部大規模應用。 GFS不僅追求性能、可伸縮性、可靠性和可用性等傳統分布式文件系統的設計目標&#xf…

benchmark::State benchmark 原理

benchmark::State benchmark::State是Google Benchmark庫中的一個核心類&#xff0c;用于管理單個基準測試的狀態信息和控制基準測試的執行流程。在編寫基準測試時&#xff0c;這個類提供了一套豐富的接口&#xff0c;允許用戶獲取測試循環的次數、調整測試參數、測量時間等&a…