百度 提前批 國際化廣告部 (深圳-機器學習/數據挖掘/自然語言處理工程師) 一面+二面面經

文章目錄

  • 0、面試情況
  • 1、一面
    • 1.1、簡歷上的項目介紹了個遍
    • 1.2、dbscan原理
    • 1.3、為什么梯度的負方向就是損失函數下降最快的方向?
    • 1.4、bn原理,為什么bn能解決過擬合,
    • 1.5、auc原理,為什么ctr或你的廣告推薦里用auc指標?
    • 1.6、auc指標能否評估排序任務?
    • 1.7、gauc指標?
    • 面試官:我們一般還會用pcoc指標,衡量排序的精準性。
    • 1.8、一面coding題(秒了)
  • 2、二面
    • 2.1、介紹項目
    • 2.2、廣告推薦全鏈路介紹
    • 2.3、粗排,精排常用模型
    • 2.4、像ctr預估里為何要用sigmoid作為輸出(從充分性與必要性展開講講)?
    • 2.5、sigmoid作為激活函數有什么問題?
    • 2.6、一個好的激活函數應該具備什么優點?
    • 2.7、生成式模型與判別式模型區別?
    • 2.8、用了DNN做特交叉組合,是否還有必要人工做特征交叉組合?
    • 2.9、默寫機器學習公式
    • 2.10、防止過擬和的方法?
    • 2.11、LN與BN原理,以及各自的適用場景?
    • 2.12、邏輯回歸原理?邏輯回歸中的幾率是什么?幾率和概率的區別,如果幾率為4,概率為多少?
    • 2.13、隨機森林與GBDT
      • 介紹原理,主要區別?
      • 誰更注重偏差,誰更注重方差?
      • 訓練樣本一樣,誰生成的樹更深一些(更深意味著越容易過擬合)?

0、面試情況

簡歷+八股+手撕coding,八股問的比較細,難度中等

1、一面

1.1、簡歷上的項目介紹了個遍

1.2、dbscan原理

1.3、為什么梯度的負方向就是損失函數下降最快的方向?

答:在每一步迭代中,算法會根據當前位置的梯度方向 (即損失函數在該點處的導數)來更新參數。因為導數表示了函數在該點處的變化率,所以朝著負梯度方向更新參數可以使得損失函數在下一步迭代中減少最快。

1.4、bn原理,為什么bn能解決過擬合,

答:

  • BN的思路并未專門針對過擬合問題而設計,但它的規范化步驟相當于對模型的參數空間引入了約束,間接緩解了過擬合現象,提高了網絡的魯棒性。BN對過擬合的間接作用,可以從參數正則化和數據增廣這兩方面理解。BN每次的mini-batch的數據都不一樣,但是每次的mini-batch的數據都會對moving mean和moving variance產生作用,可以認為是引入了噪聲,這就可以認為是進行了data augmentation,而data augmentation被認為是防止過擬合的一種方法。因此,可以認為用BN可以防止過擬合。

  • 先理清2個概念:1、獨立同分布(IID):即假設訓練數據和測試數據是滿足相同分布的。它是通過訓練數據獲得的模型能夠在測試集獲得好的效果的一個基本保障。2、Covariate shift:如果ML系統實例集合<X,Y>中的輸入值X的分布老是變,網絡模型很難穩定的學規律。
    所以,之所以深度神經網絡隨著網絡深度加深,訓練越來越困難是因為,對于深度學習這種包含很多隱層的網絡結構,在訓練過程中,因為各層參數不停在變化,所以每個隱層都會面臨covariate shift的問題,也就是在訓練過程中,隱層的輸入分布老是變來變去,這就是所謂的“Internal Covariate Shift(ICS)”,Internal指的是深層網絡的隱層,是發生在網絡內部的事情,而不是covariate shift問題只發生在輸入層。
    BatchNorm的基本思想就是能不能讓每個隱層節點的激活輸入分布固定下來呢?這樣就避免了“Internal Covariate Shift”問題了。

所以BN實質上就是在深度神經網絡訓練過程中使得每一層神經網絡的輸入保持相同分布的一種方法。

BN的基本思想其實相當直觀:因為深層神經網絡在做非線性變換前的激活輸入值隨著網絡深度加深或者在訓練過程中,其分布逐漸發生偏移或者變動,之所以訓練收斂慢,一般是整體分布逐漸往非線性函數的取值區間的上下限兩端靠近(對于Sigmoid函數來說,意味著激活輸入值WU+B是大的負值或正值),所以這導致將推到了梯度飽和區,反向傳播時低層神經網絡的梯度消失,這是訓練深層神經網絡收斂越來越慢的本質原因,而BN就是通過一定的規范化手段,把每層神經網絡任意神經元這個輸入值的分布強行拉回到均值為0方差為1的標準正態分布,其實就是把越來越偏的分布強制拉回比較標準的分布,這樣使得激活輸入值落在非線性函數對輸入比較敏感的區域,這樣輸入的小變化就會導致損失函數較大的變化,意思是這樣讓梯度變大,避免梯度消失問題產生,而且梯度變大意味著學習收斂速度快,能大大加快訓練速度。

1.5、auc原理,為什么ctr或你的廣告推薦里用auc指標?

答:因為auc能過在一定程度上評估排序任務的質量

1.6、auc指標能否評估排序任務?

答:
[1]https://blog.csdn.net/qq_42363032/article/details/120070512?spm=1001.2014.3001.5506
[2] https://zhuanlan.zhihu.com/p/462734871

1.7、gauc指標?

面試官:我們一般還會用pcoc指標,衡量排序的精準性。

評估指標:PCOC = pCTR / CTR,由于不同場景真實CTR存在差異,目標是每個場景預測值都盡可能接近真實CTR。

1.8、一面coding題(秒了)

判斷一段字符串是否是回文串,只需根據字母或數字來判斷回文,其他字符跳過。【嗯面試官非常nice,還沒讀完題就給我提示說用這個函數:c.isalnum()。其實我也知道哈哈哈。感謝!非常簡單的一題!】

2、二面

2.1、介紹項目

2.2、廣告推薦全鏈路介紹

2.3、粗排,精排常用模型

2.4、像ctr預估里為何要用sigmoid作為輸出(從充分性與必要性展開講講)?

2.5、sigmoid作為激活函數有什么問題?

2.6、一個好的激活函數應該具備什么優點?

  • 1、非線性:一個好的激活函數應該是非線性的,因為神經網絡需要非線性函數來處理非線性問題。如果激活函數是線性的,那么神經網絡就只能處理線性問題。
  • 2、可微分:激活函數應該是可微分的,因為神經網絡需要使用梯度下降算法來訓練模型,而梯度下降算法需要計算梯度。如果激活函數不可微分,那么就不能使用梯度下降算法來訓練模型。
  • 3、非飽和性:一個好的激活函數應該是非飽和的,因為飽和函數會導致梯度消失或爆炸,從而影響模型的訓練效果。
  • 4、單調性:激活函數應該是單調的,因為這樣可以保證輸出隨著輸入的增加或減少而單調遞增或遞減。
  • 5、有界性:激活函數應該是有界的,因為這樣可以防止輸出值過大或過小,從而影響模型的穩定性和訓練效果。
  • 6、計算簡單:激活函數應該是計算簡單的,因為神經網絡需要進行大量的計算,如果激活函數計算復雜,就會影響模型的性能和訓練效率。

2.7、生成式模型與判別式模型區別?

在機器學習中,對于有監督學習可以將其分為兩類模型:判別式模型和生成式模型。簡單地說,判別式模型是針對條件分布建模,而生成式模型則針對聯合分布進行建模。

2.8、用了DNN做特交叉組合,是否還有必要人工做特征交叉組合?

2.9、默寫機器學習公式

  • 1、貝葉斯定理公式
    P(A|B) = P(AB)/P(B)
    = P(B|A)*P(A)/P(B)

  • 2、極大似然公式

  • 極大似然估計的核心思想是:認為當前發生的事件是概率最大的事件。因此就可以給定的數據集,使得該數據集發生的概率最大來求得模型中的參數。【求對數似然函數最大化,可以通過sgd等優化算法求解】
    L(X|w) = ∏_i p(xi|w) 【其中xi為單個樣本】

  • 3、交叉熵公式
    cl_loss = - ∑_k tk * logyk

2.10、防止過擬和的方法?

2.11、LN與BN原理,以及各自的適用場景?

2.12、邏輯回歸原理?邏輯回歸中的幾率是什么?幾率和概率的區別,如果幾率為4,概率為多少?

  • 幾率:更準確的說,成功的幾率,被定義為成功的概率/失敗的概率。明天晴天的概率為80%,非晴天的概率為20%,則幾率為:4=log(0.8/0.4)
  • 對數幾率:對幾率取對數。如上,對數幾率為ln4。
  • 對數幾率回歸:邏輯回歸又名對數幾率回歸。設我們需要擬合對數幾率:ln(y/(1-y)) = wx+b。對該式子轉化,即可變為邏輯回歸的形式:p(y=1|x)=exp(wx+b)/(1+exp(wx+b))。

2.13、隨機森林與GBDT

介紹原理,主要區別?

  • 1、rf:bagging (有放回采樣)。gbdt:boosting
  • 2、隨機森林可以由分類樹和回歸樹組成,GBDT只能由回歸樹組成。
  • 3、隨機森林的樹可以并行生成,而GBDT只能串行生成,所以隨機森林的訓練速度相對較快。
  • 4、隨機森林關注減小模型的方差,GBDT關注減小模型的偏差。
  • 5、隨機森林對異常值不敏感,GBDT對異常值非常敏感。
  • 6、隨機森林最終的結果是多數投票或簡單平均,而GBDT是加權累計起來。

誰更注重偏差,誰更注重方差?

  • 隨機森林關注減小模型的方差,GBDT關注減小模型的偏差。

訓練樣本一樣,誰生成的樹更深一些(更深意味著越容易過擬合)?

答:隨機森林。因為:

  • 隨機森林關注減小模型的方差,需要通過生成更深的樹來減少偏差。
  • gbdt關注減小模型的偏差,需要通過生成較淺的樹來減少方差,防止過擬合。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/web/15941.shtml
繁體地址,請注明出處:http://hk.pswp.cn/web/15941.shtml
英文地址,請注明出處:http://en.pswp.cn/web/15941.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

TG5032CGN TCXO 超高穩定10pin端子型適用于汽車動力轉向控制器

TG5032CGN TCXO / VC-TCXO是一款應用廣泛的晶振&#xff0c;具有超高穩定性&#xff0c;CMOS輸出和使用晶體基振的削波正弦波輸出形式。且有低相位噪聲優勢&#xff0c;是溫補晶體振蕩器(TCXO)和壓控晶體振蕩器(VCXO)結合的產物&#xff0c;具有TCXO和VCXO的共同優點&#xff0…

后臺接口返回void但是response有設置合適的相關信息,前端調用接口解析Blob數據下載excel文件

1、pom.xml文件增加依賴&#xff1a; <dependency><groupId>org.apache.poi</groupId><artifactId>poi-ooxml</artifactId></dependency> 2、接口代碼如下&#xff1a; /*** 企業列表--導出*/GetMapping(value "/downloadTenantL…

微信小程序上線必備:SSL證書申請以及安裝

一、認識ssl證書 1、ssl證書是什么&#xff1f; SSL證書&#xff0c;全稱Secure Socket Layer Certificate&#xff0c;是一種數字證書&#xff0c;它遵循SSL&#xff08;現在通常指TLS&#xff0c;Transport Layer Security&#xff09;協議標準&#xff0c;用于在客戶端&…

SpringCloud系列(26)--OpenFeign超時控制

前言&#xff1a;在上一章節中我們簡單的介紹了如何使用OprnFeign去調用微服務&#xff0c;因為消費側和服務側是兩個不同的微服務&#xff0c;這樣可能會出現超時的現象&#xff0c;例如服務側需要3秒處理任何才能返回結果&#xff0c;但消費側可能2秒就斷開連接了&#xff0c…

【深度學習】2.單層感知機

目標&#xff1a; 實現一個簡單的二分類模型的訓練過程&#xff0c;通過模擬數據集進行訓練和優化&#xff0c;訓練目標是使模型能夠根據輸入特征正確分類數據。 演示: 1.通過PyTorch生成了一個模擬的二分類數據集&#xff0c;包括特征矩陣data_x和對應的標簽數據data_y。標簽…

加密與安全_AES RSA 密鑰對生成及PEM格式的代碼實現

文章目錄 RSA&#xff08;非對稱&#xff09;和AES&#xff08;對稱&#xff09;加密算法一、RSA&#xff08;Rivest-Shamir-Adleman&#xff09;二、AES&#xff08;Advanced Encryption Standard&#xff09; RSA加密三種填充模式一、RSA填充模式二、常見的RSA填充模式組合三…

新業務 新市場 | 靈途科技新品亮相馬來西亞亞洲防務展

5月6日&#xff0c;靈途科技攜新品模組與武漢長盈通光電&#xff08;股票代碼&#xff1a;688143&#xff09;攜手參加第18屆馬來西亞亞洲防務展。首次亮相海外&#xff0c;靈途科技便收獲全球客戶的廣泛關注&#xff0c;為公司海外市場開拓打下堅實基礎。 靈途科技與長盈通共同…

Dbs封裝_連接池

1.Dbs封裝 每一個數據庫都對應著一個dao 每個dao勢必存在公共部分 我們需要將公共部分抽取出來 封裝成一個工具類 保留個性化代碼即可 我們的工具類一般命名為xxxs 比如Strings 就是字符串相關的工具類 而工具類 我們將其放置于util包中我們以是否有<T>區分泛型方法和非泛…

Python并發編程學習記錄

1、初識并發編程 1.1、串行&#xff0c;并行&#xff0c;并發 串行(serial)&#xff1a;一個cpu上按順序完成多個任務&#xff1b; 并行(parallelism)&#xff1a;任務數小于或等于cup核數&#xff0c;多個任務是同時執行的&#xff1b; 并發(concurrency)&#xff1a;一個…

計算機SCI期刊,IF=8+,專業性強,潛力新刊!

一、期刊名稱 Journal of Big data 二、期刊簡介概況 期刊類型&#xff1a;SCI 學科領域&#xff1a;計算機科學 影響因子&#xff1a;8.1 中科院分區&#xff1a;2區 出版方式&#xff1a;開放出版 版面費&#xff1a;$1990 三、期刊征稿范圍 《大數據雜志》發表了關于…

2024年【T電梯修理】考試內容及T電梯修理新版試題

題庫來源&#xff1a;安全生產模擬考試一點通公眾號小程序 2024年【T電梯修理】考試內容及T電梯修理新版試題&#xff0c;包含T電梯修理考試內容答案和解析及T電梯修理新版試題練習。安全生產模擬考試一點通結合國家T電梯修理考試最新大綱及T電梯修理考試真題匯總&#xff0c;…

線性dp合集,藍橋杯

貿易航線 0貿易航線 - 藍橋云課 (lanqiao.cn) n,m,kmap(int ,input().split()) #貪心的想&#xff0c;如果買某個東西利潤最大&#xff0c;那我肯定直接拉滿啊&#xff0c;所以買k個和買一個沒區別 p[0] for i in range(n):p.append([-1]list(map(int,input().split())))dp[[…

(2024,SDE,對抗薛定諤橋匹配,離散時間迭代馬爾可夫擬合,去噪擴散 GAN)

Adversarial Schrdinger Bridge Matching 公眾號&#xff1a;EDPJ&#xff08;進 Q 交流群&#xff1a;922230617 或加 VX&#xff1a;CV_EDPJ 進 V 交流群&#xff09; 目錄 0. 摘要 1. 簡介 4. 實驗 0. 摘要 薛定諤橋&#xff08;Schrdinger Bridge&#xff0c;SB&…

el-autocomplete后臺遠程搜索

el-complete可以實現后臺遠程搜索功能&#xff0c;但有時傳入數據為空時&#xff0c;接口可能會報錯。此時可在querySearchAsync方法中&#xff0c;根據queryString判斷&#xff0c;若為空&#xff0c;則不掉用接口&#xff0c;直接callback([])&#xff0c;反之則調用接口&…

浮點型比較大小

浮點數的存儲形式 浮點數按照在內存中所占字節數和數值范圍&#xff0c;可以分為浮點型&#xff0c;雙精度浮點型和長雙浮點型數。 代碼&#xff1a; printf("lgn:%e \n", pow(exp(1), 100));printf("lgn:%f ", pow(exp(1), 100));輸出結果&#xff1a; …

Stanford斯坦福 CS 224R: 深度強化學習 (5)

離線強化學習:第一部分 強化學習(RL)旨在讓智能體通過與環境交互來學習最優策略,從而最大化累積獎勵。傳統的RL訓練都是在線(online)進行的,即智能體在訓練過程中不斷與環境交互,實時生成新的狀態-動作數據,并基于新數據來更新策略。這種在線學習雖然簡單直觀,但也存在一些局限…

【Could not find Chrome This can occur if either】

爬蟲練習中遇到的問題 使用puppeteer執行是提示一下錯誤 Error: Could not find Chrome (ver. 125.0.6422.78). This can occur if either you did not perform an installation before running the script (e.g. npx puppeteer browsers install chrome) oryour cache path…

CLIP 論文的關鍵內容

CLIP 論文整體架構 該論文總共有 48 頁&#xff0c;除去最后的補充材料十頁去掉&#xff0c;正文也還有三十多頁&#xff0c;其中大部分篇幅都留給了實驗和響應的一些分析。 從頭開始的話&#xff0c;第一頁就是摘要&#xff0c;接下來一頁多是引言&#xff0c;接下來的兩頁就…

常用 CSS 寫法

不是最后一個 :not(:last-child)漸變色 background: linear-gradient(270deg, #15aaff 0%, #02396a 100%);文字漸變色 background-image: linear-gradient(to right, #ff7e5f, #feb47b); -webkit-background-clip: text; background-clip: text; color: transparent;

python文件IO基礎知識

目錄 1.open函數打開文件 2.文件對象讀寫數據和關閉 3.文本文件和二進制文件的區別 4.編碼和解碼 讀寫文本文件時 讀寫二進制文件時 5.文件指針位置 6.文件緩存區與flush()方法 1.open函數打開文件 使用 open 函數創建一個文件對象&#xff0c;read 方法來讀取數據&…