馬爾科夫不等式和切比雪夫不等式

前言

本文隸屬于專欄《機器學習數學通關指南》,該專欄為筆者原創,引用請注明來源,不足和錯誤之處請在評論區幫忙指出,謝謝!

本專欄目錄結構和參考文獻請見《機器學習數學通關指南》


正文

統計概率的利劍:掌握這兩大不等式,讓機器學習模型風險評估更有保障!

在這里插入圖片描述

1?? 馬爾科夫不等式:概率上界的基石 🏗?

🔍 核心思想

對于非負隨機變量 X ≥ 0 X \geq 0 X0,其取值超過某閾值 a ( a > 0 ) a\ (a > 0) a?(a>0) 的概率上界可通過數學期望估計。馬爾科夫不等式提供了一種分布無關的概率上界估計方法。

📝 數學形式

P ( X ≥ a ) ≤ E ( X ) a P(X \geq a) \leq \frac{E(X)}{a} P(Xa)aE(X)?

🧩 直觀理解

想象一個班級的學生成績(非負),平均分80分。有多少學生可能得到160分以上?馬爾科夫告訴我們:最多50%,因為 80 160 = 0.5 \frac{80}{160} = 0.5 16080?=0.5

🔄 推導過程

由于 X ≥ 0 X \geq 0 X0,期望 E ( X ) = ∫ 0 ∞ x f ( x ) d x E(X) = \int_0^\infty x f(x) dx E(X)=0?xf(x)dx。將積分拆分:

E ( X ) = ∫ 0 a x f ( x ) d x + ∫ a ∞ x f ( x ) d x ≥ ∫ a ∞ x f ( x ) d x ≥ a ∫ a ∞ f ( x ) d x = a ? P ( X ≥ a ) E(X) = \int_0^a x f(x) dx + \int_a^\infty x f(x) dx \geq \int_a^\infty x f(x) dx \geq a \int_a^\infty f(x) dx = a \cdot P(X \geq a) E(X)=0a?xf(x)dx+a?xf(x)dxa?xf(x)dxaa?f(x)dx=a?P(Xa)

兩邊同除 a a a 即得不等式。

💡 機器學習應用

  1. 異常檢測:估計特征值超過閾值的異常概率上界
  2. 過擬合風險評估:當損失函數視為隨機變量時,評估超過某閾值的概率
  3. 資源分配預測:如預估GPU內存使用峰值概率
  4. 梯度下降收斂性:評估隨機梯度下降中梯度爆炸的概率上界

📈 實例:模型訓練資源規劃

假設深度學習訓練任務的內存需求 X X X 平均為8GB,估計內存需求超過16GB的概率上界:

P ( X ≥ 16 G B ) ≤ 8 G B 16 G B = 0.5 P(X \geq 16GB) \leq \frac{8GB}{16GB} = 0.5 P(X16GB)16GB8GB?=0.5

因此,如果我們為服務器配置16GB內存,理論上至少50%的訓練任務可以順利完成。

2?? 切比雪夫不等式:方差的力量 💪

🔍 核心思想

切比雪夫不等式利用方差量化隨機變量偏離均值的程度,提供比馬爾科夫更精確的概率界限,是機器學習中量化不確定性的強大工具。

📝 數學形式

P ( ∣ X ? E ( X ) ∣ ≥ ? ) ≤ D ( X ) ? 2 P\left(|X - E(X)| \geq \epsilon\right) \leq \frac{D(X)}{\epsilon^2} P(X?E(X)?)?2D(X)?

等價形式:

P ( ∣ X ? E ( X ) ∣ < ? ) ≥ 1 ? D ( X ) ? 2 P\left(|X - E(X)| < \epsilon\right) \geq 1 - \frac{D(X)}{\epsilon^2} P(X?E(X)<?)1??2D(X)?

🧩 直觀理解

如果模型預測誤差的方差為4,那么預測偏離真實值超過10個單位的概率不會超過 4 1 0 2 = 0.04 \frac{4}{10^2} = 0.04 1024?=0.04,即4%。

🔄 推導過程

對隨機變量 Y = ( X ? μ ) 2 Y = (X - \mu)^2 Y=(X?μ)2 應用馬爾科夫不等式。已知 E ( Y ) = D ( X ) E(Y) = D(X) E(Y)=D(X),則:

P ( Y ≥ ? 2 ) ≤ E ( Y ) ? 2 = D ( X ) ? 2 P(Y \geq \epsilon^2) \leq \frac{E(Y)}{\epsilon^2} = \frac{D(X)}{\epsilon^2} P(Y?2)?2E(Y)?=?2D(X)?

注意到 ( X ? μ ) 2 ≥ ? 2 ? ∣ X ? μ ∣ ≥ ? (X - \mu)^2 \geq \epsilon^2 \Leftrightarrow |X - \mu| \geq \epsilon (X?μ)2?2?X?μ?,即得原式。

💡 機器學習應用

  1. 模型預測置信區間:根據驗證誤差方差估計預測偏離的概率范圍
  2. 特征重要性評估:評估特征值偏離均值的穩定性
  3. 模型魯棒性分析:量化模型對輸入擾動的敏感度
  4. 早停策略設計:基于驗證損失偏離平均值的概率設計早停閾值

💻 實現示例

import numpy as np
import matplotlib.pyplot as plt# 生成隨機數據
np.random.seed(42)
data = np.random.normal(100, 15, 1000)  # 均值100,標準差15的正態分布# 計算實際值
mean = np.mean(data)
var = np.var(data)
epsilon = 30# 切比雪夫不等式計算
chebyshev_bound = var / (epsilon**2)
actual_prob = np.mean(np.abs(data - mean) >= epsilon)print(f"數據均值: {mean:.2f}")
print(f"數據方差: {var:.2f}")
print(f"切比雪夫界限: P(|X - μ| ≥ {epsilon}) ≤ {chebyshev_bound:.4f}")
print(f"實際概率: P(|X - μ| ≥ {epsilon}) = {actual_prob:.4f}")# 對比圖
plt.figure(figsize=(10, 6))
plt.hist(data, bins=50, alpha=0.7, density=True, label='數據分布')
plt.axvline(mean, color='r', linestyle='--', label=f'均值: {mean:.2f}')
plt.axvline(mean + epsilon, color='g', linestyle='--', label=f'均值 + {epsilon}')
plt.axvline(mean - epsilon, color='g', linestyle='--', label=f'均值 - {epsilon}')
plt.title('切比雪夫不等式實例演示')
plt.legend()
plt.show()

📊 實例:推薦系統的準確性評估

某推薦系統的點擊率預測模型在驗證集上的預測誤差方差為0.04。使用切比雪夫不等式,可估計預測偏離真實值超過0.3的概率上界:

P ( ∣ X ? μ ∣ ≥ 0.3 ) ≤ 0.04 0. 3 2 ≈ 0.44 P(|X - \mu| \geq 0.3) \leq \frac{0.04}{0.3^2} \approx 0.44 P(X?μ0.3)0.320.04?0.44

這提示我們模型的準確性還有提升空間,44%的預測可能有較大偏差。

3?? 馬爾科夫與切比雪夫不等式對比 🔍

對比項馬爾科夫不等式切比雪夫不等式
適用條件 X ≥ 0 X \geq 0 X0,僅需均值已知需已知均值和方差
數學基礎通過期望拆分積分基于變量 ( X ? μ ) 2 (X - \mu)^2 (X?μ)2的馬爾科夫擴展
估計特點單邊界( X ≥ a X \geq a Xa)雙側界( ∣ X ? μ ∣ ≥ ? \vert X - \mu \vert \geq \epsilon X?μ?)
界限精度較松散更嚴格(利用方差信息)
ML中典型應用梯度爆炸檢測
資源使用預測
預測置信區間
模型收斂性分析

4?? 機器學習中的實際應用 🤖

🔬 批量歸一化(Batch Normalization)原理解釋

切比雪夫不等式幫助解釋為什么批量歸一化能提高模型訓練穩定性。通過標準化每層輸出,使方差保持恒定,根據切比雪夫不等式,可以更好地控制激活值偏離均值的概率,減少梯度消失/爆炸問題。

🎯 SGD優化器學習率調節

隨機梯度下降中,每批次梯度可視為隨機變量。應用馬爾科夫不等式,可以估計梯度超過閾值的概率上界,幫助動態調整學習率。

🛡? 異常檢測閾值設定

在無監督異常檢測中,若特征 X X X的均值為 μ \mu μ,方差為 σ 2 \sigma^2 σ2,根據切比雪夫不等式,設置閾值 T = μ + k σ T = \mu + k\sigma T=μ+,則異常比例不超過 1 k 2 \frac{1}{k^2} k21?,提供了閾值選擇的理論依據。

5?? 與其他概率界的關系與擴展 🌐

🔗 霍夫丁不等式(Hoeffding’s Inequality)

切比雪夫的一個重要擴展,提供了有界隨機變量和的更緊概率界限,是PAC學習理論和VC維分析的基礎。

形式:若 X 1 , X 2 , . . . , X n X_1, X_2, ..., X_n X1?,X2?,...,Xn?是獨立隨機變量且 a i ≤ X i ≤ b i a_i \leq X_i \leq b_i ai?Xi?bi?,則:

P ( ∣ 1 n ∑ i = 1 n X i ? E [ 1 n ∑ i = 1 n X i ] ∣ ≥ ? ) ≤ 2 e ? 2 n 2 ? 2 ∑ i = 1 n ( b i ? a i ) 2 P\left(|\frac{1}{n}\sum_{i=1}^n X_i - E[\frac{1}{n}\sum_{i=1}^n X_i]| \geq \epsilon\right) \leq 2e^{-\frac{2n^2\epsilon^2}{\sum_{i=1}^n (b_i-a_i)^2}} P(n1?i=1n?Xi??E[n1?i=1n?Xi?]?)2e?i=1n?(bi??ai?)22n2?2?

🔄 集中不等式(Concentration Inequalities)

馬爾科夫和切比雪夫不等式是最基礎的集中不等式,在高維統計和機器學習中,更廣泛應用的有:

  • 次高斯分布的概率界
  • 矩陣濃縮不等式,用于隨機矩陣分析
  • 經驗風險最小化的泛化誤差界

6?? 代碼實踐:模型魯棒性評估工具 🛠?

def estimate_robustness(model, test_data, test_labels, epsilon=0.1):"""使用切比雪夫不等式估計模型對輸入擾動的魯棒性Args:model: 訓練好的模型test_data: 測試數據test_labels: 測試標簽epsilon: 輸入擾動幅度Returns:robustness_score: 模型魯棒性分數 (0-1,越高越好)"""# 計算原始預測original_preds = model.predict(test_data)original_acc = np.mean(np.argmax(original_preds, axis=1) == test_labels)# 生成擾動數據perturbed_data = test_data + np.random.normal(0, epsilon, test_data.shape)perturbed_preds = model.predict(perturbed_data)# 計算預測變化的方差pred_diff = np.abs(original_preds - perturbed_preds)pred_var = np.var(pred_diff)# 使用切比雪夫不等式估計穩定性delta = 0.1  # 允許的預測變化閾值stability_prob_lower = 1 - (pred_var / (delta**2))stability_prob_lower = max(0, min(1, stability_prob_lower))  # 限制范圍[0,1]print(f"模型原始準確率: {original_acc:.4f}")print(f"預測變化方差: {pred_var:.6f}")print(f"穩定性下界(切比雪夫): {stability_prob_lower:.4f}")return stability_prob_lower

7?? 總結與進階方向 📚

📌 要點總結

  • 馬爾科夫不等式:通過均值提供單側概率上界,適用于非負隨機變量
  • 切比雪夫不等式:通過方差提供雙側概率界,更精確但要求更多信息
  • 機器學習應用:從模型訓練、評估到部署,這些不等式提供了理論基礎
  • 實踐價值:即使在不知道確切分布的情況下也能得到有用的概率界限

🚀 進階方向

  1. 探索更精確的界限:學習柴丁-霍夫丁不等式(Chernoff-Hoeffding bounds),它在大多數情況下提供比切比雪夫更緊的概率界

  2. 指數型馬爾科夫不等式:研究基于矩生成函數的指數馬爾科夫不等式,形式為 P ( X ≥ a ) ≤ E [ e t X ] e t a P(X \geq a) \leq \frac{E[e^{tX}]}{e^{ta}} P(Xa)etaE[etX]?,它是許多更強不等式的基礎

  3. 次高斯(Sub-Gaussian)與次指數(Sub-Exponential)隨機變量:這些特殊類型的隨機變量具有更好的尾部概率界限,在高維統計和機器學習理論中廣泛應用

  4. 經驗風險最小化(ERM)理論:了解如何使用集中不等式推導學習算法的泛化誤差界

8?? 機器學習算法中的應用實例 🧠

🤖 梯度下降的收斂性分析

隨機梯度下降(SGD)中,單次梯度可視為隨機變量。若其方差有界,通過切比雪夫不等式可估計:

P ( ∣ ∣ ? f ( x t ) ? E [ ? f ( x t ) ] ∣ ∣ ≥ ? ) ≤ σ 2 ? 2 P\left(||\nabla f(x_t) - \mathbb{E}[\nabla f(x_t)]|| \geq \epsilon\right) \leq \frac{\sigma^2}{\epsilon^2} P(∣∣?f(xt?)?E[?f(xt?)]∣∣?)?2σ2?

這解釋了為什么:

  • 小批量(mini-batch)SGD比單樣本SGD更穩定
  • 梯度裁剪(gradient clipping)能提高訓練穩定性
  • 學習率衰減策略有助于收斂

📋 特征選擇與降維

在特征選擇中,可使用切比雪夫不等式評估特征缺失對模型性能的影響。若特征 X i X_i Xi? 的信息增益方差為 σ i 2 \sigma_i^2 σi2?,則可以估計刪除該特征后模型性能下降超過閾值 δ \delta δ 的概率。

def feature_stability_score(feature_importances, n_bootstrap=100):"""使用切比雪夫不等式評估特征重要性的穩定性"""importances = []for _ in range(n_bootstrap):# 假設有bootstrap重采樣的特征重要性數據bootstrap_idx = np.random.choice(len(feature_importances), len(feature_importances), replace=True)importances.append(feature_importances[bootstrap_idx])# 計算每個特征重要性的方差variances = np.var(importances, axis=0)# 使用切比雪夫不等式估計穩定性epsilon = 0.05  # 允許的波動stability_scores = 1 - (variances / (epsilon**2))stability_scores = np.clip(stability_scores, 0, 1)  # 限制在[0,1]范圍return stability_scores

🎯 異常檢測與離群點識別

在基于密度的異常檢測中,馬爾科夫不等式提供了一個重要思路:如果數據點 x x x 的密度估計值 p ( x ) p(x) p(x) 滿足 p ( x ) < τ E [ p ( X ) ] p(x) < \frac{\tau}{E[p(X)]} p(x)<E[p(X)]τ?,則 x x x 可能是異常值。這是局部異常因子(LOF)等算法的理論基礎之一。

9?? 常見問題與解答 ?

Q1: 這些不等式在深度學習中有什么應用?

A: 在深度學習中,這些不等式幫助:

  • 分析網絡權重初始化策略的合理性
  • 證明Dropout等正則化技術的有效性
  • 設計自適應學習率優化器(如AdaGrad)
  • 分析批量歸一化(Batch Normalization)等技術的收斂性質
  • 評估模型對對抗樣本的魯棒性

Q2: 為什么切比雪夫不等式在實際中常被認為界限過松?

A: 切比雪夫不等式適用于任何具有有限方差的分布,這種通用性導致界限較為保守。對于特定分布(如高斯分布),可以得到更緊的界限。例如,對于高斯分布,3-sigma規則表明偏離均值超過3個標準差的概率約為0.003,而切比雪夫僅給出 1 / 9 ≈ 0.111 1/9 \approx 0.111 1/90.111 的上界。

Q3: 如何使用這些不等式設計早停策略?

A: 設模型在驗證集上的損失為隨機變量 L L L,其移動平均為 μ t \mu_t μt?,移動方差為 σ t 2 \sigma_t^2 σt2?。使用切比雪夫不等式,可估計損失低于當前最佳值的概率上界。若該概率小于閾值(如0.05),則可能已接近最優,可以考慮早停。

🔟 經典應用:PAC學習理論 🎓

PAC(Probably Approximately Correct)學習理論是機器學習的理論基礎,而集中不等式(特別是霍夫丁不等式,切比雪夫不等式的一個擴展)在其中扮演核心角色。

對于樣本量為 m m m 的訓練集,經驗風險為 R ^ ( h ) \hat{R}(h) R^(h),真實風險為 R ( h ) R(h) R(h),霍夫丁不等式給出:

P ( ∣ R ( h ) ? R ^ ( h ) ∣ ≥ ? ) ≤ 2 e ? 2 m ? 2 P(|R(h) - \hat{R}(h)| \geq \epsilon) \leq 2e^{-2m\epsilon^2} P(R(h)?R^(h)?)2e?2m?2

這意味著當樣本量 m ≥ 1 2 ? 2 ln ? 2 δ m \geq \frac{1}{2\epsilon^2}\ln\frac{2}{\delta} m2?21?lnδ2? 時,我們有 1 ? δ 1-\delta 1?δ 的置信度認為經驗風險與真實風險的差不超過 ? \epsilon ?。這直接導出了PAC學習的樣本復雜度界限。

def calculate_pac_sample_size(epsilon, delta):"""計算PAC學習理論下需要的最小樣本量Args:epsilon: 允許的經驗風險與真實風險之間的誤差delta: 允許的失敗概率Returns:m: 所需最小樣本數"""m = np.ceil((1 / (2 * (epsilon**2))) * np.log(2 / delta))return int(m)# 示例:如果想要95%的置信度,誤差不超過0.1
sample_size = calculate_pac_sample_size(0.1, 0.05)
print(f"為獲得95%置信度,誤差不超過0.1,需要至少{sample_size}個樣本")

💭 結語

馬爾科夫和切比雪夫不等式是機器學習數學基礎中的璀璨明珠。它們不僅提供了理論保證,更在實際算法設計和模型評估中發揮著不可替代的作用。掌握這些工具,我們能夠:

  • 對模型性能做出可靠估計,即便不知道準確的數據分布
  • 設計具有理論保證的算法
  • 更好地理解現有算法的優缺點
  • 建立對模型可靠性的信心

在機器學習日益成為關鍵技術的今天,深入理解這些基礎概念不僅是理論探索,更是實踐應用的堅實基石。希望這篇文章能幫助你在機器學習的數學迷宮中找到前進的方向!

💡 思考練習: 試著用馬爾科夫不等式估計你的模型在極端情況下可能達到的最差性能,然后思考如何通過降低相應指標的方差來提高這個下限。記住,真正的工程師不僅追求平均性能,更要保證最壞情況下的可靠性!


如果你對這個系列感興趣,可以關注我的「機器學習數學通關指南」專欄,我們將繼續探索概率論、線性代數、優化理論等領域在機器學習中的精彩應用!

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/897053.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/897053.shtml
英文地址,請注明出處:http://en.pswp.cn/news/897053.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

基于 STC89C52 的 8x8 點陣顯示漢字

一、引言 在電子信息顯示領域,漢字的直觀呈現為信息傳遞帶來極大便利。8x8 點陣雖顯示空間有限,但通過合理設計,能夠清晰展示一些常用、簡單的漢字,豐富電子設備的交互界面。STC89C52 單片機作為一款經典且應用廣泛的微控制器,以其成本低廉、易于開發的特性,成為驅動 8x…

二進制、八進制、十進制和十六進制間的轉換(原理及工程實現)

在計算機科學和編程中&#xff0c;進制轉換是一個非常重要的基礎知識。無論是二進制、八進制、十進制還是十六進制&#xff0c;它們在不同的場景中都有廣泛的應用。本文將詳細介紹常用進制之間的轉換方法&#xff0c;并附上C語言示例代碼&#xff0c;幫助大家更好地理解和掌握這…

從零開始的 Kafka 學習(二)| 集群啟動

1. 相關概念 1.1 代理&#xff1a;Broker 使用Kafka前&#xff0c;我們都會啟動Kafka服務進程&#xff0c;這里的Kafka服務進程我們一般會稱之為Kafka Broker 或 Kafka Server。因為Kafka是分布式消息系統所以再實際的生產環境中&#xff0c;是需要多個服務進程形成集群提供消…

python如何隨機產生一堆數字并輸出

python隨機產生一堆數字并輸出的方法&#xff1a; 通過for循環語句多次執行for循環里面的“random.randint()”函數產生隨機數。將產生的隨機數賦值給變量&#xff0c;輸出這個變量就可以了 執行結果如下&#xff1a;

vue3與react、 react hooks

一、Vue3新特性&#xff1a;setup、ref、reactive、computed、watch、watchEffect函數、生命周期鉤子、自定義hooks函數、toRef和toRefs、shallowReactive 與 shallowRef、readonly 與 shallowReadonly、toRaw 與 markRaw、customRef、provide 與 inject、Fragment、Teleport、…

《基于WebGPU的下一代科學可視化——告別WebGL性能桎梏》

引言&#xff1a;科學可視化的算力革命 當WebGL在2011年首次亮相時&#xff0c;它開啟了瀏覽器端3D渲染的新紀元。然而面對當今十億級粒子模擬、實時物理仿真和深度學習可視化需求&#xff0c;WebGL的架構瓶頸日益凸顯。WebGPU作為下一代Web圖形標準&#xff0c;通過顯存直存、…

寵物醫療對接DeepSeek詳細方案

基于DeepSeek本地化部署技術與醫療場景優化實踐 一、核心架構設計 1. 本地化部署與數據安全 私有化服務器部署:將DeepSeek模型部署在寵物醫院本地服務器,所有診療數據(如寵物病歷、影像報告)均存儲于院內,避免云端傳輸風險數據加密機制:采用AES-256加密算法對醫療數據加…

K8s 1.27.1 實戰系列(一)準備工作

一、主機規劃與硬件要求 1、節點數量 至少需要 3 臺服務器(1 臺 Master 節點,2 臺 Worker 節點)。本地測試可縮容:若僅用于測試,可縮減為 1 個 Master 和 1 個 Worker,但需注意穩定性風險。2、硬件配置 ?Master 節點:建議 2 核 CPU、8GB 內存、80GB 硬盤。?Worker 節…

2.PSCAD是什么軟件?

PSCAD&#xff08;Power Systems Computer Aided Design&#xff09;是一款功能強大的電力系統仿真軟件&#xff0c;廣泛應用于電力系統的建模、仿真和分析。它結合了電磁暫態仿真引擎EMTDC&#xff08;Electromagnetic Transients including DC&#xff09;&#xff0c;能夠精…

Stable Diffusion模型Pony系列模型深度解析

Stable Diffusion模型Pony系列模型深度解析 一、技術架構與核心特性 基于SDXL的深度優化 Pony系列模型以SDXL為基礎框架&#xff0c;通過針對二次元/動漫風格的微調&#xff0c;強化了在該領域的生成能力&#xff0c;同時保留了對寫實場景的兼容性?。其訓練數據特別側重于人…

FastGPT 引申:混合檢索完整實例

文章目錄 FastGPT 引申&#xff1a;混合檢索完整實例1. 各檢索方式的初始結果2. RRF合并過程3. 合并后的結果4. Rerank重排序后5. 最終RRF合并6. 內容總結 FastGPT 引申&#xff1a;混合檢索完整實例 下邊通過一個簡單的例子說明不同檢索方式的分值變化過程&#xff0c;假設我…

在MATLAB環境中,對矩陣拼接(Matrix Concatenation)的測試

在MATLAB環境中&#xff0c;對矩陣拼接&#xff08;Matrix Concatenation&#xff09;的正確性與魯棒性開展測試時&#xff0c;需要依據不同的拼接場景精心設計測試用例&#xff0c;全面驗證矩陣維度、數據順序、邊界條件以及異常處理等關鍵方面。以下是詳盡的測試方法與具體示…

OpenFeign 學習筆記

OpenFeign 學習筆記 一、基礎入門 1.1 簡介 OpenFeign 是基于聲明式的 REST 客戶端&#xff0c;用于簡化服務間遠程調用。&#xff08;編程式 REST 客戶端&#xff08;RestTemplate&#xff09;&#xff09; 通過接口注解方式定義 HTTP 請求&#xff0c;自動實現服務調用。 …

“沂路暢通”便利服務平臺:賦能同城物流,構建高效暢通的貨運生態

“沂路暢通”便利服務平臺&#xff1a;賦能同城物流&#xff0c;構建高效暢通的貨運生態 隨著城市化進程的加速&#xff0c;同城物流需求迅速增長&#xff0c;然而貨運過程中仍然存在信息不對稱、資源浪費、司機服務體驗差等痛點。臨沂呆馬區塊鏈網絡科技有限公司&#xff08;…

去除HTML有序列表(ol)編號的多種解決方案

以下是去除HTML有序列表(ol)編號的多種解決方案&#xff1a; <!DOCTYPE html> <html> <head> <style> /* 基礎方案&#xff1a;完全移除編號 */ ol.no-number {list-style-type: none; /* 移除默認編號 */padding-left: 0; /* 移除默認縮進 */…

es如何進行refresh?

在 Elasticsearch 中,refresh 操作的作用是讓最近寫入的數據可以被搜索到。以下為你介紹幾種常見的執行 refresh 操作的方式: 1. 使用 RESTful API 手動刷新 你可以通過向 Elasticsearch 發送 HTTP 請求來手動觸發 refresh 操作。可以針對單個索引、多個索引或者所有索引進…

Leetcode 57: 插入區間

Leetcode 57: 插入區間 問題描述&#xff1a; 給定一個非重疊的區間集合 intervals&#xff08;按開始時間升序排列&#xff09;和一個新的區間 newInterval&#xff0c;將新的區間插入到區間集合中并合并重疊的部分&#xff0c;最后返回結果區間集合。 適合面試的解法&#x…

爬蟲面試:關于爬蟲破解驗證碼的13個經典面試題

更多內容請見: 爬蟲和逆向教程-專欄介紹和目錄 文章目錄 1. ?什么是驗證碼(CAPTCHA)?它的作用是什么?2. ?常見的驗證碼類型有哪些?3. ?在爬蟲開發中,遇到驗證碼時通常有哪些解決方案?4. ?如何使用第三方驗證碼識別服務?請舉例說明。5. ?訓練自己的驗證碼識別模型…

Kylin麒麟操作系統服務部署 | NFS服務部署

以下所使用的環境為&#xff1a; 虛擬化軟件&#xff1a;VMware Workstation 17 Pro 麒麟系統版本&#xff1a;Kylin-Server-V10-SP3-2403-Release-20240426-x86_64 一、 NFS服務概述 NFS&#xff08;Network File System&#xff09;&#xff0c;即網絡文件系統。是一種使用于…

三參數水質在線分析儀:從源頭保障飲用水安全

【TH-ZS03】飲用水安全是人類健康的重要保障&#xff0c;其質量直接關系到人們的生命健康。隨著工業化、城市化的快速發展&#xff0c;水體污染問題日益嚴峻&#xff0c;飲用水安全面臨著前所未有的挑戰。為了從源頭保障飲用水安全&#xff0c;科學、高效的水質監測手段必不可少…