【機器學習】——機器學習基礎概念

摘要

本文主要介紹了機器學習的基礎概念和典型過程。一個完整的機器學習過程包括數據收集、數據預處理、數據集劃分、選擇模型、訓練模型、模型評估、模型優化和模型部署等關鍵步驟。在數據收集階段,要獲取足夠且高質量的數據;數據預處理包括數據清理、標準化、編碼和特征工程等;數據集劃分要合理分配訓練集、驗證集和測試集。選擇合適的模型后,進行訓練、評估、優化和部署。此外,還涉及機器學習理論,如歸納學習、偏差 - 方差分解等,以及基本概念,如誤差、過擬合、欠擬合等。

1. 典型機器學習過程

機器學習的核心目標是讓計算機從數據中學習模式,然后在新數據上進行預測或分類。一個完整的機器學習過程通常包括以下 7 個關鍵步驟

1.1. 數據收集(Data Collection)

目標:獲取足夠的、高質量的數據來訓練模型。
方式

  1. 數據庫、API(如金融交易數據)
  2. 傳感器(如 IoT 設備)
  3. 爬蟲抓取網頁數據(如股票信息)
  4. 手動標注(如圖像分類)

? 關鍵點數據量要足夠:數據越多,模型通常表現越好。數據質量要高:錯誤數據、缺失數據會影響模型效果。

1.2. 數據預處理(Data Preprocessing)

目標:清理、轉換數據,使其適合模型訓練。

常見數據預處理步驟

  1. 數據清理(Cleaning)
    • 處理缺失值(如填充均值、中位數)
    • 去除異常值(如 z-score、箱線圖)
  1. 數據標準化(Normalization)
    • 歸一化(Min-Max Scaling):將數值縮放到 [0,1]
    • 標準化(Z-score Scaling):均值 0,標準差 1
  1. 數據編碼(Encoding)
    • 類別變量轉換(如 "男" → 0,"女" → 1)
    • One-Hot 編碼(如 ["北京", "上海", "廣州"] → [1,0,0])
  1. 特征工程(Feature Engineering)
    • 特征選擇:去掉無關特征,減少計算復雜度
    • 特征構造:從原始數據創建新特征(如 "時間" → "上午/下午")

? 高質量的特征工程 = 高效的模型!

1.3. 數據集劃分(Train-Test Split)

目標:劃分數據集,以便評估模型泛化能力。

數據集

作用

訓練集(Training Set)

訓練模型,學習數據模式

驗證集(Validation Set)

調整超參數,優化模型

測試集(Test Set)

評估最終模型性能

常見劃分比例

  • 80% 訓練集 + 20% 測試集
  • 70% 訓練集 + 15% 驗證集 + 15% 測試集

? 交叉驗證(Cross Validation) 可以提高穩定性,例如 K 折交叉驗證(K-Fold CV)

1.4. 選擇模型(Model Selection)

目標:選擇合適的機器學習算法。

機器學習模型類型

任務

常見算法

分類(Classification)

邏輯回歸、決策樹、隨機森林、SVM、神經網絡

回歸(Regression)

線性回歸、嶺回歸、Lasso 回歸、XGBoost

聚類(Clustering)

K-Means、DBSCAN、層次聚類

降維(Dimensionality Reduction)

PCA、t-SNE、LDA

? 淺層模型 vs. 深度學習

  • 小數據:邏輯回歸、SVM、決策樹
  • 大數據:神經網絡(CNN、RNN、Transformer)

1.5. 訓練模型(Model Training)

目標:使用訓練集讓模型學習數據模式。

步驟

  1. 選擇損失函數(Loss Function)
    • 分類:交叉熵(Cross-Entropy)
    • 回歸:均方誤差(MSE)
  1. 選擇優化算法(Optimizer)
    • 梯度下降(Gradient Descent)
    • Adam、SGD(隨機梯度下降)
  1. 訓練模型(多輪迭代)
    • 計算損失
    • 反向傳播更新權重(深度學習)
    • 直到收斂(損失穩定)

? 訓練時防止過擬合

  • 正則化(L1/L2 正則)
  • Dropout(深度學習)
  • 數據增強(Data Augmentation)

1.6. 模型評估(Model Evaluation)

目標:衡量模型在新數據上的泛化能力。關鍵評估指標

任務

評估指標

分類

準確率(Accuracy)、F1 分數、ROC-AUC

回歸

MSE、RMSE(均方根誤差)、R2

? 交叉驗證 可以提高模型的穩定性。

1.7. 模型優化(Model Tuning)

目標:調整超參數,使模型性能最佳。

超參數優化方法

  1. 網格搜索(Grid Search)
    • 預定義多個超參數組合,逐個嘗試
    • 適用于小數據集
  1. 隨機搜索(Random Search)
    • 隨機選擇部分超參數進行嘗試
    • 適用于大數據集
  1. 貝葉斯優化(Bayesian Optimization)
    • 通過概率模型搜索最佳超參數
    • 適用于高維超參數空間

? 模型優化 ≠ 訓練誤差最低,關鍵是泛化誤差最低

1.8. 模型部署(Model Deployment)

目標:將訓練好的模型投入實際應用,提供 API 或服務。

部署方式

  • 本地部署(Flask/Django)
  • 云端部署(AWS、Azure、GCP)
  • 邊緣計算(IoT 設備、移動端)

模型監控

  • 數據漂移(Data Drift):數據分布變化時,模型可能失效
  • 在線學習(Online Learning):持續更新模型,提高預測效果

? 模型上線 ≠ 結束,需要持續監控 & 迭代

1.9. 機器學習完整流程總結

步驟

任務

1. 數據收集

采集數據

2. 數據預處理

清理數據、特征工程

3. 數據集劃分

訓練集、測試集、驗證集

4. 選擇模型

選取機器學習算法

5. 訓練模型

梯度下降、反向傳播

6. 模型評估

計算損失、評估指標

7. 模型優化

超參數調優

8. 模型部署

上線并監控

1.10. 典型的機器學習過程總結

  • 機器學習的核心是 數據 → 訓練 → 預測 → 評估 → 部署
  • 數據質量 決定模型上限,優化調優 決定實際性能。
  • 不斷監控 & 更新,確保模型長期有效!

2. 機器學習理論

機器學習理論的核心是如何用數學和統計方法來分析學習算法的性能和泛化能力。它涉及多個重要概念,包括歸納學習、偏差-方差分解、VC 維、PAC 學習、貝葉斯學習等。

2.1. 歸納學習(Inductive Learning)

2.2. 偏差-方差分解(Bias-Variance Tradeoff)

2.3. VC 維(Vapnik-Chervonenkis Dimension)

2.4. PAC 學習(Probably Approximately Correct Learning)

2.5. 貝葉斯學習(Bayesian Learning)

2.6. 統計學習理論(Statistical Learning Theory, SLT)

目標:分析機器學習算法的泛化能力,解釋為什么機器學習可以工作

關鍵概念

  • 經驗誤差最小化(ERM):選擇使訓練誤差最小的假設
  • 結構風險最小化(SRM):在經驗誤差最小化的基礎上,引入正則化,控制模型復雜度,避免過擬合。

重要結論

  • 訓練誤差低 ≠ 泛化誤差低
  • 適度約束模型復雜度(VC 維),可提高泛化能力

2.7. 深度學習理論(Deep Learning Theory)

目標:解釋深度神經網絡(DNN)為何有效。

關鍵理論

通用近似定理(Universal Approximation Theorem)

  • 單層神經網絡(只要有足夠的神經元)可以逼近任何連續函數
  • 深度學習的優勢:多層結構可減少參數,提高泛化能力

信息瓶頸理論(Information Bottleneck)

  • DNN 逐層學習重要特征,自動進行特征提取

梯度消失 & 爆炸

  • 深度學習初期存在梯度消失問題,導致訓練困難
  • 解決方案:ReLU、Batch Normalization

? 深度學習的理論仍在不斷發展,未完全解釋其為何泛化能力如此強

2.8. 機器學習理論模型總結

理論

作用

歸納學習

機器學習的基本框架

偏差-方差分解

解釋過擬合和欠擬合

VC 維

衡量模型復雜度

PAC 學習

研究模型泛化能力

貝葉斯學習

結合先驗知識學習

統計學習理論

研究經驗誤差和泛化誤差

深度學習理論

研究神經網絡的泛化能力

機器學習理論是優化算法理解模型泛化能力的基礎!

3. 機器學習基本概念

3.1. 誤差

誤差 指的是模型的預測結果與真實值之間的偏差,主要分為 訓練誤差(Training Error)測試誤差(Test Error)

3.2. 訓練誤差(Training Error)

3.3. 經驗誤差

3.4. 過擬合

定義模型過度擬合訓練數據,導致在測試數據上表現不佳。

表現

  • 訓練誤差低,測試誤差高
  • 模型學到了訓練數據的噪聲,而不是真實模式

示例

  • 一個高階多項式回歸模型可能會精確擬合訓練數據,但在新數據上誤差很大。
  • 決策樹太深,導致學習到訓練數據中的噪聲,但泛化能力差。

解決方案

  • 減少模型復雜度(如決策樹剪枝)
  • 正則化(L1/L2 正則)
  • 增加數據量(數據增強、采集更多數據)
  • 使用交叉驗證(如 K 折交叉驗證)

3.5. 欠擬合

定義模型過于簡單,無法捕捉數據的真實模式。

表現

  • 訓練誤差高,測試誤差高
  • 模型沒有學到有效的特征

示例

  • 線性回歸擬合一個非線性數據集,導致預測能力弱。
  • 訓練數據較少,模型無法有效學習。

解決方案

  • 增加模型復雜度(如從線性模型升級到深度神經網絡)
  • 使用更強的特征工程(提取更多的特征)
  • 增加訓練時間(訓練次數不足也會導致欠擬合)

3.6. P問題

機器學習算法的效率通常由計算復雜度決定,涉及P 問題、NP 問題等。

定義可以在多項式時間(Polynomial Time)內求解的問題。

特點

  • 可以高效求解,即時間復雜度是 O(nk)(其中 kkk 為常數)例如:線性回歸、矩陣運算、Dijkstra最短路徑算法

示例

  • 排序問題(快速排序 O(nlog?n)
  • 線性回歸 O(n3)
  • 乘法運算 O(n)

3.7. NP問題

定義給定一個解后,能在多項式時間內驗證正確性,但可能無法在多項式時間內求解的問題。

特點

  • 可能沒有高效算法求解
  • 只能通過窮舉搜索來找到解
  • P?NP(所有P問題都是NP問題,但不確定P是否等于 NP)

示例

  • 旅行商問題(TSP)
  • 背包問題(Knapsack Problem)
  • SAT(布爾可滿足性問題)

3.8. 歸納偏好(歸納偏好決定了模型如何“猜測”未來數據

機器學習中,歸納偏好(Inductive Bias) 指的是機器學習模型在訓練數據有限的情況下,推測新數據時所依據的先驗假設或偏好。通俗地說,歸納偏好就是模型在沒有見過的數據上做出決策時,所遵循的固有“傾向”
如果沒有歸納偏好,模型在遇到新數據時將無法有效地進行推理。一句話總結:歸納偏好決定了模型如何“猜測”未來數據!

3.8.1. 為什么需要歸納偏好?

在現實問題中,訓練數據通常是有限的,如果模型只依賴于訓練數據,而不具有一定的歸納能力,那么它在新數據上的泛化能力會很差。歸納偏好幫助模型合理地“猜測”新的數據模式,使其能在有限的數據上學習并推廣到未知數據。

3.8.2. 歸納偏好的常見類型

不同的學習算法有不同的歸納偏好,常見的歸納偏好如下:

3.8.2.1. 平滑性假設(Smoothness Assumption)
  • 假設:相似的數據點應該有相似的輸出
  • 應用:KNN、線性回歸、SVM、神經網絡等。
  • 示例:在手寫數字識別中,兩個筆跡相似的數字 "3" 和 "3" 可能屬于同一類別,而與 "8" 相差較大。
3.8.2.2. 最小假設復雜度(Occam's Razor 假設)
  • 假設:最簡單的解釋通常是最好的(奧卡姆剃刀原理)。
  • 應用:決策樹剪枝、L1/L2 正則化等。
  • 示例
    • 假設你在數據中發現了一個模式:
      • 復雜模型y = 3x^5 - 2x^4 + 5x^3 - 10x + 7
      • 簡單模型y = 2x + 3
    • 如果簡單模型已經能很好地擬合數據,我們更傾向于使用它,而不是復雜的多項式。
3.8.2.3. 先驗知識(Prior Knowledge)
  • 假設:已有知識可以指導模型學習。
  • 應用:貝葉斯方法、神經網絡權重初始化等。
  • 示例:語言模型中,給定“貓在睡覺”,預測下一個單詞,"床上" 比 "火箭" 更有可能。
3.8.2.4. 結構化先驗(Structured Prior)
  • 假設:數據具有某種結構(如局部性、層級性)。
  • 應用:CNN(卷積神經網絡)、RNN(循環神經網絡)
  • 示例:CNN 利用圖像的局部性,通過卷積核學習局部特征,而不是對整張圖片使用全連接網絡。
3.8.2.5. 線性可分假設
  • 假設:數據可以用超平面進行線性分割。
  • 應用:線性回歸、感知機、SVM(線性核)
  • 示例:在二分類任務中,如果數據點能被一條直線分開,SVM 線性分類器會很好地工作。

3.8.3. 歸納偏好 vs. 過擬合

  • 歸納偏好太強(過于簡單) → 欠擬合(無法捕捉數據模式)
  • 歸納偏好太弱(過于復雜) → 過擬合(只記住訓練數據,無法泛化)

3.8.4. 解決方案

  1. 選擇合適的模型(如 CNN 適合圖像,RNN 適合序列數據)
  2. 正則化(Regularization)(如 L1/L2 限制模型復雜度)
  3. 數據增強(Data Augmentation)(擴展數據,減少過擬合)
  4. 交叉驗證(Cross Validation)(選擇最優模型)
  • 歸納偏好 是機器學習模型在數據有限時對未見數據的一種默認假設
  • 不同算法有不同的歸納偏好,如線性模型假設數據是線性的,CNN 假設圖像具有局部性。
  • 歸納偏好影響泛化能力,太強會欠擬合,太弱會過擬合。
  • 設計機器學習模型時,要選擇合適的歸納偏好,以提高泛化能力。

3.9. NFL定理

NFL定理(No Free Lunch Theorem,無免費午餐定理)是一類關于優化和機器學習的理論,表明在所有可能的目標函數上,沒有任何一個優化算法能夠始終優于其他所有算法。

3.9.1. 主要思想:

NFL 定理主要由 David Wolpert 和 William G. Macready 在 1997 年提出,適用于優化和機器學習問題。它的核心觀點是:

  • 在所有可能的問題分布下,任何兩個優化算法的平均性能是相同的。
  • 沒有單一的最優算法能夠在所有問題上都表現最好。
  • 換句話說,如果一個算法在某些問題上表現良好,那么必然會在另一些問題上表現較差。

3.9.2. 在優化中的意義:

NFL 定理意味著沒有“萬能”的優化算法。如果你不考慮具體問題的特點,而盲目使用某個優化算法(如遺傳算法、梯度下降等),那么它可能在某些問題上有效,但在另一些問題上表現平平。

3.9.3. 在機器學習中的應用:

NFL定理同樣適用于機器學習,表明:

  • 沒有一種學習算法可以在所有可能的任務上都優于其他算法。
  • 任何學習算法的成功都依賴于任務的特定結構和數據分布。
  • 這就是為什么在實際應用中,我們通常需要選擇適合特定任務的模型,而不是依賴某個通用算法。

3.9.4. 直觀理解:

可以把NFL 定理類比成“沒有一種菜適合所有人”:

  • 你可能喜歡川菜,但有人更喜歡粵菜。
  • 沒有一種“最好”的食物能讓所有人都滿意,選擇取決于個人口味(即問題的具體特性)。

總結:NFL 定理告訴我們,在機器學習和優化問題中,沒有萬能的算法,選擇合適的方法需要根據問題的具體特征來調整和優化。

3.9.5. NFL定理在風控和金融優化中的應用

在風控和金融優化領域,無免費午餐定理(NFL,No Free Lunch Theorem)的核心思想可以幫助我們理解為什么沒有單一的風控或投資策略能在所有市場條件下都表現最好。它影響了風控建模、信貸評分、反欺詐檢測資產配置等多個方面。

風控(風險控制)系統的目標是通過模型和規則減少壞賬、欺詐和信用風險。然而,NFL 定理告訴我們:

  • 沒有一個風控模型適用于所有客戶或市場環境
  • 不同風控策略對不同的欺詐模式或信用風險有不同的表現
  • 需要動態調整算法,結合多種方法來應對變化
3.9.5.1. 信貸風控模型
  • 消費金融信貸風控中,我們常用 邏輯回歸、XGBoost、深度學習等方法來預測借款人的違約風險。
  • NFL 啟示:不同模型在不同的數據分布下表現不同,比如:
    • 邏輯回歸對線性數據表現較好,但面對復雜模式(如欺詐用戶)時可能效果較差。
    • XGBoost 對大規模特征工程較敏感,適用于非線性特征,但可能在稀疏數據上表現不佳。
    • 深度學習可以捕捉復雜模式,但需要大量數據,并且可能過擬合。
  • 實際應用:許多金融機構會采用 模型集成(如 stacking、bagging、boosting)來應對不同的數據分布,提高魯棒性。
3.9.5.2. 反欺詐檢測
  • 欺詐模式是不斷變化的,攻擊者會不斷嘗試繞過已有規則,導致歷史數據的模式不能很好地泛化到未來。
  • NFL 啟示:單一模型難以持續有效,因此需要:
    • 動態模型更新:比如基于在線學習的算法,可以實時適應新的欺詐手段。
    • 多模型結合:如使用規則引擎 + 機器學習模型(例如 Random Forest + 異常檢測模型),提高檢測能力。
    • 特征工程優化:結合用戶行為數據、設備信息、交易模式等,形成多維度的特征空間。

3.9.6. NFL定理在金融優化中的應用

在金融市場中,NFL 定理說明沒有單一的投資策略可以在所有市場條件下始終有效,這對資產管理、投資組合優化等有重要影響。

3.9.6.1. 資產配置與投資策略
  • 量化交易和資產管理中,投資策略往往基于機器學習、統計分析或經濟學模型來預測市場趨勢。
  • NFL 啟示
    • 沒有一種策略能在所有市場環境下都穩定盈利。例如:
      • 趨勢跟隨策略(Trend Following)在單邊市場有效,但在震蕩市場表現較差。
      • 均值回歸策略(Mean Reversion)在震蕩市場有效,但在趨勢市場會虧損。
    • 解決方案
      • 采用 多策略組合(如馬科維茨組合優化、風險平價、CTA 策略等)。
      • 根據市場環境動態調整模型,例如 使用強化學習來優化投資決策
3.9.6.2. 機器學習在金融預測中的局限
  • 許多投資機構使用 LSTM、XGBoost、隨機森林等方法預測股票、期貨走勢。
  • NFL 啟示
    • 沒有一種算法在所有市場和資產類別上都能表現最好,原因包括:
      • 金融市場是 非平穩 的(數據分布不斷變化)。
      • 過去的數據并不能完全反映未來趨勢。
    • 實際應用
      • 使用 AutoML模型組合 來動態選擇最優算法。
      • 結合 基本面分析 + 機器學習 提高穩定性,如使用新聞情感分析+量化模型。

3.9.7. 如何應對 NFL 定理?

在風控和金融優化中,我們可以通過以下方法來應對 NFL 定理帶來的挑戰:

  1. 多策略、多模型融合
    • 在風控領域,結合 專家規則 + 機器學習 提高準確性。
    • 在投資領域,采用 多策略組合(Alpha 策略 + 量化因子 + 宏觀對沖) 來降低單一策略的風險。
  1. 動態調整算法
    • 使用 AutoML 或 Meta Learning,自動選擇適合當前市場環境的模型。
    • 在欺詐檢測中,使用 在線學習 使模型能夠適應欺詐模式的變化。
  1. 特征工程與數據增強
    • 結合多維度數據(交易數據、用戶行為、市場指標)提升模型泛化能力。
    • 在風控建模中,利用 圖神經網絡(GNN) 挖掘欺詐團伙。
  1. 風險管理與魯棒性
    • 在投資中,引入 風險控制(VaR、CVaR),防止單一模型失效帶來極端損失。
    • 在風控系統中,定期 模型監控與回溯測試,防止模型漂移。

3.9.8. NFL定理總結

NFL 定理告訴我們,在風控和金融優化中:

  1. 不存在“最優”算法或策略,我們需要根據業務需求動態調整模型。
  2. 單一策略或模型會有局限性,需要組合多個模型,提高穩健性。
  3. 市場和欺詐模式是動態變化的,必須采用自適應和魯棒的優化方法來應對。

3.10. 機器學習三大問題

在機器學習中,通常有三大核心問題,這些問題構成了機器學習模型開發的基礎和挑戰:

3.10.1. 偏差-方差權衡(Bias-Variance Tradeoff)

這是機器學習中的一個經典問題,涉及到模型的偏差方差之間的平衡。

  • 偏差(Bias):指模型預測值與真實值之間的差異。高偏差通常意味著模型過于簡單,不能很好地擬合數據,導致欠擬合(underfitting)。
  • 方差(Variance):指模型在不同訓練數據集上預測結果的變化程度。高方差意味著模型過于復雜,容易在訓練集上過擬合,但在新的數據上表現不佳。

問題:如何平衡偏差和方差,以便在訓練集和測試集上都取得良好的性能。

解決方案:通過調整模型復雜度、增加訓練數據、使用正則化等方法來平衡偏差和方差。

3.10.2. 欠擬合與過擬合(Underfitting vs Overfitting)

這是機器學習中的另一個核心問題,涉及到如何設計模型以達到最佳泛化能力。

  • 欠擬合(Underfitting):當模型過于簡單,不能捕捉到數據中的規律,導致訓練誤差和測試誤差都很高。
  • 過擬合(Overfitting):當模型過于復雜,過度學習訓練數據中的噪聲和細節,從而導致模型在訓練數據上表現很好,但在測試數據上表現差。

問題:如何避免欠擬合和過擬合,找到合適的模型復雜度和泛化能力。

解決方案:通過調整模型的復雜度、增加訓練數據、使用正則化等方法來避免欠擬合和過擬合。

3.10.3. 數據質量與數據標注問題(Data Quality & Labeling Issue)

數據是機器學習的核心,然而數據的質量和標注問題常常是機器學習中面臨的一個重大挑戰。

  • 數據質量問題:包括數據不完整、噪聲、缺失值、異常值等問題。這些問題會影響模型的性能,甚至導致不準確的預測。
  • 數據標注問題:在監督學習中,需要大量的標注數據。然而,獲取高質量的標注數據既昂貴又耗時,而且標注的準確性可能不高。

問題:如何獲得高質量的數據并保證數據的標注準確性,以訓練一個有效的模型。

解決方案:通過數據預處理(如清洗、去噪、填補缺失值等),增強數據的質量;同時,可以使用半監督學習、無監督學習等方法在標注數據不足時提高模型的性能。

博文參考

《西瓜書》

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/web/73638.shtml
繁體地址,請注明出處:http://hk.pswp.cn/web/73638.shtml
英文地址,請注明出處:http://en.pswp.cn/web/73638.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

麒麟信安全國產化智算一體機與海光C86芯片+ 海光DCU卡完成兼容性適配!

近日,麒麟信安全國產化智算一體機與國產海光C86芯片、海光DCU卡完成兼容性適配! 在數字化轉型的浪潮中,智能辦公已成為企業提升效率、降低成本的重要手段,如何快速、高效地部署智能辦公解決方案,成為許多企業面臨的挑…

Axure設計之中繼器表格——拖動列調整位置教程(中繼器)

一、原理介紹 實現表格列的拖動排序,主要依賴Axure的動態面板和中繼器兩大核心功能: 動態面板交互控制 將表格的列標題封裝在動態面板中,通過拖拽事件(開始、移動、結束)捕捉用戶操作 在拖拽過程中實時計算鼠標位置&…

Vue2項目打包后,某些圖片被轉換為base64導致無法顯示

提示:以下是本篇文章正文內容,下面案例可供參考 Vue2項目打包后,某些圖片被轉換為base64導致無法顯示 1.為什么有些圖片會被轉成base64,而其他的卻正常輸出到dist/img目錄下? 因為Vue CLI默認可能會對小于某個閾值的…

node-red dashboard

安裝: npm install node-red-dashboard 訪問: http://127.0.0.1:1880/ui 1. 創建一個新的 Dashboard 頁面: 在 Node-RED 編輯器中,拖動一個 ui_dashboard 節點到工作區,并將其連接到你的數據流。 2. 配置 Dashboard 節點: 雙擊…

《深入探究:數字類型轉換為指定格式字符串的奧秘》

在計算機編程的世界里,數據就如同流淌在系統脈絡中的血液,而數據類型則是決定其形態與行為的關鍵基因。將數字類型轉換為字符串類型并指定格式,這一看似基礎的操作,實則蘊含著豐富的技術內涵與應用價值,廣泛滲透于數據…

人體細粒度分割sapiens 實戰筆記

目錄 sapiens 分割示例: 分割config文件: 依賴項: mmcv安裝 測試 cnn和ops一起測試: 報錯: 保存圖片代碼: 人體box裁剪擴大,不裁剪擴大效果很差 sapiens https://github.com/facebookresearch/sapiens 分割示例: https://github.com/facebookresearch/sapie…

【cocos creator 3.x】3Dui創建,模型遮擋ui效果

官方文檔:https://docs.cocos.com/creator/3.8/manual/zh/ui-system/components/editor/ui-model.html 1、3Dui創建 創建label,默認會添加canvas根節點和2dCamera 將Camera刪除,canvas上組建去除cc.Canvas,cc.widget&#xff0…

從零開始跑通3DGS教程:介紹

寫在前面 本文內容 本文所屬《從零開始跑通3DGS教程》系列文章,將實現從原始圖像(有序、無序)數據開始,經過處理(視頻抽幀成有序),SFM,3DGS訓練、編輯、渲染等步驟,完整地呈現從原始圖像到新視角合成的全部流程&#x…

車架號查詢車牌號接口如何用Java對接

一、什么是車架號查詢車牌號接口? 車架號查詢車牌號接口,即傳入車架號,返回車牌號、車型編碼、初次登記日期信息。車架號又稱車輛VIN碼,車輛識別碼。 二、如何用Java對接該接口? 下面我們以阿里云接口為例&#xff0…

SvelteKit 最新中文文檔教程(12)—— 高級路由

前言 Svelte,一個語法簡潔、入門容易,面向未來的前端框架。 從 Svelte 誕生之初,就備受開發者的喜愛,根據統計,從 2019 年到 2024 年,連續 6 年一直是開發者最感興趣的前端框架 No.1: Svelte …

Ubuntu系統保姆級Paperless-ngx部署指南:零基礎實現文檔云端化管理

文章目錄 前言1.關于Paperless-ngx2.Docker部署3.簡單使用paperless4.安裝cpolar內網穿透5. 配置公網地址6. 配置固定公網地址總結 前言 在當今快節奏的辦公環境中,文檔管理成為了一個不可忽視的問題。想象一下這樣的場景:你需要一份重要的合同&#xf…

PostgREST實現DBaaS(數據庫即服務)

目錄 配置使用 驗證 token使用 上文部署高可用PostgreSQL14集群后,本文介紹PostgREST,以及如何基于PostgREST實現數據庫即服務,PostgREST可以在 PostgreSQL 數據庫上通過解析數據庫結構(如表、視圖、存儲過程、權限等&#xff…

基于yolov11的鐵路軌道鐵軌缺陷檢測系統python源碼+pytorch模型+評估指標曲線+精美GUI界面

【算法介紹】 基于YOLOv11的鐵路軌道鐵軌缺陷檢測系統是一種高效、準確的自動化檢測技術,專門用于識別和檢測鐵軌上的各種缺陷。該系統利用YOLOv11這一先進的深度學習模型,實現了對Corrugation(波紋磨耗)、Spalling(剝…

WPF TemplateBinding與TemplatedParent區別

在 WPF 中,TemplateBinding 和 TemplatedParent 是兩種與控件模板(ControlTemplate)相關的綁定機制,它們都可以用來在控件模板中訪問控件的屬性。盡管它們的功能有些相似,但它們的行為和使用場景有一些重要的區別。 1.…

華為hcie證書考什么,怎么備考?

新盟教育 | 華為HALP授權培訓合作伙伴 在ICT領域,華為HCIE證書是含金量極高的專業認證,它是對個人技術能力和專業素養的高度認可。對于渴望在網絡、云計算、大數據等前沿領域深入發展的從業者而言,華為HCIE證書是一塊強有力的職業敲門磚。 …

【Git 暫存操作指南2】

Git 暫存操作指南 在日常的 Git 使用場景中,我們常常會遇到各種復雜的情況,需要巧妙運用 Git 的功能來實現高效開發與代碼管理。接下來,我們將深入探討一個具體的開發實例,以及如何通過暫存功能完美解決其中的問題。 一、開發場…

華為hcia——Datacom實驗指南——配置IPv4靜態路由,默認路由和浮動靜態路由

什么是IPv4 IPv4靜態路由,是手動配置的,不會隨著網絡拓撲的變化而變化,所配置的路由信息也不會在網絡中傳播,所以它主要運用在小型網絡或者作為動態路由的補充。 IPv4的配置 配置的命令很簡單 IP route-static (目…

Linux一步部署主DNS服務器

? #!/bin/bash #部署DHCP服務 #userli 20250319if [ "$USER" ! "root" ]then echo"錯誤:非root用戶,權限不足!"exit 0fi#防火墻與高級權限 systemctl stop firewalld && systemctl disable firewalld…

給AI裝“記憶U盤“:LangChain記憶持久化入門指南

🧠 什么是記憶持久化? 想象AI對話就像和朋友聊天: ?普通模式:每次重啟都忘記之前聊過什么?持久化模式:給AI配了個"記憶U盤",聊天記錄永不丟失 核心組件三件套 #mermaid-svg-ORm8cbBXsaRy2sZ…

JumpServer:一款企業級開源堡壘機

在數字化運維時代,如何高效、安全地管控企業內部資產?JumpServer 作為一款完全開源的堡壘機,憑借其強大的 4A(身份認證、授權控制、賬號管理、安全審計)能力與靈活的架構設計,實現事前授權、事中監察、事后…