深度學習---框架流程

核心六步

一、數據準備
二、模型構建
三、模型訓練
四、模型驗證
五、模型優化
六、模型推理

一、數據準備:深度學習的基石

數據是模型的“燃料”,其質量直接決定模型上限。核心步驟包括:

1. 數據收集與標注
  • 來源:公開數據集(如ImageNet、MNIST)、網絡爬取、傳感器采集、人工標注(如圖片分類標簽、文本情感標注)。
  • 標注要求:標簽準確性(避免噪聲)、標注一致性(多人標注需校準)、標注完整性(覆蓋所有目標類別)。
  • 數據形態:結構化數據(表格、數值)、非結構化數據(圖像、文本、音頻、視頻),需根據任務類型(分類、回歸、生成、NLP等)適配。
2. 數據清洗
  • 去噪:刪除重復樣本、處理缺失值(插值、刪除)、過濾異常值(統計方法或算法檢測)。
  • 格式統一:圖像尺寸歸一化(如224x224)、文本分詞與序列化(如BERT的Tokenization)、音頻采樣率統一。
  • 平衡處理:解決類別不平衡(過采樣SMOTE、欠采樣、生成少數類樣本)。
3. 數據預處理
  • 特征工程(針對結構化數據):歸一化(Min-Max)、標準化(Z-Score)、獨熱編碼(One-Hot)、特征選擇(相關性分析、PCA降維)。
  • 模態處理(針對非結構化數據):
    • 圖像:灰度化、縮放、通道轉換(RGB轉BGR)、添加噪聲/模糊增強泛化性。
    • 文本:詞嵌入(Word2Vec、GloVe)、位置編碼(Transformer)、截斷/填充(固定序列長度)。
    • 音頻:梅爾頻譜轉換、MFCC特征提取。
4. 數據增強(關鍵提效手段)
  • 圖像增強:翻轉、旋轉、裁剪、亮度/對比度調整、MixUp/CutOut數據合成。
  • 文本增強:同義詞替換、隨機刪除/插入、回譯(機器翻譯增強)。
  • 目的:擴大數據集規模、減少過擬合、增強模型魯棒性。
5. 數據集劃分
  • 訓練集(60-80%):用于模型參數學習。
  • 驗證集(10-20%):訓練中評估模型,調整超參數(避免用測試集調參導致數據泄漏)。
  • 測試集(10-20%):最終評估模型泛化能力,需與訓練集獨立同分布(i.i.d.)。

二、模型構建:架構設計與組件選擇

根據任務目標設計網絡結構,核心要素包括:

1. 模型架構選擇
  • 經典范式
    • CV領域:CNN(LeNet、ResNet殘差網絡、ViT視覺Transformer)。
    • NLP領域:RNN/LSTM(序列建模)、Transformer(自注意力機制,BERT/GPT基礎)。
    • 生成任務:GAN(生成對抗網絡)、VAE(變分自編碼器)。
    • 多模態:跨模態融合模型(如CLIP圖文對齊)。
  • 設計原則:復雜度匹配數據規模(避免小數據用大模型導致過擬合)、計算資源適配(移動端用輕量模型如MobileNet)。
2. 網絡層設計
  • 基礎層:輸入層(適配數據維度)、輸出層(分類用Softmax,回歸用Linear)。
  • 功能層
    • 卷積層(CNN提取空間特征)、池化層(降維)、全連接層(特征映射)。
    • 注意力層(Self-Attention捕捉長距離依賴)、歸一化層(Batch Normalization穩定訓練)。
    • 激活層(ReLU/Sigmoid/Tanh引入非線性)。
  • 正則化層:Dropout(隨機失活防過擬合)、權重衰減(L2正則化)。
3. 損失函數與優化目標
  • 分類任務:交叉熵損失(Cross-Entropy,多分類用Softmax+CE,二分類用BCELoss)。
  • 回歸任務:均方誤差(MSE)、平均絕對誤差(MAE)。
  • 生成任務:對抗損失(GAN)、重構損失(VAE)。
  • 多任務學習:聯合損失加權求和(如分類+回歸的混合損失)。
4. 優化器配置
  • 經典算法:SGD(隨機梯度下降)、Adam(自適應學習率,結合動量和RMSprop)、RMSprop(處理非平穩目標)。
  • 超參數:學習率(需衰減策略,如余弦退火)、批次大小(Batch Size,影響訓練穩定性)、動量參數(加速收斂)。

三、模型訓練:參數學習與過程控制

將數據輸入模型,通過優化算法更新參數,核心流程如下:

1. 訓練循環(Training Loop)
  • 前向傳播:輸入數據經網絡計算輸出預測值( y ^ \hat{y} y^?)。
  • 損失計算:對比預測值與真實標簽( y y y),得到損失函數值( L L L)。
  • 反向傳播:利用鏈式法則計算損失對各層參數的梯度( ? L \nabla L ?L)。
  • 參數更新:優化器根據梯度調整參數(如 w ← w ? η ? w w \leftarrow w - \eta \nabla w ww?η?w η \eta η為學習率)。
2. 批量處理(Batch Processing)
  • 小批量梯度下降(Mini-Batch SGD):每次處理一個Batch(如32/64/128樣本),平衡計算效率與梯度穩定性。
  • 數據加載:使用數據加載器(DataLoader)異步讀取數據,支持并行處理(如PyTorch的Dataloader)。
3. 過擬合與欠擬合處理
  • 過擬合(高方差):訓練損失低但驗證損失高。
    • 解決方案:增加數據增強、早停(Early Stopping)、正則化(Dropout/L2)、模型簡化(減小網絡規模)。
  • 欠擬合(高偏差):訓練損失高,模型未學到關鍵特征。
    • 解決方案:復雜模型(更深網絡)、調整超參數(增大學習率)、檢查數據質量(是否標注錯誤)。
4. 訓練監控與日志
  • 指標記錄:訓練/驗證損失、準確率、F1值、AUC-ROC等。
  • 可視化工具:TensorBoard(記錄曲線)、W&B(Weights & Biases,追蹤超參數與結果)。
  • 異常檢測:梯度爆炸/消失(用梯度裁剪、權重初始化改進,如Xavier初始化)。

四、模型驗證:評估泛化能力與調優

通過獨立數據集檢驗模型效果,核心步驟:

1. 驗證集評估
  • 單次劃分:固定訓練/驗證/測試集,適用于數據充足場景。
  • 交叉驗證(Cross-Validation)
    • K折交叉驗證(K-Fold):將數據分為K份,每次用K-1份訓練,1份驗證,降低隨機性影響。
    • 留一法(Leave-One-Out):極端K折(K=N,N為樣本數),計算成本高,適用于小數據集。
2. 評估指標(依任務類型選擇)
  • 分類任務:準確率(Accuracy)、精確率(Precision)、召回率(Recall)、F1-Score、混淆矩陣、AUC-ROC。
  • 回歸任務:MSE、MAE、R2分數(擬合度)。
  • 生成任務:Inception Score(IS,圖像質量與多樣性)、Frechet Inception Distance(FID,生成分布與真實分布的距離)。
  • NLP任務:BLEU分數(機器翻譯)、ROUGE(文本摘要)、困惑度(Perplexity,語言模型)。
3. 超參數調優
  • 搜索策略
    • 網格搜索(Grid Search,窮舉指定范圍,精度高但耗時)。
    • 隨機搜索(Random Search,高效探索重要超參數,如學習率)。
    • 貝葉斯優化(Bayesian Optimization,動態調整搜索方向,適合高成本任務)。
  • 關鍵超參數:網絡層數/神經元數、學習率、Batch Size、Dropout率、正則化系數。
4. 模型選擇與集成
  • 單模型優化:選擇驗證集表現最佳的模型版本(如保存最低驗證損失的Checkpoint)。
  • 模型集成:提升效果(如Bagging、Boosting、Stacking,多模型預測結果融合)。

五、模型優化:從訓練到部署的橋梁

在驗證后對模型進行針對性改進,提升實用性:

1. 模型壓縮(針對部署場景)
  • 參數剪枝:刪除低重要性連接(如L1正則化篩選權重,結構化剪枝裁剪整個神經元/層)。
  • 量化:降低參數精度(32位浮點→16位/8位整數,甚至二值化,減少計算量)。
  • 知識蒸餾(Knowledge Distillation):用教師模型(大模型)輸出軟標簽指導學生模型(小模型)訓練,保留知識。
2. 硬件適配優化
  • 算子優化:針對GPU/TPU/NPU等硬件加速庫(如TensorRT、ONNX Runtime)優化計算圖。
  • 模型輕量化:設計高效架構(MobileNet的深度可分離卷積、ShuffleNet通道洗牌)。
3. 魯棒性增強
  • 對抗訓練:在輸入中添加對抗擾動(如FGSM攻擊生成樣本),提升模型抗干擾能力。
  • 領域適應:遷移學習(預訓練模型微調)解決訓練/測試數據分布差異(如跨域圖像分類)。

六、模型推理:從部署到實際應用

將訓練好的模型轉化為可服務的系統,核心步驟:

1. 模型保存與加載
  • 格式:PyTorch的.pth/.pt、TensorFlow的SavedModel/Checkpoint、通用格式ONNX(跨框架兼容)。
  • 權重與架構:保存完整模型(含架構)或僅權重(需代碼重建架構,更輕量)。
2. 輸入處理
  • 預處理適配:與訓練時一致(如圖像歸一化、文本Tokenization),確保輸入維度匹配模型預期。
  • 批處理支持:支持批量推理提升吞吐量(如一次處理多個樣本)。
3. 推理服務部署
  • 部署形態
    • 服務器端:REST API(Flask/FastAPI)、gRPC(高性能RPC)、模型服務框架(TensorFlow Serving、TorchServe)。
    • 移動端/邊緣端:轉換為ONNX/TFLite/NNAPI格式,適配手機/嵌入式設備(如iOS Core ML、Android NNAPI)。
  • 性能優化
    • 延遲(Latency):優化計算圖(去除冗余節點)、并行計算。
    • 吞吐量(Throughput):增大Batch Size、模型并行/數據并行。
4. 輸出后處理
  • 結果解析:分類任務映射標簽名稱、生成任務解碼(如NLP的Token轉文本)。
  • 置信度過濾:設定閾值過濾低置信度預測(如目標檢測過濾低分數邊界框)。
5. 實時監控與迭代
  • 在線指標:推理延遲、吞吐量、錯誤率、真實場景準確率(A/B測試)。
  • 持續迭代:收集新數據重新訓練(增量學習),更新模型以適應數據分布變化。

核心環節總結與關鍵挑戰

環節核心目標關鍵技術/挑戰
數據準備高質量、適配任務的數據標注成本、數據不平衡、隱私合規(如GDPR)
模型構建設計高效架構與目標函數架構創新(如Transformer)、損失函數設計
模型訓練高效穩定地學習參數梯度消失/爆炸、過擬合、訓練效率(分布式訓練)
模型驗證評估泛化能力與調優評估指標合理性、超參數搜索復雜度
模型優化提升實用性與部署適配壓縮算法效率、硬件算子優化
模型推理可靠高效的實際應用部署兼容性、實時性要求、安全攻擊(對抗樣本)

深度學習的核心環節是一個閉環系統,每個步驟都需要結合任務特性、數據規模、計算資源進行精細化調整。從學術研究到工業落地,關鍵在于平衡模型性能、效率與實用性,而持續的迭代優化(如結合實時反饋更新模型)是保持模型生命力的關鍵。


深度學習一般流程框架概覽

一、問題定義與目標明確(10%)

1. 任務類型定位
  • 基礎任務分類
    • 監督學習:分類(二分類/多分類,Softmax輸出)、回歸(連續值預測,MSE損失)
    • 無監督學習:聚類(K-means)、降維(Autoencoder)、生成(GAN/VAE)
    • 半監督學習:結合少量標注數據+大量無標注數據(偽標簽技術)
    • 強化學習:序列決策(AlphaGo,狀態-動作空間建模)
  • 領域特定任務
    • 計算機視覺:圖像分類/檢測/分割(YOLO/FCN)、視頻理解(3D CNN)
    • 自然語言處理:文本分類/生成(Transformer)、機器翻譯(Seq2Seq)、NER命名實體識別
    • 語音處理:語音識別(CTC損失)、語音合成(Tacotron)
    • 結構化數據:推薦系統(矩陣分解+DNN)、金融風控(邏輯回歸+Embedding)
2. 評估指標設計
  • 分類任務:準確率/精確率/召回率/F1-score、AUC-ROC(不平衡數據)
  • 回歸任務:MSE/MAE/R2-score、RMSE(量綱敏感)
  • 生成任務:IS(Inception Score)、FID(Frechet Inception Distance)、人工審美評估
  • 時序任務:時序交叉驗證、動態時間規整(DTW)距離
  • 多目標優化:帕累托最優解(Pareto Front),加權損失函數設計
3. 可行性分析
  • 數據可行性:標注成本(醫療影像需專家標注)、數據規模(小數據用遷移學習,大數據用原生模型)
  • 計算資源:GPU顯存需求(大模型需32GB+顯存,分布式訓練規劃)
  • 業務約束:延遲要求(實時推薦需<100ms,離線訓練可放寬)、合規性(GDPR數據隱私)

二、數據工程(25%)

1. 數據收集與標注
  • 數據來源
    • 公開數據集(ImageNet/CIFAR-100)、網絡爬取(需注意版權)、傳感器采集(IoT設備)
    • 數據增強生成(GAN合成數據,用于數據稀缺場景)
  • 標注流程
    • 標注工具:CVAT(圖像標注)、Label Studio(多模態標注)、Prodigy(主動學習標注)
    • 質量控制:多人標注一致性檢查(Kappa系數)、標注錯誤清洗(異常樣本檢測)
2. 數據預處理
  • 結構化數據
    • 缺失值處理:刪除(高缺失率)、插值(均值/中位數/回歸插值)
    • 特征工程:獨熱編碼(One-Hot,低基數類別)、嵌入編碼(Embedding,高基數類別)
    • 標準化:Z-score(特征均值方差歸一化)、歸一化(Min-Max縮放到[0,1])
  • 非結構化數據
    • 圖像:Resize/Crop(保持長寬比)、灰度化(RGB轉單通道)、通道標準化(減均值除標準差)
    • 文本:分詞(BPE子詞分割)、序列填充(Padding到固定長度)、詞向量生成(Word2Vec/GloVe)
    • 音頻:梅爾頻譜圖轉換(MFCC特征)、降噪(譜減法)、重采樣(統一采樣率)
3. 數據劃分與增強
  • 數據集劃分
    • 標準劃分:訓練集(60%)+驗證集(20%)+測試集(20%)
    • 時序數據:時間序列劃分(按時間順序,避免隨機劃分)
    • 分層抽樣:保持類別分布一致(適用于不平衡數據)
  • 數據增強技術
    • 圖像:翻轉/旋轉/縮放、CutOut(隨機遮擋)、MixUp(樣本混合)、AutoAugment(自動搜索增強策略)
    • 文本:同義詞替換、隨機刪除/插入、EDA(Easy Data Augmentation)
    • 通用:對抗樣本生成(FGSM對抗訓練,提升魯棒性)

三、模型架構設計(20%)

1. 基礎網絡組件
  • 核心層類型
    • 卷積層:2D Conv(圖像)、3D Conv(視頻)、轉置卷積(上采樣)
    • 循環層:LSTM/GRU(解決梯度消失)、雙向RNN(捕捉雙向依賴)
    • 注意力層:Self-Attention(Transformer核心)、多頭注意力(Multi-Head)、全局注意力(Global Attention)
    • 歸一化層:BatchNorm(訓練階段用批量統計量)、LayerNorm(逐層歸一化,適合NLP)、InstanceNorm(圖像生成)
    • 激活函數:ReLU(避免梯度飽和)、Swish(自門控激活)、GELU(平滑ReLU變體)
  • 網絡范式
    • CNN家族:ResNet(殘差連接解決梯度退化)、DenseNet(密集連接加強特征流動)、EfficientNet(復合縮放優化)
    • RNN家族:Transformer(位置編碼替代循環結構)、LSTM-CRF(序列標注任務)、Temporal Convolution Network(TCN,因果卷積處理時序數據)
    • 生成模型:GAN(生成器+判別器對抗訓練)、VAE(變分下界優化)、Diffusion Model(去噪擴散過程)
    • 多模態模型:ViT(圖像Transformer)、CLIP(圖文對比學習)、多模態融合(早期融合/晚期融合架構)
2. 架構設計策略
  • 遷移學習
    • 凍結預訓練層:僅訓練分類頭(小數據場景)
    • 微調全模型:在目標任務上更新所有參數(數據充足時)
    • 預訓練范式:自監督學習(SimCLR對比學習)、掩碼語言模型(BERT)
  • 模型變體選擇
    • 輕量模型:MobileNet(深度可分離卷積)、ShuffleNet(通道洗牌降低計算量)
    • 分布式架構:數據并行(多卡復制模型,同步/異步梯度更新)、模型并行(分層拆分模型到不同設備)
  • 自動化設計
    • 神經架構搜索(NAS):強化學習/進化算法搜索最優網絡結構
    • 超參數優化:網格搜索(全枚舉)、貝葉斯優化(高斯過程建模)、隨機搜索(高效處理高維空間)

四、訓練配置與優化(15%)

1. 訓練參數設置
  • 優化器選擇
    • 基礎優化器:SGD(帶動量)、Adam(自適應學習率)、RMSprop(均方根傳播)
    • 改進版本:AdamW(權重衰減解耦)、AdaFactor(內存高效,適合大模型)
  • 損失函數設計
    • 分類:交叉熵損失(CE)、焦點損失(Focal Loss,難例挖掘)
    • 回歸:L1/L2損失、Huber損失(魯棒回歸,結合L1/L2)
    • 度量學習:三元組損失(Triplet Loss,樣本間距約束)
    • 多任務:硬參數共享(底層共享,頂層任務特定)、動態權重平衡(梯度歸一化)
  • 超參數空間
    • 網絡參數:層數/通道數/隱藏單元數
    • 訓練參數:Batch Size(大batch需更大學習率)、Epoch數、學習率調度(余弦退火/階梯衰減)
    • 正則化:Dropout(隨機失活神經元)、Weight Decay(L2正則)、Early Stopping(驗證集早停)
2. 訓練過程實現
  • 正向傳播:輸入經網絡計算得到logits/預測值,關鍵在于計算圖構建(靜態圖TF vs 動態圖PyTorch)
  • 反向傳播:自動微分(Autograd)計算梯度,注意梯度裁剪(防止爆炸)、混合精度訓練(FP16減少顯存占用)
  • 分布式訓練
    • 數據并行:DP(單卡控制) vs DDP(多卡獨立計算,梯度同步)
    • 模型并行:跨設備拆分模型層(適合超大模型,如GPT-3的MoE架構)
  • 訓練監控
    • 指標可視化:TensorBoard(損失/準確率曲線)、Weights & Biases(W&B,實驗跟蹤)
    • 異常檢測:梯度消失(接近0的梯度)、梯度爆炸(NaN/inf值)、訓練-驗證損失倒掛(過擬合信號)

五、模型評估與調試(10%)

1. 評估協議
  • 標準流程
    1. 在驗證集調參(避免測試集數據泄漏)
    2. 最終在測試集報告泛化性能
    3. 交叉驗證:K折交叉(小數據增強評估穩定性)
  • 特殊場景處理
    • 不平衡數據:分層抽樣+類別加權損失
    • 時序數據:滾動預測(Rolling Forecast)評估長期預測能力
    • 多標簽分類:漢明損失、Jaccard系數
2. 深度分析技術
  • 可視化工具
    • 圖像:類激活圖(CAM)、梯度加權類激活圖(Grad-CAM)定位關鍵區域
    • 文本:注意力熱力圖(Transformer層可視化)、詞重要性排序(SHAP值/梯度權重)
    • 結構化數據:特征重要性分析(Permutation Importance)、SHAP/LIME模型解釋
  • 誤差分析
    • 混淆矩陣:識別易混淆類別(如“狗”誤判“貓”)
    • 錯誤樣本集:手動標注錯誤類型(數據噪聲/模型偏差/邊界情況)
    • 對抗樣本測試:評估模型魯棒性(FGSM/PGD攻擊下的準確率下降幅度)

六、優化迭代(10%)

1. 模型優化策略
  • 超參數調優
    • 貝葉斯優化:適用于非凸空間,利用歷史數據減少評估次數
    • 隨機搜索:在高維空間效率優于網格搜索,重點搜索關鍵參數
    • 自動化工具:Optuna(支持分布式調優)、Ray Tune(大規模并行)
  • 架構調整
    • 增加容量:深層網絡(解決欠擬合)、增大通道數/添加殘差連接
    • 減少過擬合:更強的數據增強、更大Dropout率、知識蒸餾(Teacher-Student模型)
    • 跨模態融合:引入輔助任務(多任務學習提升主任務性能)
  • 數據優化
    • 難例挖掘:主動學習(查詢模型不確定樣本進行標注)
    • 數據清洗:識別并刪除離群樣本(基于馬氏距離/孤立森林)
    • 增量學習:處理概念漂移(在線學習+模型更新策略)
2. 重訓練策略
  • 熱啟動:加載歷史最佳模型參數繼續訓練(避免從頭開始)
  • 課程學習:從簡單樣本逐步過渡到復雜樣本(提升訓練穩定性)
  • 模型融合
    • 集成方法:Bagging(降低方差)、Boosting(提升偏差)、Stacking(多層模型組合)
    • 模型平均:加權平均(驗證集表現加權)、Snapshot Ensembles(不同訓練軌跡模型平均)

七、部署與生產化(5%)

1. 模型轉換與優化
  • 格式轉換
    • PyTorch轉ONNX(跨框架兼容)、TensorFlow轉TensorRT(GPU推理加速)
    • 量化技術:FP32→FP16→INT8(減少顯存占用,提升推理速度)
  • 推理優化
    • 圖優化:常量折疊(Constant Folding)、算子融合(Operator Fusion)
    • 硬件適配:GPU優化(CUDA核融合)、TPU專用算子(Google Edge TPU)
    • 輕量化:模型剪枝(結構化剪枝/非結構化剪枝)、知識蒸餾(Student模型部署)
2. 部署架構設計
  • 服務化部署
    • 框架選擇:TensorFlow Serving(高性能)、Flask/FastAPI(靈活定制)、TorchServe(PyTorch原生支持)
    • 容器化:Docker鏡像打包(環境一致性)、Kubernetes集群管理(彈性擴縮容)
  • 端側部署
    • 移動端:Core ML(iOS)、NNAPI(Android)、TensorFlow Lite(跨平臺)
    • 嵌入式:NCNN/MNN(輕量級推理框架,低內存占用)
  • 監控體系
    • 性能監控:延遲/吞吐量/顯存占用(Prometheus+Grafana)
    • 數據監控:輸入數據分布漂移(KS檢驗)、概念漂移檢測(模型預測概率分布變化)
    • 異常處理:熔斷機制(過載保護)、灰度發布(A/B測試新舊版本)

八、持續迭代(5%)

1. 模型生命周期管理
  • 版本控制:DVC(數據版本控制)+模型注冊表(MLflow Model Registry)
  • 再訓練策略:定時再訓練(按周期)vs 觸發式再訓練(漂移檢測到閾值)
  • 倫理考量
    • 公平性:檢測預測偏差(不同群體的準確率差異)、對抗偏見算法(Reweighting樣本)
    • 可解釋性:滿足醫療/金融等領域的可解釋性要求(SHAP/LIME強制解釋)
    • 隱私保護:聯邦學習(本地訓練,參數聚合)、差分隱私(數據擾動保護個體隱私)
2. 工程化工具鏈
  • 實驗管理:Weights & Biases(跟蹤超參數/指標/代碼版本)
  • 自動化ML:AutoKeras(自動化模型開發)、H2O.ai(低代碼AI平臺)
  • MLOps實踐:CI/CD流水線(模型訓練→評估→部署自動化)、模型監控報警(Slack/DingTalk通知)

知識體系圖譜

深度學習流程
├─ 問題定義(任務/指標/可行性)
├─ 數據工程(收集/清洗/增強/劃分)
├─ 模型設計(組件/架構/遷移學習)
├─ 訓練配置(優化器/損失/超參數)
├─ 訓練過程(正向/反向/分布式)
├─ 模型評估(協議/分析/可視化)
├─ 優化迭代(調優/架構/數據優化)
├─ 部署上線(轉換/推理/監控體系)
└─ 持續迭代(版本/倫理/工程化)

上述流程涵蓋從問題建模到生產部署的全生命周期,包括經典算法(CNN/RNN/Transformer)、訓練技巧(正則化/數據增強/優化器)、工程實踐(分布式訓練/模型量化/部署框架)、前沿技術(自監督學習/神經架構搜索/聯邦學習),并涉及數據偏差、可解釋性等現代挑戰。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/pingmian/78734.shtml
繁體地址,請注明出處:http://hk.pswp.cn/pingmian/78734.shtml
英文地址,請注明出處:http://en.pswp.cn/pingmian/78734.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

阿里云 OpenManus 實戰:高效AI協作體系

阿里云 OpenManus 實戰&#xff1a;高效AI協作體系 寫在最前面初體驗&#xff1a;快速部署&#xff0c;開箱即用 真實案例分享&#xff1a;從單體開發到智能良好提示詞過程展示第一步&#xff1a;為亞馬遜美國站生成商品描述第二步&#xff1a;為eBay全球站生成商品描述結果分析…

Kubernetes》》k8s》》explain查 yaml 參數

在創建json 和yaml 時&#xff0c;我們可能不知道具體的參數該怎么寫。同樣 我們可以通過explain這個 命令來查看 每個參數具體的作用與寫法 # 查看 pod類性有哪些參數 kubectl explain pod# 查看pod中 spec下面有哪些參數 kubectl explain pod.spec

從零構建Dagster分區管道:時間+類別分區實戰案例

分區是Dagster中的核心抽象概念&#xff0c;它允許我們管理大型數據集、處理增量更新并提高管道性能。本文將詳細介紹如何創建和實現基于時間和類別的分區資產。 什么是分區&#xff1f; 分區是將數據集劃分為更小、更易管理的部分的技術。在Dagster中&#xff0c;分區可以基于…

Cursor:AI時代的智能編輯器

在開發者社區掀起熱潮的Cursor&#xff0c;正以破竹之勢重塑編程工具格局。這款基于VS Code的AI優先編輯器&#xff0c;不僅延續了經典IDE的穩定基因&#xff0c;更通過深度集成的智能能力&#xff0c;將開發效率推向全新維度。2023年Anysphere公司獲得的6000萬美元A輪融資&…

SpringMVC再復習1

一、三層架構 表現層&#xff08;WEB 層&#xff09; 定義 &#xff1a;是應用程序與客戶端進行交互的最外層&#xff0c;主要負責接收用戶的請求&#xff0c;并將處理結果顯示給用戶。 作用 &#xff1a;在 Spring MVC 中&#xff0c;表現層通常采用 MVC 設計模式來構建。 技…

Centos 7系統 寶塔部署Tomcat項目(保姆級教程)

再看文章之前默認已經安裝好系統&#xff0c;可能是云系統&#xff0c;或者是虛擬機。 寶塔安裝 這個比較簡單&#xff0c;參考這個老哥的即可&#xff1a; https://blog.csdn.net/weixin_42753193/article/details/125959289 環境配置 進入寶塔面板之后會出現環境安裝&…

Nginx核心功能

目錄 一&#xff1a;基于授權的訪問控制 1&#xff1a;基于授權的訪問控制簡介 2&#xff1a;基于授權的訪問控制步驟 &#xff08;1&#xff09;使用htpasswd 生成用戶認證文件 &#xff08;2&#xff09;修改密碼文件權限為400&#xff0c;將所有者改為nginx&#xff0c;…

AnimateCC基礎教學:漫天繁星-由DeepSeek輔助完成

1.界面及元件抓圖: 2.核心代碼: // 初始化設置 var stars []; var stars2 []; var numStars 100; var stageWidth stage.canvas.width; var stageHeight stage.canvas.height; console.log(stageWidth, stageHeight);// 創建星星函數 function createStar() {var star n…

通過DeepSeek大語言模型控制panda機械臂,聽懂人話,擬人性回答。智能機械臂助手又進一步啦

文章目錄 前言環境配置運行測試報錯 前言 通過使用智能化的工作流控制系統來精確操控機械臂&#xff0c;不僅能夠基于預設算法可靠地規劃每個動作步驟的執行順序和力度&#xff0c;確保作業流程的標準化和可重復性&#xff0c;還能通過模塊化的程序設計思路靈活地在原有工作流中…

分享一款免費的 AI 工作流平臺

分享一款 AI 工作流/任務流平臺&#xff0c;通過直觀的流程圖設計&#xff0c;輕松實現復雜業務流程的自動化與可視化&#xff0c;無縫集成 AI 大模型、AI 生圖、數據庫、條件分支、并行節點、自定義任務節點等等。 效果圖&#xff1a; 官網體驗地址&#xff1a;https://www.…

前端開發本地配置 HTTPS 全面詳細教程

分為兩步&#xff1a;生成證書、本地服務配置使用證書一、HTTPS 的基本概念 HTTPS 是一種安全的 HTTP 協議&#xff0c;它通過 SSL/TLS 對數據進行加密&#xff0c;確保數據在傳輸過程中不被竊取或篡改。在前端開發中&#xff0c;某些功能&#xff08;如 Geolocation API、Web…

day10 python機器學習全流程實踐

在機器學習的實踐中&#xff0c;數據預處理與模型構建是極為關鍵的環節。本文將回顧數據預處理的全流程&#xff0c;并基于處理后的數據完成簡單的機器學習建模與評估&#xff0c;暫不涉及復雜的調參過程。 一、預處理流程回顧 機器學習的成功&#xff0c;很大程度上依賴于高…

4月28號

初認web前端: web標準: HTML:

【Linux系統】systemV共享內存

system V共享內存 在Linux系統中&#xff0c;共享內存是一種高效的進程間通信&#xff08;IPC&#xff09;機制&#xff0c;它允許兩個或者多個進程共享同一塊物理內存區域&#xff0c;這些進程可以將這塊區域映射到自己的虛擬地址空間中。 共享內存區是最快的IPC形式。一旦這…

(七)RestAPI 毛子(Http 緩存/樂觀鎖/Polly/Rate limiting/異步大文件上傳)

文章目錄 項目地址一、Http Cache1.1 服務注冊1.2 Validation with ETag1. 添加ETagMiddleware中間件2. 創建內存ETag存儲器3. 服務注冊4. 測試二、使用ETag實現樂觀鎖2.1 添加樂觀鎖方法2.2 修改Controller2.3 測試樂觀鎖三、Rate Limiting3.1 添加速率控制服務1. 在Program里…

2025.4.26_STM32_SPI

1.SPI簡介 2.硬件電路 所有SPI設備的SCK(時鐘)、MOSI(主機輸出從機輸入)、MISO(主機輸入從機輸出)分別連在一起。SCK線只能被主機控制&#xff0c;和I2C相同。 主機另外引出多條SS控制線&#xff0c;分別接到各從機的SS引腳 (SS不用的時候為高電平&#xff0c;當主機需要選中某…

JAVA:單例模式

單例模式是設計模式之一 設計模式&#xff0c;就像古代打仗&#xff0c;我們都聽過孫子兵法&#xff0c;把計謀概括下來弄成一種模式&#xff0c;形成一種套路。 軟件開發中也有很多場景&#xff0c;多數類似的問題場景&#xff0c;解決方案就形成固定的模式&#xff0c;單例…

腦機接口:重塑人類未來的神經增強革命

引言 人類對大腦的探索從未停止&#xff0c;而腦機接口&#xff08;Brain-Computer Interface, BCI&#xff09;的崛起&#xff0c;正在將科幻電影中的“意念操控”變為現實。 這項技術通過解碼腦電信號&#xff0c;實現人腦與外部設備的直接交互&#xff0c;不僅為醫療康復帶來…

從SOA到微服務:架構演進之路與實踐示例

一、架構演進背景 在軟件開發領域&#xff0c;架構風格隨著業務需求和技術發展不斷演進。從早期的單體架構&#xff0c;到面向服務架構(SOA)&#xff0c;再到如今的微服務架構&#xff0c;每一次變革都是為了解決當時面臨的核心問題。 二、SOA架構解析 2.1 SOA核心概念 SOA&…

可靈AI 2.0上線:重新定義AI創作?好萊塢級特效觸手可及

2025年4月15日&#xff0c;快手正式發布可靈AI 2.0&#xff0c;這款被譽為“讓好萊塢特效師顫抖”的AI工具&#xff0c;以物理引擎級動態生成和電影語言自由操控兩大核心技術&#xff0c;徹底顛覆了內容創作的想象邊界。上線24小時內&#xff0c;全球用戶已用它生成超過100萬條…