【機器學習深度學習】非線性激活函數

目錄

前言

一、什么是激活函數?

1.1 作用

二、如果沒有激活函數,會發生什么?

2.1 先看一張圖理解“線性”的局限

2.2 核心認知:為什么非線性如此重要?

三、非線性激活函數到底解決了什么問題?

1. 引入非線性,提升模型的表達力

2. 多層網絡才能真正發揮作用

3. 控制輸出范圍,穩定梯度

4. 有助于梯度傳播

5. 生物學啟發:模擬神經元激活機制

四、?常見的非線性激活函數

五、小實驗:是否加非線性函數的訓練效果

5.1?實驗目標

5.2??實驗代碼(使用 PyTorch)

?5.3 實驗效果說明

?六、激活函數的五大核心使命

6.1??使命一:打破線性枷鎖(引入非線性)

6.2?使命二:智能特征過濾器(特征抽象與篩選)

6.3?使命三:輸出控制器(控制輸出范圍)

6.4?使命四:梯度流量調節器(梯度調控)

6.5?使命五:生物神經元模擬器(生物神經模擬)

五大使命關聯性全景圖

七、主流激活函數對比

八、?激活函數選擇黃金法則

九、非線性=神經網絡的超能力

總結一下

💡 博主的建議


前言

在構建神經網絡的過程中,激活函數是一個看似簡單、但卻極其關鍵的組件。它不是主角,但卻決定了整個神經網絡是否真正“智能”。特別是非線性激活函數,它的引入幾乎決定了神經網絡能否有效學習復雜問題。

本文將帶你系統了解:什么是激活函數?為什么必須是非線性的?它到底解決了什么問題?


一、什么是激活函數?

激活函數(Activation Function)是人工神經網絡中神經元輸出端的非線性變換函數

1.1 作用

將輸入信號轉化為輸出信號,引入非線性,使神經網絡具有擬合現實世界復雜函數的能力。

通俗說就是:

  • 神經元得到一堆加權輸入 → 加總起來 → 扔進一個函數 → 得到輸出

  • 這個函數就是激活函數!


二、如果沒有激活函數,會發生什么?

2.1 先看一張圖理解“線性”的局限

假設你堆疊了 10 層神經網絡,如果每一層只是線性操作(加權求和):

這些矩陣乘法可以合并成一個大矩陣:

結果:整個網絡退化為一個線性模型
換句話說:不管你堆多少層,它學到的都是一條“直線”,無法擬合真實世界中那些復雜的非線性關系(例如圖像識別、語言建模等)。

2.2 核心認知:為什么非線性如此重要?

致命問題:若無激活函數,無論疊加多少層神經網絡,最終輸出仍是輸入特征的線性組合


三、非線性激活函數到底解決了什么問題?

3.1 引入非線性,提升模型的表達力

真實世界不是線性的:

  • 一張圖是貓還是狗,不是幾個像素加權就能決定的;

  • 股票漲跌、語言語義也都高度非線性。

加入非線性激活函數后,神經網絡才能擬合這些復雜模式。


3.2?多層網絡才能真正發揮作用

如果沒有非線性,每一層“加了也白加”,整網絡就像一根“直線棍”。

非線性激活函數使得:

“深”網絡 ≠ “寬”網絡
真正可以逼近任意復雜函數(通用近似定理)。


3.3?控制輸出范圍,穩定梯度

像 Sigmoid、Tanh 這樣的激活函數可以:

  • 限制輸出范圍(例如 0 到 1,或 -1 到 1)

  • 避免輸出無限增大,有助于穩定訓練過程


3.4?有助于梯度傳播

ReLU 這樣的激活函數在反向傳播時:

  • 梯度不會像 Sigmoid 那樣在遠離中心時迅速消失

  • 因此可以有效緩解梯度消失問題


3.5?生物學啟發:模擬神經元激活機制

激活函數模仿了大腦神經元的行為

收到信號后,只有達到“閾值”才會激活發送信號,反映了非線性響應特性。


四、?常見的非線性激活函數

函數表達式特點
Sigmoid輸出范圍在 (0,1),易梯度消失
Tanh輸出范圍 (-1,1),中心對稱
ReLU稀疏激活,簡單高效,不易梯度消失
LeakyReLU解決 ReLU “死亡”問題
GELU/Swish高級激活,適用于深網絡Transformer/BERT 中常用

五、小實驗:是否加非線性函數的訓練效果

5.1?實驗目標

我們要構造一個簡單的非線性函數數據集,比如:

然后用兩個模型分別去擬合它:

  1. 線性模型(不加激活函數)

  2. 非線性模型(加 ReLU 或 Tanh 激活函數)

最終對比:預測曲線 vs 原始數據


5.2??實驗代碼(使用 PyTorch)

【運行條件】

1、安裝Anconda;

2、安裝PyTorch;

如果想嘗試操作該實驗,可以去看我的深度學習【環境搭建】,有相關安裝教程


【運行依賴】

一次性安裝命令(推薦)

pip install torch matplotlib numpy

🔹 如果你是在國內網絡環境下,可以用清華源加速安裝:

pip install torch matplotlib numpy -i https://pypi.tuna.tsinghua.edu.cn/simple

【依賴庫作用】

庫名用途說明安裝命令
torchPyTorch,構建和訓練神經網絡pip install torch
matplotlib用于繪圖,顯示預測 vs 實際效果pip install matplotlib
numpy數值運算輔助pip install numpy
import torch
import torch.nn as nn
import matplotlib.pyplot as plt
import numpy as np# ==== 解決中文顯示問題 ====
plt.rcParams['font.sans-serif'] = ['SimHei']  # 使用黑體
plt.rcParams['axes.unicode_minus'] = False    # 顯示負號# ==== 生成數據 ====
# 構造一個非線性函數數據集:y = sin(x) + 噪聲
x = torch.unsqueeze(torch.linspace(-2 * np.pi, 2 * np.pi, 300), dim=1)  # shape: [300, 1]
y = torch.sin(x) + 0.1 * torch.randn(x.size())  # 添加噪聲# ==== 定義線性模型(無激活函數) ====
class LinearNet(nn.Module):def __init__(self):super().__init__()self.model = nn.Sequential(nn.Linear(1, 20),nn.Linear(20, 1)  # 無激活函數,仍是線性變換)def forward(self, x):return self.model(x)# ==== 定義非線性模型(含Tanh激活函數) ====
class NonLinearNet(nn.Module):def __init__(self):super().__init__()self.model = nn.Sequential(nn.Linear(1, 20),nn.Tanh(),        # 引入非線性激活,# 如需切換 ReLU、Sigmoid、Tanh 做對比:換成 nn.ReLU() 或 nn.Sigmoid()nn.Linear(20, 1))def forward(self, x):return self.model(x)# ==== 實例化兩個模型 ====
net_linear = LinearNet()
net_nonlinear = NonLinearNet()# ==== 損失函數 & 優化器 ====
criterion = nn.MSELoss()
optimizer_linear = torch.optim.Adam(net_linear.parameters(), lr=0.01)
optimizer_nonlinear = torch.optim.Adam(net_nonlinear.parameters(), lr=0.01)# ==== 訓練函數 ====
def train(model, optimizer, x, y, steps=1000):for i in range(steps):pred = model(x)loss = criterion(pred, y)optimizer.zero_grad()loss.backward()optimizer.step()return model(x).detach()# ==== 開始訓練并獲得預測結果 ====
pred_linear = train(net_linear, optimizer_linear, x, y)
pred_nonlinear = train(net_nonlinear, optimizer_nonlinear, x, y)# ==== 可視化結果 ====
plt.figure(figsize=(12, 5))# 左圖:無激活函數
plt.subplot(1, 2, 1)
plt.title("線性模型(無激活函數)")
plt.scatter(x.numpy(), y.numpy(), label='真實數據', s=10, alpha=0.6)
plt.plot(x.numpy(), pred_linear.numpy(), 'r-', label='模型預測')
plt.xlabel("輸入 x")
plt.ylabel("輸出 y")
plt.legend()# 右圖:含激活函數
plt.subplot(1, 2, 2)
plt.title("非線性模型(含 Tanh 激活函數)")
plt.scatter(x.numpy(), y.numpy(), label='真實數據', s=10, alpha=0.6)
plt.plot(x.numpy(), pred_nonlinear.numpy(), 'g-', label='模型預測')
plt.xlabel("輸入 x")
plt.ylabel("輸出 y")
plt.legend()plt.tight_layout()
plt.show()

?【運行結果】

Tanh激活函數

?ReLU激活函數

Sigmoid激活函數?


?5.3 實驗效果說明

  • 無激活函數圖:線性模型預測效果差,只能畫出一條“抖動”的線

  • 有激活函數圖:非線性模型可以較好地擬合 sin(x) 的波形


?六、激活函數的五大核心使命

6.1??使命一:打破線性枷鎖(引入非線性)

  • 現實世界數據90%以上是非線性的(如圖像邊緣/語音波形)

  • 對比實驗

    • 無激活函數:只能擬合直線 【y=ax+b】

    • 加入ReLU:可擬合房價波動曲線、圖像分類邊界

【問題本質】

現實世界的數據關系是非線性的(如房價與面積的關系:小面積時單價高,大面積時單價反而降低)


【線性模型局限】

# 無激活函數的神經網絡 = 多重線性變換的疊加  
output = W3 * (W2 * (W1 * input + b1) + b2) + b3  
# 數學證明:可合并為 output = W_combined * input + b_combined (仍是直線!)

【非線性激活的威力】


【生活類比】

線性模型 ≈ 只會畫直線的畫家
激活函數 ≈ 給畫家一支曲線筆(能繪制房價波動曲線/人臉輪廓等復雜形狀)


6.2?使命二:智能特征過濾器特征抽象與篩選)

  • 類似分段函數中的?"條件判斷"(如 x<0 時歸零)

  • 例如?ReLU:f(x)=max(0,x)

    • 正向信號:直接傳遞(保留重要特征)

    • 負向信號:徹底丟棄(過濾噪聲)

【問題本質】

并非所有輸入信息都值得傳遞(如識別貓時,背景噪音應被抑制)


【技術實現】

激活函數過濾機制效果
ReLU負值歸零消除干擾特征
你的分段函數x<0時歸零屏蔽無效信號
Sigmoid壓縮到(0,1)突出顯著特征

【神經網絡工作流】


生活類比

激活函數 ≈ 電影剪輯師的剪刀

  • 剪掉無聊片段(負值歸零)

  • 放大精彩特寫(正值增強)


6.3?使命三:輸出控制器(控制輸出范圍)

函數類型輸出范圍適用場景
Sigmoid(0,1)二分類概率輸出
Tanh(-1,1)RNN隱藏層狀態
你的分段函數[0,4]自定義受限系統

?【問題本質】

不同層需要特定范圍的輸入(如概率必須在0-1之間)


關鍵場景對比

應用場景激活函數輸出范圍必要性
二分類輸出層Sigmoid(0,1)符合概率定義
生成圖片像素值Tanh(-1,1)匹配RGB歸一化范圍
自定義系統你的分段函數[0,2]防止數值爆炸

示例:Sigmoid的數學控制

? ? ? ? ? ?↓

鐵鎖般鎖定在(0,1)區間


生活類比

激活函數 ≈ 汽車限速器

  • 上坡時給油加速(放大有效信號)

  • 超速時強制降速(限制輸出上限)


6.4?使命四:梯度流量調節器梯度調控)

  • 分段函數在 x=0,2,4 處存在梯度突變

  • Sigmoid的缺陷:兩端飽和區梯度≈0 → 梯度消失

  • ReLU的優勢:正區間梯度恒為1 → 緩解梯度消失

  • 梯度本質三重領悟

  1. 方向指導

    “梯度是參數空間的指南針,永遠指向損失下降最快的方向”

  2. 力度標尺

    “梯度大小是緊急程度警報,數值越高表明參數調整越迫切”

  3. 流動血液

    “梯度流動是神經網絡的生命力,阻斷流動等于宣告模型死亡”

【本質問題】

深層網絡訓練依賴梯度流動,不當處理會導致:

  • 梯度消失(如Sigmoid兩端飽和區)→ 底層參數無法更新

  • 梯度爆炸(如無限制線性增長)→ 訓練崩潰


激活函數的調控智慧

函數類型梯度行為影響
ReLU正區間梯度=1穩定反向傳播
LeakyReLU負區間梯度=0.01避免神經元“死亡”
你的分段函數x=0,2,4點梯度突變需警惕訓練不穩定

梯度傳播對比實驗

[輸入層] → [全連接層] → [激活函數] → [輸出層]
↑----------------反向傳播-------------↓ReLU網絡: 梯度流暢通率 > 85%  
Sigmoid網絡:經過5層后梯度衰減至不足5%

【生活類比】

類比1

激活函數 ≈ 城市排水系統設計師

  • 設計平滑斜坡(ReLU梯度恒定)→ 雨水快速流動

  • 避免死水洼地(Sigmoid飽和區)→ 防止積水腐敗

類比2 盲人找山溫泉

一位盲人,目標是找到山中最溫暖的溫泉(最小損失點),但看不見路,只能靠腳底溫度感受坡度(梯度)。

關鍵對應關系

登山元素神經網絡概念智慧要點
腳底溫度感受梯度計算唯一的導航信息
邁步方向參數更新方向始終朝溫度升高方向(負梯度)
步幅大小學習率陡坡小步,緩坡大步
溫泉位置損失最小點訓練目標

梯度本質:

“梯度就是盲人腳下的溫度坡度儀,告訴他哪個方向會更溫暖(損失更小)”

類比3 外賣小哥抄近路(反向傳播實戰)

故事設定:

你是外賣小哥,要從A點(輸入層)送餐到E點(輸出層),中途經過BCD三個小區(隱藏層)。梯度就是實時導航系統

送餐故障分析

1.顧客差評(損失函數報警):湯灑了(預測不準)

2.反向追溯(反向傳播):

  • 檢查最后100米(輸出層梯度)

  • 發現D→E路段顛簸(?L/?W4 大)

  • 繼續追溯C→D彎道過多(?L/?W3 大)

  • 最終發現B→C在修路(?L/?W2 巨大)

3.參數優化

  • 繞開B→C修路段(減小W2權重)

  • 加固D→E包裝(調整輸出層參數)

梯度作用體現

“梯度就是外賣APP上的實時路況熱力圖,紅色代表高梯度(需優先處理的路段),綠色代表低梯度(通暢路段)”

類比4??類比三:城市交通信號系統(梯度流控制)

故事設定:

梯度是早高峰的交通流量,激活函數就是路口信號燈系統

不同激活函數的交通策略

激活函數信號策略交通狀況神經網絡問題
Sigmoid所有方向限流50%全域大堵車梯度消失
ReLU北環綠燈,東區紅燈北環暢通,東區死鎖神經元死亡
你的分段函數北環放行100%,東區7:00-9:00禁行高峰期限流有效但切換時混亂梯度突變震蕩
理想方案智能動態調流:北環綠燈+東區黃燈緩行全域暢通健康梯度流

梯度流動箴言

“激活函數是交通指揮官,它決定梯度(車流)如何分配——糟糕的指揮導致全城癱瘓(梯度消失/爆炸),智慧的調度讓信息暢通無阻”


6.5?使命五:生物神經元模擬器生物神經模擬)

  • 類似神經元?"閾值激活機制"

    • 輸入<閾值:靜默狀態(如x<0時y=0)

    • 輸入≥閾值:觸發響應(如x≥0時激活)

【問題本質】

人腦神經元遵循“閾值激活”原則,激活函數是AI對生物的致敬。


生物神經 VS AI神經

特性生物神經元激活函數實現
激活閾值-50mV膜電位ReLU的x>0閾值
全或無原則達到閾值才觸發動作電位x<0時輸出0
飽和現象最大放電頻率限制Sigmoid兩端飽和

分段函數仿生解析

if x < 0:     # 膜電位未達閾值return 0   # 神經元靜息狀態
elif 0<=x<2:  # 達到基礎閾值return 2*x # 放電強度與輸入正相關
elif x>=4:    # 超過生理極限return 2   # 達到最大放電頻率

【生活類比】

激活函數 ≈ 神經元的電擊測試儀

  • 微弱電流(x<0)→ 無反應

  • 適當電流(0≤x<2)→ 線性響應

  • 過強電流(x≥4)→ 最大輸出保護


五大使命關聯性全景圖

?

終極認知
激活函數不是簡單的“開關”,而是智能信號加工廠

  1. 接收原始線性輸入(原材料)

  2. 流水線執行五大使命(加工工序)

  3. 輸出非線性特征(高附加值產品)


七、主流激活函數對比

函數名數學形式特性與你的分段函數相似點
ReLUmax(0,x)稀疏激活/計算簡單x<0時歸零
LeakyReLUmax(0.01x,x)緩解負信號死亡問題類似0≤x<2區間保留負斜率
Swishx·sigmoid(x)平滑/自門控類似2≤x<4區間的非線性過渡
你的函數分段線性多模式響應自定義區間行為

八、?激活函數選擇黃金法則

  1. 隱藏層首選:ReLU及其變種(平衡效率與效果)

  2. 二分類輸出層:Sigmoid(概率映射)

  3. 多分類輸出層:Softmax(歸一化概率)

  4. 自定義場景

    • 需限制輸出范圍 → 參考分段函數的飽和設計

    • 需區分正負響應 → 參考分段函數的區間策略

??設計啟示:你的分段函數本質上是一個手工定制激活函數,這種思想可遷移到:

  • 針對特殊數據分布設計專用激活函數

  • 通過分段策略解決梯度異常問題


九、非線性=神經網絡的超能力

關鍵結論

“激活函數是神經網絡理解世界的翻譯官,它將平淡的線性特征轉化為充滿細節的非線性敘事,讓AI得以看見數據背后的故事。”


總結一下

非線性激活函數=神經網絡的“靈魂”,如果沒有它:

  • 網絡再深也只是“線性模型套娃”

  • 無法建模復雜世界的問題

  • 就無法稱之為“深度學習”


💡 博主的建議

初學者常常忽略激活函數的作用,實際上:

“沒有非線性激活,就沒有深度學習”。

? 如果你只理解了“神經元加權求和”,還不夠。你必須理解:
?? 激活函數是“破局之鑰”,它讓神經網絡真正具備了“學習任何函數”的能力。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/web/86383.shtml
繁體地址,請注明出處:http://hk.pswp.cn/web/86383.shtml
英文地址,請注明出處:http://en.pswp.cn/web/86383.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

國外開源客服系統chathoot部署,使用教程

目錄 一、系統版本要求&#xff1a; 二、部署步驟 2.1 安裝docker 和docker-compose 2.2 準備docker-compose.yaml 2.3 初始化數據庫 2.4 安裝nginx 2.6 啟動項目 三、使用教程 一、系統版本要求&#xff1a; linux ubuntu 22.042核4G 40GB&#xff08;或以上&#xf…

什么是回歸測試?什么時候需要做回歸測試?

回歸測試詳解&#xff1a;概念、時機與最佳實踐 1. 什么是回歸測試&#xff1f; 回歸測試&#xff08;Regression Testing&#xff09; 是指在對軟件進行修改&#xff08;如修復Bug、新增功能、優化代碼&#xff09;后&#xff0c;重新執行已有測試用例&#xff0c;以確保&am…

Android-Layout Inspector使用手冊

Layout Inspector Android Layout Inspector 是 Android Studio 中用于調試應用布局的工具 啟動方法&#xff1a; 通過下載Layout Inspector插件&#xff0c;在 “View - Tool Windows - Layout Inspector” 或 “Tools - Layout Inspector” 啟動。 主要界面區域&#xff1a…

postgreSQL 數據庫字典導出工具

為滿足項目驗收文檔需求&#xff0c;開發了一個基于Python的PostgreSQL數據字典導出工具。 廢話不多說&#xff0c;先分享一下 軟件截圖 數據字典文件樣式,文件格式為docx 軟件源碼 基于python開發&#xff0c; import tkinter as tk from tkinter import ttk, messagebox …

【AI解析】 CppNumericalSolvers:一個現代化的 C++17 純頭文件優化庫 示例代碼解析

一個輕量級僅頭文件的 C17 庫&#xff0c;提供針對&#xff08;無&#xff09;約束非線性函數及表達式模板的數值優化方法 https://github.com/PatWie/CppNumericalSolvers CppNumericalSolvers 庫 include 目錄下的文件及其功能說明 根目錄文件 文件名功能說明function.h(主函…

第3篇:Gin的請求處理——獲取客戶端數據(Gin文件上傳,接收JSON數據)

引言&#xff1a;Context是Gin的"瑞士軍刀" 在Gin框架中&#xff0c;Context就像一把多功能的瑞士軍刀&#xff0c;封裝了所有與請求相關的操作。新手開發者常犯的錯誤是只把它當作參數傳遞的工具&#xff0c;卻忽略了它強大的數據處理能力。 想象一個場景&#xf…

啟動hardhat 項目,下載依賴的npm問題

Windows 環境 Hardhat 依賴安裝問題排查指南 &#x1f6a8; 問題描述 在 Windows 環境下安裝 Hardhat 項目依賴時&#xff0c;遇到以下錯誤&#xff1a; npm ERR! code ETARGET npm ERR! notarget No matching version found for nomicfoundation/edr^0.11.1. npm ERR! nota…

大數據里的拉鏈表:數據版本管理的時間膠囊

哈嘍各位數據打工人&#xff5e;今天咱們來聊聊大數據領域一個超實用的神器 ——拉鏈表&#xff01;聽起來像時尚單品&#xff1f;NoNoNo&#xff0c;它可是數據倉庫里管理歷史數據的寶藏工具? 就算你是剛入門的小白也能輕松聽懂&#xff0c;咱們全程少玩比喻多講人話&#xf…

docker執行yum報錯Could not resolve host: mirrorlist.centos.org

解決辦法&#xff1a; -- 依次執行以下命令cd /etc/yum.repos.d/sed -i s|#baseurlhttp://mirror.centos.org|baseurlhttp://vault.centos.org|g /etc/yum.repos.d/CentOS-*sed -i s/mirrorlist/#mirrorlist/g /etc/yum.repos.d/CentOS-*yum update -yecho "export LC_ALL…

JVM OutOfMemoryError原因及排查解決方案

在Java后端開發中&#xff0c;java.lang.OutOfMemoryError&#xff08;簡稱OOM&#xff09;是一個令開發者頭疼的異常。它通常意味著Java虛擬機&#xff08;JVM&#xff09;在嘗試分配新對象時&#xff0c;發現堆中沒有足夠的空間來容納該對象&#xff0c;或者其他內存區域耗盡…

吐槽之前后端合作開發

大家好&#xff0c;我是佳瑞&#xff0c;從事10多年java開發程序員&#xff0c;爆照一張&#xff0c;存活互聯網。 也做過vue開發自己的網站&#xff0c;覺得前端是真比后端開發輕松很多&#xff0c;就是畫頁面調樣式&#xff0c;打包發布&#xff0c;當然不說是高級源碼修改…

Oracle LogMiner日志分析工具介紹

Oracle LogMiner日志分析工具介紹 LogMiner使用須知LogMiner字典使用online catalog作為日志挖掘字典使用redo日志文件作為日志挖掘字典使用文本文件作為日志挖掘字典Redo日志文件自動獲取日志文件手動獲取日志文件啟動LogMiner進行分析V$LOGMNR_CONTENTS視圖LogMiner使用須知 …

2-4 Dockerfile指令(個人筆記)

以下指令基于 ubuntu Dockerfile整體示例 From&#xff1a;設置基礎鏡像 Maintainer &#xff1a;鏡像維護者信息 COPY/ADD&#xff1a;添加本地文件到鏡像中 WorkDir&#xff1a;設置工作目錄 Run&#xff1a;執行命令 CMD/EntryPoint&#xff1a;配置容器啟動時執行的命令

Redis主從架構哨兵模式

文章目錄 概述一、主從搭建實例二、主從同步原理三、哨兵架構3.1、搭建哨兵架構3.2、演示故障恢復3.3、哨兵日志 概述 在生產環境下&#xff0c;Redis通常不會單機部署&#xff0c;為了保證高可用性&#xff0c;通常使用主從模式或集群架構&#xff0c;同時也面臨著一些問題&am…

基于深度學習yolov5的安全帽實時識別檢測系統

摘要&#xff1a;在現代工業和建筑行業中&#xff0c;確保員工的安全是至關重要的一環。安全帽作為一項基礎的個人防護設備&#xff0c;對于降低頭部受傷的風險發揮著關鍵作用。然而&#xff0c;確保工作人員在施工現場始終正確佩戴安全帽并非易事。傳統的人工檢查方法不僅效率…

GitLab 18.1 發布 Runner、無效的個人訪問令牌查看等功能,可升級體驗!

GitLab 是一個全球知名的一體化 DevOps 平臺&#xff0c;很多人都通過私有化部署 GitLab 來進行源代碼托管。極狐GitLab 是 GitLab 在中國的發行版&#xff0c;專門為中國程序員服務。可以一鍵式部署極狐GitLab。 學習極狐GitLab 的相關資料&#xff1a; 極狐GitLab 官網極狐…

量子計算與AI融合 - 企業級安全威脅應對

量子計算&#xff08;QC&#xff09;雖帶來萬億級市場機遇&#xff08;2025-2035年&#xff09;&#xff0c;但潛藏重大安全風險&#xff1a;可能破解現有加密系統&#xff0c;催生"現在竊取&#xff0c;未來解密"攻擊。美國NIST已啟動后量子加密標準&#xff0c;但技…

Excel:filter函數實現動態篩選的方法

filter的意思是“過濾、篩選”&#xff0c;動態篩選&#xff0c;FILTER()函數可以將對篩選區域內容&#xff0c;并將結果自動溢出生成一個新區域&#xff0c;以下是函數的使用方法&#xff1a; &#xff08;一&#xff09;情景&#xff1a;給定兩列數據&#xff0c;我需要根據…

蘭洋科技上合組織論壇發表專題分享,全球液冷布局引領綠色算力未來

2025年6月17-19日&#xff0c;中國—上海合作組織數字技術合作發展論壇在新疆克拉瑪依市舉辦。作為第四次上海合作組織成員國信息通信技術發展部門負責人會議的配套會議&#xff0c;論壇以“數字化轉型助力可持續發展&#xff0c;數字包容促進上合共同繁榮”為主題&#xff0c;…

LED-Merging: 無需訓練的模型合并框架,兼顧LLM安全和性能!!

摘要&#xff1a;對預訓練大型語言模型&#xff08;LLMs&#xff09;進行微調以適應特定任務&#xff0c;會帶來巨大的計算和數據成本。雖然模型合并提供了一種無需訓練的解決方案&#xff0c;用于整合多個特定任務的模型&#xff0c;但現有方法存在安全性與效用性之間的沖突&a…