神經網絡基礎:從單個神經元到多層網絡(superior哥AI系列第3期)

🧠 神經網絡基礎:從單個神經元到多層網絡(superior哥AI系列第3期)

哈嘍!各位AI探索者們!👋 上期我們把數學"怪獸"給馴服了,是不是感覺還挺輕松的?今天我們要進入更刺激的環節——揭開神經網絡的神秘面紗!🎭

很多人覺得神經網絡很高深,其實它就像樂高積木一樣,從最簡單的"神經元"開始,一層層搭建起來。今天superior哥就帶你從零開始,看看這個模仿大腦的"人工智能"是怎么工作的!🧩

🤔 為什么叫"神經"網絡?跟我們的大腦有啥關系?

想象一下,你的大腦里有1000億個神經元在瘋狂工作!🤯 每當你看到一只貓咪時:

  1. 👁? 眼睛接收光信號
  2. ? 視神經把信號傳給大腦
  3. 🧠 各種神經元層層處理:邊緣檢測→形狀識別→特征組合
  4. 💡 最后"叮"一聲:“這是只貓!”

人工神經網絡就是受這個過程啟發,試圖模仿大腦的工作方式。當然,現在的AI比我們的大腦還差得遠,但已經足夠做很多厲害的事情了!

🔍 單個神經元:神經網絡的"樂高積木"

神經元的四大組件

想象一個神經元就是一個超級聰明的小決策者,它有四個關鍵部分:

  1. 📥 輸入端口:接收來自外界或其他神經元的信息
  2. ?? 權重系統:決定每個輸入有多重要
  3. 🧮 計算中心:把所有輸入加權求和
  4. 🚀 激活器:根據計算結果決定是否"興奮"并輸出信號

🏃?♂? 生活例子:要不要去跑步的神經元

讓我們用一個接地氣的例子來理解神經元是怎么工作的:

設定場景: 你的大腦里有個專門負責"決定是否去跑步"的神經元🏃?♂?

三個輸入因素:

  • 🌤? 天氣情況(輸入1)
  • ? 可用時間(輸入2)
  • 💪 身體狀態(輸入3)

權重設置(重要性排序):

  • 天氣權重 = 0.3(有點重要)
  • 時間權重 = 0.5(比較重要)
  • 身體權重 = 0.8(最重要!)

今天的具體情況:

  • 天氣不錯:打分 0.7
  • 時間充足:打分 0.9
  • 有點累:打分 0.4

神經元開始計算:

總分 = 0.7×0.3 + 0.9×0.5 + 0.4×0.8= 0.21 + 0.45 + 0.32 = 0.98

激活函數判斷: 如果總分 > 0.5,就去跑步!
結果:0.98 > 0.5 ? → 決定:去跑步!

這就是一個神經元的完整工作流程!🎉

🎛? 激活函數:神經元的"性格設定"

如果神經網絡只會簡單的加減乘除,那它就是個高級計算器,沒啥智能可言。激活函數就是給神經元裝上"性格"的關鍵!

常見的激活函數"性格"類型:

🎚? Sigmoid:優雅的淑女型
  • 特點:輸出永遠在0到1之間,像個溫和的淑女
  • 性格:不管輸入多極端,輸出都很"溫柔"
  • 生活類比:就像一個很有修養的人,不管多生氣也不會大發雷霆
? ReLU:簡單粗暴型
  • 特點:負數直接砍成0,正數原樣保留
  • 性格:非黑即白,要么不響應,要么全力響應
  • 生活類比:像個直性子的東北大哥,“行就是行,不行就拉倒!”
🎭 Tanh:情緒豐富型
  • 特點:輸出在-1到1之間,可以表達"負面情緒"
  • 性格:比Sigmoid更有表現力,能表達"不喜歡"
  • 生活類比:像個情感豐富的藝術家,愛憎分明

在實際項目中,ReLU是最受歡迎的"員工"——簡單粗暴但效果好!💪

🏗? 從單個神經元到神經網絡:搭建AI"大腦"

單個神經元就像一個只會做簡單判斷的小朋友,但當我們把很多個這樣的"小朋友"組織起來,就能形成超強的團隊!

🏢 神經網絡的"公司架構"

想象神經網絡就是一家有層級的公司:

  1. 📨 輸入層(前臺):接收原始數據,就像公司前臺接待客戶
  2. 🏭 隱藏層(各部門):處理信息的中間層,可以有很多層
  3. 📋 輸出層(管理層):做最終決策
  4. 輸出層:產生最終結果

🎯 一個具體例子:識別手寫數字的神經網絡

讓我們用識別手寫數字(0-9)的例子來看看多層網絡是怎么工作的:

輸入層: 784個神經元(28×28像素的圖片)

  • 每個像素的灰度值(0-255)

隱藏層1: 128個神經元

  • 學習識別邊緣、線條等基本特征

隱藏層2: 64個神經元

  • 組合基本特征,識別數字的局部形狀

輸出層: 10個神經元

  • 分別對應數字0-9的概率

🔄 前向傳播:信息在網絡中的"接力賽"

前向傳播就像一場信息傳遞的接力賽!🏃?♂???🏃?♀???🏃?♂?

🎮 用游戲的方式理解前向傳播

想象你在玩一個"傳話游戲":

  1. 第一棒(輸入層):小明看到一張貓的照片,描述給小紅:“我看到毛茸茸的東西,有尖耳朵…”

  2. 第二棒(隱藏層1):小紅聽了小明的描述,加上自己的理解,告訴小剛:“聽起來像是小動物,可能有四條腿…”

  3. 第三棒(隱藏層2):小剛綜合前面的信息,告訴小李:“應該是寵物,很可能是貓或狗…”

  4. 最后一棒(輸出層):小李做最終判斷:“80%確定是貓!”

這就是前向傳播的過程!每一層都在前一層的基礎上,添加自己的"理解"和"判斷"!

? 數學版本(別怕,很簡單!)

# 前向傳播的簡化版本
def forward_pass(input_data):# 第一層:輸入 × 權重 + 偏置,然后激活layer1_output = activate(input_data × weights1 + bias1)# 第二層:第一層輸出 × 權重 + 偏置,然后激活  layer2_output = activate(layer1_output × weights2 + bias2)# 輸出層:最終預測final_output = activate(layer2_output × weights_final + bias_final)return final_output

就像流水線一樣:原材料→半成品→成品!🏭

🔙 反向傳播:神經網絡的"反思"機制

🎯 籃球教練的智慧

想象你在學投籃🏀:

  1. 你投籃 → 球偏左了
  2. 教練分析 → “手腕角度有問題”
  3. 你調整 → 下次投籃時調整手腕
  4. 再次投籃 → 更準了!

反向傳播就是神經網絡的"教練"!它告訴每個神經元怎么調整,讓整個網絡表現更好。

🧠 反向傳播的工作流程

  1. 🎯 前向預測:網絡給出預測結果
  2. 😱 發現錯誤:計算預測與真實答案的差距
  3. 🔍 分析責任:找出每個神經元對錯誤的"貢獻"
  4. 🔧 調整權重:讓每個神經元都變得"更聰明"
  5. 🔄 重復練習:千萬次訓練后,網絡變成專家!

📊 梯度下降:找到最佳"配方"

還記得我們之前說的"做菜找最佳配方"的例子嗎?🍳

神經網絡訓練就像調配一道菜:

  • 權重 = 各種調料的用量
  • 損失函數 = 菜的"難吃程度"
  • 梯度 = 每種調料應該增加還是減少
  • 學習率 = 每次調整的幅度
# 梯度下降的偽代碼
while 菜還不夠好吃:嘗一口菜,計算難吃程度for 每種調料:if 增加這種調料能讓菜更好吃:增加一點點這種調料else:減少一點點這種調料重新做菜,再嘗一口

經過成千上萬次的調整,AI大廚就能做出完美的菜了!👨?🍳?

🛠? 實戰時間:搭建你的第一個"AI大腦"

準備好了嗎?現在我們要動手搭建一個真正的神經網絡!🔨 這個網絡的任務是預測一個人是否會喜歡某部電影。

🎬 我們的任務:AI電影推薦專家

輸入特征:

  • 🎯 動作場景多少(0-10分)
  • 💕 浪漫元素多少(0-10分)
  • 😂 喜劇元素多少(0-10分)

輸出結果:

  • 📊 這個人喜歡這部電影的概率(0-1之間)

💻 代碼實現:從零開始的神經網絡

import numpy as np
import matplotlib.pyplot as pltclass MovieRecommenderAI:"""電影推薦AI - 你的第一個神經網絡!"""def __init__(self):print("🤖 正在初始化AI大腦...")# 隨機初始化權重(給AI一個"嬰兒大腦")self.weights_input_hidden = np.random.rand(3, 4)  # 3個輸入 → 4個隱藏神經元self.weights_hidden_output = np.random.rand(4, 1)  # 4個隱藏 → 1個輸出# 偏置(每個神經元的"個性")self.bias_hidden = np.random.rand(1, 4)self.bias_output = np.random.rand(1, 1)print("? AI大腦初始化完成!")def sigmoid(self, x):"""Sigmoid激活函數 - 給神經元裝上'優雅淑女'性格"""return 1 / (1 + np.exp(-np.clip(x, -250, 250)))  # 防止數值溢出def sigmoid_derivative(self, x):"""Sigmoid的導數 - 用于反向傳播的魔法"""return x * (1 - x)def forward_think(self, movie_features):"""前向傳播 - AI的思考過程"""print(f"🧠 AI正在分析電影特征: {movie_features}")# 第一層思考:從基礎特征到抽象概念self.hidden_input = np.dot(movie_features, self.weights_input_hidden) + self.bias_hiddenself.hidden_output = self.sigmoid(self.hidden_input)print(f"💭 隱藏層思考結果: {self.hidden_output.round(3)}")# 第二層思考:做出最終決策self.output_input = np.dot(self.hidden_output, self.weights_hidden_output) + self.bias_outputself.predicted_preference = self.sigmoid(self.output_input)print(f"🎯 AI預測喜好度: {self.predicted_preference[0][0]:.3f}")return self.predicted_preferencedef learn_from_mistake(self, movie_features, actual_preference, learning_rate=0.5):"""反向傳播 - AI從錯誤中學習"""# 前向思考predicted = self.forward_think(movie_features)# 計算錯誤程度error = actual_preference - predictedprint(f"😅 預測誤差: {error[0][0]:.3f}")if abs(error[0][0]) < 0.01:print("🎉 預測很準確,AI很開心!")else:print("🤔 AI在反思哪里出錯了...")# 反向傳播:調整權重# 輸出層的調整output_delta = error * self.sigmoid_derivative(predicted)hidden_error = output_delta.dot(self.weights_hidden_output.T)hidden_delta = hidden_error * self.sigmoid_derivative(self.hidden_output)# 更新權重(AI變聰明的過程)self.weights_hidden_output += self.hidden_output.T.dot(output_delta) * learning_rateself.weights_input_hidden += movie_features.T.dot(hidden_delta) * learning_rateself.bias_output += np.sum(output_delta, axis=0, keepdims=True) * learning_rateself.bias_hidden += np.sum(hidden_delta, axis=0, keepdims=True) * learning_rateprint("🧠 AI大腦已更新,變得更聰明了!")return abs(error[0][0])def train_ai_brain(self, training_data, training_labels, epochs=1000):"""訓練AI大腦 - 讓AI變成電影專家"""print(f"📚 開始訓練AI,準備學習 {epochs} 輪...")errors = []for epoch in range(epochs):total_error = 0# 讓AI看每一個訓練樣本for i in range(len(training_data)):error = self.learn_from_mistake(training_data[i:i+1], training_labels[i:i+1])total_error += erroravg_error = total_error / len(training_data)errors.append(avg_error)# 每100輪匯報一次進度if epoch % 100 == 0:print(f"📈 第 {epoch} 輪訓練,平均誤差: {avg_error:.4f}")print("🎓 AI訓練完成,現在是電影專家了!")return errorsdef recommend_movie(self, movie_features):"""給用戶推薦電影"""preference = self.forward_think(movie_features)if preference[0][0] > 0.7:return f"🎬 強烈推薦!AI認為你有 {preference[0][0]*100:.1f}% 的概率會喜歡這部電影!"elif preference[0][0] > 0.5:return f"👍 還不錯!AI認為你有 {preference[0][0]*100:.1f}% 的概率會喜歡。"else:return f"😐 可能不太適合你,只有 {preference[0][0]*100:.1f}% 的概率會喜歡。"# 創建我們的AI電影專家
print("🎬 歡迎來到AI電影推薦系統!")
ai_critic = MovieRecommenderAI()# 準備訓練數據(已知某個人的電影偏好)
print("\n📊 準備訓練數據...")
training_movies = np.array([[8, 2, 4],  # 動作片:《速度與激情》[2, 9, 3],  # 愛情片:《泰坦尼克號》[5, 5, 8],  # 喜劇片:《憨豆先生》[9, 1, 2],  # 純動作:《敢死隊》[1, 8, 1],  # 純愛情:《戀戀筆記本》[3, 3, 9],  # 純喜劇:《大話西游》[7, 6, 5],  # 綜合片:《鋼鐵俠》[0, 2, 1]   # 無聊片:《文藝片》
])# 這個人的真實喜好(喜歡動作和喜劇,不喜歡純愛情)
true_preferences = np.array([[0.9],  # 喜歡動作片[0.2],  # 不喜歡愛情片[0.8],  # 喜歡喜劇片[0.95], # 超喜歡純動作[0.1],  # 不喜歡純愛情[0.85], # 喜歡純喜劇[0.75], # 喜歡綜合片[0.05]  # 討厭無聊片
])# 開始訓練AI
print("\n🎓 開始訓練AI大腦...")
training_errors = ai_critic.train_ai_brain(training_movies, true_preferences, epochs=500)# 測試AI的推薦能力
print("\n🎯 測試AI推薦能力...")
test_movies = [[8, 3, 6],  # 動作喜劇:《功夫熊貓》[1, 9, 2],  # 浪漫片:《我的野蠻女友》[6, 4, 7]   # 平衡片:《阿凡達》
]test_names = ["《功夫熊貓》", "《我的野蠻女友》", "《阿凡達》"]for i, movie in enumerate(test_movies):print(f"\n🎬 測試電影: {test_names[i]}")print(f"📋 特征: 動作{movie[0]}, 浪漫{movie[1]}, 喜劇{movie[2]}")recommendation = ai_critic.recommend_movie(np.array([movie]))print(f"🤖 {recommendation}")# 可視化訓練過程
plt.figure(figsize=(10, 6))
plt.plot(training_errors)
plt.title('🧠 AI學習進度 - 誤差隨時間變化')
plt.xlabel('訓練輪數')
plt.ylabel('平均誤差')
plt.grid(True)
plt.show()print("\n🎉 恭喜!你已經成功創建了第一個神經網絡!")

🎯 運行結果解析

當你運行這個代碼時,你會看到:

  1. 🤖 AI初始化:隨機權重開始,就像嬰兒的大腦
  2. 📚 學習過程:AI不斷從錯誤中學習,調整權重
  3. 📈 進步曲線:誤差逐漸減小,AI越來越聰明
  4. 🎬 推薦結果:訓練后的AI能準確預測電影偏好

這就是神經網絡的神奇之處:從隨機噪音到智能專家,只需要數據和訓練! ?## 🏗? 深度神經網絡:AI的"摩天大樓"

🏢 為什么要"蓋高樓"?

還記得我們之前的電影推薦AI嗎?它只有1個隱藏層,就像一個平房🏠。現在我們要建造AI界的"摩天大樓"——深度神經網絡!🏗?

更多層 = 更強大的理解能力

想象AI識別一張貓的照片:

  • 第1層(邊緣檢測員):🔍 “我看到了一些線條和邊緣”
  • 第2層(形狀識別員):👁? “這些邊緣組成了眼睛、耳朵的形狀”
  • 第3層(特征組合員):🧩 “眼睛+耳朵+胡須 = 看起來像動物的臉”
  • 第4層(專家判斷員):🎯 “99%確定這是一只貓!”

每一層都在前一層的基礎上,理解更抽象、更復雜的概念!

📈 深度的威力:從簡單到復雜

淺層網絡(1-2層):只能學簡單模式
↓
中層網絡(3-5層):能學復雜關系  
↓
深層網絡(6-100+層):能理解高度抽象的概念

舉個例子:

  • 識別數字:淺層網絡就夠了
  • 識別人臉:需要中層網絡
  • 理解語言:需要深層網絡
  • 自動駕駛:需要超深層網絡

🚨 深度網絡的"成長煩惱"

雖然深度網絡很強大,但也有一些"青春期煩惱"需要解決:

😵 過擬合:死記硬背的"書呆子"

問題: AI變成了只會死記硬背的學生

表現:

  • 訓練數據:100分 🎯
  • 測試數據:30分 😱

解決方案:

🎲 Dropout:隨機"請假"制度
# 訓練時隨機讓50%的神經元"請假"
# 就像團隊合作,不能只依賴某幾個人def dropout_layer(x, drop_rate=0.5):if training_mode:mask = np.random.binomial(1, 1-drop_rate, x.shape)return x * mask / (1-drop_rate)else:return x  # 測試時所有人都上班
📏 正則化:給AI立"規矩"
# L2正則化:不允許權重太極端
loss = original_loss + λ * sum(weight2)
# 就像告訴AI:"別太偏激,要平衡!"

? 梯度消失:信息傳遞的"電話游戲"

問題: 傳話傳到最后完全變味了

想象一個1000人的傳話游戲:

  • 第1個人:🗣? “今天天氣真好”
  • 第500個人:🤔 “今天…什么?”
  • 第1000個人:😵 “啥?有人說話嗎?”

在深層網絡中,梯度在反向傳播時會越來越小,最終接近0,前面的層學不到東西!

解決方案:

🛣? 殘差連接:修建"高速公路"
# ResNet的核心思想:給信息修條高速路
def residual_block(x):# 常規路線(可能堵車)processed = neural_network_layers(x)# 高速公路(直達)shortcut = x# 兩條路的結果相加output = processed + shortcutreturn output
🎯 BatchNorm:給每層裝個"調節器"
# 批量歸一化:讓每層的輸入都很"正常"
def batch_normalization(x):mean = np.mean(x, axis=0)var = np.var(x, axis=0)normalized = (x - mean) / np.sqrt(var + epsilon)return normalized

🎨 網絡架構設計:AI的"建筑藝術"

設計神經網絡就像設計建筑,既要科學又要藝術!🎨

🧩 關鍵設計決策

1. 🏗? 網絡深度:要蓋幾層樓?
  • 淺網絡(1-3層):適合簡單任務,像蓋平房
  • 中等網絡(4-10層):適合一般任務,像蓋小高樓
  • 深網絡(10-100+層):適合復雜任務,像蓋摩天大樓
2. 📏 網絡寬度:每層要多少神經元?
  • 太窄:學習能力不足,像獨木橋
  • 太寬:容易過擬合,像鋪張浪費
  • 剛好:恰到好處,像黃金比例
3. 🎭 激活函數:給神經元什么"性格"?
  • ReLU:簡單粗暴,適合大部分情況
  • Sigmoid:溫和優雅,適合概率輸出
  • Tanh:情感豐富,適合需要負值的場景

🎯 經驗法則(AI建筑師的"施工指南")

  1. 先簡單后復雜:從小房子開始,再蓋大樓
  2. 數據決定規模:數據多就蓋大樓,數據少就蓋平房
  3. 性能優先:ReLU + BatchNorm + Dropout 是經典組合
  4. 多試多調:建筑師也要反復修改圖紙!

🎉 總結:神經網絡的魔法與現實

🪄 神經網絡的神奇之處

  1. 🧠 模仿大腦:受生物神經元啟發,但已經超越生物的局限
  2. 📚 自動學習:不需要編程每個細節,從數據中自動學習模式
  3. 🎯 廣泛適用:從圖像識別到語言翻譯,幾乎無所不能
  4. 🚀 持續進化:每天都有新的技術突破

🌟 關鍵概念回顧

  • 神經元:網絡的基本單位,就像樂高積木 🧩
  • 權重:決定信息重要性的參數 ??
  • 激活函數:給神經元裝上"性格" 🎭
  • 前向傳播:信息從輸入到輸出的"流水線" 🏭
  • 反向傳播:從錯誤中學習的"反思機制" 🔄
  • 深度:層數越多,理解越深刻 🏗?

🔮 展望未來

神經網絡雖然強大,但仍在快速發展:

  • 更聰明的架構:Transformer、Attention機制
  • 更高效的訓練:聯邦學習、遷移學習
  • 更廣泛的應用:醫療、教育、藝術創作

🎯 下期預告:CNN的視覺革命

下一期我們要學習CNN(卷積神經網絡),看看AI是如何獲得"超級視力"的!

預告內容:

  • 📸 為什么普通神經網絡看不懂圖片?
  • 🔍 卷積操作:AI的"魔法濾鏡"
  • 🏊?♂? 池化操作:信息壓縮大師
  • 🎯 實戰:用CNN識別手寫數字

記得點贊收藏關注三連!我們下期見!👋


💡 superior哥的神經網絡小貼士:神經網絡就像搭積木,從最簡單的神經元開始,一層層搭建起來。雖然數學看起來復雜,但核心思想很簡單:通過大量的試錯來學習!不要被公式嚇到,重在理解思想!加油!🧠?

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/bicheng/83430.shtml
繁體地址,請注明出處:http://hk.pswp.cn/bicheng/83430.shtml
英文地址,請注明出處:http://en.pswp.cn/bicheng/83430.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

03 APP 自動化-定位元素工具元素定位

文章目錄 一、Appium常用元素定位工具1、U IAutomator View Android SDK 自帶的定位工具2、Appium Desktop Inspector3、Weditor安裝&#xff1a;Weditor工具的使用 4、uiautodev通過定位工具獲取app頁面元素有哪些屬性 二、app 元素定位方法 一、Appium常用元素定位工具 1、U…

Java消息隊列與安全實戰:謝飛機的燒餅攤故事

Java消息隊列與安全實戰&#xff1a;謝飛機的燒餅攤故事 第一輪&#xff1a;消息隊列與緩存 面試官&#xff1a;謝飛機&#xff0c;Kafka和RabbitMQ在電商場景如何選型&#xff1f; 謝飛機&#xff1a;&#xff08;摸出燒餅&#xff09;Kafka適合訂單日志處理&#xff0c;像…

Unity中的MonoSingleton<T>與Singleton<T>

1.MonoSingleton 代碼部分 using UnityEngine;/// <summary> /// MonoBehaviour單例基類 /// 需要掛載到GameObject上使用 /// </summary> public class MonoSingleton<T> : MonoBehaviour where T : MonoSingleton<T> {private static T _instance;…

day 40 python打卡

仔細學習下測試和訓練代碼的邏輯&#xff0c;這是基礎&#xff0c;這個代碼框架后續會一直沿用&#xff0c;后續的重點慢慢就是轉向模型定義階段了。 # 先繼續之前的代碼 import torch import torch.nn as nn import torch.optim as optim from torch.utils.data import DataL…

進階日記(一)大模型的本地部署與運行

目錄 一、背景知識 為什么要在本地部署大模型&#xff1f; 在本地部署大模型需要做哪些準備工作&#xff1f; &#xff08;1&#xff09;硬件配置 &#xff08;2&#xff09;軟件環境 有哪些部署工具可供選擇&#xff1f; 二、Ollma安裝 Ollama安裝完之后&#xff0c;還…

Spring Boot Starter 自動裝配原理全解析:從概念到實踐

Spring Boot Starter 自動裝配原理全解析&#xff1a;從概念到實踐 在Spring Boot開發中&#xff0c;Starter和自動裝配是兩個核心概念&#xff0c;它們共同構成了“開箱即用”的開發體驗。通過引入一個Starter依賴&#xff0c;開發者可以快速集成第三方組件&#xff08;如Red…

win11回收站中出現:查看回收站中是否有以下項: WPS云盤回收站

好久沒更新了&#xff0c;首先祝所有大朋友、小朋友六一兒童節快樂&#xff0c;真的希望我們永遠都不會長大呀&#xff0c;長大真的好累呀(?_?) 免責聲明 筆者先來個免責聲明吧&#xff0c;被網上的陰暗面嚇到了 若讀者參照筆者的這篇文章所執行的操作中途或后續出現的任何…

網絡安全大模型理解

一、網絡安全大模型的概述 網絡安全大模型是一種用于識別和應對各種網絡安全威脅的模型。它通過分析網絡數據包、網絡行為等信息&#xff0c;識別潛在的網絡安全事件&#xff0c;并采取相應的措施進行防御。網絡安全大模型主要包括以下幾個部分&#xff1a; 1. 數據預處理&am…

C++語法架構解說

C 是一種功能強大且靈活的編程語言&#xff0c;廣泛應用于系統編程、游戲開發、嵌入式系統、金融軟件等領域。 其語法架構復雜且豐富&#xff0c;涵蓋了從基礎語法到高級特性的各個方面。 對 C 語法架構 的詳細解析&#xff0c;涵蓋其核心語法結構、面向對象編程&#xff08;…

審計- 1- 審計概述

1.財務報表審計的概念 財務報表審計是指注冊會計師對財務報表是否不存在重大錯報提供合理保證&#xff0c;以積極方式提出意見&#xff0c;增強除管理層之外的預期使用者對財務報表信賴的程度。 1.1 審計業務三方關系人 注冊會計師對財務報表發表審計意見是注冊會計師的責任管…

RapidOCR集成PP-OCRv5_det mobile模型記錄

該文章主要摘取記錄RapidOCR集成PP-OCRv5_mobile_det記錄&#xff0c;涉及模型轉換&#xff0c;模型精度測試等步驟。原文請前往官方博客&#xff1a; https://rapidai.github.io/RapidOCRDocs/main/blog/2025/05/26/rapidocr%E9%9B%86%E6%88%90pp-ocrv5_det%E6%A8%A1%E5%9E%8B…

Spine工具入門教程2之導入

1、導入定義 從原畫轉化為Spine的環節。 &#xff08;1&#xff09;選擇路徑&#xff0c;拖動圖片導入方式 缺點&#xff1a;定位不準 【使用批量導出的方式】 在PS工具中&#xff0c;選擇所有圖層后右鍵選擇導出。 在Spine工具中&#xff0c;選擇路徑導入圖片。 然后再拖…

【03】完整開發騰訊云播放器SDK的UniApp官方UTS插件——優雅草上架插件市場-卓伊凡

【03】完整開發騰訊云播放器SDK的UniApp官方UTS插件——優雅草上架插件市場-卓伊凡 一、項目背景與轉型原因 1.1 原定計劃的變更 本系列教程最初規劃是開發即構美顏SDK的UTS插件&#xff0c;但由于甲方公司內部戰略調整&#xff0c;原項目被迫中止。考慮到&#xff1a; 技術…

戴爾AI服務器訂單激增至121億美元,但傳統業務承壓

戴爾科技121億美元的AI服務器訂單&#xff0c;不僅超過了公司整個2025財年的AI服務器出貨量&#xff0c;更讓其AI訂單積壓達到144億美元的歷史高位。 戴爾科技最新財報顯示&#xff0c;AI服務器需求的爆炸式增長正在重塑這家老牌PC制造商的業務格局&#xff0c;但同時也暴露出…

多線程和并發之線程

線程 前面講到進程&#xff1a;為了并發執行任務&#xff08;程序&#xff09;&#xff0c;現代操作系統才引進進程的概念 分析&#xff1a; 創建開銷問題&#xff1a;創建一個進程開銷&#xff1a;大 子進程需要拷貝父進程的整個地址空間 通信開銷問題&#xff1a;進程間的通…

AAAI 2025論文分享│STD-PLM:基于預訓練語言模型的時空數據預測與補全方法

本文詳細介紹了一篇發表于人工智能頂級會議AAAI 2025的論文《STD-PLM: Understanding Both Spatial and Temporal Properties of Spatial-Temporal Data with PLM》。該論文提出了一種基于預訓練語言模型&#xff08;Pre-trained Language Model?&#xff0c;PLM&#xff09;的…

前端八股 tcp 和 udp

都是傳輸層協議 udp 數據報協議 不可靠面向數據包對于應用層傳遞的報文加上UDP首部就傳給網絡層 tcp 傳輸控制協議 可靠 會將報文分段進行傳輸 區別&#xff1a; 1.tcp 可靠 udp 不可靠 2.tcp 面向連接 三握四揮 udp 無連接 3.tcp面向字節流 udp面向報文 4.效率低 效率高…

MES管理系統:Java+Vue,含源碼與文檔,實現生產過程實時監控、調度與優化,提升制造企業效能

前言&#xff1a; 在當今競爭激烈的制造業環境中&#xff0c;企業面臨著提高生產效率、降低成本、提升產品質量以及快速響應市場變化等多重挑戰。MES管理系統作為連接企業上層計劃管理系統與底層工業控制之間的橋梁&#xff0c;扮演著至關重要的角色。它能夠實時收集、分析和處…

MSTNet:用于糖尿病視網膜病變分類的多尺度空間感知 Transformer 與多實例學習方法|文獻速遞-深度學習醫療AI最新文獻

Title 題目 MSTNet: Multi-scale spatial-aware transformer with multi-instance learning for diabetic retinopathy classification MSTNet&#xff1a;用于糖尿病視網膜病變分類的多尺度空間感知 Transformer 與多實例學習方法 01 文獻速遞介紹 糖尿病視網膜病變&#…

每日八股文6.2

每日八股-6.2 Go1.GMP調度原理&#xff08;這部分多去看看golang三關加深理解&#xff09;2.GC&#xff08;同樣多去看看golang三關加深理解&#xff09;3.閉包4.go語言函數是一等公民是什么意思5.sync.Mutex和sync.RWMutex6.sync.WaitGroup7.sync.Cond8.sync.Pool9.panic和rec…