C++.神經網絡與深度學習(二次修改)

神經網絡與深度學習

  • 1. 神經網絡基礎
    • 1.1 神經元模型與激活函數
    • 1.2 神經網絡結構與前向傳播
    • 2.1 損失函數與優化算法
      • 均方誤差損失函數
      • 交叉熵損失函數
      • 梯度下降優化算法
    • 2.2 反向傳播與梯度計算
      • 神經元的反向傳播
    • 3.1 神經元類設計與實現
      • 神經元類代碼實現
      • 代碼思路
    • 3.2 神經網絡類構建
      • 神經網絡類代碼實現
      • 代碼思路
    • 4.1 神經元模型與激活函數
    • 4.2 神經網絡結構與前向傳播
    • 4.3 深度學習框架中的關鍵組件
    • 4.4 反向傳播與梯度計算
    • 4.5 神經網絡類的構建與實現
    • 4.6 神經網絡的訓練過程
      • 代碼思路

1. 神經網絡基礎

1.1 神經元模型與激活函數

神經元是神經網絡的基本單元,其模型可以類比為生物神經元。一個神經元接收多個輸入信號,對這些信號進行加權求和,然后通過一個激活函數進行非線性變換,最終輸出一個信號。以下是用 C++ 實現一個簡單神經元的代碼示例:

#include <iostream>
#include <vector>
#include <cmath>// 定義激活函數
double sigmoid(double x) {return 1.0 / (1.0 + exp(-x));
}// 神經元類
class Neuron {
private:std::vector<double> weights; // 權重double bias; // 偏置public:// 構造函數Neuron(int input_size) {weights.resize(input_size, 0.0); // 初始化權重為0bias = 0.0; // 初始化偏置為0}// 設置權重和偏置void set_weights(const std::vector<double>& w, double b) {weights = w;bias = b;}// 前向傳播,計算輸出double forward(const std::vector<double>& inputs) {double sum = bias;for (size_t i = 0; i < inputs.size(); ++i) {sum += inputs[i] * weights[i];}return sigmoid(sum); // 使用Sigmoid激活函數}
};int main() {// 創建一個輸入大小為2的神經元Neuron neuron(2);// 設置權重和偏置std::vector<double> weights = {0.5, -0.3};double bias = 0.1;neuron.set_weights(weights, bias);// 輸入信號std::vector<double> inputs = {1.0, -2.0};// 計算輸出double output = neuron.forward(inputs);std::cout << "Neuron output: " << output << std::endl;return 0;
}

代碼思路:

  • 激活函數:Sigmoid 函數是一個常用的激活函數,它將輸入映射到 (0, 1) 區間,具有平滑的梯度,適用于神經元的非線性變換。
  • 神經元類
    • 成員變量weights 存儲輸入信號的權重,bias 是偏置項。
    • 構造函數:根據輸入信號的數量初始化權重和偏置。
    • 設置權重和偏置:通過 set_weights 函數設置權重和偏置。
    • 前向傳播forward 函數計算輸入信號的加權和,加上偏置后通過激活函數輸出結果。
  • 主函數
    • 創建一個神經元實例,設置權重和偏置。
    • 提供輸入信號,調用 forward 函數計算輸出。

1.2 神經網絡結構與前向傳播

神經網絡由多個神經元組成,通常分為輸入層、隱藏層和輸出層。前向傳播是指從輸入層到輸出層逐層計算的過程。以下是一個簡單的兩層神經網絡的 C++ 實現:

#include <iostream>
#include <vector>
#include <cmath>// 激活函數
double sigmoid(double x) {return 1.0 / (1.0 + exp(-x));
}// 神經元類
class Neuron {
private:std::vector<double> weights;double bias;public:Neuron(int input_size) {weights.resize(input_size, 0.0);bias = 0.0;}void set_weights(const std::vector<double>& w, double b) {weights = w;bias = b;}double forward(const std::vector<double>& inputs) {double sum = bias;for (size_t i = 0; i < inputs.size(); ++i) {sum += inputs[i] * weights[i];}return sigmoid(sum);}
};// 神經網絡類
class NeuralNetwork {
private:std::vector<Neuron> hidden_layer; // 隱藏層Neuron output_neuron; // 輸出層public:NeuralNetwork(int input_size, int hidden_size) {hidden_layer.resize(hidden_size, Neuron(input_size));output_neuron = Neuron(hidden_size);}void set_weights(const std::vector<std::vector<double>>& hidden_weights,const std::vector<double>& hidden_biases,const std::vector<double>& output_weights,double output_bias) {for (size_t i = 0; i < hidden_layer.size(); ++i) {hidden_layer[i].set_weights(hidden_weights[i], hidden_biases[i]);}output_neuron.set_weights(output_weights, output_bias);}double forward(const std::vector<double>& inputs) {std::vector<double> hidden_outputs(hidden_layer.size());for (size_t i = 0; i < hidden_layer.size(); ++i) {hidden_outputs[i] = hidden_layer[i].forward(inputs);}return output_neuron.forward(hidden_outputs);}
};int main() {// 創建一個輸入大小為2,隱藏層大小為2的神經網絡NeuralNetwork nn(2, 2);// 設置權重和偏置std::vector<std::vector<double>> hidden_weights = {{0.5, -0.3}, {0.2, 0.1}};std::vector<double> hidden_biases = {0.1, -0.2};std::vector<double> output_weights = {0.4, -0.5};double output_bias = 0.3;nn.set_weights(hidden_weights, hidden_biases, output_weights, output_bias);// 輸入信號std::vector<double> inputs = {1.0, -2.0};// 計算輸出double output = nn.forward(inputs);std::cout << "Neural Network output: " << output << std::endl;return 0;
}

代碼思路:

  • 神經網絡類
    • 成員變量hidden_layer 存儲隱藏層的神經元,output_neuron 是輸出層的神經元。
    • 構造函數:根據輸入層大小和隱藏層大小初始化神經網絡。
    • 設置權重和偏置:通過 set_weights 函數設置隱藏層和輸出層的權重和偏置。
    • 前向傳播
      • 隱藏層的每個神經元對輸入信號進行前向傳播,計算隱藏層的輸出。
      • 將隱藏層的輸出作為輸出層神經元的輸入,計算最終輸出。
  • 主函數
    • 創建一個神經網絡實例,設置權重和偏置。
    • 提供輸入信號,調用 forward 函數計算輸出。# 2. 深度學習框架

2.1 損失函數與優化算法

在深度學習中,損失函數用于衡量模型的預測值與真實值之間的差異,優化算法則用于調整模型的參數以最小化損失函數。以下是幾種常見的損失函數和優化算法的實現及講解。

均方誤差損失函數

均方誤差(MSE)損失函數是回歸任務中常用的損失函數,它計算預測值與真實值之間差的平方的均值。

#include <iostream>
#include <vector>
#include <cmath>// 均方誤差損失函數
double mse_loss(const std::vector<double>& predictions, const std::vector<double>& targets) {double loss = 0.0;for (size_t i = 0; i < predictions.size(); ++i) {loss += std::pow(predictions[i] - targets[i], 2);}return loss / predictions.size();
}int main() {// 示例:預測值和真實值std::vector<double> predictions = {0.5, 1.2, -0.3};std::vector<double> targets = {0.4, 1.0, -0.5};// 計算損失double loss = mse_loss(predictions, targets);std::cout << "MSE Loss: " << loss << std::endl;return 0;
}

代碼思路:

  • 損失計算:遍歷預測值和真實值,計算每個樣本的預測值與真實值之差的平方。將所有樣本的損失值求和后除以樣本總數,得到均方誤差損失。

交叉熵損失函數

交叉熵損失函數常用于分類任務,它衡量模型輸出的概率分布與真實標簽的概率分布之間的差異。

#include <iostream>
#include <vector>
#include <cmath>
#include <algorithm>// Softmax函數
std::vector<double> softmax(const std::vector<double>& logits) {double max_logit = *std::max_element(logits.begin(), logits.end());double sum = 0.0;std::vector<double> probabilities(logits.size());for (size_t i = 0; i < logits.size(); ++i) {probabilities[i] = std::exp(logits[i] - max_logit);sum += probabilities[i];}for (size_t i = 0; i < logits.size(); ++i) {probabilities[i] /= sum;}return probabilities;
}// 交叉熵損失函數
double cross_entropy_loss(const std::vector<double>& logits, int target_class) {std::vector<double> probabilities = softmax(logits);return -std::log(probabilities[target_class]);
}int main() {// 示例:模型輸出的logits和目標類別std::vector<double> logits = {2.0, 1.0

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/diannao/83536.shtml
繁體地址,請注明出處:http://hk.pswp.cn/diannao/83536.shtml
英文地址,請注明出處:http://en.pswp.cn/diannao/83536.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

FPGA圖像處理(六)------ 圖像腐蝕and圖像膨脹

默認迭代次數為1&#xff0c;只進行一次腐蝕、膨脹 一、圖像腐蝕 1.相關定義 2.圖像腐蝕效果圖 3.fpga實現 彩色圖像灰度化&#xff0c;灰度圖像二值化&#xff0c;圖像緩存生成濾波模塊&#xff08;3*3&#xff09;&#xff0c;圖像腐蝕算法 timescale 1ns / 1ps // // Des…

中國版Cursor:CodeBuddy騰訊云代碼助手使用體驗

我正在參加CodeBuddy「首席試玩官」內容創作大賽&#xff0c;本文所使用的 CodeBuddy 免費下載鏈接&#xff1a;騰訊云代碼助手 CodeBuddy - AI 時代的智能編程伙伴” 1.CodeBuddy簡介 騰訊云代碼助手CodeBuddy&#xff0c;這個是一款編程插件&#xff0c;我們可以在各個編程…

Go語言 GORM框架 使用指南

在 Go 語言社區中&#xff0c;數據庫交互一直是開發者們關注的重點領域&#xff0c;不同開發者基于自身的需求和偏好&#xff0c;形成了兩種主要的技術選型流派。一部分開發者鐘情于像sqlx這類簡潔的庫&#xff0c;盡管其功能并非一應俱全&#xff0c;但它賦予開發者對 SQL 語句…

從零開始學習three.js(18):一文詳解three.js中的著色器Shader

在WebGL和Three.js的3D圖形渲染中&#xff0c;著色器&#xff08;Shader&#xff09; 是實現復雜視覺效果的核心工具。通過編寫自定義的著色器代碼&#xff0c;開發者可以直接操作GPU&#xff0c;實現從基礎顏色渲染到動態光照、粒子效果等高級圖形技術。本文將深入解析Three.j…

Python函數庫調用實戰:以數據分析為例

一、引言 Python之所以在編程領域廣受歡迎&#xff0c;很大程度上得益于其豐富且強大的函數庫。這些函數庫涵蓋了從數據分析、科學計算到Web開發、機器學習等眾多領域&#xff0c;極大地提高了開發效率。本文將以數據分析為例&#xff0c;介紹如何調用Python的一些常用函數庫。…

shell腳本之條件判斷,循環控制,exit詳解

if條件語句的語法及案例 一、基本語法結構 1. 單條件判斷 if [ 條件 ]; then命令1命令2... fi2. 雙分支&#xff08;if-else&#xff09; if [ 條件 ]; then條件為真時執行的命令 else條件為假時執行的命令 fi3. 多分支&#xff08;if-elif-else&#xff09; if [ 條件1 ]…

現代 Web 自動化測試框架對比:Playwright 與 Selenium 的深度剖析

現代 Web 自動化測試框架對比&#xff1a;Playwright 與 Selenium 的深度剖析 摘要&#xff1a;本文對 Playwright 與 Selenium 在開發適配性、使用難度、場景適用性及性能表現等方面進行了全面深入的對比分析。通過詳細的技術實現細節闡述與實測數據支撐&#xff0c;為開發者…

系統架構設計(十):結構化編程

定義 結構化編程是一種遵循清晰邏輯結構、避免使用 goto 的編程方法。它強調使用有限的三種基本控制結構來組織程序&#xff0c;提高程序的可讀性、可維護性和可測試性。 它是現代程序設計的基礎&#xff0c;被廣泛應用于命令式語言&#xff08;如 C、Pascal、Java&#xff0…

TC3xx學習筆記-UCB BMHD使用詳解(二)

文章目錄 前言Confirmation的定義Dual UCB: Confirmation StatesDual UCB: Errored State or ECC Error in the UCB Confirmation CodesECC Error in the UCB ContentDual Password UCB ORIG and COPY Re-programming UCB_BMHDx_ORIG and UCB_BMHDx_COPY (x 0-3)BMHD Protecti…

OTA與boot loader

OTA指的是無線升級&#xff0c;通常用于更新設備的固件或軟件&#xff0c;用戶不用手動操作&#xff0c;非常方便。而bootloader是啟動時加載操作系統的程序&#xff0c;負責硬件初始化和啟動流程。 首先&#xff0c;OTA是如何通過bootloader工作的。OTA下載更新包后&#xff0…

實驗六:FPGA序列檢測器實驗

FPGA序列檢測器實驗(遠程實驗系統) 文章目錄 FPGA序列檢測器實驗(遠程實驗系統)一、數字電路基礎知識1. 時鐘與同步2. 按鍵消抖原理代碼講解:分頻與消抖3. 有限狀態機(FSM)設計代碼講解:狀態機編碼與轉移4. 邊沿檢測與信號同步5. 模塊化設計二、實驗數字電路整體思想三…

jenkins部署

開發者將代碼push到git運維人員通過jenkins部署&#xff0c;自動到git上pull代碼通過maven構建成jar包&#xff0c;并結合dockerfile打包成鏡像&#xff0c;push docker鏡像到docker registry通過k8s發起 發布/更新 服務 操作 通過Jenkins部署&#xff0c;自動到Git上PULL代碼 …

BBR 的 buffer 動力學觀感

這周很忙&#xff0c;今天還加了一天班&#xff0c;但還是抽空實現了五一在安徽涇縣山區喝著一壺酒寫的 BBR ProbeRTT 的想法&#xff0c;沒多少行代碼&#xff0c;它真就消除了帶寬鋸齒&#xff0c;皮了個鞋&#x1f45e;&#xff0c;昨天我還在群里說了今天再說說 BBR 的&…

第9講、深入理解Scaled Dot-Product Attention

Scaled Dot-Product Attention是Transformer架構的核心組件&#xff0c;也是現代深度學習中最重要的注意力機制之一。本文將從原理、實現和應用三個方面深入剖析這一機制。 1. 基本原理 Scaled Dot-Product Attention的本質是一種加權求和機制&#xff0c;通過計算查詢(Query…

el-tree結合checkbox實現數據回顯

組件代碼 <el-tree:data"vertiList"show-checkboxnode-key"id":props"defaultProps"ref"treeRefx"class"custom-tree"check-change"handleCheckChange"> </el-tree>獲取選擇的節點 handleCheckChan…

OpenResty 深度解析:構建高性能 Web 服務的終極方案

引言 openresty是什么&#xff1f;在我個人對它的理解來看相當于嵌入了lua的nginx; 我們在nginx中嵌入lua是為了不需要再重新編譯,我們只需要重新修改lua腳本,隨后重啟即可; 一.lua指令序列 我們分別從初始化階段&#xff0c;重寫/訪問階段&#xff0c;內容階段&#xff0c;日志…

多商戶商城系統源碼解析:開發直播電商APP的技術底層實戰詳解

隨著直播電商的火爆&#xff0c;越來越多的創業者和企業都在尋求打造自己的多商戶商城系統&#xff0c;以實現“人、貨、場”三者的深度融合。然而&#xff0c;從一個簡單的電商平臺到一個功能完善的直播電商APP&#xff0c;其技術底層架構和實現過程并非一蹴而就。本文將從架構…

桌面端進程通信

以下是關于 Electron 桌面端進程通信的基本知識點總結: 一、Electron 進程模型基礎 1. 進程類型與職責 進程類型職責權限主進程(Main)創建窗口、系統級操作、IPC中樞完全Node.js訪問權限渲染進程(Renderer)展示Web內容、UI交互默認受限(可配置開啟Node.js)預加載腳本(Prelo…

openEuler24.03 LTS下安裝MySQL8.0.42

目錄 前提步驟 刪除原有mysql及maridb數據庫 安裝MySQL 啟動MySQL 啟動查看MySQL狀態 設置MySQL開機自啟動 查看登錄密碼 登錄MySQL 修改密碼及支持遠程連接 遠程連接MySQL 前提步驟 擁有openEuler24.03 LTS環境&#xff0c;可參考&#xff1a;Vmware下安裝openEule…

idea 保證舊版本配置的同時,如何從低版本升到高版本

文章目錄 前言idea 保證舊版本配置的同時,如何從低版本升到高版本1. 備份項目2. 下載最新的idea3. 安裝安裝包4. 導入idea2019舊配置5. 驗證前言 如果您覺得有用的話,記得給博主點個贊,評論,收藏一鍵三連啊,寫作不易啊^ _ ^。 ??而且聽說點贊的人每天的運氣都不會太差,…