365打卡第R6周: LSTM實現糖尿病探索與預測

🍨 本文為🔗365天深度學習訓練營中的學習記錄博客
🍖 原作者:K同學啊

🏡 我的環境:

語言環境:Python3.10
編譯器:Jupyter Lab
深度學習環境:torch==2.5.1 ? ?torchvision==0.20.1
------------------------------分割線---------------------------------

#設置GPU 
import torch.nn as nn 
import torch.nn.functional as F 
import torchvision,torch device = torch.device("cuda" if torch.cuda.is_available() else "cpu")print(device) 

(數據規模很小,在普通筆記本電腦就可以流暢跑完)

#導入數據
import numpy   as np
import pandas  as pd
import seaborn as sns
from sklearn.model_selection import train_test_split
import matplotlib.pyplot as plt
plt.rcParams['savefig.dpi'] = 500 #圖片像素
plt.rcParams['figure.dpi'] = 500 #分辨率plt.rcParams['font.sans-serif'] = ['SimHei'] #用來正常顯示中文標簽import warnings
warnings.filterwarnings('ignore')DataFrame = pd.read_excel('./dia.xls')
print(DataFrame.head())print(DataFrame.shape)

# 查看是否有缺失值
print("數據缺失值------------------")
print(DataFrame.isnull().sum())

# 查看數據是否有重復值
print("數據重復值------------------")
print('數據的重復值為:'f'{DataFrame.duplicated().sum()}')

feature_map = {'年齡': '年齡','高密度脂蛋白膽固醇': '高密度脂蛋白膽固醇','低密度脂蛋白膽固醇': '低密度脂蛋白膽固醇','極低密度脂蛋白膽固醇': '極低密度脂蛋白膽固醇','甘油三酯': '甘油三酯','總膽固醇': '總膽固醇','脈搏': '脈搏','舒張壓': '舒張壓','高血壓史': '高血壓史','尿素氮': '尿素氮','尿酸': '尿酸','肌酐': '肌酐','體重檢查結果': '體重檢查結果'
}plt.figure(figsize=(15, 10))
for i, (col, col_name) in enumerate(feature_map.items(), 1):plt.subplot(3, 5, i)sns.boxplot(x=DataFrame['是否糖尿病'], y=DataFrame[col])plt.title(f'{col_name}的箱線圖', fontsize=14)plt.ylabel('數值', fontsize=12)plt.grid(axis='y', linestyle='--', alpha=0.7)
plt.tight_layout()
plt.show()

# 構建數據集
from sklearn.preprocessing import StandardScaler# '高密度脂蛋白膽固醇'字段與糖尿病負相關,故在X 中去掉該字段
X = DataFrame.drop(['卡號', '是否糖尿病', '高密度脂蛋白膽固醇'], axis=1)
y = DataFrame['是否糖尿病']# sc_X = StandardScaler()
# X = sc_X.fit_transformX = torch.tensor(np.array(X), dtype=torch.float32)
y = torch.tensor(np.array(y), dtype=torch.int64)train_X, test_X, train_y, test_y = train_test_split(X, y, test_size=0.2, random_state=1)train_X.shape, train_y.shape

from torch.utils.data import TensorDataset, DataLoadertrain_dl = DataLoader(TensorDataset(train_X, train_y), batch_size=64, shuffle=False)
test_dl = DataLoader(TensorDataset(test_X, test_y), batch_size=64, shuffle=False)# 定義模型
class model_lstm(nn.Module):def __init__(self):super(model_lstm, self).__init__()self.lstm0 = nn.LSTM(input_size=13, hidden_size=200,num_layers=1, batch_first=True)self.lstm1 = nn.LSTM(input_size=200, hidden_size=200,num_layers=1, batch_first=True)self.fc0 = nn.Linear(200, 2)  # 輸出 2 類def forward(self, x):# 如果 x 是 2D 的,轉換為 3D 張量,假設 seq_len=1if x.dim() == 2:x = x.unsqueeze(1)  # [batch_size, 1, input_size]# LSTM 處理數據out, (h_n, c_n) = self.lstm0(x)  # 第一層 LSTM# 使用第二個 LSTM,并傳遞隱藏狀態out, (h_n, c_n) = self.lstm1(out, (h_n, c_n))  # 第二層 LSTM# 獲取最后一個時間步的輸出out = out[:, -1, :]  # 選擇序列的最后一個時間步的輸出out = self.fc0(out)  # [batch_size, 2]return outmodel = model_lstm().to(device)
print(model)

# 訓練模型def train(dataloader, model, loss_fn, optimizer):size = len(dataloader.dataset)  # 訓練集的大小num_batches = len(dataloader)  # 批次數目train_loss, train_acc = 0, 0  # 初始化訓練損失和正確率model.train()  # 設置模型為訓練模式for X, y in dataloader:  # 獲取數據和標簽# 如果 X 是 2D 的,調整為 3Dif X.dim() == 2:X = X.unsqueeze(1)  # [batch_size, 1, input_size],即假設 seq_len=1X, y = X.to(device), y.to(device)  # 將數據移動到設備# 計算預測誤差pred = model(X)  # 網絡輸出loss = loss_fn(pred, y)  # 計算網絡輸出和真實值之間的差距# 反向傳播optimizer.zero_grad()  # 清除上一步的梯度loss.backward()  # 反向傳播optimizer.step()  # 更新權重# 記錄acc與losstrain_acc += (pred.argmax(1) == y).type(torch.float).sum().item()train_loss += loss.item()train_acc /= size  # 平均準確率train_loss /= num_batches  # 平均損失return train_acc, train_lossdef test(dataloader, model, loss_fn):size = len(dataloader.dataset)  # 測試集的大小num_batches = len(dataloader)  # 批次數目, (size/batch_size,向上取test_loss, test_acc = 0, 0# 當不進行訓練時,停止梯度更新,節省計算內存消耗with torch.no_grad():for imgs, target in dataloader:imgs, target = imgs.to(device), target.to(device)# 計算losstarget_pred = model(imgs)loss = loss_fn(target_pred, target)test_loss += loss.item()test_acc += (target_pred.argmax(1) == target).type(torch.float).sum().item()test_acc /= sizetest_loss /= num_batchesreturn test_acc, test_loss
loss_fn = nn.CrossEntropyLoss()  # 創建損失函數
learn_rate = 1e-4  # 學習率
opt = torch.optim.Adam(model.parameters(), lr=learn_rate)
epochs = 50
train_loss = []
train_acc = []
test_loss = []
test_acc = []
for epoch in range(epochs):model.train()epoch_train_acc, epoch_train_loss = train(train_dl, model, loss_fn, opt)model.eval()epoch_test_acc, epoch_test_loss = test(test_dl, model, loss_fn)train_acc.append(epoch_train_acc)train_loss.append(epoch_train_loss)test_acc.append(epoch_test_acc)test_loss.append(epoch_test_loss)# 獲取當前的學習率lr = opt.state_dict()['param_groups'][0]['lr']template = ('Epoch:{:2d}, Train_acc:{:.1f}%, Train_loss:{:.3f}, Test_acc:{:.1f}%, Test_loss:{:.3f},Lr:{:.2E}')print(template.format(epoch + 1, epoch_train_acc * 100, epoch_train_loss, epoch_test_acc * 100, epoch_test_loss, lr))print("=" * 20, 'Done', "=" * 20)

import matplotlib.pyplot as plt
#隱藏警告
import warnings
warnings.filterwarnings("ignore")               #忽略警告信息
plt.rcParams['font.sans-serif']    = ['SimHei'] # 用來正常顯示中文標簽
plt.rcParams['axes.unicode_minus'] = False      # 用來正常顯示負號
plt.rcParams['figure.dpi']         = 100        #分辨率from datetime import datetime
current_time = datetime.now()epochs_range = range(epochs)plt.figure(figsize=(12, 3))
plt.subplot(1, 2, 1)plt.plot(epochs_range, train_acc, label='Training Accuracy')
plt.plot(epochs_range, test_acc, label='Test Accuracy')
plt.legend(loc='lower right')
plt.title('Training and Validation Accuracy')
plt.xlabel(current_time)plt.subplot(1, 2, 2)
plt.plot(epochs_range, train_loss, label='Training Loss')
plt.plot(epochs_range, test_loss, label='Test Loss')
plt.legend(loc='upper right')
plt.title('Training and Validation Loss')
plt.show()

--------------小結和改進思路(順便把R7周的任務一起完成)---------------------

針對前述代碼,主要在下面幾個方面進行改進:

  • 性能提升??:通過雙向LSTM和Dropout增強特征提取能力,標準化和類別權重緩解數據問題。
  • ??防止過擬合??:在全連接層前添加BatchNorm提高泛化性。
  • ??訓練穩定性??:學習率調度器和訓練集啟用shuffle隨機打亂數據使訓練更穩定。

通過上述優化,模型在保持LSTM核心結構的同時,能夠更有效地處理表格數據并提升預測性能,最終訓練集和測試集分別提高了5個百分點。

import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import TensorDataset, DataLoader
import numpy as np
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import f1_score, confusion_matrix
import matplotlib.pyplot as plt
import seaborn as sns# 環境設置
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
device

plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False
torch.manual_seed(42) # 打印隨機seed使隨機分配可重復

# 數據加載與預處理
def load_data():df = pd.read_excel('./dia.xls')# 數據清洗print("缺失值:", df.isnull().sum().sum())print("重復值:", df.duplicated().sum())df = df.drop_duplicates().reset_index(drop=True)# 特征工程X = df.drop(['卡號', '是否糖尿病', '高密度脂蛋白膽固醇'], axis=1)y = df['是否糖尿病']# 處理類別不平衡class_counts = y.value_counts().valuesclass_weights = torch.tensor([1/count for count in class_counts], dtype=torch.float32).to(device)# 數據標準化(先分割后標準化)X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, stratify=y, random_state=42)scaler = StandardScaler()X_train = scaler.fit_transform(X_train)X_test = scaler.transform(X_test)# 轉換為TensorX_train = torch.tensor(X_train, dtype=torch.float32).to(device)X_test = torch.tensor(X_test, dtype=torch.float32).to(device)y_train = torch.tensor(y_train.values, dtype=torch.long).to(device)y_test = torch.tensor(y_test.values, dtype=torch.long).to(device)return X_train, X_test, y_train, y_test, class_weights
# 雙向LSTM模型
class BiLSTM(nn.Module):def __init__(self, input_size=12, hidden_size=100, num_layers=2):super().__init__()self.lstm = nn.LSTM(input_size=input_size,hidden_size=hidden_size,num_layers=num_layers,bidirectional=True,batch_first=True,dropout=0.3 if num_layers>1 else 0)self.bn = nn.BatchNorm1d(hidden_size*2)self.dropout = nn.Dropout(0.5)self.fc = nn.Linear(hidden_size*2, 2)def forward(self, x):if x.dim() == 2:x = x.unsqueeze(1)out, _ = self.lstm(x)out = out[:, -1, :]  # 取最后時間步out = self.bn(out)out = self.dropout(out)return self.fc(out)
# 訓練與驗證函數
def train_epoch(model, loader, criterion, optimizer):model.train()total_loss, correct = 0, 0for X, y in loader:X = X.unsqueeze(1) if X.dim()==2 else Xoptimizer.zero_grad()outputs = model(X)loss = criterion(outputs, y)loss.backward()optimizer.step()total_loss += loss.item()correct += (outputs.argmax(1) == y).sum().item()return correct/len(loader.dataset), total_loss/len(loader)def evaluate(model, loader, criterion):model.eval()total_loss, correct = 0, 0all_preds, all_labels = [], []with torch.no_grad():for X, y in loader:X = X.unsqueeze(1) if X.dim()==2 else Xoutputs = model(X)loss = criterion(outputs, y)total_loss += loss.item()correct += (outputs.argmax(1) == y).sum().item()all_preds.extend(outputs.argmax(1).cpu().numpy())all_labels.extend(y.cpu().numpy())f1 = f1_score(all_labels, all_preds)cm = confusion_matrix(all_labels, all_preds)return correct/len(loader.dataset), total_loss/len(loader), f1, cmprint(model)

# 數據準備X_train, X_test, y_train, y_test, class_weights = load_data()train_dataset = TensorDataset(X_train, y_train)test_dataset = TensorDataset(X_test, y_test)train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True)test_loader = DataLoader(test_dataset, batch_size=64)# 模型初始化model = BiLSTM(input_size=13).to(device)criterion = nn.CrossEntropyLoss(weight=class_weights)optimizer = optim.Adam(model.parameters(), lr=1e-3, weight_decay=1e-4)scheduler = optim.lr_scheduler.ReduceLROnPlateau(optimizer, 'min', patience=3)# 訓練循環best_f1 = 0train_losses, test_losses = [], []train_accs, test_accs = [], []for epoch in range(50):train_acc, train_loss = train_epoch(model, train_loader, criterion, optimizer)test_acc, test_loss, f1, cm = evaluate(model, test_loader, criterion)# 學習率調整scheduler.step(test_loss)# 記錄指標train_losses.append(train_loss)test_losses.append(test_loss)train_accs.append(train_acc)test_accs.append(test_acc)# 打印信息print(f"Epoch {epoch+1:02d} | "f"Train Acc: {train_acc:.2%} | Test Acc: {test_acc:.2%} | "f"F1: {f1:.4f} | LR: {optimizer.param_groups[0]['lr']:.2e}")# 可視化plt.figure(figsize=(12,5))plt.subplot(1,2,1)plt.plot(train_losses, label='Train Loss')plt.plot(test_losses, label='Test Loss')plt.legend()plt.title("Loss Curve")plt.subplot(1,2,2)plt.plot(train_accs, label='Train Acc')plt.plot(test_accs, label='Test Acc')plt.legend()plt.title("Accuracy Curve")plt.show()

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/web/78451.shtml
繁體地址,請注明出處:http://hk.pswp.cn/web/78451.shtml
英文地址,請注明出處:http://en.pswp.cn/web/78451.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

W-TinyLFU緩存驅逐算法解析

文章目錄 1. 背景與概述1.1 什么是緩存驅逐算法1.2 W-TinyLFU 的定義與價值 2. 核心思想與設計理念2.1 時間局部性與頻率局部性的結合2.2 高效的頻率統計2.3 窗口機制的引入 3. 架構設計與組件3.1 整體架構3.2 窗口緩存(Window Cache)3.3 主緩存&#xf…

[特殊字符] 人工智能大模型之開源大語言模型匯總(國內外開源項目模型匯總) [特殊字符]

Large Language Model (LLM) 即大規模語言模型,是一種基于深度學習的自然語言處理模型,它能夠學習到自然語言的語法和語義,從而可以生成人類可讀的文本。 所謂 "語言模型",就是只用來處理語言文字(或者符號…

文章記單詞 | 第60篇(六級)

一,單詞釋義 liar:英 [?la??(r)];美 [?la??r];n. 說謊者verbal:英 [?v??bl];美 [?v??rbl];adj. 言語的;文字的;口頭的;動詞的comprehension&…

AI日報 · 2025年04月30日|OpenAI 回滾 GPT-4o 更新以解決“諂媚”問題

過去24小時,全球人工智能領域持續快速發展。從模型行為調整到平臺工具更新,再到行業安全規范的探討,以下是為您精選的重點動態: 1、OpenAI 回滾 GPT-4o 更新以解決“諂媚”問題 針對用戶反饋最新版 GPT-4o 模型表現出過度“諂媚…

Linux54 源碼包的安裝、修改環境變量解決 axel命令找不到;getfacl;測試

始終報錯 . 補充鏈接 tinfo 庫時報錯軟件包 ncurses-devel-5.9-14.20130511.el7_4.x86_64 已安裝并且是最新版本 沒有可用軟件包 tinfo-devel。 無須任何處理 make LDLIBS“-lncurses"報錯編譯時報錯make LDLIBS”-lncurses" ? /opt/rh/devtoolset-11/roo…

FPGA----基于ZYNQ 7020實現EPICS通信系統

1、本實驗過程來自博b站大神《神電測控》,原文地址: EPICS實戰(上位機篇):基于LV ZYNQ實現的EPICS通信系統(大物理) - 嗶哩嗶哩https://www.bilibili.com/opus/933476043369480224EPICS實戰(下位機篇):基于LV ZYNQ實現的EPICS通信…

實驗四 增強型可靠文件傳輸系統

一、實驗目的和任務 掌握基于隊列的多文件傳輸機制理解斷點續傳的實現原理學習文件傳輸完整性保障方法 二、實驗內容 基礎功能驗證 單文件傳輸功能測試服務器狀態監控測試傳輸日志記錄驗證 新增功能實現 多文件隊列傳輸功能斷點續傳支持 三、實驗步驟 4.1 客戶端功能擴…

網絡Tips20-003

1.E1載波的控制開銷占2/32*100%6.25%,E1載波的基本幀傳送時間是125uS。 2.計算機在一個指令周期的過程中,為從內存讀取指令操作碼,首先要將.程序計數器(PC)的內容送到地址總線上 3.3DES算法:密碼學中,3DES是三重數據加密算法通稱…

【MySQL】索引(重要)

目錄 一、索引本質: 索引的核心作用 索引的優缺點 二、預備知識: 硬件理解: 軟件理解: MySQL與磁盤交互基本單位: 三、索引的理解: 理解page: 單個page: 多個page&#x…

【深入淺出MySQL】之數據類型介紹

【深入淺出MySQL】之數據類型介紹 MySQL中常見的數據類型一覽為什么需要如此多的數據類型數值類型BIT(M)類型INT類型TINYINT類型BIGINT類型浮點數類型float類型DECIMAL(M,D)類型區別總結 字符串類型CHAR類型VARCHAR(M)類型 日期和時間類型enum和set類型 …

數字化時代下,軟件測試中的滲透測試是如何保障安全的?

在如今數字化與信息化的時代,軟件測試中存在滲透測試,其位置十分重要,它借助模擬惡意攻擊的方式,去發現軟件系統所存在的漏洞以及安全問題,這是保障軟件安全的關鍵環節,接下來我會對它的各個方面進行詳細介…

Pytorch - Developer Notes 1/2

文章目錄 自動混合精度示例典型的混合精度訓練處理未縮放梯度梯度裁剪 處理縮放梯度梯度累積梯度懲罰 處理多個模型、損失函數和優化器多 GPU 工作環境下的注意事項單進程中的DataParallel分布式數據并行:每個進程對應一個GPU每個進程使用多塊GPU的DistributedDataP…

RuntimeError: CUDA error: __global__ function call is not configured

表明在 CUDA 設備上調用的核函數 沒有正確配置線程塊和網格維度。 一般體現在: 直接調用 kernel 函數,而不是通過 launch 函數 指定 kernel 函數調用 解決方法(示例): // kernel function __global__ void Idtest_k…

cloudfare+gmail 配置 smtp 郵箱

這里介紹有一個域名后,不需要服務器,就可以實現 cloudfare gmail 的 郵箱收發。 為什么還需要 gmail 的 smtp 功能,因為 cloudfare 默認只是對 email 進行轉發,就是只能收郵件而不能發送郵件,故使用 gmail 的功能來進…

如何在 CentOS 7 命令行連接 Wi-Fi?如何在 Linux 命令行連接 Wi-Fi?

如何在 CentOS 7 命令行連接 Wi-Fi?如何在 Linux 命令行連接 Wi-Fi? 摘要 本教程覆蓋如何在多種 Linux 發行版下通過命令行連接 Wi-Fi,包括: CentOS 7、Ubuntu、Debian、Arch Linux、Fedora、Alpine Linux、Kali Linux、OpenSU…

基于PHP的在線編程課程學習系統

有需要請加文章底部Q哦 可遠程調試 基于PHP在線編程課程學習系統 一 介紹 在線編程課程學習系統基于原生PHP開發,數據庫mysql,前端jquery.js。系統角色分為學生,教師和管理員。(附帶參考設計文檔) 技術棧:phpmysqljquery.jsphps…

PyTorch_張量形狀操作

搭建模型時,數據都是基于張量形式的表示,網絡層與層之間很多都是以不同的shape的方式進行表現和運算。 對張量形狀的操作,以便能夠更好處理網絡各層之間的數據連接。 reshape 函數的用法 reshape 函數可以再保證張量數據不變的前提下改變數…

大模型實踐:圖文解鎖Ollama在個人筆記本上部署llm

使用在線模型服務時,我們常常需要支付API調用費用,這對于個人開發者或小型組織來說可能是一筆不小的開支。那么,有沒有方法可以在本地免費使用這些強大的模型呢?答案是肯定的——Ollama就是這樣一個工具。 當然如果是比較大的組織…

Python基本語法(lambda表達式)

lambda表達式 lambda的一般形式是在關鍵字lambda后面跟一個或多個參數,之后再緊跟一個 冒號,接下來是一個表達式。lambda是一個表達式,而不是一個語句,它能夠出現 在Python語法不允許def出現的地方。作為表達式,lambd…

【MySQL數據庫】用戶管理

目錄 1,用戶信息 2,創建/刪除/修改用戶 3,數據庫的權限 MySQL數據庫安裝完之后,我們最開始時使用的都是 root 用戶,其它用戶通常無法進行操作。因此,MySQL數據庫需要對用戶進行管理。 1,用戶…