使用tensorflow的線性回歸的例子(六)

波士頓房價

import matplotlib.pyplot as plt

%matplotlib inline

import tensorflow as tf

import numpy as np

from sklearn.datasets import load_boston

import sklearn.linear_model as sk

boston = load_boston()

features = np.array(boston.data)

labels = np.array(boston.target)

print(boston["DESCR"])

def normalize(dataset):

??? mu = np.mean(dataset, axis = 0)

??? sigma = np.std(dataset, axis = 0)

return (dataset-mu)/sigma

n_training_samples = features.shape[0]

n_dim = features.shape[1]

print('The dataset has',n_training_samples,'training samples.')

print('The dataset has',n_dim,'features.')

features_norm = normalize(features)

print(features_norm.shape)

print(labels.shape)

np.random.seed(42)

rnd = np.random.rand(len(features_norm)) < 0.8

train_x = tf.Variable(features_norm[rnd],dtype=tf.float32)

train_y = tf.Variable(labels[rnd],dtype=tf.float32)

test_x = tf.Variable(features_norm[~rnd],dtype=tf.float32)

test_y = tf.Variable(labels[~rnd],dtype=tf.float32)

print(train_x.shape)

print(train_y.shape)

print(test_x.shape)

print(test_y.shape)

train_x.numpy()

train_y.numpy()

test_x.numpy()

test_x.numpy()[1]

test_y.numpy()

# cost_history = np.empty(shape=[0], dtype = float)

# cost_history = np.append(cost_history, cost_)???????????

#設置超參數

learn_rate = 0.01? # 學習率

iter = 2000? # 迭代次數

display_step = 200? # 顯示間隔

#設置模型變量初始值

np.random.seed(612)

W = tf.Variable(np.random.randn(13,1),dtype=tf.float32)

b = tf.Variable(tf.zeros(1),tf.float32)

mse_train = []? # 訓練損失,訓練誤差

mse_test = []? # 測試損失,測試誤差

for i in range(0 , iter+1):

?? with tf.GradientTape() as tape:

?????? PRED_train = tf.matmul(train_x, W)+b

?????? Loss_train = 0.5 * tf.reduce_mean(tf.square(train_y - PRED_train))

?????? mse_train.append(Loss_train)

???????

?????? PRED_test = tf.matmul(test_x, W)+b

?????? Loss_test = 0.5 * tf.reduce_mean(tf.square(test_y - PRED_test))

?????? mse_test.append(Loss_test)

?????? dL_dW,dL_db = tape.gradient(Loss_train,[W,b])

?? W.assign_sub(learn_rate * dL_dW)

?? b.assign_sub(learn_rate * dL_db)

?? # 輸出訓練誤差和測試誤差

?? if i % display_step == 0:

?????? print("i:%i,Train Loss: %f, Test Loss: %f" % (i, Loss_train, Loss_test))??

train_x

#開始訓練,輪數為epoch,采用SGD隨機梯度下降優化方法

W = tf.Variable(np.random.randn(13,1),dtype=tf.float32)

b = tf.Variable(tf.zeros(1),tf.float32)

train_epochs = 200

learn_rate = 0.01? # 學習率

iter = 200? # 迭代次數

display_step = 200? # 顯示間隔

#設置模型變量初始值

np.random.seed(612)

mse_train = []? # 訓練損失,訓練誤差

mse_test = []? # 測試損失,測試誤差

#w = tf.Variable(np.random.randn(13,1),tf.float32)

#b = tf.Variable(tf.zeros(1),tf.float32)

batch_size=10

count = tf.Variable(0.0,tf.float32)

optimizer = tf.keras.optimizers.SGD(learn_rate)

total_step = int(train_x.shape[0]/batch_size)

for epoch in range(train_epochs):

??????? for step in range(total_step):

??????????? xs= train_x.numpy()[step*batch_size:(step+1)*batch_size,:]

??????????? ys= train_y.numpy()[step*batch_size:(step+1)*batch_size]

????????? ??#計算當前[w,b]的梯度

??????????? #delta_w,delta_b = grad(xs,ys,w,b)

??????????? with tf.GradientTape() as tape:

??????????????? PRED_train = tf.matmul(xs, W)+b

??????????????? Loss_train = 0.5 * tf.reduce_mean(tf.square(ys - PRED_train))

??????????????? mse_train.append(Loss_train)

??????????????? dL_dW,dL_db = tape.gradient(Loss_train,[W,b])

??????????? W.assign_sub(learn_rate * dL_dW)

??????????? b.assign_sub(learn_rate * dL_db)???

??????????? #??? grads = grad(xs,ys,w,b)

??????????? #delta_w,delta_b = optimizer.apply_gradients(zip(grads,[w,b]))

??????????? #change_w = delta_w * learning_rate

??????????? #change_b = delta_b * learning_rate

??????????? #w.assign_sub(change_w)

??????????? #b.assign_sub(change_b)

??????? #計算損失,并保存本次損失計算結果

??????? #loss_ =loss_fun(xs,ys,w,b)

??????? #loss_ =loss_fun(xs,ys,w,b)

??????? #loss.append(loss_)

??????? #訓練步數加1

??????? count = count +1

??????? if count % display_count == 0:

?????????????? print('train epoch : ','%02d'%(epoch+1),'step:%03d' % (count),'loss= ','{:.9f}'.format(Loss_train))

??????????? #完成一輪訓練后,畫圖

??????? #plt.plot(x,w.numpy() * x +b.numpy())?? #plt.plot(x_data,w.numpy() * x_data +b.numpy())

W

plt.rc('font', family='arial')

plt.rc('xtick', labelsize='x-small')

plt.rc('ytick', labelsize='x-small')

plt.tight_layout()

fig = plt.figure(figsize=(10, 7))

ax = fig.add_subplot(1, 1, 1)

ax.plot(mse_train, ls='solid', color = 'black')

ax.set_xlabel('epochs', fontsize = 16)

ax.set_ylabel('Cost function $J$ (MSE)', fontsize = 16)

plt.xlim(0,10000)

plt.tick_params(labelsize=16)

b

#pred_y = sess.run(y_, feed_dict = {X: test_x, Y: test_y})

#mse = tf.reduce_mean(tf.square(pred_y - test_y))

pred_y = model(test_x,W,b)

pred_y

test_y

mse = tf.reduce_mean(tf.square(pred_y - test_y))

plt.rc('font', family='arial')

plt.rc('xtick', labelsize='x-small')

plt.rc('ytick', labelsize='x-small')

???

plt.tight_layout()

fig = plt.figure(figsize=(10, 7))

ax = fig.add_subplot(1, 1, 1)

ax.scatter(test_y, pred_y, lw = 5)

ax.plot([test_y.numpy().min(), test_y.numpy().max()], [test_y.numpy().min(), test_y.numpy().max()], 'k--', lw = 5)

ax.set_xlabel('Measured Target Value', fontsize = 16)

ax.set_ylabel('Predicted Target Value', fontsize = 16)

plt.tick_params(labelsize=16)

print ('Starting first model')

#cost_history1 = run_linear_model(learning_r = 0.1,

#???????????????????????????????? training_epochs = 10000,

#??????????????????????????????? train_obs = train_x,

#??????????????????????????????? train_labels = train_y,

#????????????????????????????? ??debug = True)

#開始訓練,輪數為epoch,采用SGD隨機梯度下降優化方法

W = tf.Variable(np.random.randn(13,1),dtype=tf.float32)

b = tf.Variable(tf.zeros(1),tf.float32)

train_epochs = 1000

learn_rate = 0.1? # 學習率

iter = 200? # 迭代次數

display_step = 200? # 顯示間隔

#設置模型變量初始值

np.random.seed(612)

mse_train1 = []? # 訓練損失,訓練誤差

mse_test = []? # 測試損失,測試誤差

w = tf.Variable(np.random.randn(13,1),tf.float32)

b = tf.Variable(tf.zeros(1),tf.float32)

batch_size=10

count = tf.Variable(0.0,tf.float32)

optimizer = tf.keras.optimizers.SGD(learn_rate)

total_step = int(train_x.shape[0]/batch_size)

for epoch in range(train_epochs):

??????? for step in range(total_step):

??????????? xs= train_x.numpy()[step*batch_size:(step+1)*batch_size,:]

??????????? ys= train_y.numpy()[step*batch_size:(step+1)*batch_size]

??????????? #計算當前[w,b]的梯度

??????????? #delta_w,delta_b = grad(xs,ys,w,b)

??????????? with tf.GradientTape() as tape:

??????????????? PRED_train = tf.matmul(xs, W)+b

??????????????? Loss_train = 0.5 * tf.reduce_mean(tf.square(ys - PRED_train))

??????????????? mse_train1.append(Loss_train)

??????????????? dL_dW,dL_db = tape.gradient(Loss_train,[W,b])

??????????? W.assign_sub(learn_rate * dL_dW)

??????????? b.assign_sub(learn_rate * dL_db)?? ?

??????????? #??? grads = grad(xs,ys,w,b)

??????????? #delta_w,delta_b = optimizer.apply_gradients(zip(grads,[w,b]))

??????????? #change_w = delta_w * learning_rate

??????????? #change_b = delta_b * learning_rate

??????????? #w.assign_sub(change_w)

????? ??????#b.assign_sub(change_b)

??????? #計算損失,并保存本次損失計算結果

??????? #loss_ =loss_fun(xs,ys,w,b)

??????? #loss_ =loss_fun(xs,ys,w,b)

??????? #loss.append(loss_)

??????? #訓練步數加1

??????? count = count +1

??????? if count % display_count == 0:

?????????????? print('train epoch : ','%02d'%(epoch+1),'step:%03d' % (count),'loss= ','{:.9f}'.format(Loss_train))

??????????? #完成一輪訓練后,畫圖

??????? #plt.plot(x,w.numpy() * x +b.numpy())?? #plt.plot(x_data,w.numpy() * x_data +b.numpy())

??

print ('Starting second model')

#sess2, cost_history2 = run_linear_model(learning_r = 0.01,

#??????????????????????????????? training_epochs = 10000,

#??????????????????????????????? train_obs = train_x,

#??????????????????????????????? train_labels = train_y,

# #開始訓練,輪數為epoch,采用SGD隨機梯度下降優化方法

W = tf.Variable(np.random.randn(13,1),dtype=tf.float32)

b = tf.Variable(tf.zeros(1),tf.float32)

train_epochs = 1000

learn_rate = 0.01? # 學習率

iter = 200? # 迭代次數

display_step = 200? # 顯示間隔

#設置模型變量初始值

np.random.seed(612)

mse_train2 = []? # 訓練損失,訓練誤差

mse_test = []? # 測試損失,測試誤差

w = tf.Variable(np.random.randn(13,1),tf.float32)

b = tf.Variable(tf.zeros(1),tf.float32)

batch_size=10

count = tf.Variable(0.0,tf.float32)

optimizer = tf.keras.optimizers.SGD(learn_rate)

total_step = int(train_x.shape[0]/batch_size)

for epoch in range(train_epochs):

??????? for step in range(total_step):

??????????? xs= train_x.numpy()[step*batch_size:(step+1)*batch_size,:]

??????????? ys= train_y.numpy()[step*batch_size:(step+1)*batch_size]

??????????? #計算當前[w,b]的梯度

??????????? #delta_w,delta_b = grad(xs,ys,w,b)

??????????? with tf.GradientTape() as tape:

??????????????? PRED_train = tf.matmul(xs, W)+b

??????????????? Loss_train = 0.5 * tf.reduce_mean(tf.square(ys - PRED_train))

??????????????? mse_train2.append(Loss_train)

??????????????? dL_dW,dL_db = tape.gradient(Loss_train,[W,b])

??????????? W.assign_sub(learn_rate * dL_dW)

??????????? b.assign_sub(learn_rate * dL_db)???

??????????? #??? grads = grad(xs,ys,w,b)

??????????? #delta_w,delta_b = optimizer.apply_gradients(zip(grads,[w,b]))

??????????? #change_w = delta_w * learning_rate

??????????? #change_b = delta_b * learning_rate

??????????? #w.assign_sub(change_w)

??????????? #b.assign_sub(change_b)

??????? #計算損失,并保存本次損失計算結果

??????? #loss_ =loss_fun(xs,ys,w,b)

?? ?????#loss_ =loss_fun(xs,ys,w,b)

??????? #loss.append(loss_)

??????? #訓練步數加1

??????? count = count +1

??????? if count % display_count == 0:

?????????????? print('train epoch : ','%02d'%(epoch+1),'step:%03d' % (count),'loss= ','{:.9f}'.format(Loss_train))

??????????? #完成一輪訓練后,畫圖

??????? #plt.plot(x,w.numpy() * x +b.numpy())?? #plt.plot(x_data,w.numpy() * x_data +b.numpy())

????????????????????????????????

print ('Starting third model')

#sess3, cost_history3 = run_linear_model(learning_r = 0.001,

#?????? ?????????????????????????training_epochs = 10000,

#??????????????????????????????? train_obs = train_x,

#??????????????????????????????? train_labels = train_y,

#??????????????????????????????? debug = True)

#開始訓練,輪數為epoch,采用SGD隨機梯度下降優化方法

W = tf.Variable(np.random.randn(13,1),dtype=tf.float32)

b = tf.Variable(tf.zeros(1),tf.float32)

train_epochs = 1000

learn_rate = 0.001? # 學習率

iter = 200? # 迭代次數

display_step = 200? # 顯示間隔

#設置模型變量初始值

np.random.seed(612)

mse_train3 = []? # 訓練損失,訓練誤差

mse_test = []? # 測試損失,測試誤差

w = tf.Variable(np.random.randn(13,1),tf.float32)

b = tf.Variable(tf.zeros(1),tf.float32)

batch_size=10

count = tf.Variable(0.0,tf.float32)

optimizer = tf.keras.optimizers.SGD(learn_rate)

total_step = int(train_x.shape[0]/batch_size)

for epoch in range(train_epochs):

??????? for step in range(total_step):

??????????? xs= train_x.numpy()[step*batch_size:(step+1)*batch_size,:]

??????????? ys= train_y.numpy()[step*batch_size:(step+1)*batch_size]

??????????? #計算當前[w,b]的梯度

??????????? #delta_w,delta_b = grad(xs,ys,w,b)

??????????? with tf.GradientTape() as tape:

??????????????? PRED_train = tf.matmul(xs, W)+b

??????????????? Loss_train = 0.5 * tf.reduce_mean(tf.square(ys - PRED_train))

??????????????? mse_train3.append(Loss_train)

??????????????? dL_dW,dL_db = tape.gradient(Loss_train,[W,b])

??????????? W.assign_sub(learn_rate * dL_dW)

??????????? b.assign_sub(learn_rate * dL_db)???

??????????? #??? grads = grad(xs,ys,w,b)

??????????? #delta_w,delta_b = optimizer.apply_gradients(zip(grads,[w,b]))

??????????? #change_w = delta_w * learning_rate

??????????? #change_b = delta_b * learning_rate

??????????? #w.assign_sub(change_w)

??????????? #b.assign_sub(change_b)

??????? #計算損失,并保存本次損失計算結果

??????? #loss_ =loss_fun(xs,ys,w,b)

??????? #loss_ =loss_fun(xs,ys,w,b)

??????? #loss.append(loss_)

??????? #訓練步數加1

??????? count = count +1

??????? if count % display_count == 0:

?????????????? print('train epoch : ','%02d'%(epoch+1),'step:%03d' % (count),'loss= ','{:.9f}'.format(Loss_train))

??????????? #完成一輪訓練后,畫圖

??????? #plt.plot(x,w.numpy() * x +b.numpy())?? #plt.plot(x_data,w.numpy() * x_data +b.numpy())

??

plt.rc('font', family='arial')

plt.rc('xtick', labelsize='x-small')

plt.rc('ytick', labelsize='x-small')

???

plt.tight_layout()

fig = plt.figure(figsize=(10, 7))

ax = fig.add_subplot(1, 1, 1)

ax.plot(mse_train1, ls='solid', color = 'black', label='$\gamma=0.1$')

ax.plot(mse_train2, ls='dashed', color = 'black', label='$\gamma=0.01$')

ax.plot(mse_train3, ls='dotted', color = 'black', label='$\gamma=0.001$')

ax.set_xlabel('epochs', fontsize = 16)

ax.set_ylabel('Cost function $J$ (MSE)', fontsize = 16)

plt.xlim(0,300)

plt.legend(bbox_to_anchor=(1.05, 1), loc=2, borderaxespad=0., fontsize = 16)

plt.tick_params(labelsize=16)

lm = sk.LinearRegression()

lm.fit(train_x, train_y)

msetest = np.mean((test_y-lm.predict(test_x))**2)

msetrain = np.mean((train_y-lm.predict(train_x))**2)

print('Train MSE=',msetrain)

print('Test MSE=',msetest)

model = tf.keras.Sequential()

"""添加層:其實就是 wx+b"""

model.add(tf.keras.layers.Dense(1,input_shape = (13,)))??? #輸出是1維數據,輸入是14維數據

"""查看網絡結構"""

model.summary()

"""編譯,配置"""

model.compile(optimizer = 'adam',

????????????? loss = 'mse',

????????????? metrics=['mae','mse']

)

"""訓練數據"""

history = model.fit(train_x.numpy(), train_y.numpy(), epochs = 500)

predict = model.predict(test_x.numpy())

predict

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/diannao/89775.shtml
繁體地址,請注明出處:http://hk.pswp.cn/diannao/89775.shtml
英文地址,請注明出處:http://en.pswp.cn/diannao/89775.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

YOLOv11深度解析:Ultralytics新一代目標檢測架構創新與實戰指南

?? 2024年Ultralytics重磅推出YOLOv11**:在精度與速度的平衡木上再進一步,參數減少22%,推理速度提升2%,多任務支持全面升級! ?? 一、YOLOv11核心創新:輕量化與注意力機制的完美融合 YOLOv11并非顛覆性重構,而是通過模塊級優化實現“少參數、高精度、快推理”的目標…

基于 SpringBoot+Vue.js+ElementUI 的 “花開富貴“ 花園管理系統設計與實現7000字論文

摘要 本論文詳細闡述了基于 SpringBoot、Vue.js 和 ElementUI 的 "花開富貴" 花園管理系統的設計與實現過程。該系統旨在為花園管理者提供高效、便捷的花園信息管理平臺&#xff0c;實現花卉信息、員工、客戶、訂單等全方位管理功能。論文首先分析了花園管理系統的研…

RESTful API 安裝使用教程

一、RESTful API 簡介 REST&#xff08;Representational State Transfer&#xff09;是一種基于 Web 的架構風格&#xff0c;RESTful API 是使用 HTTP 協議并遵循 REST 原則設計的 API 接口。其核心思想是&#xff1a;使用標準 HTTP 方法&#xff08;GET、POST、PUT、DELETE&…

【行云流水ai筆記】粗粒度控制:推薦CTRL、GeDi 細粒度/多屬性控制:推薦TOLE、GPT-4RL

TOLE模型完整啟動方法指南 TOLE (Token-level Optimization with Language Models) 是一種基于強化學習的可控文本生成方法&#xff0c;通過token級別的反饋實現對文本多個屬性的精確控制。以下是完整的啟動方法指南&#xff1a; 1. 環境準備 1.1 創建虛擬環境 conda creat…

【沉浸式解決問題】idea開發中mapper類中突然找不到對應實體類

目錄 一、問題描述二、場景還原三、原因分析四、解決方案 一、問題描述 mapper類繼承了mybatis-plus的BaseMapper&#xff0c;泛型需要填入實體類&#xff0c;但是不知怎么地突然實體類就報錯了&#xff0c;顯示沒有這個類 二、場景還原 實體類就是死活報錯找不到&#xff0c;所…

初學python的我開始Leetcode題11-2

提示&#xff1a;100道LeetCode熱題-11-1主要是二分查找相關&#xff0c;包括三題&#xff1a;搜索旋轉排序數組、尋找旋轉排序數組中的最小值、尋找兩個正序數組的中位數。由于初學&#xff0c;所以我的代碼部分僅供參考。前言上次的三道二分查找題較為基礎&#xff0c;主要是…

Python 數據分析與可視化 Day 12 - 建模前準備與數據集拆分

? 今日目標 掌握建模前常見準備步驟學會使用 train_test_split() 將數據劃分為訓練集和測試集理解特征&#xff08;X&#xff09;與標簽&#xff08;y&#xff09;的區分學習常見建模流程的輸入要求&#xff08;格式、維度&#xff09;&#x1f4d8; 一、建模前準備流程概覽 數…

Swagger 安裝使用教程

一、Swagger 簡介 Swagger 是一套開放源代碼的 API 文檔生成工具鏈&#xff0c;現歸屬于 OpenAPI 規范。它支持 RESTful API 的定義、生成、測試和文檔自動化。常見的使用工具包括 Swagger UI、Swagger Editor、Swagger Codegen 以及 SpringFox&#xff08;Spring 集成庫&…

【seismic unix相速度分析-頻散曲線】

介紹Seismic Unix Seismic Unix&#xff08;SU&#xff09;是一個開源的地震數據處理軟件包&#xff0c;主要用于地震數據的處理、分析和可視化。它由科羅拉多礦業學院的Center for Wave Phenomena開發&#xff0c;廣泛應用于學術研究和工業領域。SU提供了一系列命令行工具&am…

3.前端和后端參數不一致,后端接不到數據的解決方案

目錄 1.問題背景: (1).前端代碼: (2).后端代碼: (3).問題分析: [1]前端參數構造錯誤: [2].Api請求配置錯誤: 2.解決方案 (1).修改 role.js 中的 API 方法 (2).前端組件中的調用方式改成下面的而不是繼續拼接了 3.總結: 1.問題背景: 我在接口開發過程中&#xff0c;前…

SpringBoot:整合quartz實現定時任務-MisFire的處理

文章目錄 一、什么是MisFire二、MisFire發生的情況三、MisFire的補償策略四、代碼實現 一、什么是MisFire 簡單理解為&#xff1a;定時任務&#xff0c;所錯過的觸發 二、MisFire發生的情況 1、資源緊張&#xff0c;定時任務請求不到對應的線程。 2、調度器關閉。 3、設置定…

返回json,優雅處理轉換(如 0.85 → “85.00%“)

核心解決方案 通過 自定義序列化器 JsonSerialize 注解&#xff0c;實現 BigDecimal 到百分比字符串的自動轉換。 1.1 自定義序列化器代碼 java import com.fasterxml.jackson.core.JsonGenerator; import com.fasterxml.jackson.databind.JsonSerializer; import com.fasterx…

大語言模型LLM在訓練/推理時的padding

討論的是在訓練大型語言模型&#xff08;Transformer-based models&#xff0c;比如GPT等&#xff09;時&#xff0c;文本序列的填充&#xff08;padding&#xff09;問題&#xff0c;即訓練和推理時分辨填充在序列的左側&#xff08;left padding&#xff09;或右側&#xff0…

50 個常用 Docker 命令

1. Docker 基礎命令 查看 Docker 版本 docker --version查看 Docker 運行狀態 systemctl status docker查看 Docker 信息 docker info查看幫助信息 docker help2. 鏡像管理 拉取鏡像 docker pull <鏡像名>查看本地鏡像 docker images刪除鏡像 docker rmi <鏡…

紋理貼圖算法研究論文綜述

紋理貼圖&#xff08;Texture Mapping&#xff09;是計算機圖形學和計算機視覺中的核心技術&#xff0c;廣泛應用于三維重建、游戲渲染、虛擬現實&#xff08;VR&#xff09;、增強現實&#xff08;AR&#xff09;等領域。對其算法的研究涵蓋了紋理生成、映射、縫合、優化等多個…

關于使用cursor tunnel鏈接vscode(避免1006 issue的做法)

詳細步驟 第 1 步&#xff1a;在你的本地機器上準備好 Cursor 這一步很簡單&#xff0c;你可能已經完成了。只需確保你的本地電腦上已經安裝了 Cursor 桌面應用程序。 要做的事&#xff1a;無&#xff0c;只需確保 Cursor 已安裝。 第 2 步&#xff1a;在遠程服務器上安裝 Curs…

Redis常見性能問題和解決方案有哪些

Redis 作為高性能的內存數據庫&#xff0c;在電商等高并發場景中廣泛使用&#xff0c;但可能因配置、使用不當或環境限制出現性能問題。以下是 Redis 常見的性能問題及其解決方案&#xff0c;結合電商場景&#xff0c;用中文簡潔說明&#xff1a;### 1. **高延遲&#xff08;響…

明遠智睿RK3588:創新了高性能,讓顧慮煙消云散

在科技浪潮的推動下&#xff0c;高性能開發已經成為眾多行業發展的核心驅動力。從智能交通的車路協同&#xff0c;到醫療領域的影像診斷&#xff1b;從智能家居的智能控制&#xff0c;到工業互聯網的智能制造&#xff0c;每一個領域都對模塊的性能提出了極高的要求。然而&#…

I Data Lab

萬事開頭難&#xff0c;尤其是和 0 與 1 打交道&#xff0c;和后面的實驗相比&#xff0c;這次只能算個熱身。但是喜歡運動的都知道&#xff0c;熱身很重要&#xff01;任務目標我們先來看看 Datalab 需要我們做什么。主要是通過這次的作業來熟悉整型及浮點數的位表達形式&…

SQLite 安裝使用教程

一、SQLite 簡介 SQLite 是一個輕量級的關系型數據庫管理系統&#xff0c;嵌入式、零配置、無需安裝服務器&#xff0c;廣泛應用于移動端開發&#xff08;如 Android&#xff09;、桌面應用、小型網站等場景。 二、下載安裝 2.1 官方網站下載 訪問 SQLite 官網 下載適用于操…