隨機森林R語言預測工具

隨機森林(Random Forest)是一種基于決策樹的集成學習方法,它通過構建多個決策樹并集成它們的預測結果來提高預測的準確性。在R語言中,我們可以使用randomForest包來構建和訓練隨機森林模型。以下是對隨機森林的詳細介紹以及使用R語言進行預測的代碼示例。

1. R語言進行預測的代碼示例

1.1 隨機森林簡介

隨機森林通過以下步驟進行構建:

(1)自助法抽樣(Bootstrap Sampling):從原始數據集中有放回地隨機抽取多個樣本集,用于訓練多棵決策樹。

(2)特征隨機選擇:在訓練每棵決策樹時,從所有特征中隨機選擇一部分特征進行節點分裂。

(3)構建決策樹:基于自助法抽樣得到的樣本集和隨機選擇的特征集,構建多棵決策樹。

(4)集成預測:對于分類問題,通過投票法(多數投票)集成所有決策樹的預測結果;對于回歸問題,通過取平均值集成所有決策樹的預測結果。

隨機森林的優點包括:

  • 可以處理高維數據,無需進行特征選擇。

  • 能夠學習特征之間的相互影響,且不容易過擬合。

  • 對于不平衡的數據集,可以平衡誤差。

  • 相比單一決策樹,具有更高的預測準確性。

1.2 R語言代碼示例

以下是一個使用R語言中的randomForest包進行隨機森林預測的代碼示例:

# 安裝randomForest包(如果尚未安裝) ?
install.packages("randomForest") ?# 加載randomForest包 ?
library(randomForest) ?# 加載數據集(這里以iris數據集為例) ?
data(iris) ?# 劃分訓練集和測試集 ?
set.seed(123) # 設置隨機種子以保證結果的可重復性 ?
train_index <- sample(1:nrow(iris), nrow(iris)*0.7) # 隨機選擇70%的數據作為訓練集 ?
train_data <- iris[train_index,] ?
test_data <- iris[-train_index,] ?# 使用randomForest函數訓練隨機森林模型 ?
# ntree指定決策樹的數量,mtry指定每次分裂時隨機選擇的特征數量 ?
model <- randomForest(Species ~ ., data=train_data, ntree=500, mtry=2) ?# 使用訓練好的模型對測試集進行預測 ?
predictions <- predict(model, newdata=test_data) ?# 評估模型性能 ?
# 對于分類問題,可以計算準確率、混淆矩陣等指標 ?
confusionMatrix <- table(predictions, test_data$Species) ?
accuracy <- sum(diag(confusionMatrix)) / sum(confusionMatrix) ?
print(paste("Accuracy:", accuracy)) ?# 如果需要,還可以繪制特征重要性圖 ?
# importance(model) # 返回特征重要性矩陣 ?
# plot(importance(model)) # 繪制特征重要性圖

1.3 實際應用意義

隨機森林在實際應用中具有廣泛的意義,特別是在處理復雜數據集和進行預測分析時。例如,在生物信息學、醫學診斷、金融預測等領域,隨機森林可以用于分類、回歸、特征選擇等問題。通過集成多棵決策樹的預測結果,隨機森林可以提高預測的準確性,并降低過擬合的風險。此外,隨機森林還可以提供特征重要性評估,有助于我們理解哪些特征對預測結果具有重要影響。

2. 隨機森林R語言應用實例

當談到隨機森林的應用實例時,以下是一些具體的場景以及如何使用R語言中的randomForest包來實現這些實例的詳細代碼示例。

2.1 疾病診斷(以乳腺癌診斷為例)

2.1.1 數據集:乳腺癌數據集(breastCancer

假設我們有一個乳腺癌數據集,其中包含一些與癌癥相關的特征和一個二分類結果(是否為惡性)。我們的目標是訓練一個隨機森林模型來預測新的病例是否為惡性。

2.1.2 代碼示例
# 加載必要的包 ?
library(randomForest) ?# 加載數據集(這里假設我們已經有了breastCancer數據集) ?
# 如果需要,可以從外部數據源加載,如read.csv ?
data(breastCancer, package = "mlbench") # 假設breastCancer在mlbench包中 ?# 劃分訓練集和測試集 ?
set.seed(123) # 為了結果的可復現性 ?
trainIndex <- sample(1:nrow(breastCancer), nrow(breastCancer)*0.7) ?
trainData <- breastCancer[trainIndex, ] ?
testData <- breastCancer[-trainIndex, ] ?# 使用隨機森林模型進行訓練 ?
rfModel <- randomForest(Class ~ ., data = trainData, ntree = 500, importance = TRUE) ?# 在測試集上進行預測 ?
predictions <- predict(rfModel, newdata = testData) ?# 查看混淆矩陣和準確率 ?
confusionMatrix <- table(predictions, testData$Class) ?
accuracy <- sum(diag(confusionMatrix)) / sum(confusionMatrix) ?
print(paste("Accuracy:", accuracy)) ?# 查看特征重要性 ?
importance(rfModel) ?# 繪制特征重要性圖 ?
plot(rfModel, main="Feature Importance")

2.2 房價預測

2.2.1 數據集:房價數據集(假設為housingData

假設我們有一個房價數據集,其中包含房屋的各種特征(如面積、房間數、地段等)和房屋的價格。我們的目標是預測新房屋的價格。

2.2.2 代碼示例
# 加載必要的包 ?
library(randomForest) ?# 假設housingData已經加載到R環境中 ?
# 如果需要,可以從外部數據源加載,如read.csv ?# 劃分特征和目標變量 ?
features <- housingData[, -ncol(housingData)] # 假設最后一列是價格 ?
prices <- housingData[, ncol(housingData)] ?# 劃分訓練集和測試集 ?
set.seed(123) ?
trainIndex <- sample(1:nrow(housingData), nrow(housingData)*0.7) ?
trainFeatures <- features[trainIndex, ] ?
trainPrices <- prices[trainIndex] ?
testFeatures <- features[-trainIndex, ] ?
testPrices <- prices[-trainIndex] ?# 使用隨機森林模型進行訓練 ?
rfModel <- randomForest(trainPrices ~ ., data = data.frame(trainPrices, trainFeatures), ntree = 500, importance = TRUE) ?# 在測試集上進行預測 ?
predictedPrices <- predict(rfModel, newdata = data.frame(testPrices = rep(NA, nrow(testFeatures)), testFeatures)) ?# 評估預測結果(例如,使用均方誤差) ?
mse <- mean((predictedPrices - testPrices)^2) ?
print(paste("Mean Squared Error:", mse)) ?# 查看特征重要性 ?
importance(rfModel) ?# 繪制特征重要性圖 ?
plot(rfModel, main="Feature Importance")

請注意,上述代碼示例中的數據集(breastCancerhousingData)是假設的,并且可能需要從外部數據源加載。此外,對于房價預測,我們假設價格列是數據集的最后一列,并且在實際應用中可能需要進一步的數據預處理和特征工程。同樣,隨機森林的參數(如ntree)也可以根據具體情況進行調整。

在R語言中,我們可以使用多種包來進行預測,例如randomForestcarete1071(對于SVM)、glmnet(對于彈性網絡回歸)等。以下我將給出幾個使用R語言進行預測的代碼示例。

2.3 使用隨機森林進行預測

首先,我們需要安裝并加載randomForest包(如果尚未安裝)。

# 安裝randomForest包(如果尚未安裝) ?
install.packages("randomForest") ?# 加載randomForest包 ?
library(randomForest) ?# 加載或創建數據 ?
# 這里我們使用iris數據集作為示例 ?
data(iris) ?# 將數據集劃分為訓練集和測試集 ?
set.seed(123) # 為了結果的可重復性 ?
train_index <- sample(1:nrow(iris), 0.8 * nrow(iris)) ?
train_data <- iris[train_index, ] ?
test_data <- iris[-train_index, ] ?# 使用訓練集訓練隨機森林模型 ?
rf_model <- randomForest(Species ~ ., data = train_data, ntree = 500) ?# 使用測試集進行預測 ?
rf_predictions <- predict(rf_model, newdata = test_data) ?# 查看預測結果 ?
print(table(test_data$Species, rf_predictions)) ?# 計算預測準確率 ?
accuracy <- sum(test_data$Species == rf_predictions) / nrow(test_data) ?
print(paste("Accuracy:", accuracy))

2.4 使用邏輯回歸進行預測(二分類問題)

# 加載MASS包(如果尚未安裝) ?
# MASS包包含了用于邏輯回歸的多個數據集 ?
install.packages("MASS") ?
library(MASS) ?# 使用MASS包中的Pima Indians Diabetes數據集 ?
data(PimaIndiansDiabetes) ?# 將數據集劃分為訓練集和測試集 ?
set.seed(123) ?
train_index <- sample(1:nrow(PimaIndiansDiabetes), 0.8 * nrow(PimaIndiansDiabetes)) ?
train_data <- PimaIndiansDiabetes[train_index, ] ?
test_data <- PimaIndiansDiabetes[-train_index, ] ?# 使用訓練集訓練邏輯回歸模型 ?
glm_model <- glm(diabetes ~ ., data = train_data, family = binomial) ?# 使用測試集進行預測(注意:邏輯回歸預測的是概率,需要轉換為類別) ?
glm_probabilities <- predict(glm_model, newdata = test_data, type = "response") ?
glm_predictions <- ifelse(glm_probabilities > 0.5, "pos", "neg") ?# 查看預測結果 ?
print(table(test_data$diabetes, glm_predictions)) ?# 計算預測準確率(假設'pos'代表正類,'neg'代表負類) ?
accuracy <- sum(test_data$diabetes == (glm_predictions == "pos")) / nrow(test_data) ?
print(paste("Accuracy:", accuracy))

2.5 使用支持向量機(SVM)進行預測

# 安裝e1071包(如果尚未安裝) ?
install.packages("e1071") ?
library(e1071) ?# 使用iris數據集 ?
data(iris) ?# 將數據集劃分為訓練集和測試集 ?
set.seed(123) ?
train_index <- sample(1:nrow(iris), 0.8 * nrow(iris)) ?
train_data <- iris[train_index, ] ?
test_data <- iris[-train_index, ] ?# 將Species轉換為因子類型(如果尚未是) ?
train_data$Species <- as.factor(train_data$Species) ?
test_data$Species <- as.factor(test_data$Species) ?# 使用訓練集訓練SVM模型 ?
svm_model <- svm(Species ~ ., data = train_data, kernel = "radial", cost = 10, gamma = 0.1) ?# 使用測試集進行預測 ?
svm_predictions <- predict(svm_model, newdata = test_data) ?# 查看預測結果 ?
print(table(test_data$Species, svm_predictions)) ?# 計算預測準確率 ?
accuracy <- sum(test_data$Species == svm_predictions) / nrow(test_data) ?
print(paste("Accuracy:", accuracy))

以上代碼示例展示了如何在R語言中使用隨機森林、邏輯回歸和支持向量機進行預測,并計算了預測準確率。請注意,這些示例使用了內置的數據集

3. 隨機森林的應用實例

3.1 鳶尾花數據集分類(Iris Dataset Classification)

鳶尾花數據集是一個常用的分類數據集,包含150個樣本,每個樣本有四個特征(花萼長度、花萼寬度、花瓣長度、花瓣寬度),用于分類三種鳶尾花。

from sklearn.datasets import load_iris ?
from sklearn.model_selection import train_test_split ?
from sklearn.ensemble import RandomForestClassifier ?
from sklearn.metrics import accuracy_score ?# 加載鳶尾花數據集 ?
iris = load_iris() ?
X = iris.data ?
y = iris.target ?# 劃分訓練集和測試集 ?
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) ?# 創建隨機森林分類器 ?
clf = RandomForestClassifier(n_estimators=100, random_state=42) ?# 訓練模型 ?
clf.fit(X_train, y_train) ?# 預測測試集 ?
y_pred = clf.predict(X_test) ?# 計算準確率 ?
accuracy = accuracy_score(y_test, y_pred) ?
print(f"Accuracy: {accuracy}")

3.2 房價預測(Housing Price Prediction)

假設我們有一個房價數據集,包含房屋的特征(如面積、臥室數、樓層數等)和對應的房價。

import pandas as pd ?
from sklearn.model_selection import train_test_split ?
from sklearn.ensemble import RandomForestRegressor ?
from sklearn.metrics import mean_squared_error ?# 加載數據(這里假設我們有一個CSV文件) ?
data = pd.read_csv('housing_data.csv') ?
X = data.drop('price', axis=1) ?# 特征 ?
y = data['price'] ?# 目標變量 ?# 劃分訓練集和測試集 ?
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) ?# 創建隨機森林回歸器 ?
rf_regressor = RandomForestRegressor(n_estimators=100, random_state=42) ?# 訓練模型 ?
rf_regressor.fit(X_train, y_train) ?# 預測測試集 ?
y_pred = rf_regressor.predict(X_test) ?# 計算均方誤差 ?
mse = mean_squared_error(y_test, y_pred) ?
print(f"Mean Squared Error: {mse}")

3.3 電影評論情感分析(Sentiment Analysis of Movie Reviews)

假設我們有一個電影評論數據集,包含評論文本和對應的情感標簽(正面或負面)。

from sklearn.datasets import fetch_20newsgroups ?
from sklearn.feature_extraction.text import CountVectorizer ?
from sklearn.model_selection import train_test_split ?
from sklearn.ensemble import RandomForestClassifier ?
from sklearn.metrics import classification_report ?# 加載數據集(這里使用20 Newsgroups數據集的一個子集作為示例) ?
categories = ['alt.atheism', 'soc.religion.christian'] ?
newsgroups_train = fetch_20newsgroups(subset='train', categories=categories, shuffle=True, random_state=42) ?
X_train, y_train = newsgroups_train.data, newsgroups_train.target ?# 文本特征提取(這里使用詞頻向量化器) ?
vectorizer = CountVectorizer() ?
X_train_counts = vectorizer.fit_transform(X_train) ?# 劃分訓練集和測試集(這里為了簡化,直接從訓練集中劃分) ?
X_train_counts, X_test_counts, y_train, y_test = train_test_split(X_train_counts, y_train, test_size=0.2, random_state=42) ?# 創建隨機森林分類器 ?
clf = RandomForestClassifier(n_estimators=100, random_state=42) ?# 訓練模型 ?
clf.fit(X_train_counts, y_train) ?# 預測測試集 ?
y_pred = clf.predict(X_test_counts) ?# 評估模型 ?
print(classification_report(y_test, y_pred

3.4 圖像分類(Image Classification)

雖然隨機森林通常不直接用于原始像素級別的圖像分類(因為這種方法在處理高維數據時可能不夠高效),但我們可以使用隨機森林來分類圖像特征(如HOG、SIFT、SURF等描述符)或者從預訓練的深度學習模型中提取的特征。

以下是一個簡化的例子,假設我們已經有了一個包含圖像特征和對應標簽的數據集。

from sklearn.model_selection import train_test_split ?
from sklearn.ensemble import RandomForestClassifier ?
from sklearn.metrics import classification_report ?
import numpy as np ?# 假設我們已經有了一個特征矩陣X(例如,從圖像中提取的特征)和標簽y ?
# X = ... (形狀為 (n_samples, n_features) 的NumPy數組) ?
# y = ... (形狀為 (n_samples,) 的NumPy數組) ?# 為了演示,我們隨機生成一些模擬數據 ?
n_samples = 1000 ?
n_features = 64 ?# 假設每個圖像被表示為一個64維的特征向量 ?
X = np.random.rand(n_samples, n_features) ?
y = np.random.randint(0, 2, n_samples) ?# 二分類問題 ?# 劃分訓練集和測試集 ?
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) ?# 創建隨機森林分類器 ?
clf = RandomForestClassifier(n_estimators=100, random_state=42) ?# 訓練模型 ?
clf.fit(X_train, y_train) ?# 預測測試集 ?
y_pred = clf.predict(X_test) ?# 評估模型 ?
print(classification_report(y_test, y_pred))

3.5 特征重要性評估(Feature Importance Evaluation)

隨機森林不僅可以用于分類和回歸任務,還可以用來評估特征的重要性。這對于特征選擇和解釋模型結果非常有用。

# 使用之前的鳶尾花數據集示例 ?
# ...(加載數據、劃分訓練集和測試集、訓練模型的代碼) ?# 獲取特征重要性 ?
importances = clf.feature_importances_ ?
std = np.std([tree.feature_importances_ for tree in clf.estimators_], axis=0) ?
indices = np.argsort(importances)[::-1] ?# 打印特征排名 ?
print("Feature ranking:") ?for f in range(X.shape[1]): ?print("%d. feature %d (%f)" % (f + 1, indices[f], importances[indices[f]])) ?# 我們可以使用這些特征重要性來繪制條形圖,或者根據重要性選擇或排除某些特征

以上代碼示例展示了隨機森林在不同場景下的應用,包括分類、回歸、特征重要性評估等。注意,這些示例中的數據和特征都是模擬的或簡化的,實際應用中我們需要根據自己的數據集和任務來調整代碼。

3.6 異常檢測(Outlier Detection)

隨機森林也可以用于異常檢測或離群點檢測。通過構建隨機森林模型并計算每個樣本到其葉節點的平均距離(例如,使用孤立森林 Isolation Forest),我們可以識別出與大多數樣本不同的異常點。

以下是一個使用sklearn-extensions庫中的IsolationForest進行異常檢測的示例(注意:sklearn-extensions并不是scikit-learn官方庫的一部分,但提供了類似的實現):

from sklearn_extensions.ensemble import IsolationForest ?
import numpy as np ?# 假設 X 是我們的特征矩陣,這里我們生成一些模擬數據 ?
X = np.random.normal(size=(100, 2)) ?
# 添加一個異常點 ?
X = np.r_[X + 2, np.array([[10, 10]])] ?# 創建 IsolationForest 實例 ?
clf = IsolationForest(contamination=0.1) ?# 假設數據集中有10%的異常點 ?# 擬合模型 ?
clf.fit(X) ?# 預測異常分數(分數越低,越可能是異常點) ?
y_pred = clf.predict(X) ?
scores = clf.decision_function(X) ?# 打印異常分數和預測結果 ?
for i, s in enumerate(scores): ?print(f"Sample {i}: Score = {s}, Prediction = {y_pred[i]}") ?# 我們可以設置一個閾值來識別異常點 ?
threshold = -0.5 ?# 這個閾值需要根據我們的數據和需求來調整 ?
outliers = X[scores < threshold] ?
print(f"Outliers: \n{outliers}")

請注意,上面的IsolationForest類可能不是scikit-learn官方庫的一部分,但我們可以使用scikit-learn中的OneClassSVMLocalOutlierFactor來實現類似的功能。

3.7 多標簽分類(Multi-label Classification)

隨機森林也可以用于多標簽分類任務,即每個樣本可能屬于多個類別。這通常通過使用多輸出分類器(multi-output classifier)來實現,該分類器為每個標簽訓練一個獨立的分類器。

from sklearn.datasets import make_multilabel_classification ?
from sklearn.ensemble import RandomForestClassifier ?
from sklearn.metrics import accuracy_score, precision_recall_fscore_support ?# 創建一個多標簽分類數據集 ?
X, y = make_multilabel_classification(n_samples=1000, n_features=20, n_classes=5, n_labels=2, random_state=42) ?# 劃分訓練集和測試集 ?
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) ?# 創建隨機森林分類器,為每個標簽訓練一個分類器 ?
clf = RandomForestClassifier(n_estimators=100, random_state=42) ?# 訓練模型 ?
clf.fit(X_train, y_train) ?# 預測測試集 ?
y_pred = clf.predict(X_test) ?# 計算每個標簽的精度、召回率和F1分數 ?
precision, recall, fscore, support = precision_recall_fscore_support(y_test, y_pred, average=None) ?# 打印結果 ?
for i in range(y.shape[1]): ?print(f"Label {i}: Precision = {precision[i]}, Recall = {recall[i]}, F1 Score = {fscore[i]}") ?# 注意:對于多標簽分類,通常不計算整體的準確率,因為標簽之間可能是獨立的

這些示例展示了隨機森林在多種不同場景下的應用,包括異常檢測、多標簽分類等。在實際應用中,我們可能需要根據具體任務和數據集調整模型的參數和配置。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/diannao/39256.shtml
繁體地址,請注明出處:http://hk.pswp.cn/diannao/39256.shtml
英文地址,請注明出處:http://en.pswp.cn/diannao/39256.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

java高仿真數據生成器-需要的拿去

java高仿真數據生成器源碼-需要的拿去 nit-random-tools 介紹&#xff1a;高仿真數據生成器 逆天開源 java 證號碼, 姓名&#xff0c;職業, 日期&#xff0c;手機號 生成器 功能列表 編號功能描述class1號 生成器NitIdcardGenerator2姓名 生成器NitChineseNameGenerator3職…

node.lib下載失敗,手動下載并配置

在無網絡環境&#xff0c;或者網絡不好的環境&#xff0c;node.lib會下載失敗&#xff0c;此時可手動下載并進行配置。 我們以 node16.17.0 為例&#xff1a; 下載地址 分別下載node.lib和headers https://registry.npmmirror.com/-/binary/node/v16.17.0/win-x64/node.lib…

目標檢測算法的技術革新與應用案例

引言 目標檢測作為計算機視覺領域中的一項關鍵技術&#xff0c;近年來取得了顯著進展。從傳統的基于特征的方法到如今的深度學習算法&#xff0c;目標檢測技術在準確性、速度和魯棒性上均實現了大幅提升。本文將深入探討目標檢測算法的技術原理、發展歷程、最新進展以及實際應…

HarmonyOS--開發者證書考試地址

初級證書&#xff1a;華為開發者學堂 高級證書&#xff1a;華為開發者學堂 對應課程&#xff1a;華為開發者學堂

Linux rpm與yum

一、rpm包管理 rpm用于互聯網下載包的打包及安裝工具&#xff0c;它包含在某些Linux分發版中。它生成具有.RPM擴展名的文件。RPM是RedHat Package Manager (RedHat軟件包管理工具&#xff09;的縮寫&#xff0c;類似windows的setup.exe&#xff0c;這一文件格式名稱雖然打上了R…

辦理北京公司注銷流程和步驟說明

公司的生命周期是多變的&#xff0c;有時候&#xff0c;業務可能會結束或者出現其他原因&#xff0c;需要注銷公司。注銷公司是一個復雜的法律過程&#xff0c;需要遵循一系列的步驟和提交特定的材料。下面我們將詳細介紹北京注銷公司的流程以及需要準備的材料&#xff0c;以幫…

《等保測評實戰指南:從評估到加固的全程解析》

在當今數字化時代&#xff0c;信息安全已成為企業生存與發展的基石。隨著網絡攻擊手段的不斷演變和復雜度的提升&#xff0c;信息系統等級保護&#xff08;簡稱“等保”&#xff09;作為國家信息安全保障體系的重要組成部分&#xff0c;其重要性日益凸顯。《等保測評實戰指南&a…

私有云統一多云管理平臺主要服務內容

私有云統一多云管理平臺&#xff0c;作為企業IT架構現代化的關鍵組成部分&#xff0c;旨在為企業提供高效、靈活、安全的云計算資源管理解決方案。這類平臺通過整合和優化不同云環境(包括私有云、公有云、混合云)的管理&#xff0c;幫助企業打破云孤島&#xff0c;實現資源的統…

clickhouse-client 數據導入導出

ClickHouse提供了clickhouse-client客戶端可用于數據的快速導入導出 官方文檔&#xff1a; Inserting Data from a File JSONL 格式 導出 clickhouse-client -h 127.0.0.1 --port 9000 -u default --password XXX -d default \--query "SELECT * from default.doc_typ…

【游戲引擎之路】登神長階(五)

5月20日-6月4日&#xff1a;攻克2D物理引擎。 6月4日-6月13日&#xff1a;攻克《3D數學基礎》。 6月13日-6月20日&#xff1a;攻克《3D圖形教程》。 6月21日-6月22日&#xff1a;攻克《Raycasting游戲教程》。 6月23日-6月30日&#xff1a;攻克《Windows游戲編程大師技巧》。 …

【Qwen2部署實戰】Qwen2初體驗:用Transformers打造智能聊天機器人

系列篇章&#x1f4a5; No.文章1【Qwen部署實戰】探索Qwen-7B-Chat&#xff1a;阿里云大型語言模型的對話實踐2【Qwen2部署實戰】Qwen2初體驗&#xff1a;用Transformers打造智能聊天機器人3【Qwen2部署實戰】探索Qwen2-7B&#xff1a;通過FastApi框架實現API的部署與調用4【Q…

從任意用戶注冊到任意密碼重置

寫在最前面一句話 To be or not to be ,it‘s a question . 哎呀&#xff0c;放錯臺詞了&#xff0c;應該是 true or false , 在最近的測試中遇到了一個很有趣的點 “將 false 改為true ”就可以成功繞過驗證碼了。 T rue or false &#xff1f;&#xff1f;&#xff1f; …

Oracle PL / SQL包

在實踐中&#xff0c;您很少創建獨立的存儲函數或過程。 相反&#xff0c;你會使用一個包。 包可以一起組織相關的功能和過程&#xff0c;例如創建庫&#xff0c;但在PL / SQL中&#xff0c;庫被稱為包。 PL / SQL包有兩個部分&#xff1a; 包規格包裝體 包規范是包的公共…

使用fabric8操作k8s

文章目錄 一、引入fabric包二、認證1、使用config文件認證2、使用oauthtoken認證 三、pod的查詢和遍歷四、命名空間的創建和刪除五、deployment的創建和刪除部分參數說明1、resourceRequirements2、containerPorts3、envVarList4、volumeMounts和volumeList5、nodeAffinity 六、…

「51媒體」企業舉行新聞發布會,如何邀請媒體到場報道

傳媒如春雨&#xff0c;潤物細無聲&#xff0c;大家好&#xff0c;我是51媒體網胡老師。 媒體宣傳加速季&#xff0c;100萬補貼享不停&#xff0c;一手媒體資源&#xff0c;全國100城線下落地執行。詳情請聯系胡老師。 企業舉行新聞發布會時&#xff0c;邀請媒體到場報道是一個…

MySQL常用操作命令大全

文章目錄 一、連接與斷開數據庫1.1 連接數據庫1.2 選擇數據庫1.3 斷開數據庫 二、數據庫操作2.1 創建數據庫2.2 查看數據庫列表2.3 刪除數據庫 三、表操作3.1 創建表3.2 查看表結構3.3 修改表結構3.3.1 添加列3.3.2 刪除列3.3.3 修改列數據類型 3.4 刪除表 四、數據操作4.1 插入…

day62--若依框架(基礎應用篇)

若依搭建 若依版本 官方 若依官方針對不同開發需求提供了多個版本的框架&#xff0c;每個版本都有其獨特的特點和適用場景&#xff1a; 前后端混合版本&#xff1a;RuoYi結合了SpringBoot和Bootstrap的前端開發框架&#xff0c;適合快速構建傳統的Web應用程序&#xff0c;其…

【Arm技術日:為AI終端準備了哪些新基石?】

過去一年&#xff0c;移動終端設備的長足進步令人贊嘆&#xff0c;例如人工智能 (AI) 從手機到筆記本電腦的巨大創新&#xff0c;并誕生了“新一代 AI 手機”和 AIPC。據IDC預測&#xff0c;2024年全球新一代AI手機的出貨量將達到1.7億部&#xff0c;占智能手機市場總量的近15%…

Qt加載SVG矢量圖片,放大縮小圖片質量不發生變化。

前言&#xff1a; 首先簡單描述下SVG: SVG 意為可縮放矢量圖形&#xff08;Scalable Vector Graphics&#xff09;。 SVG 使用 XML 格式定義圖像。 給界面或者按鈕上顯示一個圖標或背景圖片&#xff0c;日常使用.png格式的文件完全夠用&#xff0c;但是有些使用場景需要把圖…

QChartView顯示實時更新的溫度曲線圖(二)

文章目錄 參考圖說明1. 項目結構2. TempChartView.pro3. main.cpp4. TemperatureSeries.qml5. main.qml詳細說明 參考圖 說明 Qt Charts 提供了一系列使用圖表功能的簡單方法。它使用Qt Graphics View Framework 圖形視圖框架&#xff0c;因此可以很容易集成到用戶界面。可以使…