DeepSeek崛起:如何在云端快速部署你的專屬AI助手

在2025年春節的科技盛宴上,DeepSeek因其在AI領域的卓越表現成為焦點,其開源的推理模型DeepSeek-R1擅長處理多種復雜任務,支持多語言處理,并通過搜索引擎獲取實時信息。DeepSeek因其先進的自然語言處理技術、廣泛的知識庫和高性價比而廣受歡迎。本文介紹了DeepSeek的功能、硬件和軟件環境需求,并演示了如何在云服務器上快速部署DeepSeek,展示其在博客寫作中的應用。未來,DeepSeek有望在AI智能體和AI應用方向取得更多突破。

在這里插入圖片描述

DeepSeek崛起:如何在云端快速部署你的專屬AI助手

  • 1. DeepSeek及其應用場景
    • 1.1 什么是DeepSeek?
    • 1.2 DeepSeek能干什么?
    • 1.3 DeepSeek為什么這么火?
  • 2. 為什么要部署私有DeepSeek
    • 2.1 DeepSeek所需的硬件和軟件環境
    • 2.2 本地部署還是云服務部署
  • 3. 1分鐘快速部署DeepSeek
    • 3.1 應用市場找到DeepSeek
    • 3.2 購買云服務器
    • 3.3 啟動應用
    • 3.4 可以使用了
  • 4. DeepSeek變身博客寫作小助手
    • 4.1 推薦博客選題
    • 4.2 構思博客大綱
    • 4.3 撰寫博客內容
    • 4.4 優化博客內容
  • 5. 注意事項
  • 6. 總結與展望

1. DeepSeek及其應用場景

在2025年春節的科技盛宴上,盡管宇樹科技的機器人以靈動的機械舞姿驚艷了春晚舞臺,DeepSeek卻憑借其引發的科技浪潮成為了眾人矚目的焦點。DeepSeek在AI領域中光芒四射,徹底吸引了西方資本市場的目光。如今,提起DeepSeek,可謂是家喻戶曉,聲名遠揚。那么,DeepSeek究竟是什么?它具備哪些強大的功能?又是什么讓它如此炙手可熱?讓我們一同回顧一下。
在這里插入圖片描述

1.1 什么是DeepSeek?

  • DeepSeek是一家專注通用人工智能(AGI)的中國科技公司,主攻大模型研發與應
    用。
  • DeepSeek-R1是其開源的推理模型,擅長處理復雜任務且開源,開源開放,支持免費商用。

1.2 DeepSeek能干什么?

  • 支持處理多種復雜任務,包括文本理解、數據分析、知識問答及內容創作等。
  • 具備跨語言處理能力,能夠理解和生成多種語言的文本。
  • 能夠通過搜索引擎進行聯網查詢,獲取實時信息并整合到回答中。

1.3 DeepSeek為什么這么火?

  • 采用了先進的自然語言處理技術,能夠更準確地理解用戶意圖,提供更貼合需求的服務。
  • 知識庫經過大規模數據訓練,涵蓋廣泛的主題,能夠提供多領域的專業信息。
  • 不斷通過機器學習和用戶反饋進行自我優化,以提升交互質量和響應速度。
  • DeepSeek-R1性能與OpenAI-o1相當但成本降低90%,并且被多個云服務商(如藍耘、華為云、騰訊云)接入,具有超高性價比和廣泛兼容性。
    在這里插入圖片描述

2. 為什么要部署私有DeepSeek

DeepSeek的爆火,導致官方訪問,頻繁出現服務器繁忙的提示。主要原因包括用戶流量過大、技術性能瓶頸以及可能的一些外部惡意攻擊。

雖然我們可以借助第三方平臺(如硅基流動、納米AI搜索、秘塔AI搜索等)實現平替,但是從數據安全、用戶隱私、費用等角度考慮,我還是建議部署自己的私有DeepSeek,打造一個穩定性高、隱私性強、靈活性強的超強AI服務。

2.1 DeepSeek所需的硬件和軟件環境

以下是部署DeepSeek不同規模模型所需的硬件和軟件環境詳細表格:

模型規模CPU建議GPU建議(顯存)內存建議存儲空間軟件環境適用場景備注
1.5B4核以上 (i5/Ryzen5)可選:GTX 1650 (4GB+) 或 T4 (低功耗)8GB+10GB+ SSDPython 3.9+, CUDA 11.8+, PyTorch 2.1.0, Transformers 4.33.0小型NLP任務、文本生成低端GPU可運行,量化后顯存需求更低
7B6核以上 (i7/Ryzen7)RTX 3060 (12GB) / A100 (24GB+)16GB+20GB+ SSD同1.5B,需加速庫(如FlashAttention)中等NLP、對話系統顯存需求因量化差異大(16-32GB)
14B8核以上 (i9/Ryzen9)RTX 3090 (24GB) / A100 (40GB+)32GB+50GB+ SSD需多GPU并行支持復雜NLP、知識問答單卡需高顯存,多卡可降低單卡負載
32BXeon/EPYC (32核+)多卡A100/H100 (80GB+)128GB+200GB+ NVMe分布式訓練框架(如DeepSpeed)企業級復雜任務需多卡并行或量化技術
67B服務器級CPU (64核+)4×A100-80G 或 H100集群256GB+300GB+ NVMeCUDA 12+, 混合精度訓練科研級高復雜度生成顯存需求極高,需分布式推理
70B同67B同67B256GB+300GB+ NVMe同67B超大規模AI研究企業級部署需定制化優化
671B多節點服務器集群8×A100-80G 或 H100512GB+1TB+ NVMe分布式框架(如Megatron-LM)超大規模訓練/推理僅適合專業機構

2.2 本地部署還是云服務部署

從表格中可以看出,當模型參數規模達到14B時,所需的硬件性能已經超出了普通個人電腦的能力范圍。眾所周知,大模型的參數規模越大,生成的內容通常越優質。因此,為了部署更聰明、更強大的AI大模型,我建議大家選擇高性能云服務來進行部署。

3. 1分鐘快速部署DeepSeek

接下來,給大家演示下如何在云服務器平臺上部署DeepSeek。至于選擇哪個云平臺,大家可以根據自己的習慣自行選擇。

本文中,我使用的藍耘元生代智算云平臺。為什么選擇藍耘呢,主要是下面幾個點:

  1. 高性能與高性價比: 藍耘GPU智算云平臺基于Kubernetes,提供領先的基礎設施和大規模GPU算力,速度比傳統云服務快35倍,成本降低30%。

  2. 全流程支持: 平臺支持AI客戶在模型構建、訓練和推理的全業務流程,并加速教科研客戶的科研創新。

  3. 容器化與自動化管理: 通過將運行環境、模型和訓練框架打包到容器中,并使用定制化Kubernetes工具進行管理,解決開發環境設置和運維管理問題。

  4. 開箱即用: 提供統一的環境模板,讓算法工程師免除初期開發環境設置和新環境中管理算力資源的麻煩。應用市場已經內置了DeepSeek的1.5b、7b、8b、32b模型,支持快速部署。

  5. 自愈能力與高效利用: 針對大模型訓練中的常見問題,平臺提供自動化調度和自愈能力,提高開發和訓練效率以及資源利用率。

3.1 應用市場找到DeepSeek

在這里插入圖片描述
訪問藍耘官網完成賬號注冊,然后找到應用市場入口,就可以看到已經內置了DeepSeek模型并且置頂展示。為了更好的生成效果,我們選擇第二個r1 32b版本。

3.2 購買云服務器

在這里插入圖片描述
點擊模型右側的部署按鈕,購買云服務器。為了更快的執行速度,我選擇的是4090顯卡配置。

3.3 啟動應用

在這里插入圖片描述
購買成功之后,會自動跳轉到工作空間,并展示出新購買的云服務器,然后再次點擊快速啟動應用按鈕就可以啟動DeepSeek應用了。
在這里插入圖片描述
在彈出的新頁面中,使用默認賬號:lanyunuser@lanyun.net 密碼:lanyunuser即可登錄。

3.4 可以使用了

在這里插入圖片描述
登錄成功之后,就可以進入AI對話頁面了。左上角可以看到目前模型規模是32b。

4. DeepSeek變身博客寫作小助手

4.1 推薦博客選題

在這里插入圖片描述


是一名人工智能行業的大模型開發者,最近在寫博客過程中,沒有思路了。給我推薦5個選擇。直接給出選題即可,不要說別的。

DeepSeek

  1. “多模態大模型:未來AI發展的核心方向”
  2. “大模型與硬件結合:如何優化性能與效率”
  3. “AI在垂直行業的突破:醫療、金融與制造中的新應用”
  4. “模型壓縮與量化:讓大模型走向輕量化落地”
  5. “隱私保護與倫理挑戰:大模型時代的必然議題”

4.2 構思博客大綱

在這里插入圖片描述


好的。以“模型壓縮與量化:讓大模型走向輕量化落地 ”為選題,構思下這篇文章的大綱。

DeepSeek
大綱:模型壓縮與量化——讓大模型走向輕量化落地


一、引言

  • 為什么需要模型壓縮與量化?
    • 大模型的優勢與資源消耗矛盾。
    • 模型輕量化的實際需求:從云端到邊緣設備的廣泛部署。

二、模型壓縮與量化的基礎概念

  1. 什么是模型壓縮?
    • 剪枝(Pruning)、蒸餾(Distillation)等技術的核心思想。
  2. 量化的基本原理:
    • 從 FP32 到 INT8,精度與計算效率的平衡。
  3. 量化 vs 壓縮:區別與聯系。

三、模型壓縮與量化的關鍵技術路徑

  1. 模型剪枝(Network Pruning)
    • 結構化剪枝 vs 非結構化剪枝。
    • 剪枝策略與效果評估。
  2. 知識蒸餾(Knowledge Distillation)
    • 大模型到小模型的知識遷移。
    • 蒸餾損失的設計與優化。
  3. 量化技術(Quantization)
    • 定點量化(Post-Training Quantization)。
    • 動態量化 vs 靜態量化。
    • 量化感知訓練(QAT)。
  4. 混合精度訓練(Mixed Precision Training)
    • 結合 FP16 和 INT8,平衡精度與效率。

四、模型壓縮與量化的實際應用場景

  1. 移動設備上的 AI 模型部署:
    • 如何在手機端實現高性能推理。
  2. 嵌入式設備的輕量化需求:
    • 低功耗、低成本硬件上的高效運行。
  3. 物聯網(IoT)中的模型應用:
    • 資源受限環境下的實時推理。
  4. 自動駕駛與實時系統:
    • 高效推理的必要性與實現路徑。

五、面臨的挑戰與未來方向

  1. 精度損失與計算效率的平衡:
    • 如何在壓縮過程中保持模型性能。
  2. 復雜網絡結構的壓縮難點:
    • Transformer 等深度網絡的剪枝與量化技術。
  3. 跨平臺部署與硬件適配:
    • 不同硬件架構(如 ARM、GPU)下的優化策略。

六、總結與展望

  • 模型壓縮與量化的重要性與未來趨勢。
  • 自動化工具與框架的潛力。
  • 推動大模型在更廣泛場景中的落地應用。

4.3 撰寫博客內容

在這里插入圖片描述


嗯,構思的不錯,可以按照這個大綱補全這篇博客的內容嗎?

DeepSeek
模型壓縮與量化:讓大模型走向輕量化落地

一、引言

隨著深度學習技術的快速發展,大型神經網絡模型(如BERT、GPT-3等)在自然語言處理、計算機視覺等領域取得了令人矚目的成就。然而,這些大模型通常需要大量的計算資源和存儲空間,限制了它們在實際場景中的廣泛應用。尤其是在移動設備、嵌入式系統等資源受限的環境中,直接部署大型模型變得異常困難。

為了克服這一問題,模型壓縮與量化技術應運而生。通過模型壓縮與量化,我們可以在保持模型性能的同時,顯著降低模型的計算復雜度和存儲需求,從而實現大模型在邊緣設備上的高效部署。本文將詳細介紹模型壓縮與量化的基礎概念、關鍵技術路徑以及實際應用場景,并探討這一領域的未來發展方向。


二、模型壓縮與量化的基礎知識

  1. 什么是模型壓縮?

模型壓縮的目標是通過減少模型的參數數量或優化模型結構,降低模型的復雜度和計算需求。常見的壓縮技術包括:

  • 剪枝(Pruning):移除對模型貢獻較小的神經元或權重。
  • 蒸餾(Distillation):將大模型的知識遷移到一個更小、更輕量化的模型中。
  1. 量化的基本原理

量化是通過降低數值精度來減少模型的存儲和計算開銷。例如,傳統的浮點數運算使用32位浮點數(FP32),而量化技術可以將這些參數壓縮到8位整數(INT8)或更低精度。

  • 定點量化:將權重和激活值轉換為低精度表示。
  • 動態量化 vs 靜態量化:動態量化在推理過程中實時調整縮放因子,靜態量化則在訓練后固定縮放因子。
  • 量化感知訓練(QAT):在訓練階段引入量化操作,提升量化模型的性能。
  1. 量化 vs 壓縮:區別與聯系

壓縮技術主要關注減少參數數量,而量化技術則是通過降低精度來優化計算效率。兩者可以結合使用,以實現更高效的模型部署。


三、模型壓縮與量化的關鍵技術路徑

  1. 模型剪枝(Network Pruning)

剪枝是一種直接減少模型參數數量的方法。根據剪枝策略的不同,可分為以下兩類:

  • 結構化剪枝:移除整個神經元或通道(如Channel Pruning),保證剪枝后的模型仍具有規則的網絡結構。
  • 非結構化剪肢:隨機移除部分權重,可能會導致不規則的稀疏矩陣。
  1. 知識蒸餾(Knowledge Distillation)

知識蒸餾的核心思想是將大模型的知識遷移到一個更小的學生模型中。具體步驟如下:

  1. 使用大模型(教師模型)對數據進行訓練。

  2. 將學生模型在教師模型的指導下進行微調,使其模仿教師模型的輸出。

  3. 量化技術

  • 定點量化:直接將權重和激活值轉換為低精度表示。例如,Post-Training Quantization(PTQ)是后訓練量化,適用于已經訓練好的模型。
  • 量化感知訓練(QAT):在訓練過程中引入量化操作,通過反向傳播優化量化后的參數。
  1. 混合精度訓練

混合精度訓練結合了FP16和INT8等不同精度的計算,可以在保持模型性能的同時顯著提升計算效率。這種方法需要硬件支持(如NVIDIA的Tensor Core)。


四、模型壓縮與量化的實際應用場景

  1. 移動設備上的 AI 模型部署

在移動設備上運行大模型通常會面臨計算資源和存儲空間的限制。通過模型壓縮與量化,可以在手機端實現高性能推理。例如,蘋果的Core ML框架就集成了多種壓縮與量化技術。

  1. 嵌入式設備的輕量化需求

嵌入式設備(如智能家居、自動駕駛系統)通常具有嚴格的功耗和成本限制。通過剪枝和量化,可以將模型優化到滿足這些設備的要求。

  1. 物聯網中的實時推理

在物聯網場景中,設備通常需要進行實時推理,但計算資源有限。壓縮與量化技術可以幫助模型在低功耗設備上快速運行。

  1. 自動駕駛系統

自動駕駛系統對模型的實時性和準確性要求極高。通過壓縮與量化技術,可以在保證性能的同時降低硬件成本。


五、未來發展方向

盡管模型壓縮與量化已經取得了顯著進展,但仍有許多值得探索的方向:

  1. 自動化壓縮工具:開發更加智能化的壓縮工具,能夠根據具體場景自動選擇最優的壓縮策略。
  2. 端到端量化訓練:將量化過程集成到模型訓練中,進一步提升量化模型的性能。
  3. 稀疏計算硬件支持:隨著稀疏計算技術的發展,硬件廠商可以為剪枝后的模型提供更好的支持。

六、總結

模型壓縮與量化是推動深度學習技術落地的重要手段。通過減少模型的參數數量和計算復雜度,這一技術使得大模型能夠在資源受限的環境中高效運行。未來,隨著算法和硬件的不斷進步,模型壓縮與量化將在更多領域發揮重要作用。

4.4 優化博客內容

在這里插入圖片描述


不錯,比較全面。可以在必要的地方,增加一些示例代碼,增強說服力嗎

DeepSeek
模型壓縮與量化:從理論到實踐

引言
隨著深度學習技術的快速發展,模型的規模越來越大,但實際應用中往往受限于計算資源和存儲空間。為了使這些模型能夠在移動設備、嵌入式系統或其他資源受限的環境中高效運行,模型壓縮與量化技術變得尤為重要。

本文將從基礎知識到實踐示例,全面講解模型壓縮與量化的核心方法,并提供代碼實現。


一、知識蒸餾(Knowledge Distillation)

概念
知識蒸餾的核心思想是通過“教師模型”(通常是一個大的、復雜的模型)來指導“學生模型”(一個更小、更輕的模型),使其在保持較高性能的同時具備更好的部署能力。

實現示例

以下是一個簡單的知識蒸餾實現示例(使用PyTorch):

import torch
import torch.nn as nn
from torch.utils.data import DataLoader# 教師模型(復雜模型)
class TeacherModel(nn.Module):def __init__(self):super(TeacherModel, self).__init__()self.layers = nn.Sequential(nn.Conv2d(3, 64, kernel_size=3),nn.ReLU(),nn.Conv2d(64, 128, kernel_size=3),nn.ReLU(),nn.Flatten(),nn.Linear(128 * 25 * 25, 10))def forward(self, x):return self.layers(x)# 學生模型(輕量化模型)
class StudentModel(nn.Module):def __init__(self):super(StudentModel, self).__init__()self.layers = nn.Sequential(nn.Conv2d(3, 32, kernel_size=3),nn.ReLU(),nn.Conv2d(32, 64, kernel_size=3),nn.ReLU(),nn.Flatten(),nn.Linear(64 * 25 * 25, 10))def forward(self, x):return self.layers(x)# 損失函數(結合分類損失和蒸餾損失)
def distillation_loss(student_logits, teacher_logits, labels, temperature=2.0):# 分類損失ce_loss = nn.CrossEntropyLoss()(student_logits, labels)# 蒸餾損失(軟目標)student_softmax = nn.functional.softmax(student_logits / temperature, dim=1)teacher_softmax = nn.functional.softmax(teacher_logits / temperature, dim=1)kl_divergence = nn.KLDivLoss(reduction='batchmean')(student_softmax.log(), teacher_softmax)return ce_loss + (kl_divergence * temperature ** 2)# 數據加載器(假設已有數據集)
train_loader = DataLoader(dataset, batch_size=32, shuffle=True)# 初始化模型和優化器
teacher_model = TeacherModel()
student_model = StudentModel()
optimizer = torch.optim.Adam(student_model.parameters(), lr=0.001)# 訓練過程
for epoch in range(num_epochs):for images, labels in train_loader:# 前向傳播teacher_outputs = teacher_model(images)student_outputs = student_model(images)# 計算損失loss = distillation_loss(student_outputs, teacher_outputs, labels)# 反向傳播和優化optimizer.zero_grad()loss.backward()optimizer.step()print(f"Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}")# 測試學生模型
student_model.eval()
test_loader = DataLoader(test_dataset, batch_size=32)
correct = 0
total = 0with torch.no_grad():for images, labels in test_loader:outputs = student_model(images)_, predicted = torch.max(outputs.data, 1)total += labels.size(0)correct += (predicted == labels).sum().item()print(f"Accuracy of student model: {correct / total * 100:.2f}%")

二、模型剪枝(Model Pruning)

概念
剪枝是通過移除模型中不重要的參數或結構,來減少模型的復雜度和計算量。剪枝分為“結構化剪枝”(如通道剪枝)和“非結構化剪枝”。

實現示例

以下是一個簡單的通道剪枝實現示例(使用Keras):

import tensorflow as tf
from tensorflow.keras import layers, models# 加載預訓練模型
model = models.VGG16(weights='imagenet', include_top=False)# 添加全連接層
flatten_layer = layers.Flatten()
dense_layer1 = layers.Dense(4096, activation='relu')
dense_layer2 = layers.Dense(4096, activation='relu')
predictions = layers.Dense(1000, activation='softmax')model = models.Sequential([model,flatten_layer,dense_layer1,dense_layer2,predictions
])# 剪枝函數(通道剪枝)
def prune_channels(model):# 遍歷層,找到卷積層并剪枝for layer in model.layers:if isinstance(layer, layers.Conv2D):# 獲取權重和掩碼weights = layer.get_weights()[0]mask = tf.abs(weights) < 1e-3  # 剪枝閾值# 更新權重pruned_weights = weights * (1 - mask)layer.set_weights([pruned_weights] + layer.get_weights()[1:])return model# 應用剪枝
pruned_model = prune_channels(model)# 重新編譯模型并訓練
pruned_model.compile(optimizer='adam',loss=tf.keras.losses.CategoricalCrossentropy(),metrics=['accuracy']
)pruned_model.fit(train_dataset, epochs=10)

三、量化(Quantization)

概念
量化是通過將模型的浮點數權重壓縮為低精度表示(如8位整數),從而減少存儲空間和計算資源。

實現示例

以下是一個簡單的定點量化實現示例(使用PyTorch):

import torch
from torch.quantization import QuantWrapper, default_qconfig# 加載預訓練模型
model = MobileNetV2(pretrained=True)# 定義量化配置
qconfig = default_qconfig
quantized_model = QuantWrapper(model)
quantized_model.qconfig = qconfig# 量化準備和轉換
torch.utils.quantization.prepare(quantized_model, inplace=True)
torch.utils.quantization.convert(quantized_model, inplace=True)# 測試量化后的模型
test_loader = DataLoader(test_dataset, batch_size=32)
correct = 0
total = 0with torch.no_grad():for images, labels in test_loader:outputs = quantized_model(images)_, predicted = torch.max(outputs.data, 1)total += labels.size(0)correct += (predicted == labels).sum().item()print(f"Accuracy of quantized model: {correct / total * 100:.2f}%")

四、量化感知訓練(Quantization-Aware Training, QAT)

概念
QAT是在訓練過程中模擬量化帶來的精度損失,從而提高量化后模型的性能。

實現示例

以下是一個簡單的QAT實現示例(使用PyTorch):

import torch
from torch.quantization import QuantWrapper, default_qat_qconfig# 加載預訓練模型
model = MobileNetV2(pretrained=True)# 定義量化配置
qconfig = default_qat_qconfig
quantized_model = QuantWrapper(model)
quantized_model.qconfig = qconfig# 準備QAT
torch.utils.quantization.prepare_qat(quantized_model, inplace=True)# 定義優化器和損失函數
optimizer = torch.optim.Adam(quantized_model.parameters(), lr=0.001)
loss_fn = torch.nn.CrossEntropyLoss()# QAT訓練過程
for epoch in range(num_epochs):for images, labels in train_loader:# 前向傳播outputs = quantized_model(images)loss = loss_fn(outputs, labels)# 反向傳播和優化optimizer.zero_grad()loss.backward()optimizer.step()print(f"Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}")# 轉換為量化模型
torch.utils.quantization.convert(quantized_model, inplace=True)# 測試最終模型
test_loader = DataLoader(test_dataset, batch_size=32)
correct = 0
total = 0with torch.no_grad():for images, labels in test_loader:outputs = quantized_model(images)_, predicted = torch.max(outputs.data, 1)total += labels.size(0)correct += (predicted == labels).sum().item()print(f"Accuracy of QAT model: {correct / total * 100:.2f}%")

總結

通過以上方法,可以有效降低模型的計算復雜度和存儲需求,同時保持較高的性能。這些技術在移動設備部署、邊緣計算等領域具有重要意義。

DeepSeek生成的這篇文章,我也已經發表出來了,邀請大家觀摩:模型壓縮與量化:讓大模型走向輕量化落地。大家可以看下它的質量怎么樣?是不是非常棒!?

5. 注意事項

在這里插入圖片描述
購買成功就自動開機開機計時了,如果你購買的是按量計費,使用過程中要注意時長問題,不用的時候記得及時關機節省費用。

6. 總結與展望

本文主要為大家展示了如何基于藍耘云快速部署DeepSeek的步驟,最后又結合一個實際場景,演示了DeepSeek的妙用。希望能給大家帶來幫助。如果你也想體驗一下這個奇妙的過程,按照我這篇文章的教程,訪問https://cloud.lanyun.net//#/registerPage?promoterCode=0131實踐起來吧。

最近幾年,人工智能領域生成式AI一直在高速發展。通用領域的AI已經逐漸趨于飽和,包括DeepSeek在內。其實單從效果來說,DeepSeek也并沒有取得革命性的突破,它的創新更多的體現在降本上面。

關于DeepSeek的未來發展,從個人角度而言,希望可以參考Coze的路線,往AI智能體和AI應用的方向去發展,將DeepSeek的優勢最大化。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/bicheng/71385.shtml
繁體地址,請注明出處:http://hk.pswp.cn/bicheng/71385.shtml
英文地址,請注明出處:http://en.pswp.cn/bicheng/71385.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

DeepSeek部署到本地(解決ollama模型下載失敗問題)

一、下載ollama軟件安裝 1、下載ollama軟件 Ollama 下載完成后可以直接進行安裝&#xff08;外網&#xff0c;速度可能會有點慢&#xff09; 2、修改安裝目錄 進去下載的目錄&#xff0c;使用cmd打開終端輸入OllamaSetup.exe /DIRE:\MySoftware\Ollama 輸入完成后會自動打開…

GPT1 大模型

GPT1 大模型 模型架構訓練過程 GPT-1 : 采用傳統的語言模型方法進行預訓練&#xff0c;擅長處理自然語言生成任務&#xff08;NLG&#xff09;OpenAI 在 2018 年 6 月推出 1.17 億個參數的 GPT-1 (Generative Pre-training , 生成式預訓練) 數據集 : 數據來源 : BooksCorpus…

?1.HTML、CSS 和 JavaScript 是什么?

?? HTML、CSS 和 JavaScript 是構建網頁的三大核心技術&#xff0c;它們相互協作&#xff0c;讓網頁呈現出豐富的內容、精美的樣式和交互功能。以下為你詳細介紹&#xff1a; &#x1f98b;1. HTML&#xff08;超文本標記語言&#xff09; 定義&#xff1a;HTML 是一種用于描…

x86平臺基于Qt+opengl優化ffmpeg軟解碼1080P視頻渲染效率

一般的在arm嵌入式平臺&#xff0c;大多數板子都要硬解碼硬件渲染的框架&#xff0c;使用即可。 在x86下比較麻煩了。 優化的思路一共有以下幾個方面&#xff0c; 1. 軟解碼變成硬解碼 2. 將YUV轉QImage的操作轉移到GPU 3. QWidget渲染QImage變成opengGL渲染AVFrame 這三點…

ocr智能票據識別系統|自動化票據識別集成方案

在企業日常運營中&#xff0c;對大量票據實現數字化管理是一項耗時且容易出錯的任務。隨著技術的進步&#xff0c;OCR&#xff08;光學字符識別&#xff09;智能票據識別系統的出現為企業提供了一個高效、準確的解決方案&#xff0c;不僅簡化了財務流程&#xff0c;還大幅提升了…

docker批量pull/save/load/tag/push鏡像shell腳本

目錄 注意&#xff1a; 腳本內容 執行效果 注意&#xff1a; 以下腳本為shell腳本通過docker/nerdctl進行鏡像獨立打包鏡像的相關操作腳本內倉庫信息和鏡像存取路徑需自行更改需自行創建images.txt并填寫值&#xff0c;并且與腳本位于同級目錄下 [rootmaster01 sulibao]# l…

利用Java爬蟲精準獲取商品銷量詳情:實戰案例指南

在電商領域&#xff0c;商品銷量數據是衡量產品受歡迎程度和市場表現的關鍵指標。精準獲取商品銷量詳情不僅能幫助商家優化產品策略&#xff0c;還能為市場研究和數據分析提供豐富的數據資源。本文將詳細介紹如何利用Java爬蟲技術精準獲取商品銷量詳情&#xff0c;并分享關鍵技…

30 款 Windows 和 Mac 下的復制粘貼軟件對比

在日常電腦操作中&#xff0c;復制粘貼是極為高頻的操作&#xff0c;一款好用的復制粘貼軟件能極大提升工作效率。以下為你詳細介紹 30 款 Windows 和 Mac 下的復制粘貼軟件&#xff0c;并對比它們的優缺點&#xff0c;同時附上官網下載地址&#xff0c;方便大家獲取軟件。 Pa…

【Linux】Linux 文件系統——有關 inode 不足的案例

??大家好&#xff0c;我是練小杰&#xff0c;今天周二了&#xff0c;明天星期三&#xff0c;還有三天就是星期五了&#xff0c;堅持住啊各位&#xff01;&#xff01;&#xff01;&#x1f606; 本文是對之前Linux文件權限中的inode號進行實例討論&#xff0c;看到博客有錯誤…

WPF快速創建DeepSeek本地自己的客戶端-基礎思路版本

開發工具&#xff1a;VS 2015 開發環境&#xff1a;.Net 4.0 使用技術&#xff1a;WPF 本篇文章內容&#xff1a; 本地部署DeepSeek以后一般使用網頁工具&#xff08;如Chatbox&#xff09;或者DOS窗口與其對話。本篇文章使用WPF創建一個基礎版的對話工具。 一、搭建本地DeepS…

VSCode本地python包“無法解析導入”

問題現象 在使用 VSCode 編寫 Python 代碼時&#xff0c;雖然程序能正常運行&#xff0c;但遇到“無法解析導入”的問題&#xff0c;導致代碼無法高亮。 解決方法 配置 python.autoComplete.extraPaths 打開 VSCode 設置&#xff08;CtrlShiftP -> Preferences: Open Wo…

目標檢測IoU閾值全解析:YOLO/DETR模型中的精度-召回率博弈與工程實踐指南

一、技術原理與數學本質 IoU計算公式&#xff1a; IoU \frac{Area\ of\ Overlap}{Area\ of\ Union} \frac{A ∩ B}{A ∪ B}閾值選擇悖論&#xff1a; 高閾值&#xff08;0.6-0.75&#xff09;&#xff1a;減少誤檢&#xff08;FP↓&#xff09;但增加漏檢&#xff08;FN↑…

藍橋杯備考:二分算法之木材加工

P2440 木材加工 - 洛谷 這種題我們就是把答案枚舉出來&#xff0c;然后對答案進行二分&#xff0c;然后再進行判斷 比如我們這道題&#xff0c;我們枚舉切割的長度&#xff0c;然后由于切割長度越長切割段數越少 切割長度越短&#xff0c;切割段數越多的性質&#xff0c;我們…

Mongodb數據管理

Mongodb數據管理 1.登錄數據庫&#xff0c;查看默認的庫 [rootdb51~]# mongo> show databases; admin 0.000GB config 0.000GB local 0.000GB> use admin switched to db admin > show tables system.version > admin庫&#xff1a;admin 是 MongoDB 的管理…

QT基礎七、用純代碼編寫界面

終于迎來了界面開發的實戰環節&#xff01;今天我們將通過純代碼的方式&#xff0c;親手打造一個界面。如果你對 Qt 感興趣&#xff0c;歡迎訂閱我的 Qt 基礎入門專欄 &#xff08;完全免費哦&#xff09;。雖然前面幾篇文章主要是基礎知識講解&#xff0c;可能會顯得稍微平淡&…

我用AI做數據分析之數據清洗

我用AI做數據分析之數據清洗 AI與數據分析的融合效果怎樣&#xff1f; 這里描述自己在使用AI進行數據分析&#xff08;數據清洗&#xff09;過程中的幾個小故事&#xff1a; 1. 變量名的翻譯 有一個項目是某醫生自己收集的數據&#xff0c;變量名使用的是中文&#xff0c;分…

C++11 thread

文章目錄 C11 線程庫線程對象的構造方式無參的構造函數調用帶參的構造函數調用移動構造函數thread常用成員函數 this_thread命名空間join && detachmutex C11 線程庫 線程對象的構造方式 無參的構造函數 1、調用無參的構造函數,調用無參的構造函數創建出來的線程對象…

List<Map<String, Object>> 如何對某個字段求和

在Java中&#xff0c;如果你有一個List<Map<String, Object>>的結構&#xff0c;并且你想要對某個特定字段進行求和&#xff0c;你可以使用Java 8的Stream API來簡化這個過程。下面是一個示例代碼&#xff0c;演示如何對某個字段進行求和。 假設你有一個List<M…

Linux 固定 IP 地址和網關

Linux 固定 IP 地址和網關 查看 IP ifconfig ifconfig eth0 ip addr ip addr show eth0 查看網關 ip route show route -n netstat -rn 設置固定 IP // 配置靜態IP文件/etc/network/interfaces $ vi /etc/network/interfacesauto eth0 iface eth0 inet static addre…

移動通信發展史

概念解釋 第一代網絡通信 1G 第二代網絡通信 2G 第三代網絡通信 3G 第四代網絡通信 4G 4g網絡有很高的速率和很低的延時——高到500M的上傳和1G的下載 日常中的4G只是用到了4G技術 運營商 移動-從民企到國企 聯通-南方教育口有人 電信 鐵通&#xff1a;成立于 2000 年…