大模型應用開發1-認識大模型

1.基礎概念

1.1 AI的概念:

AI,??智能(Artificial Intelligence),使機器能夠像?類?樣思考、學習和解決問題的技術。
AI發展?今?概可以分為三個階段:
其中,深度學習領域的自然語言處理(NLP)有一項關鍵技術叫Transformer,這是一種由多層感知機組成的神經網絡模型,我們所熟知的大模型,如GPT,DeepSeek底層都是采用Transformer。

1.2 神經網絡的基本概念

如果我們想通過模擬人腦的方式實現人工智能,首先就要模擬出一個神經元,于是人們提出感知機模型,用于模擬神經元,在感知機模型中,有輸入,權重,激活函數,假設輸入和激活函數都不變的情況下,我們可以通過調整權重值,得到不同輸出。

單個感知機模型只能模擬單個神經元,每個感知機上都有輸入,輸出,激活函數,將來會結合用戶的輸入和權重以及激活函數,再與閾值(偏置)比較,最終得到輸出,每個神經元上使用的權重和閾值都稱為參數,每個神經元上的參數數量=權重數量+1,這里的1指的是偏置。

大模型的大指參數規模,現在我們通常將參數規模在1000億以上的模型稱為大模型。

1.3?大模型的基本概念

最早Transformer是由Google在2017年提出的?種神經?絡模型,?開始的作?是把它作為機
器翻譯的核?:

Transformer中提出的注意力機制使得神經網絡在處理信息時可以根據上下文內容調整對于數據的理解,這使得我們可以將圖片,音頻等各種類型的數據都交給Transformer來處理
大語言模型(LLM)是對Transformer的另一種用法:推理預測。LLM在訓練Transformer時會輸入文本,圖片等各種信息,然后讓Transformer推理接下來跟著的應該是什么內容,推理的結果會以概率分布的形式出現。
在推理內容中,大模型可以持續生成大段有關聯的文字內容,每次生成都會把前文的推測內容再次交給大模型處理,進而繼續推斷下一次生成的內容。

2.大模型基本使用

2.1 模型使用方案

我們要使用一個可訪問的大模型通常有三種方案:

使用開放的API,在云平臺部署私有大模型,在本地服務器部署私有大模型

開放API沒有運維成本,按調用收費,但是長期使用成本較高且數據存在第三方,存在隱私和安全問題。云平臺部署私有模型部署和運維方便,前期投入成本低,但是長期使用成本高,且同樣存在安全問題。本地部署私有大模型數據完全自主掌控,安全性高,但硬件投入成本極高且維護困難。

2.2 Ollama本地部署

下載Ollama客戶端并根據指令進行模型部署等操作

一、基礎操作指令

指令功能示例
ollama run <模型名>運行指定模型(自動下載若不存在)ollama run llama3
ollama list查看本地已下載的模型列表ollama list
ollama pull <模型名>手動下載模型ollama pull mistral
ollama rm <模型名>刪除本地模型ollama rm llama2
ollama help查看幫助文檔ollama help

二、模型交互指令

1. 直接對話

ollama run llama3 "用中文寫一首關于秋天的詩"

2. 進入交互模式

ollama run llama3
# 進入后輸入內容,按 Ctrl+D 或輸入 `/bye` 退出

3. 從文件輸入

ollama run llama3 --file input.txt

4. 流式輸出控制

參數功能示例
--verbose顯示詳細日志ollama run llama3 --verbose
--nowordwrap禁用自動換行ollama run llama3 --nowordwrap

三、模型管理

1. 自定義模型配置(Modelfile)

創建 Modelfile 文件:

FROM llama3 ?# 基礎模型
PARAMETER temperature 0.7 ?# 控制隨機性(0-1)
PARAMETER num_ctx 4096 ? ? # 上下文長度
SYSTEM """ 你是一個嚴謹的學術助手,回答需引用論文來源。""" ? ? ? ? ? ? ? ?# 系統提示詞

構建自定義模型:

ollama create my-llama3 -f Modelfile
ollama run my-llama3

2. 查看模型信息

ollama show <模型名> --modelfile ?# 查看模型配置
ollama show <模型名> --parameters # 查看運行參數

四、高級功能

1. API 調用

啟動 API 服務

ollama serve

通過 HTTP 調用

curl http://localhost:11434/api/generate -d '{"model": "llama3","prompt": "你好","stream": false
}'

2. GPU 加速配置

# 指定顯存分配比例(50%)
ollama run llama3 --num-gpu 50

2.3 API調用大模型接口

目前大多數大模型都遵循OpenAI的接口規范,是給予http協議的接口,具體規范可查看相關大模型官方API文檔。

大模型接口規范:

這是DeepSeek官方文檔給出的調用示例:

# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
# 1.初始化OpenAI客?端,要指定兩個參數:api_key、base_url
client = OpenAI(api_key="<DeepSeek API Key>",
base_url="https://api.deepseek.com")
# 2.發送http請求到?模型,參數?較多
response = client.chat.completions.create(
model="deepseek-chat", # 2.1.選擇要訪問的模型
messages=[ # 2.2.發送給?模型的消息
{"role": "system", "content": "You are a helpful assistant"},
{"role": "user", "content": "Hello"},
],
stream=False # 2.3.是否以流式返回結果
)
print(response.choices[0].message.content)

接口說明:

請求路徑:與平臺有關

安全校驗:開放平臺提供API_KEY校驗權限,Ollama不需要

請求參數:

model(訪問模型名稱)

message(發送給大模型的消息,是一個數組)

stream(true代表響應結果流式返回,false代表響應結果一次性返回,但需要等待)

temperature(取值范圍[0,2),代表大模型生成結果的隨機性,值越小隨機性越低,deepseek-r1不支持此參數)

message數組中兩個屬性:role和content,通常,role有三種:

3.大模型應用

大模型應用是基于大模型的推理,分析,生成能力,結合傳統編程能力,開發出的各種應用。

大模型是基于數據驅動的概率推理,擅長處理模糊性和不確定性,如自然語言處理(文本翻譯),非結構化數據處理(醫學影像診斷),創造性內容生成(生成圖片),復雜模式預測(股票預測)等,而上述內容正式我們傳統應用所不擅長處理的部分,因此,可以將傳統編程和大模型整合起來,開發智能化的大模型應用。

大模型本身只是具備生成文本的能力,基本推理能力,我們平時使用的ChatGPT等對話產品除了生成和推理外,還有會話記憶,聯網等功能,這些是大模型本身所不具備的,是需要額外程序去完成的,也就是基于大模型的應用。

常見的一些大模型產品及其模型關系:

大模型對話產品公司地址
GPT-3.5、GPT-4oChatGPTOpenAIhttps://chatgpt.com/
Claude 4.0Claude AIAnthropicApp unavailable \ Anthropic
DeepSeek-R1DeepSeek深度求索DeepSeek | 深度求索
文心大模型 3.5文心一言百度文心一言
星火 3.5訊飛星火科大訊飛訊飛星火-懂我的AI助手
Qwen-Max通義千問阿里巴巴通義 - 你的實用AI助手
MoonshootKimi月之暗面Kimi - 會推理解析,能深度思考的AI助手
Yi-Large零一萬物零一萬物零一萬物-大模型開放平臺

大模型應用的常見領域:

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/pingmian/91325.shtml
繁體地址,請注明出處:http://hk.pswp.cn/pingmian/91325.shtml
英文地址,請注明出處:http://en.pswp.cn/pingmian/91325.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

Linux 遠程連接解析:SSH 協議理論與應用

Linux 遠程連接解析&#xff1a;SSH 協議理論與應用在網絡互聯的時代&#xff0c;遠程管理服務器已成為常態。SSH&#xff08;Secure Shell&#xff09;作為一種安全的網絡協議&#xff0c;憑借其加密機制和靈活的功能&#xff0c;成為 Linux 系統遠程操作的事實標準。本文將從…

ubuntu22.04系統入門 linux入門 簡單命令基礎復習 實現以及實踐

以下有免費的4090云主機提供ubuntu22.04系統的其他入門實踐操作 地址&#xff1a;星宇科技 | GPU服務器 高性能云主機 云服務器-登錄 相關兌換碼星宇社區---4090算力卡免費體驗、共享開發社區-CSDN博客 兌換碼要是過期了&#xff0c;可以私信我獲取最新兌換碼&#xff01;&a…

軟考中級-信息安全工程師-每日一學(1)

前提概要本文章主要用于分享軟考中級-信息安全工程師-學習&#xff0c;以下是一些個人理解&#xff0c;請大家結合參考其他文章中的相關信息及個人經驗進行歸納和補充&#xff0c;內容會存在一定錯誤&#xff0c;希望讀者多多評論批評&#xff0c;本人在此先說感謝啦。1.密碼學…

EEG手工特征提取總結

目錄一、引言EEG信號簡介EEG特征提取的重要性本次匯報目的與內容概述二、EEG信號核心特征時域特征 (Time-Domain Features)頻域特征 (Frequency-Domain Features)三、EEG信號高級特征時頻域特征 (Time-Frequency Domain Features)空間域特征 (Spatial-Domain Features)復雜動力…

React 路由守衛

下面&#xff0c;我們來系統的梳理關于 React Router 路由守衛 的基本知識點&#xff1a;一、路由守衛概述 1.1 什么是路由守衛 路由守衛是一種在用戶導航到特定路由之前或離開特定路由時執行邏輯的機制。它允許開發者控制用戶訪問權限、驗證條件或執行數據預加載等操作。 1.2 …

7月31日作業

1&#xff1a;請使用函數模板&#xff0c;寫一個能夠針對所有數據類型的數據的快速排序函數 并多寫幾個數組做測試代碼#include <iostream> #include <cstring> #include <cstdlib> #include <unistd.h> #include <sstream> #include <vector…

客戶服務自動化:如何用CRM減少50%人工工單?

通過CRM系統實現客戶服務自動化&#xff0c;企業可以顯著減少人工工單的數量&#xff0c;提升整體服務效率。那么如何利用CRM系統實現客戶服務自動化&#xff1f;幫助企業從根本上解決人工工單處理的難題&#xff0c;提升服務質量&#xff0c;優化資源配置&#xff0c;最終實現…

常用設計模式系列(十四)—模板方法模式

常用設計模式系列&#xff08;十四&#xff09;—模板方法模式 第一節 前言 之前我完成了創建型設計模式和結構型設計模式&#xff0c;我們今天將踏入設計模式的第三章&#xff1a;行為型設計模式&#xff0c;你是否還記得什么是行為型設計模式嗎&#xff1f;行為型模式&#x…

DoRA詳解:從LoRA到權重分解的進化

DoRA??是一種用于??大語言模型&#xff08;LLM&#xff09;微調??的技術&#xff0c;全稱為 ??"Weight-Decomposed Low-Rank Adaptation"??&#xff08;權重分解的低秩自適應&#xff09;。它是對現有微調方法&#xff08;如 ??LoRA??&#xff09;的改…

RocksDB關鍵設計詳解

0 說明 近日工作中使用了 RocksDB。RocksDB 的優點此處無需多說&#xff0c;它的一個 feature 是其有很多優化選項用于對 RocksDB 進行調優。欲熟悉這些參數&#xff0c;必須對其背后的原理有所了解&#xff0c;本文主要整理一些 RocksDB 的 wiki 文檔&#xff0c;以備自己參考…

Kotlin -> 普通Lambda vs 掛起Lambda

1. 普通Lambda vs 掛起Lambda的本質區別 1.1 普通Lambda&#xff08;同步執行&#xff09; val lambda: (Int) -> String { it.toString() }// 編譯器生成&#xff1a; class Lambda$1 : Function1<Int, String> {override fun invoke(p1: Int): String {return p1.t…

Apache Ignite 中如何配置和啟用各類監控指標

這段文檔是關于 Apache Ignite 中如何配置和啟用各類監控指標&#xff08;Metrics&#xff09; 的詳細說明。核心思想是&#xff1a;“指標收集有性能開銷&#xff0c;因此默認不開啟所有指標&#xff0c;需要你按需手動開啟。” 下面我們來逐層拆解、通俗易懂地理解這些內容。…

uniapp x swiper/image組件mode=“aspectFit“ 圖片有的閃現后黑屏

部分安卓機針對大寫.JPG 有的豎圖正常&#xff0c;橫圖/正方形不對。解決方案&#xff1a;加border-radius: 1rpx;就行<!-- 圖片預覽彈出框 --><fui-backdrop v-model:visible"imgPreviewVisible" :closable"true" onclick"imgPreviewVisibl…

conda安裝jupter

conda自帶的jupter本來在base里沒有在pytorch環境中 安裝jupter conda install nb_conda 此擴展程序在 Jupyter 文件瀏覽器中添加了一個 Conda 選項卡。選擇 Conda 選項卡將顯示&#xff1a; 當前存在的 Conda 環境列表當前配置的通道中可用的 Conda 包列表&#xff08;htt…

嵌入式操作系統快速入門(1):快速入門操作系統常見基礎概念

快速體會操作系統常見基礎概念 1 初識基本概念 1.1 操作系統 一個軟件程序&#xff1b;用于解決計算機多任務執行時的資源爭搶問題&#xff1b;管理計算機中的各種資源&#xff0c;確保計算機正常完成各種工作&#xff08;任務&#xff09;&#xff0c;解決多任務環境中任務的調…

網絡安全-同形異義字攻擊:眼見并非為實(附案例詳解)

什么是同形異義字攻擊&#xff1f;對人眼而言&#xff0c;一切看起來完全正常。但實際上&#xff0c;例如單詞 Ηоmоgraph 并不完全等同于單詞 Homograph。它們之間的差異非常細微&#xff0c;難以察覺。Ηоmоgraph 實際上包含了幾個非拉丁字母。在本例中&#xff0c;我們將…

windows服務器 maven 配置環境變量,驗證maven環境變量是否配置成功

前置條件&#xff1a;先確認對應版本的jdk已安裝配置好&#xff0c;可使用java -version檢測; 我使用的apache-maven-3.6.3是對應jdk1.8 1.找到系統變量配置窗口 以windows server2019為例&#xff0c;右鍵計算機屬性&#xff0c; 高級系統設置–》環境變量–》系統變量2.新建M…

安裝 docker compose v2版 筆記250731

安裝 docker compose v2版 筆記250731 簡述 v2版是插件形式 確認系統要求, 已安裝 Docker Engine&#xff08;版本 20.10.5 或更高&#xff09; 安裝方式可分為 apt 或 yum 安裝 (能自動升級) apt install docker-compose-pluginyum install docker-compose-plugin 手動二…

PHP 5.5 Action Management with Parameters (English Version)

PHP 5.5 Action Management with Parameters (English Version) Here’s a PHP 5.5 compatible script that uses URL parameters instead of paths for all operations: <?php // Start session for persistent storage session_start();// Initialize the stored actio…

GR-3(4B) 技術報告--2025.7.23--字節跳動 Seed

0. 前言 前兩天字節發布了GR-3&#xff0c;粗略的看了一下&#xff0c;在某些方面超過了SOTA pi0&#xff0c;雖然不開源&#xff0c;但是也可以來看一看。 官方項目頁 1. GR-3模型 1.1 背景 在機器人研究領域&#xff0c;一直以來的目標就是打造能夠幫助人類完成日常任務…