智譜AI大模型免費開放:開啟AI創作新時代

文章摘要:近日,國內領先的人工智能公司智譜AI宣布旗下多款大模型服務免費開放,這一舉措標志著大模型技術正式邁入普惠階段。本文將詳細介紹智譜AI此次開放的GLM-4 等大模型,涵蓋其主要功能、技術特點、使用步驟以及應用場景,幫助廣大開發者和愛好者快速上手,體驗大模型的強大能力,并探討其對未來AI發展的深遠影響。

一、主要內容:

1. 智譜AI與大模型技術

智譜AI作為國內人工智能領域的領軍企業,一直致力于認知智能大模型的研發。大模型,即大型語言模型(Large Language Model,LLM),是近年來人工智能領域的重要突破。通過海量數據的訓練,大模型能夠理解和生成自然語言,具備強大的語言理解和生成能力,在文本創作、信息歸納、問答對話等方面展現出驚人的表現。

2. 此次開放的大模型:GLM-4

此次智譜AI免費開放的大模型中,最引人注目的當屬最新的GLM-4。GLM-4 是基于 GLM-3 架構的升級版本,擁有更強大的語言理解和生成能力,在多個領域都取得了顯著的進步。

  • 更廣泛的知識儲備:?GLM-4 接收了截至 2023 年底的海量數據訓練,擁有更廣泛的知識儲備,能夠就更多話題進行深入交流。

  • 更強的邏輯推理能力:?GLM-4 在邏輯推理方面進行了專項優化,能夠更好地理解復雜問題,并給出更具邏輯性的回答。

  • 更流暢的自然語言生成:?GLM-4 生成的文本更加流暢自然,更符合人類的表達習慣,能夠勝任各種文本創作任務。

  • 更精準的代碼生成能力:?GLM-4 內置了代碼生成模塊,能夠根據自然語言描述生成多種編程語言的代碼,為開發者提供強大的輔助。

3. 其他開放的大模型

除了 GLM-4 之外,智譜AI還開放了其他幾款大模型,包括:

  • GLM-3 :作為 GLM-4 的前代模型,GLM-3 也在眾多領域有著廣泛的應用。它具備較強的語言理解與生成能力,經過海量數據訓練,在文本創作、問答對話等場景中能夠生成邏輯連貫、內容豐富的文本,為眾多開發者和企業提供了基礎的語言模型支持,助力各種語言相關的應用開發。

  • ChatGLM :專注于對話場景的模型,在對話理解與生成方面表現出色,能夠實現自然流暢的人機對話交互。無論是日常閑聊還是特定領域的問答咨詢,ChatGLM 都能給予恰到好處的回應,為打造智能客服、聊天機器人等應用提供了強大的核心引擎,有效提升對話系統的智能性和用戶體驗。

  • CodeGeeX:?專注于代碼生成的大模型,能夠根據自然語言描述生成多種編程語言的代碼,并支持代碼補全、代碼翻譯等功能。

  • GLM-4-Flash-250414語言模型是 智譜AI 首個免費的大模型 API,它在實時網頁檢索、長上下文處理、多語言支持等方面表現出色,適用于智能問答、摘要生成和文本數據處理等多種應用場景。這是基于 GLM-4 進行了特定優化的版本,可能在某些特定功能或性能方面有所增強或調整,以更好地滿足特定用戶群體或業務場景的需求,進一步拓展了 GLM 模型的應用范圍和靈活性。

  • GLM-4-Flash-250414功能特色:

  • 超長上下文:模型具備 128K 上下文,單次提示詞可以處理的文本長度相當于 300?頁書籍。這樣的能力使得 GLM-4-Flash -250414 能夠更好地理解和處理長文本內容,適用于需要深入分析上下文的場景。

  • 多語言支持:GLM-4-Flash-250414 擁有強大的多語言支持能力,能夠支持多達 26 種語言。這為全球用戶提供了多語言交互服務,拓寬了模型的應用范圍。

  • 網頁檢索:支持外部工具調用,通過網絡搜索獲取信息,以增強語言模型輸出的質量和時效性。

4.Cogview-3-Flash介紹

4.1 CogView-3-Flash是什么

CogView-3-Flash是智譜AI推出的免費圖像生成模型,能夠根據用戶指令生成符合要求且美學評分更高的圖像。CogView-3-Flash主要應用于藝術創作、設計參考、游戲開發、虛擬現實等領域,幫助用戶快速實現從文本到圖像的轉換需求。

4.2 功能特色

  • 多分辨率支持:該模型支持多種分辨率,包括1024x1024、768x1344、864x1152、1344x768、1152x864、1440x720、720x1440等,能夠滿足專業設計、廣告宣傳、藝術創作等領域對圖像質量的高標準要求。

  • 創意豐富多樣:模型能夠根據用戶輸入的文本描述,生成具有豐富創意和想象力的圖像,為創意工作者提供了廣泛的靈感來源和創作可能性。

  • 推理速度快:該模型具備實時生成圖像的能力,響應速度快,能夠迅速滿足用戶對圖像生成的需求。

4.3 應用場景

智譜AI大模型的免費開放,將為各行各業帶來巨大的應用價值。以下是一些典型的應用場景:

  • 內容創作:?利用大模型進行文章寫作、劇本創作、詩歌創作等,可以大大提高創作效率和質量。

  • 智能客服:?將大模型應用于智能客服系統,可以提供更智能、更人性化的服務體驗。

  • 教育輔助:?利用大模型開發智能教育工具,可以為學生提供個性化的學習輔導和答疑解惑。

  • 代碼開發:?大模型可以幫助開發者快速生成代碼,提高開發效率,并減少代碼錯誤。

  • 信息歸納:?大模型可以對海量信息進行自動歸納總結,提煉關鍵信息,幫助用戶快速獲取所需知識。

5.CogVideoX-Flash介紹

5.1 CogVideoX-Flash是什么

CogVideoX-Flash是智譜 AI 推出的免費的視頻生成模型,繼承CogVideoX自研的端到端視頻理解模型,具備強大的視頻生成能力。CogVideoX-Flash不僅支持文生視頻,依據輸入的文本描述精準地生成相應的動態視頻內容;還支持圖生視頻,能夠對輸入的圖片進行深度解析,提取圖片中的關鍵信息、元素特征及潛在語義,以此為基礎進行創意性的視頻延伸與拓展,極大豐富視頻創作的素材來源與創意路徑,滿足用戶多樣化的視頻創作需求。

5.2 新特性

  • 沉浸式AI音效:全新加入的AI音效功能,通過對不同場景元素的精準識別,如動作類型、場景氛圍、物體特征等,智能生成適配的音效組合,為觀眾帶來專業級的視聽融合體驗。

  • 4K高清畫質呈現:圖生視頻功能支持多種分辨率輸出,最高可達 3840x2160(4K)超高清標準,同時涵蓋 720x480、1024x1024、1280x960、960x1280、1920x1080、1080x1920、2048x1080 等常用分辨率選項,展現細膩畫質,提升視覺盛宴。

  • 10 秒視頻時長拓展:圖生視頻最高支持10秒視頻長度,滿足更多場景需求。

  • 60fps 高幀率輸出:圖生視頻最高支持60fps,流暢度大幅提升,捕捉每一個精彩瞬間。

6.GLM-Z1-Flash介紹

6.1 GLM-Z1-Flash是什么

GLM-Z1-Flash 模型是智譜首個永久免費調用的推理模型,它在數學邏輯推理、長文檔處理、代碼生成等場景表現十分出色。相較于基座模型,推理模型在回答問題前會像人類一樣進行更長時間的“思考”,不斷驗證和糾錯,更適用于編程、數學、科學等任務。

6.2 功能特色

  • 復雜任務推理:GLM-Z1-Flash 引入了更多推理類數據,并在對齊階段深度優化了通用能力。無論是數學證明中的逐步推導、長文檔中的因果分析,還是代碼生成時的邊界條件檢查,模型均能拆分任務層級,確保最終輸出的嚴謹性,為更多復雜任務的解決提供了支持。

  • 輕量級應用:GLM-Z1-Flash 解放了開發者在推理模型部署硬件方面的限制,更輕量級、更高速,完全免費調用,同時支持高并發場景下的穩定服務,實現高性能和高性價比的雙重突破。

    Description

二、使用步驟:

想要體驗智譜AI大模型的強大能力,只需按照以下步驟操作:

1. 注冊賬號:

訪問智譜AI官網(https://open.bigmodel.cn/),注冊并登錄智譜AI開發者平臺。

2. 獲取API密鑰:

登錄開發者平臺后,在“個人中心”頁面獲取API密鑰(API Key)和API秘鑰(Secret Key)。請妥善保管密鑰信息,避免泄露。

3. 選擇模型:

在開發者平臺中選擇需要使用的大模型,例如 GLM-4、ChatGLM、GLM-4-Flash-250414、CogView-3-Flash、 CogVideoX-Flash、GLM-Z1-Flash等。

4. 調用API:

根據所選模型的API文檔,使用Python、Java等編程語言調用API,將輸入數據發送到智譜AI的服務器,并接收返回的結果。

以Python調用GLM-4 API為例:

python

import requestsimport json?url = "https://open.bigmodel.cn/api/v1/models/glm-4/invoke"?payload = json.dumps({  "prompt": "請寫一篇關于人工智能的議論文",  "max_tokens": 500,  "temperature": 0.7,  "top_p": 0.9})headers = {  'Content-Type': 'application/json',  'Authorization': 'Bearer YOUR_API_KEY'}?response = requests.request("POST", url, headers=headers, data=payload)?print(response.text)?

5. 處理結果:

將返回的結果進行解析和處理,例如將生成的文本顯示在界面上,或者將結果用于后續的業務邏輯。

需要注意的是,在調用 API 過程中,可能會遇到一些問題,如網絡連接錯誤、請求超時、返回結果不符合預期等。以下是一些常見的解決方法:

  • 網絡連接問題 :檢查本地網絡連接是否正常,確保能夠穩定地訪問互聯網。如果是網絡不穩定導致的問題,可以嘗試切換網絡環境或者使用代理服務器來改善網絡連接情況。

  • 請求超時 :可能是由于服務器繁忙或者請求參數設置不合理導致的。可以嘗試增加請求的超時時間設置,或者優化請求參數,減少不必要的數據傳輸,提高請求的效率和響應速度。

  • 返回結果問題 :如果返回的結果不符合預期,首先要檢查請求參數是否正確設置,是否符合模型的要求和規范。其次,可以參考智譜 AI 提供的 API 文檔中的示例和說明,對返回結果進行詳細的解析和分析,找出問題所在并進行相應的調整和優化。

三、相關案例分享

以下是三個代碼案例及解釋:

案例一:調用GLM-4模型生成文本

Python

import requests
import jsonurl = "https://open.bigmodel.cn/api/v1/models/glm-4/invoke"payload = json.dumps({"prompt": "請寫一篇關于人工智能的議論文","max_tokens": 500,"temperature": 0.7,"top_p": 0.9
})
headers = {'Content-Type': 'application/json','Authorization': 'Bearer YOUR_API_KEY'
}response = requests.request("POST", url, headers=headers, data=payload)print(response.text)
代碼解釋
  • 第1-4行:導入所需的 requestsjson 庫,并定義要發送請求的API地址(即GLM-4模型的調用接口)。

  • 第6-11行:構造請求的負載(payload),即向GLM-4模型傳遞的參數。prompt參數用于指定要生成文本的提示,比如這里要求模型寫一篇關于人工智能的議論文;max_tokens參數用于設置生成文本的最大長度,這里設為500;temperature參數用于控制生成文本的隨機性程度,0.7是一個比較合理的值;top_p參數用于進一步控制文本生成的多樣性。

  • 第12-15行:設置請求頭(headers),指定內容類型為JSON格式,并攜帶認證信息(API密鑰)。

  • 第17行:使用 requests.request 方法向智譜AI的服務器發送POST請求,將構造好的payload和headers傳遞進去。

  • 第19行:打印服務器返回的結果,即GLM-4模型生成的關于人工智能的議論文。

案例二:調用CogView-3-Flash模型生成圖像

Python

import requests
import jsonurl = "https://open.bigmodel.cn/api/v1/models/cogview-3-flash/invoke"payload = json.dumps({"prompt": "一只在森林中漫步的可愛小狐貍,陽光透過樹葉灑在地上,畫面充滿童話氛圍","max_length": 512,"width": 512,"height": 512
})
headers = {'Content-Type': 'application/json','Authorization': 'Bearer YOUR_API_KEY'
}response = requests.post(url, headers=headers, data=payload)with open("generated_image.png", "wb") as f:f.write(response.content)
代碼解釋
  • 第1-3行:導入所需的 requestsjson 庫,并定義要發送請求的API地址(即CogView-3-Flash模型的調用接口)。

  • 第5-10行:構造請求的負載(payload),即向CogView-3-Flash模型傳遞的參數。prompt參數用于描述想要生成的圖像內容,這里描述的是一幅充滿童話氛圍的小狐貍在森林中漫步的畫面;max_length參數用于設置生成圖像的最大長度,這里設為512;widthheight參數分別用于指定生成圖像的寬度和高度,這里都設為512。

  • 第11-14行:設置請求頭(headers),指定內容類型為JSON格式,并攜帶認證信息(API密鑰)。

  • 第16行:使用 requests.post 方法向智譜AI的服務器發送POST請求,將構造好的payload和headers傳遞進去。

  • 第18-20行:將服務器返回的二進制圖像數據寫入本地文件(generated_image.png),保存生成的圖像。

案例三:調用CogVideoX-Flash模型生成視頻

Python

import requests
import jsonurl = "https://open.bigmodel.cn/api/v1/models/cogvideox-flash/invoke"payload = json.dumps({"prompt": "一個美麗的海灘日落場景,海浪輕輕拍打著沙灘,天空被染成橙紅色","max_length": 10,"width": 512,"height": 512,"mode": "text_to_video"
})
headers = {'Content-Type': 'application/json','Authorization': 'Bearer YOUR_API_KEY'
}response = requests.post(url, headers=headers, data=payload)with open("generated_video.mp4", "wb") as f:f.write(response.content)
代碼解釋
  • 第1-3行:導入所需的 requestsjson 庫,并定義要發送請求的API地址(即CogVideoX-Flash模型的調用接口)。

  • 第5-12行:構造請求的負載(payload),即向CogVideoX-Flash模型傳遞的參數。prompt參數用于描述想要生成的視頻內容,這里描述的是一個美麗的海灘日落場景;max_length參數用于設置生成視頻的最大長度,這里設為10秒;widthheight參數分別用于指定生成視頻的寬度和高度,這里都設為512;mode參數用于指定視頻生成模式,這里設為"text_to_video"表示根據文本描述生成視頻。

  • 第13-16行:設置請求頭(headers),指定內容類型為JSON格式,并攜帶認證信息(API密鑰)。

  • 第18行:使用 requests.post 方法向智譜AI的服務器發送POST請求,將構造好的payload和headers傳遞進去。

  • 第20-22行:將服務器返回的二進制視頻數據寫入本地文件(generated_video.mp4),保存生成的視頻。

在實際應用中,你需要將代碼中的YOUR_API_KEY替換為你實際獲取到的API密鑰。

四、總結:

1.文章總結

智譜AI大模型的免費開放,是人工智能發展史上的一次重要里程碑。它將大模型技術帶入千家萬戶,讓更多的人能夠體驗到人工智能的強大魅力。GLM-4等大模型的開放,將為各行各業帶來巨大的應用價值,推動人工智能技術的普及和發展。

未來,隨著大模型技術的不斷進步和應用場景的不斷拓展,人工智能將更加深入地融入我們的生活,為我們創造更加美好的未來。作為一名專業技術人員,我們應該積極擁抱大模型技術,不斷學習和探索,利用大模型的力量解決實際問題,為社會進步貢獻力量。

2.展望未來

智譜AI大模型的免費開放僅僅是一個開始。未來,智譜AI將繼續加大研發投入,不斷提升大模型的性能和能力,并探索更多創新的應用場景。同時,智譜AI也將積極推動大模型技術的開源開放,與廣大開發者共同構建開放共贏的人工智能生態。

相信在不久的將來,大模型技術將像水電一樣成為社會的基礎設施,為各行各業賦能,推動人類社會邁向更加智能、更加美好的未來!

3. 相關文章推薦

以下是根據文章內容整理的 10 個關鍵字解釋以及相關文章推薦:

  1. 智譜 AI 智譜 AI 是國內人工智能領域的領軍企業,致力于認知智能大模型的研發,推出多款具有國際競爭力的大模型及應用解決方案,推動人工智能技術在各行業的普及與發展。其智譜大模型開放平臺 bigmodel.cn 部署了智譜大模型全家桶,包括具備視覺和智能體能力的 GLM-4/4V 等,能為不同用戶提供沉浸式體驗。智譜AI發布新一代基座大模型GLM-4

  2. 大模型 通過海量數據訓練的大型語言模型(LLM),能理解和生成自然語言,在文本創作、信息歸納、問答對話等方面表現出色。智譜 AI 的大模型如 GLM-4 等在多個領域取得顯著進步,為各行業帶來巨大應用價值。智譜AI攜大模型開放平臺亮相2024世界人工智能大會

  3. GLM-4 智譜 AI 免費開放的最新大模型,基于 GLM-3 架構升級,擁有更強語言理解和生成能力,性能逼近 GPT-4,支持更長上下文、具備更強多模態能力,推理速度更快,支持更高并發,可大大降低推理成本。智譜AI發布新一代基座大模型GLM-4

  4. GLM-3 GLM-4 的前代模型,在文本創作、問答對話等場景中可生成邏輯連貫、內容豐富的文本,為眾多開發者和企業提供基礎語言模型支持。智譜 AI 的 GLM-3 等模型構成其大模型家族的重要基礎,助力各種語言相關應用開發。智譜AI發布新一代基座大模型GLM-4

  5. ChatGLM 專注于對話場景的模型,在對話理解與生成方面表現出色,可實現自然流暢的人機對話交互,適用于智能客服、聊天機器人等應用。智譜 AI 的 ChatGLM 為打造智能對話系統提供了強大的核心引擎,有效提升對話系統的智能性和用戶體驗。智譜AI發布新一代基座大模型GLM-4

  6. GLM-4-Flash-250414 基于 GLM-4 優化的版本,在特定功能或性能方面增強,拓展 GLM 模型的應用范圍和靈活性。智譜 AI 的 GLM-4-Flash 等模型針對不同應用場景進行了優化,能更好地滿足特定用戶群體或業務場景的需求。智譜AI發布新一代基座大模型GLM-4

  7. CogView-3-Flash 智譜 AI 推出的首個免費 AI 圖像生成模型,能根據文本描述生成高審美分數圖像,支持多種分辨率,廣泛應用于廣告、設計、藝術創作等領域。其具備快速推理能力,可實時生成圖像,迅速響應用戶需求。https://ai-bot.cn/cogview-3-flash/

  8. CogVideoX-Flash 智譜 AI 推出的免費視頻生成模型,支持文生視頻和圖生視頻,滿足用戶多樣化視頻創作需求。智譜 AI 的 CogVideoX-Flash 繼承自研的端到端視頻理解模型,具備強大的視頻生成能力,為視頻創作帶來新的創意和可能性。還能這么玩,國產免費大模型全家桶就是強!完全免費...

  9. GLM-Z1-Flash 智譜首個永久免費調用的推理模型,在數學邏輯推理、長文檔處理、代碼生成等場景表現出色,更適用于編程、數學、科學等任務。其在推理過程中會像人類一樣進行更長時間的 “思考”,不斷驗證和糾錯。智譜AI發布新一代基座大模型GLM-4

  10. API 調用 開發者通過智譜 AI 開放平臺獲取 API 密鑰后,使用編程語言調用 API,將輸入數據發送到智譜 AI 服務器并接收結果,從而使用大模型的能力。智譜 AI 提供的 API 文檔詳細說明了各模型的調用方法和參數設置,方便開發者快速接入和使用大模型。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/diannao/79482.shtml
繁體地址,請注明出處:http://hk.pswp.cn/diannao/79482.shtml
英文地址,請注明出處:http://en.pswp.cn/diannao/79482.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

JMeter中設置HTTPS請求

在JMeter中設置HTTPS請求,你可以按照以下步驟進行操作: 步驟一:添加線程組 打開JMeter后,右鍵點擊“測試計劃”,選擇“添加” -> “線程(用戶)” -> “線程組”。線程組用于定義虛擬用戶…

線程池七個參數的含義

Java中的線程池里七個參數的以及其各自的含義 面試題:說一下線程池七個參數的含義? 所謂的線程池的 7 大參數是指,在使用 ThreadPoolExecutor 創建線程池時所設置的 7 個參數,如以下源碼所示: public ThreadPoolExe…

【最后203篇系列】028 FastAPI的后臺任務處理

說明 今天偶然在別的文章里看到這個功能,突然覺得正好。 CeleryWorker已經搭好了,但是我一直想在用戶請求時進行額外的處理會比較影響處理時間,用這個正好可以搭配上。 我設想的一個場景: 1 用戶發起請求2 接口中進行關鍵信息…

uboot下讀取ubifs分區的方法

在uboot 的defconfig中增加以下內容: CONFIG_MTDIDS_DEFAULT"nand0nand0" CONFIG_MTDPARTS_DEFAULT"mtdpartsnand0:1M(boot1),1M(boot2),1M(hwinfo),6M(kernel1),6M(kernel2),56M(rootfs1),56M(rootfs2),-(ubi2)" CONFIG_CMD_UBIy 其中&#x…

圖+文+語音一體化:多模態合成數據集構建的實戰與方法論

目錄 圖文語音一體化:多模態合成數據集構建的實戰與方法論 一、多模態合成數據的核心價值 二、系統架構概覽 三、核心模塊與實現建議 ? 1. 文→圖:圖像合成(Text-to-Image) ? 2. 圖→文:自動描述(I…

linux驅動之poll

驅動中 poll 實現 在用戶空間實現事件操作的一個主要實現是調用 select/poll/epoll 函數。那么在驅動中怎么來實現 poll 的底層呢? 其實在內核的 struct file_operations 結構體中有一個 poll 成員,其就是底層實現的接口函數。 驅動中 poll 函數實現原…

第八篇:系統分析師第三遍——3、4章

目錄 一、目標二、計劃三、完成情況四、意外之喜(最少2點)1.計劃內的明確認知和思想的提升標志2.計劃外的具體事情提升內容和標志 五、總結 一、目標 通過參加考試,訓練學習能力,而非單純以拿證為目的。 1.在復習過程中,訓練快速閱讀能力、掌…

C++17 新特性簡解

C17 新特性簡解 一、核心語言特性 1. 結構化綁定&#xff08;Structured Bindings&#xff09; 用途&#xff1a;解構復合類型&#xff08;如元組、結構體&#xff09;為獨立變量 示例&#xff1a; #include <iostream> #include <tuple>int main() {// 解構 st…

PHP使用pandoc把markdown文件轉為word

文章目錄 首先安裝pandocPHP處理 服務器操作系統是Linux&#xff0c;centos 首先安裝pandoc yum install -y pandoc安裝完成后輸入如下代碼&#xff0c;檢查安裝是否成功 pandoc --versionPHP處理 我把markdown內容存到了數據庫里&#xff0c;所以要從數據庫讀取內容。對內容…

【Python學習筆記】Pandas實現Excel質檢記錄表初審、復核及質檢統計

背景&#xff1a; 我有這樣一個需要審核的飛書題目表&#xff0c;按日期分成多個sheet&#xff0c;有初審——復核——質檢三個環節&#xff0c;這三個環節是不同的同學在作業&#xff0c;并且領到同一個題目的人選是隨機的&#xff0c;也就是說&#xff0c;完成一道題的三個人…

守護進程編程、GDB調試以及外網連接樹莓派

目錄 一、什么是守護進程以及如何創建守護進程1. 什么是守護進程&#xff1f;2. 如何創建守護進程&#xff1f; 二、什么是GDB調試以及如何用GDB命令調試C程序1. 什么是GDB&#xff1f;2. 如何用GDB命令調試C程序&#xff1f; 三、外網訪問樹莓派 一、什么是守護進程以及如何創…

Logisim數字邏輯實訓——計數器設計與應用

4位遞增計數器 六進制計數器 十進制計數器 六十進制計數器 二十四進制計數器 計時器

發現“橫”字手寫有難度,對比兩個“橫”字

我發現手寫體“橫”字“好看”程度&#xff0c;難以比得上印刷體&#xff1a; 兩個從方正簡體啟體來的“橫”字&#xff1a; 哪個更好看&#xff1f;我是傾向于左邊一點。 <div style"transform: rotate(180deg); display: inline-block;"> 左邊是我從方正簡…

ubuntu 向右拖動窗口后消失了、找不到了

這是目前單顯示器的設置&#xff0c;因為實際只有1個顯示器&#xff0c;之前的設置如下圖所示&#xff0c;有2個顯示器&#xff0c;一個主顯示器&#xff0c;一個23寸的顯示器 ubuntu 22.04 系統 今天在操作窗口時&#xff0c;向右一滑&#xff0c;發現這個窗口再也不顯示了、找…

專精特新政策推動,B端UI設計如何賦能中小企業創新發展?

在當前數字化轉型浪潮下&#xff0c;專精特新政策為中小企業提供了強大的支持&#xff0c;助力其在細分領域實現專業化、精細化、特色化和創新化發展。B端UI設計作為提升企業數字化產品用戶體驗和工作效率的重要手段&#xff0c;能夠有效賦能中小企業創新發展。本文將探討專精特…

梯度下降代碼

整體流程 數據預處理:標準化->加一列全為1的偏置項 訓練:梯度下降,將數學公式轉換成代碼 預測 模型代碼 import numpy as np# 標準化函數&#xff1a;對特征做均值-方差標準化 # 返回標準化后的特征、新數據的均值和標準差&#xff0c;用于后續預測def standard(feats…

RAG 實戰|用 StarRocks + DeepSeek 構建智能問答與企業知識庫

文章作者&#xff1a; 石強&#xff0c;鏡舟科技解決方案架構師 趙恒&#xff0c;StarRocks TSC Member &#x1f449; 加入 StarRocks x AI 技術討論社區 https://mp.weixin.qq.com/s/61WKxjHiB-pIwdItbRPnPA RAG 和向量索引簡介 RAG&#xff08;Retrieval-Augmented Gen…

從零開始學A2A一:A2A 協議的高級應用與優化

A2A 協議的高級應用與優化 學習目標 掌握 A2A 高級功能 理解多用戶支持機制掌握長期任務管理方法學習服務性能優化技巧 理解與 MCP 的差異 分析多智能體場景下的優勢掌握不同場景的選擇策略 第一部分&#xff1a;多用戶支持機制 1. 用戶隔離架構 #mermaid-svg-Awx5UVYtqOF…

【C++】入門基礎【上】

目錄 一、C的發展歷史二、C學習書籍推薦三、C的第一個程序1、命名空間namespace2、命名空間的使用3、頭文件<iostream>是干什么的&#xff1f; 個人主頁<—請點擊 C專欄<—請點擊 一、C的發展歷史 C的起源可以追溯到1979年&#xff0c;當時Bjarne Stroustrup(本…

1panel第三方應用商店(本地商店)配置和使用

文章目錄 引言資源網站實戰操作說明 引言 1Panel 提供了一個應用提交開發環境&#xff0c;開發者可以通過提交應用的方式將自己的應用推送到 1Panel 的應用商店中&#xff0c;供其他用戶使用。由此衍生了一種本地應用商店的概念&#xff0c;用戶可以自行編寫應用配置并上傳到自…