理解網站導航文件:robots.txt、sitemap.xml與LLMs.txt的全面解析

在當今數字化時代,網站不僅需要為人類用戶提供良好的瀏覽體驗,還需要考慮搜索引擎和人工智能系統的可訪問性。本文將深入探討三種關鍵的網站導航文件:傳統的robots.txt和sitemap.xml,以及新興的LLMs.txt,分析它們的功能、區別以及如何協同工作來優化網站的可見性和可訪問性。

引言:網站導航文件的重要性

隨著互聯網內容的爆炸式增長,網站所有者面臨著如何有效引導各類"讀者"(包括人類用戶、搜索引擎爬蟲和人工智能系統)訪問其內容的挑戰。傳統的robots.txt和sitemap.xml文件長期以來一直是SEO(搜索引擎優化)策略的核心組成部分,而新興的LLMs.txt則代表了面向人工智能時代的內容優化新范式。

這三種文件各司其職:

  • robots.txt:作為網站的"交通警察",指示搜索引擎爬蟲哪些內容可以訪問,哪些應該避開
  • sitemap.xml:作為網站的"地圖",為搜索引擎提供所有重要頁面的結構化列表
  • LLMs.txt:作為面向AI的"導游",專門為大語言模型優化網站內容的呈現方式

理解這三種文件的區別、功能及最佳實踐,對于現代網站建設者和內容創作者至關重要。下面我們將分別深入探討每種文件的技術細節、應用場景以及它們如何共同塑造網站的可發現性和可訪問性。

robots.txt:網站的訪問控制中心

基本概念與功能

robots.txt文件是放置在網站根目錄下的一個簡單文本文件,它作為網站與搜索引擎爬蟲之間的第一道溝通橋梁。這個文件的主要功能是指示網絡爬蟲(如Googlebot、Bingbot等)哪些部分可以抓取,哪些應該避免訪問。

從技術角度看,robots.txt遵循一種被稱為"機器人排除協議"(Robots Exclusion Protocol)的簡單標準。當搜索引擎爬蟲訪問一個網站時,它會首先檢查該網站的robots.txt文件,然后根據其中的指令決定如何繼續抓取網站內容。

典型結構與語法

一個基本的robots.txt文件結構通常包含以下元素:

User-agent: [指定適用的爬蟲名稱]
Disallow: [禁止訪問的路徑]
Allow: [允許訪問的路徑]
Sitemap: [站點地圖的URL]

例如:

User-agent: *
Disallow: /admin/
Disallow: /private/
Allow: /public/
Sitemap: https://www.example.com/sitemap.xml

在這個例子中:

  • User-agent: * 表示這些規則適用于所有爬蟲
  • Disallow: /admin/Disallow: /private/ 禁止爬蟲訪問/admin/和/private/目錄下的內容
  • Allow: /public/ 明確允許爬蟲訪問/public/目錄
  • Sitemap 指令提供了網站地圖的位置,幫助爬蟲更好地索引網站

動態生成robots.txt

現代網站常常采用動態生成robots.txt的方法,以確保文件內容與網站結構保持同步。以下是一個使用PHP動態生成robots.txt的示例:

<?php
// 動態生成robots.txt文件
header('Content-Type: text/plain');$disallowedPaths = ['/admin', '/login'];echo 'User-agent: *\n';
echo 'Disallow: /'; // 默認禁止所有路徑// 允許特定的路徑
foreach ($disallowedPaths as $path) {echo "\n";echo 'Allow: ' . $path;
}// 添加sitemap鏈接
echo "\n";
echo 'Sitemap: https://www.example.com/sitemap.xml';
?>

這種動態生成方法特別適合內容頻繁變化的網站,可以確保robots.txt始終反映最新的網站結構和訪問策略。

使用場景與最佳實踐

robots.txt文件在以下場景中特別有用:

  1. 保護敏感內容:阻止搜索引擎索引后臺管理頁面、用戶個人數據等敏感區域
  2. 優化爬蟲效率:避免爬蟲浪費資源在無SEO價值的頁面上(如搜索結果頁、過濾頁面等)
  3. 避免重復內容:防止不同URL但內容相似的頁面被同時索引,這可能影響搜索排名
  4. 減少服務器負載:限制爬蟲訪問頻率高但價值低的頁面,減輕服務器壓力

使用robots.txt時需要注意以下幾點:

  • robots.txt只是建議而非強制約束,惡意爬蟲可能完全忽略它
  • 禁止爬取不等于禁止索引 - 要完全阻止頁面出現在搜索結果中,需要使用meta標簽或HTTP頭
  • 過度限制可能導致網站內容無法被正確索引,影響SEO效果
  • 應定期審查和更新robots.txt,確保其與網站當前結構保持一致

robots.txt是網站與搜索引擎對話的第一步,但它只是網站可爬性管理的一部分。要全面優化搜索引擎的可訪問性,還需要結合sitemap.xml等工具。

sitemap.xml:網站的結構化地圖

基本概念與功能

sitemap.xml(站點地圖)是一個XML格式的文件,它列出了網站中所有重要的URL,并提供了關于每個URL的附加元數據,如最后修改時間、更改頻率和相對于其他頁面的重要性。

與robots.txt的"限制性"功能不同,sitemap.xml更側重于"引導"和"推薦",幫助搜索引擎發現和理解網站內容結構。特別是對于那些內部鏈接較少、新創建或頻繁更新的頁面,sitemap.xml可以確保它們不會被搜索引擎忽略。

典型結構與語法

一個標準的sitemap.xml文件遵循特定的XML架構,基本結構如下:

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"><url><loc>https://www.example.com/</loc><lastmod>2024-05-01</lastmod><changefreq>daily</changefreq><priority>1.0</priority></url><url><loc>https://www.example.com/about</loc><lastmod>2024-04-15</lastmod><changefreq>monthly</changefreq><priority>0.8</priority></url>
</urlset>

每個<url>元素包含以下子元素:

  • <loc>:頁面的完整URL(必需)
  • <lastmod>:最后修改日期(可選)
  • <changefreq>:內容變更頻率(可選,如always、hourly、daily、weekly等)
  • <priority>:相對于其他URL的重要性,0.0到1.0之間(可選)

動態生成sitemap.xml

對于內容頻繁更新的網站,動態生成sitemap.xml是更高效的做法。以下是一個使用PHP動態生成sitemap的示例:

<?php
// 動態生成sitemap.xml文件
header("Content-Type: application/xml");$urls = [['loc' => 'https://www.example.com/', 'lastmod' => date('c', strtotime('-1 day'))],['loc' => 'https://www.example.com/about', 'lastmod' => date('c', strtotime('-3 days'))],// 更多URL...
];echo '<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">';foreach ($urls as $url) {echo '
<url><loc>' . htmlspecialchars($url['loc']) . '</loc><lastmod>' . htmlspecialchars($url['lastmod']) . '</lastmod>
</url>';
}echo '</urlset>';
?>

這種動態生成方法可以從數據庫或內容管理系統中提取最新URL信息,確保sitemap始終反映網站當前狀態。

高級用法與變體

除了基本的URL集合外,sitemap還支持一些高級功能和變體:

  1. 分頁sitemap:對于大型網站,可以將sitemap分割成多個文件,然后創建一個sitemap索引文件
  2. 多媒體sitemap:包含圖片、視頻等多媒體內容的專門sitemap
  3. 新聞sitemap:針對新聞內容的特殊格式,幫助新聞網站更快被索引
  4. 移動sitemap:針對移動設備優化的頁面sitemap

使用場景與最佳實踐

sitemap.xml在以下情況下特別有價值:

  1. 大型網站:幫助搜索引擎發現那些可能被忽略的深層頁面
  2. 新網站:加速新內容的發現和索引過程
  3. 內容豐富的網站:如圖片庫、視頻網站等,可使用專門的sitemap類型
  4. AJAX/JavaScript密集型網站:幫助搜索引擎理解通過客戶端腳本生成的內容

創建高效sitemap的最佳實踐包括:

  • 僅包含規范的URL版本(避免重復內容問題)
  • 定期更新lastmod字段以反映內容變化
  • 保持sitemap大小合理(通常不超過50,000個URL或50MB未壓縮)
  • 通過robots.txt或搜索引擎控制臺提交sitemap
  • 監控搜索引擎對sitemap的處理情況,及時解決錯誤

sitemap.xml與robots.txt協同工作,共同構成了傳統搜索引擎優化的技術基礎。然而,隨著人工智能系統成為網絡內容的重要"消費者",一種新的標準——LLMs.txt正在興起,以滿足大語言模型的特殊需求。

LLMs.txt:面向AI時代的網站導航

誕生背景與必要性

隨著大型語言模型(LLMs)如ChatGPT、Claude等成為獲取信息的重要渠道,傳統的網站導航文件顯示出局限性。人工智能系統面臨兩個主要挑戰:

  1. 有限的上下文窗口:LLMs一次只能處理有限數量的文本,難以理解大型文檔站點的全貌
  2. HTML處理效率低:當AI系統直接處理HTML頁面時,會陷入導航元素、JavaScript、CSS等非必要信息的"泥潭",這些噪音減少了可用于實際內容的上下文空間

Answer.AI的聯合創始人Jeremy Howard率先提出了LLMs.txt標準,旨在解決這些技術挑戰。與針對搜索引擎爬蟲優化的傳統SEO技術不同,LLMs.txt專門針對LLM推理引擎進行優化,以一種AI能夠輕松理解的格式提供所需的準確信息。

基本概念與結構

LLMs.txt實際上由兩類文件構成:

  1. /llms.txt:簡化的文檔導航視圖,幫助AI系統快速理解站點結構
  2. /llms-full.txt:包含所有文檔的綜合文件,采用純凈的markdown格式

一個典型的/llms.txt文件結構如下:

# Project Name
> Brief project summaryAdditional context and important notes## Core Documentation
- [Quick Start](url): Description of the resource
- [API Reference](url): API documentation details## Optional
- [Additional Resources](url): Supplementary information

這種結構的特點包括:

  • 以H1標題開始項目名稱,后跟引用格式的摘要
  • 使用H2標題組織文檔部分
  • 清晰的超鏈接列表,可選擇添加描述性說明
  • 專門的"Optional"部分標記補充資源

而/llms-full.txt則包含完整的文檔內容,以下是一個來自Cursor文檔的示例片段:

# AI Review (Beta)AI Review is a feature that allows you to review your recent changes in your codebase to catch any potential bugs.<Frame><img src="https://mintlify.s3-us-west-1.amazonaws.com/cursor/images/advanced/review.png" alt="AI Review" />
</Frame>You can click into individual review items to see the full context in the editor, and chat with the AI to get more information.### Custom Review InstructionsIn order for AI Review to work in your favor, you can provide custom instructions for the AI to focus on. For example,
if you want the AI to focus on performance-related issues, you could put:####
focus on the performance of my code
####This way, AI Review will focus on the performance of your code when scanning through your changes.

技術特點與優勢

LLMs.txt代表了網絡架構演變的重要一步,將人工智能代理視為與人類用戶同等重要的一等公民。其主要技術特點包括:

  1. 結構化權限:作為AI訪問行為的藍圖,明確說明站點哪些部分對AI開放
  2. 透明度:通過清晰指令建立AI系統和人類訪問者之間的信任
  3. 面向未來:隨著AI驅動搜索成為常態,提前適應技術發展
  4. 內容優化:克服上下文窗口限制,刪除不必要標記和腳本
  5. 雙重視圖:既提供簡化導航(/llms.txt),又提供完整內容(/llms-full.txt)

與傳統標準的區別

LLMs.txt與robots.txt和sitemap.xml有本質區別:

特性robots.txtsitemap.xmlLLMs.txt
目標用戶搜索引擎爬蟲搜索引擎爬蟲LLM推理引擎
主要功能訪問控制URL列表內容理解優化
內容處理無幫助無幫助專門優化
格式純文本XMLMarkdown
解決痛點爬蟲行為管理內容發現上下文限制

sitemap.xml雖然列出了所有可索引頁面,但對內容處理沒有幫助,AI系統仍需解析復雜HTML。robots.txt指導爬蟲訪問,但同樣不提供內容理解支持。而LLMs.txt專門解決AI相關挑戰,幫助克服上下文窗口限制,刪除不必要標記,優化內容結構。

實際應用與工具生態

自2023年11月Mintlify在其文檔平臺添加LLMs.txt支持以來,這一標準迅速獲得行業認可。Anthropic、Cursor等公司很快跟進,社區也涌現了相關工具和資源:

  1. directory.llmstxt.cloud:索引LLM友好的技術文檔
  2. llmstxt.directory:另一個LLM友好文檔目錄
  3. 開源生成工具:如dotenvx開發者Mot創建的工具
  4. Firecrawl工具:Eric Ciarla開發的網站抓取和LLMs.txt生成工具

目前已有多種工具可幫助生成LLMs.txt文件:

  • Mintlify:自動為托管文檔生成/llms.txt和/llms-full.txt
  • llmstxt by dotenv:利用網站sitemap.xml生成llms.txt
  • llmstxt by Firecrawl:通過抓取網站內容生成LLMs.txt文件

使用場景與最佳實踐

LLMs.txt特別適用于以下場景:

  1. 技術文檔:幫助AI準確理解API和開發工具文檔
  2. 教育內容:使課程材料更易被AI系統消化
  3. 電子商務:優化產品信息的AI可讀性
  4. 個人專業資料:以AI友好方式展示專業背景

實施LLMs.txt的最佳實踐包括:

  • 保持嚴格的Markdown格式和結構要求
  • 核心內容與補充資源明確區分
  • 提供完整的markdown版本內容(/llms-full.txt)
  • 考慮在URL后附加.md創建平行markdown內容
  • 測試與主流AI系統的兼容性

值得注意的是,與搜索引擎主動抓取不同,當前LLM尚不會自動發現和索引LLMs.txt文件,需要手動向AI系統提供文件內容。這可以通過粘貼鏈接、復制文件內容或使用AI工具的文件上傳功能實現。

三者的協同與比較

功能互補性

robots.txt、sitemap.xml和LLMs.txt雖然各有側重,但在現代網站中能夠形成強大的協同效應:

  1. robots.txt:控制訪問權限,是網站與自動化代理的第一接觸點
  2. sitemap.xml:提供內容地圖,優化搜索引擎的發現效率
  3. LLMs.txt:增強內容理解,提升AI系統的信息處理質量

這三種文件共同構成了網站與不同"讀者"(人類、搜索引擎、AI系統)溝通的多層次接口,每種接口針對特定類型的"讀者"進行了優化。

技術對比

從技術角度看,這三種文件在多個維度上存在顯著差異:

維度robots.txtsitemap.xmlLLMs.txt
格式純文本XMLMarkdown
位置網站根目錄網站根目錄或指定位置網站根目錄
主要受眾搜索引擎爬蟲搜索引擎爬蟲大語言模型
創建方式手動或動態生成手動或動態生成手動、工具生成或動態轉換
更新頻率低頻(網站結構變化時)中高頻(內容變化時)中頻(內容結構調整時)
SEO影響間接(通過控制爬取)直接(影響索引)新興領域(影響AI生成答案質量)

協同工作流程

理想情況下,這三種文件可以形成一個高效的工作流程:

  1. 訪問控制層(robots.txt):首先定義哪些自動化代理可以訪問哪些區域
  2. 內容發現層(sitemap.xml):然后提供所有重要內容的清晰路線圖
  3. 內容理解層(LLMs.txt):最后優化關鍵內容的表示方式,便于AI處理

例如,一個技術文檔網站可能:

  • 使用robots.txt阻止爬蟲訪問后臺管理系統
  • 通過sitemap.xml確保所有API文檔頁面被搜索引擎發現
  • 利用LLMs.txt為AI助手提供簡潔明了的API參考結構

面向未來的內容策略

隨著AI系統成為網絡內容的重要消費者,網站所有者需要考慮更全面的內容策略:

  1. 人類可讀性:傳統的網站設計和內容創作原則
  2. 機器可讀性:SEO優化、結構化數據標記
  3. AI友好性:LLMs.txt、純凈內容版本、上下文優化

這種多維度的內容策略將確保網站在各種場景和平臺下都能有效傳遞信息,無論是通過傳統搜索引擎、社交媒體分享,還是AI助手的

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/pingmian/80297.shtml
繁體地址,請注明出處:http://hk.pswp.cn/pingmian/80297.shtml
英文地址,請注明出處:http://en.pswp.cn/pingmian/80297.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

leetcode 349. Intersection of Two Arrays

題目描述 題目限制0 < nums1[i], nums2[i] < 1000&#xff0c;所以可以開辟一個1001個元素的數組來做哈希表。 class Solution { public:vector<int> intersection(vector<int>& nums1, vector<int>& nums2) {vector<int> table(1001,0…

【軟件工程】軟件多缺陷定位方法總結

軟件多缺陷定位(Multi-Fault Localization)是軟件工程中的一個重要研究方向,旨在同時定位代碼中存在的多個缺陷(Bug)。由于多個缺陷可能相互干擾(如掩蓋錯誤行為),導致傳統單缺陷定位方法效果下降,因此需要針對多缺陷場景的特殊性設計方法。以下是常見的多缺陷定位方法…

【數據結構入門訓練DAY-30】數的劃分

文章目錄 前言一、題目二、解題思路結語 前言 本次訓練內容 訓練DFS。訓練解題思維。 一、題目 將整數n分成k份&#xff0c;且每份不能為空&#xff0c;任意兩份不能相同(不考慮順序)。 例如&#xff1a;n7&#xff0c;k3&#xff0c;下面三種分法被認為是相同的。 {1&a…

OpenCV進階操作:圖像直方圖、直方圖均衡化

文章目錄 一、圖像直方圖二、圖像直方圖的作用三、使用matplotlib方法繪制直方圖2.使用opencv的方法繪制直方圖&#xff08;劃分16個小的子亮度區間&#xff09;3、繪制彩色圖像的直方圖 四、直方圖均衡化1、繪制原圖的直方圖2、繪制經過直方圖均衡化后的圖片的直方圖3、自適應…

Open CASCADE學習|Geom2d_BezierCurve 類

概述 Open CASCADE 提供了幾何建模的強大工具集,其中 Geom2d_BezierCurve 類用于表示二維貝塞爾曲線。貝塞爾曲線在計算機圖形學和計算機輔助設計(CAD)中具有廣泛應用,本文將詳細介紹 Geom2d_BezierCurve 類及其使用方法。 貝塞爾曲線簡介 貝塞爾曲線是一種參數曲線,廣泛…

muduo源碼解析

1.對類進行禁止拷貝 class noncopyable {public:noncopyable(const noncopyable&) delete;void operator(const noncopyable&) delete;protected:noncopyable() default;~noncopyable() default; }; 2.日志 使用枚舉定義日志等級 enum LogLevel{TRACE,DEBUG,IN…

互聯網大廠Java面試實錄:Spring Boot與微服務架構在電商場景中的應用解析

&#x1f4aa;&#x1f3fb; 1. Python基礎專欄&#xff0c;基礎知識一網打盡&#xff0c;9.9元買不了吃虧&#xff0c;買不了上當。 Python從入門到精通 &#x1f601; 2. 畢業設計專欄&#xff0c;畢業季咱們不慌忙&#xff0c;幾百款畢業設計等你選。 ?? 3. Python爬蟲專欄…

關于匯編語言與程序設計——單總線溫度采集與顯示的應用

一、實驗要求 (1)握碼管的使用方式 (2)掌握DS18B20溫度傳感器的工作原理 (3)掌握單總線通信方式實現 MCU與DS18B20數據傳輸 二、設計思路 1.整體思路 通過編寫數碼管顯示程序和單總線溫度采集程序&#xff0c;結合溫度傳感報警&#xff0c;利用手指觸碰傳感器&#xff0c;當…

用html+js+css實現的戰略小游戲

效果圖: 兄弟們&#xff0c;話不多說&#xff0c;直接上代碼 <!DOCTYPE html> <html lang"zh-CN"> <head><meta charset"UTF-8"><meta name"viewport" content"widthdevice-width, initial-scale1.0">…

Navicat BI 數據分析功能上線 | 數據洞察新方法

Navicat 17.2 版本一經發布&#xff0c;便以 AI 助手賦能智能交互、Snowflake 支持拓展數據連接版圖、拓展對關系型、維度以及數據倉庫 2.0 建模方法的支持等新特性與功能抓住了用戶的目光&#xff0c;但其中一項低調且實用的更新 - 在 BI 數據預覽中深度集成數據分析工具&…

【ts】defineProps數組的類型聲明

第一種&#xff1a;使用Record<string, unknown> Record<string, unknown>表示一個對象&#xff0c;鍵是string類型&#xff0c;值是未知的 import { defineProps, PropType } from vue;const props defineProps({dataList: {type: Array as PropType<Record…

OpenCv實戰筆記(4)基于opencv實現ORB特征匹配檢測

一、原理作用 ORB 原理&#xff08;Oriented FAST and Rotated BRIEF&#xff09;&#xff1a; 特征點檢測&#xff1a;使用 FAST 算法檢測角點&#xff08;關鍵點&#xff09;。 方向計算&#xff1a;為每個關鍵點分配主方向&#xff0c;增強旋轉不變性。 特征描述&#xff1a…

Unreal 從入門到精通之VR常用操作

文章目錄 前言1.如何設置VRPawn視角的位置。2.如何播放視頻3.如何播放VR全景視頻。4.如何打開和關閉VR模式。前言 我們使用Unreal5 開發VR 項目的時候,會遇到很多常見問題。 比如: 1.如何設置VRPawn視角的位置。 2.如何播放視頻。 3.如何播放VR全景視頻。 4.如何打開和關閉V…

[論文閱讀]Deep Cross Network for Ad Click Predictions

摘要 特征工程是許多預測模型成功的關鍵。然而&#xff0c;這個過程是困難的&#xff0c;甚至需要手動特征工程或窮舉搜索。DNN能夠自動學習特征交互&#xff1b;然而&#xff0c;它們隱式地生成所有的交互&#xff0c;并且不一定有效地學習所有類型的交叉特征。在本文中&…

數據庫(MySQL)基礎

一、登錄數據庫 在linux系統中登錄數據庫的指令 mysql -h 127.48.0.236 -P 3306 -u root -p -h&#xff1a;填寫IP地址&#xff0c;指明要連接的主機。如果不加該字段表示本地主機-P&#xff1a;填寫端口號&#xff0c;指明進程。 如果不加該字段會使用默認的端口號。-u&…

遠程調試---在電腦上devtools調試運行在手機上的應用

1、啟動項目–以vite項目為例:先ipconfig查看ip地址 ,然后在vite中配置host為ip地址 2、手機上查看項目:保證手機和電腦在同一局域網, 在手機瀏覽器打開我們vite啟動的項目地址, 3、使用chii進行遠程調試 (1) 安裝 npm install chii -g (2)啟動 chii start -p 8080 (3)在…

【程序員AI入門:開發】11.從零構建智能問答引擎:LangChain + RAG 實戰手冊

1、技術選型 組件推薦方案說明文本嵌入模型sentence-transformers/all-MiniLM-L6-v2輕量級且效果較好的開源模型向量數據庫FAISS高效的本地向量檢索庫大語言模型GPT-3.5/開源LLM&#xff08;如ChatGLM3&#xff09;根據資源選擇云端或本地模型文檔處理框架LangChain簡化RAG流程…

【Linux基礎】文件查找和文本處理指令

目錄 grep命令 find命令 tar命令 head命令 tail命令 wc命令 tee命令 grep命令 作用&#xff1a;在文件中搜索匹配特定模式的文本行&#xff0c;并將結果輸出到標準輸出&#xff08;通常是終端&#xff09;。 基本用法&#xff1a; grep [選項] 搜索模式 [文件名] 常用…

云軸科技ZStack入選賽迪顧問2025AI Infra平臺市場發展報告代表廠商

DeepSeek憑借低成本、高性能、開源優勢帶來的蝴蝶效應依然在持續影響企業AI應用部署。尤其在數據安全備受關注的背景下&#xff0c;私有化部署已經成為企業應用AI大模型的優選方案。賽迪顧問在近期發布的《2025中國AI Infra平臺市場發展研究報告》中認為&#xff0c;在推理算力…

從零開始跑通3DGS教程:(四)修改(縮放、空間變換)colmap生成的sfm結果

寫在前面 本文內容 本文所屬《從零開始跑通3DGS教程》系列文章&#xff1b; 通過colmap進行的sfm的普通方式會丟失場景的物理尺度信息&#xff0c;并且并不在符合一般認知的坐標系下&#xff0c;本文將讀取colmap生成的點云和相機pose&#xff0c;將其進行空間變換和縮放之后&a…