Scrapy框架之【settings.py文件】詳解

在這里插入圖片描述
settings.py 文件的主要作用是對 Scrapy 項目的全局設置進行集中管理。借助修改這個文件中的配置項,你可以對爬蟲的行為、性能、數據處理等方面進行靈活調整,而無需修改爬蟲代碼。

①默認英文注釋settings.py

# Scrapy settings for douban project
#
# For simplicity, this file contains only settings considered important or
# commonly used. You can find more settings consulting the documentation:
#
#     https://docs.scrapy.org/en/latest/topics/settings.html
#     https://docs.scrapy.org/en/latest/topics/downloader-middleware.html
#     https://docs.scrapy.org/en/latest/topics/spider-middleware.htmlBOT_NAME = "douban"SPIDER_MODULES = ["douban.spiders"]
NEWSPIDER_MODULE = "douban.spiders"# Crawl responsibly by identifying yourself (and your website) on the user-agent
#USER_AGENT = "douban (+http://www.yourdomain.com)"# Obey robots.txt rules
ROBOTSTXT_OBEY = True# Configure maximum concurrent requests performed by Scrapy (default: 16)
#CONCURRENT_REQUESTS = 32# Configure a delay for requests for the same website (default: 0)
# See https://docs.scrapy.org/en/latest/topics/settings.html#download-delay
# See also autothrottle settings and docs
#DOWNLOAD_DELAY = 3
# The download delay setting will honor only one of:
#CONCURRENT_REQUESTS_PER_DOMAIN = 16
#CONCURRENT_REQUESTS_PER_IP = 16# Disable cookies (enabled by default)
#COOKIES_ENABLED = False# Disable Telnet Console (enabled by default)
#TELNETCONSOLE_ENABLED = False# Override the default request headers:
#DEFAULT_REQUEST_HEADERS = {
#    "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8",
#    "Accept-Language": "en",
#}# Enable or disable spider middlewares
# See https://docs.scrapy.org/en/latest/topics/spider-middleware.html
#SPIDER_MIDDLEWARES = {
#    "douban.middlewares.doubanSpiderMiddleware": 543,
#}# Enable or disable downloader middlewares
# See https://docs.scrapy.org/en/latest/topics/downloader-middleware.html
#DOWNLOADER_MIDDLEWARES = {
#    "douban.middlewares.doubanDownloaderMiddleware": 543,
#}# Enable or disable extensions
# See https://docs.scrapy.org/en/latest/topics/extensions.html
#EXTENSIONS = {
#    "scrapy.extensions.telnet.TelnetConsole": None,
#}# Configure item pipelines
# See https://docs.scrapy.org/en/latest/topics/item-pipeline.html
#ITEM_PIPELINES = {
#    "douban.pipelines.doubanPipeline": 300,
#}# Enable and configure the AutoThrottle extension (disabled by default)
# See https://docs.scrapy.org/en/latest/topics/autothrottle.html
#AUTOTHROTTLE_ENABLED = True
# The initial download delay
#AUTOTHROTTLE_START_DELAY = 5
# The maximum download delay to be set in case of high latencies
#AUTOTHROTTLE_MAX_DELAY = 60
# The average number of requests Scrapy should be sending in parallel to
# each remote server
#AUTOTHROTTLE_TARGET_CONCURRENCY = 1.0
# Enable showing throttling stats for every response received:
#AUTOTHROTTLE_DEBUG = False# Enable and configure HTTP caching (disabled by default)
# See https://docs.scrapy.org/en/latest/topics/downloader-middleware.html#httpcache-middleware-settings
#HTTPCACHE_ENABLED = True
#HTTPCACHE_EXPIRATION_SECS = 0
#HTTPCACHE_DIR = "httpcache"
#HTTPCACHE_IGNORE_HTTP_CODES = []
#HTTPCACHE_STORAGE = "scrapy.extensions.httpcache.FilesystemCacheStorage"# Set settings whose default value is deprecated to a future-proof value
REQUEST_FINGERPRINTER_IMPLEMENTATION = "2.7"
TWISTED_REACTOR = "twisted.internet.asyncioreactor.AsyncioSelectorReactor"
FEED_EXPORT_ENCODING = "utf-8"

②中文注釋settings.py

# Scrapy 豆瓣項目的設置文件
# 為簡潔起見,本文件僅包含重要或常用的設置。
# 更多設置可參考官方文檔:
# https://docs.scrapy.org/en/latest/topics/settings.html
# https://docs.scrapy.org/en/latest/topics/downloader-middleware.html
# https://docs.scrapy.org/en/latest/topics/spider-middleware.html
# 項目名稱
BOT_NAME = "douban"# 蜘蛛模塊路徑
SPIDER_MODULES = ["douban.spiders"]
NEWSPIDER_MODULE = "douban.spiders"# 爬蟲身份標識(用戶代理)
#USER_AGENT = "douban (+http://www.yourdomain.com)"# 是否遵守robots.txt規則
ROBOTSTXT_OBEY = True# 配置Scrapy的最大并發請求數(默認:16)
#CONCURRENT_REQUESTS = 32# 配置對同一網站的請求延遲(默認:0)
# 參見 https://docs.scrapy.org/en/latest/topics/settings.html#download-delay
# 另見自動限速設置和文檔
#DOWNLOAD_DELAY = 3# 下載延遲設置將只采用以下一項:
#CONCURRENT_REQUESTS_PER_DOMAIN = 16
#CONCURRENT_REQUESTS_PER_IP = 16# 是否啟用Cookies(默認啟用)
#COOKIES_ENABLED = False# 是否啟用Telnet控制臺(默認啟用)
#TELNETCONSOLE_ENABLED = False# 覆蓋默認請求頭:
#DEFAULT_REQUEST_HEADERS = {
#    "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8",
#    "Accept-Language": "en",
#}# 啟用或禁用蜘蛛中間件
# 參見 https://docs.scrapy.org/en/latest/topics/spider-middleware.html
#SPIDER_MIDDLEWARES = {
#    "douban.middlewares.doubanSpiderMiddleware": 543,
#}# 啟用或禁用下載器中間件
# 參見 https://docs.scrapy.org/en/latest/topics/downloader-middleware.html
#DOWNLOADER_MIDDLEWARES = {
#    "douban.middlewares.doubanDownloaderMiddleware": 543,
#}# 啟用或禁用擴展
# 參見 https://docs.scrapy.org/en/latest/topics/extensions.html
#EXTENSIONS = {
#    "scrapy.extensions.telnet.TelnetConsole": None,
#}# 配置項目管道
# 參見 https://docs.scrapy.org/en/latest/topics/item-pipeline.html
#ITEM_PIPELINES = {
#    "douban.pipelines.doubanPipeline": 300,
#}# 啟用并配置AutoThrottle擴展(默認禁用)
# 參見 https://docs.scrapy.org/en/latest/topics/autothrottle.html
#AUTOTHROTTLE_ENABLED = True# 初始下載延遲
#AUTOTHROTTLE_START_DELAY = 5# 高延遲情況下的最大下載延遲
#AUTOTHROTTLE_MAX_DELAY = 60# Scrapy應向每個遠程服務器并行發送的平均請求數
#AUTOTHROTTLE_TARGET_CONCURRENCY = 1.0# 是否顯示每個接收到的響應的限速統計信息:
#AUTOTHROTTLE_DEBUG = False# 啟用并配置HTTP緩存(默認禁用)
# 參見 https://docs.scrapy.org/en/latest/topics/downloader-middleware.html#httpcache-middleware-settings
#HTTPCACHE_ENABLED = True
#HTTPCACHE_EXPIRATION_SECS = 0
#HTTPCACHE_DIR = "httpcache"
#HTTPCACHE_IGNORE_HTTP_CODES = []
#HTTPCACHE_STORAGE = "scrapy.extensions.httpcache.FilesystemCacheStorage"# 將已棄用默認值的設置設置為面向未來的值
REQUEST_FINGERPRINTER_IMPLEMENTATION = "2.7"
TWISTED_REACTOR = "twisted.internet.asyncioreactor.AsyncioSelectorReactor"
FEED_EXPORT_ENCODING = "utf-8"

1.基本項目設置

# 項目名稱
BOT_NAME = "douban"# 蜘蛛模塊路徑
SPIDER_MODULES = ["douban.spiders"]
NEWSPIDER_MODULE = "douban.spiders"
  • BOT_NAME:該項目爬蟲的名稱,此名稱會在日志和統計信息里體現。
  • SPIDER_MODULES:這是一個列表,其中包含了 Scrapy 要查找爬蟲的 Python 模塊。這里表明 Scrapy 會在 douban.spiders 模塊中搜尋爬蟲類。
  • NEWSPIDER_MODULE:當你運用 scrapy genspider 命令來創建新的爬蟲時,新爬蟲文件會被生成到 douban.spiders 模塊里。

2.用戶代理與 robots.txt 規則

# 爬蟲身份標識(用戶代理)
#USER_AGENT = "douban (+http://www.yourdomain.com)"# 是否遵守robots.txt規則
ROBOTSTXT_OBEY = True
  • USER_AGENT:注釋掉的這一行可用于設定爬蟲的用戶代理。用戶代理能讓服務器知曉請求是由何種客戶端發出的。你可將其設定為特定值,從而讓服務器識別你的爬蟲及其所屬網站。
  • ROBOTSTXT_OBEY:若設為 True,Scrapy 就會遵循目標網站的 robots.txt 文件規則。這意味著爬蟲會依據 robots.txt 里的規則來決定是否可以訪問某些頁面。

3.并發請求與下載延遲設置

# 配置Scrapy的最大并發請求數(默認:16)
#CONCURRENT_REQUESTS = 32# 配置對同一網站的請求延遲(默認:0)
# 參見 https://docs.scrapy.org/en/latest/topics/settings.html#download-delay
# 另見自動限速設置和文檔
#DOWNLOAD_DELAY = 3# 下載延遲設置將只采用以下一項:
#CONCURRENT_REQUESTS_PER_DOMAIN = 16
#CONCURRENT_REQUESTS_PER_IP = 16
  • CONCURRENT_REQUESTS:可設置 Scrapy 同時執行的最大請求數,默認值是 16。
    DOWNLOAD_DELAY:設置對同一網站的請求之間的延遲時間(單位為秒)。這有助于避免對目標網站造成過大壓力。
  • CONCURRENT_REQUESTS_PER_DOMAINCONCURRENT_REQUESTS_PER_IP:這兩個設置項只能啟用一個,用于限制對同一域名或同一 IP 地址的并發請求數。

4.Cookies 與 Telnet 控制臺設置

# 是否啟用Cookies(默認啟用)
#COOKIES_ENABLED = False# 是否啟用Telnet控制臺(默認啟用)
#TELNETCONSOLE_ENABLED = False
  • COOKIES_ENABLED:若設為 False,Scrapy 就不會處理 cookies。默認情況下,Scrapy 會啟用 cookies 處理。
  • TELNETCONSOLE_ENABLED:若設為 False,則會禁用 Telnet 控制臺。默認情況下,Scrapy 會啟用 Telnet 控制臺,借助該控制臺你能在爬蟲運行時與其交互。
  • COOKIES_DEBUG :若設為 True,啟用 Cookies 調試模式。Scrapy 會在日志中輸出詳細的 Cookies 相關信息,包括請求中發送的 Cookies 以及響應中收到的 Cookies。默認是禁用Cookies 調試模式

5.默認請求頭設置

# 覆蓋默認請求頭:
#DEFAULT_REQUEST_HEADERS = {
#    "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8",
#    "Accept-Language": "en",
#}
  • DEFAULT_REQUEST_HEADERS:可用于覆蓋默認的請求頭。這里給出了一個示例,設置了 AcceptAccept-Language 請求頭。

6.中間件設置

# 啟用或禁用蜘蛛中間件
# 參見 https://docs.scrapy.org/en/latest/topics/spider-middleware.html
#SPIDER_MIDDLEWARES = {
#    "douban.middlewares.doubanSpiderMiddleware": 543,
#}# 啟用或禁用下載器中間件
# 參見 https://docs.scrapy.org/en/latest/topics/downloader-middleware.html
#DOWNLOADER_MIDDLEWARES = {
#    "douban.middlewares.doubanDownloaderMiddleware": 543,
#}
  • SPIDER_MIDDLEWARES:用于啟用或禁用爬蟲中間件。中間件是在爬蟲處理請求和響應時執行的組件。數字 543 代表中間件的優先級,數值越小優先級越高。
  • DOWNLOADER_MIDDLEWARES:用于啟用或禁用下載器中間件。下載器中間件會在下載請求和響應時發揮作用。

7.擴展設置

# 啟用或禁用擴展
# 參見 https://docs.scrapy.org/en/latest/topics/extensions.html
#EXTENSIONS = {
#    "scrapy.extensions.telnet.TelnetConsole": None,
#}
  • EXTENSIONS:用于啟用或禁用 Scrapy 的擴展。擴展是能增強 Scrapy 功能的組件。這里的示例是禁用 Telnet 控制臺擴展。

8.項目管道設置

# 配置項目管道
# 參見 https://docs.scrapy.org/en/latest/topics/item-pipeline.html
#ITEM_PIPELINES = {
#    "douban.pipelines.doubanPipeline": 300,
#}
  • ITEM_PIPELINES:用于配置項目管道。項目管道是在爬蟲提取到數據后對數據進行處理的組件,例如數據清洗、存儲等。數字 300 代表管道的優先級,數值越小優先級越高。

9.自動節流擴展設置

# 啟用并配置AutoThrottle擴展(默認禁用)
# 參見 https://docs.scrapy.org/en/latest/topics/autothrottle.html
#AUTOTHROTTLE_ENABLED = True# 初始下載延遲
#AUTOTHROTTLE_START_DELAY = 5# 高延遲情況下的最大下載延遲
#AUTOTHROTTLE_MAX_DELAY = 60# Scrapy應向每個遠程服務器并行發送的平均請求數
#AUTOTHROTTLE_TARGET_CONCURRENCY = 1.0# 是否顯示每個接收到的響應的限速統計信息:
#AUTOTHROTTLE_DEBUG = False
  • AUTOTHROTTLE_ENABLED:若設為 True,則啟用自動節流擴展。該擴展會依據目標網站的響應時間自動調整請求的延遲。
  • AUTOTHROTTLE_START_DELAY:初始的下載延遲時間(單位為秒)。
  • AUTOTHROTTLE_MAX_DELAY:在高延遲情況下允許的最大下載延遲時間(單位為秒)。
  • AUTOTHROTTLE_TARGET_CONCURRENCY:Scrapy 向每個遠程服務器并行發送請求的平均數量。
  • AUTOTHROTTLE_DEBUG:若設為 True,則會在每次收到響應時顯示節流統計信息。

10.HTTP 緩存設置

# 啟用并配置HTTP緩存(默認禁用)
# 參見 https://docs.scrapy.org/en/latest/topics/downloader-middleware.html#httpcache-middleware-settings
#HTTPCACHE_ENABLED = True
#HTTPCACHE_EXPIRATION_SECS = 0
#HTTPCACHE_DIR = "httpcache"
#HTTPCACHE_IGNORE_HTTP_CODES = []
#HTTPCACHE_STORAGE = "scrapy.extensions.httpcache.FilesystemCacheStorage"
  • HTTPCACHE_ENABLED:若設為 True,則啟用 HTTP 緩存。
  • HTTPCACHE_EXPIRATION_SECS:緩存的過期時間(單位為秒)。設為 0 表示緩存永不過期。
  • HTTPCACHE_DIR:緩存文件的存儲目錄。
  • HTTPCACHE_IGNORE_HTTP_CODES:一個列表,包含需要忽略緩存的 HTTP 狀態碼。
  • HTTPCACHE_STORAGE:指定緩存的存儲方式,這里使用的是文件系統緩存存儲。

11.其他設置

# 將已棄用默認值的設置設置為面向未來的值
REQUEST_FINGERPRINTER_IMPLEMENTATION = "2.7"
TWISTED_REACTOR = "twisted.internet.asyncioreactor.AsyncioSelectorReactor"
FEED_EXPORT_ENCODING = "utf-8"
  • REQUEST_FINGERPRINTER_IMPLEMENTATION:設置請求指紋的實現版本,"2.7" 是為了保證未來兼容性。
  • TWISTED_REACTOR:指定 Twisted 事件循環的實現,這里使用AsyncioSelectorReactor 以支持異步 I/O。
  • FEED_EXPORT_ENCODING:設置數據導出時的編碼格式為 UTF-8

③其他常用settings.py配置

1.日志相關配置

# 日志級別,可選值有 'DEBUG', 'INFO', 'WARNING', 'ERROR', 'CRITICAL'
LOG_LEVEL = 'DEBUG'
# 日志文件路徑,若設置則日志會輸出到該文件,而非控制臺
LOG_FILE = 'scrapy.log'
  • LOG_LEVEL:借助設定不同的日志級別,你能夠控制 Scrapy 輸出的日志詳細程度。比如,DEBUG 會輸出最詳盡的日志信息,而 CRITICAL 僅輸出關鍵錯誤信息。
  • LOG_FILE:把日志保存到指定文件,便于后續查看和分析。

2.下載超時與重試配置

# 下載超時時間(秒)
DOWNLOAD_TIMEOUT = 180
# 重試次數
RETRY_TIMES = 3
# 需要重試的 HTTP 狀態碼
RETRY_HTTP_CODES = [500, 502, 503, 504, 408]
  • DOWNLOAD_TIMEOUT:若請求在規定時間內未得到響應,就會被判定為超時。
  • RETRY_TIMES:請求失敗時的重試次數。
  • RETRY_HTTP_CODES:遇到這些 HTTP 狀態碼時,Scrapy 會對請求進行重試。

3.代理配置

# 設置代理服務器
HTTP_PROXY = 'http://proxy.example.com:8080'
HTTPS_PROXY = 'http://proxy.example.com:8080'

4.數據存儲配置

# 導出數據的格式,如 'json', 'csv', 'xml' 等
FEED_FORMAT = 'json'
# 導出數據的文件路徑
FEED_URI = 'output.json'

5.調度器相關配置

# 調度器隊列類型,'priority' 為優先級隊列
SCHEDULER_DISK_QUEUE = 'scrapy.squeues.PickleFifoDiskQueue'
SCHEDULER_MEMORY_QUEUE = 'scrapy.squeues.FifoMemoryQueue'
  • SCHEDULER_DISK_QUEUESCHEDULER_MEMORY_QUEUE:分別設置調度器的磁盤隊列和內存隊列類型。

6.爬蟲并發配置

# 每個域名的并發請求數
CONCURRENT_REQUESTS_PER_DOMAIN = 8
# 每個 IP 的并發請求數
CONCURRENT_REQUESTS_PER_IP = 8

7.下載器中間件配置

# 隨機更換 User-Agent 的中間件
DOWNLOADER_MIDDLEWARES = {'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None,'scrapy_fake_useragent.middleware.RandomUserAgentMiddleware': 400,
}
  • scrapy.downloadermiddlewares.useragent.UserAgentMiddleware
    這是 Scrapy 框架內置的下載器中間件,它的主要功能是處理請求時的 User-Agent 頭。不過,它的功能相對基礎,一般只能設置單一的 User-Agent 或者從一個簡單的列表里隨機選擇 User-Agent。在上述配置里,將其值設為 None 意味著禁用這個默認的中間件。

  • scrapy_fake_useragent.middleware.RandomUserAgentMiddleware
    此中間件來自于第三方庫 scrapy-fake-useragent。這個庫的作用是在爬取過程中隨機選取不同的 User-Agent 來模擬不同的客戶端,從而降低被目標網站識別為爬蟲的可能性。 pip install scrapy-fake-useragent安裝

8.深度限制配置

# 最大爬取深度
DEPTH_LIMIT = 3
# 深度優先級,值越大表示深度優先
DEPTH_PRIORITY = 1
  • DEPTH_LIMIT:限制爬蟲的最大爬取深度,避免爬取過深導致數據量過大。
  • DEPTH_PRIORITY:設置深度優先的優先級,值越大越傾向于深度優先爬取。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/bicheng/79563.shtml
繁體地址,請注明出處:http://hk.pswp.cn/bicheng/79563.shtml
英文地址,請注明出處:http://en.pswp.cn/bicheng/79563.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

Java變量學習筆記

Java變量 -為什么需要變量? 一個程序就是一個世界 變量是程序的基本組成單位 不論是使用哪種高級程序語言編寫程序,變量都是其程序的基本組成單位,比如: //變量有三個基本要素(類型名稱值) class Test{public static void main(String [largs){int a1;…

數據結構*隊列

隊列 什么是隊列 是一種線性的數據結構,和棧不同,隊列遵循“先進先出”的原則。如下圖所示: 在集合框架中我們可以看到LinkedList類繼承了Queue類(隊列)。 普通隊列(Queue) Queue中的方法 …

Nginx — 防盜鏈配置

防盜鏈簡述 防盜鏈是一種保護網絡資源所有者權益的技術手段,旨在防止未經授權的用戶或網站通過直接鏈接的方式盜用資源,以下是關于防盜鏈的簡述: 原理 基于請求頭驗證:服務器通過檢查請求頭中的特定字段,如Referer字…

【淺學】Windows下ffmpeg+nginx+flv將本地視頻推流在本地搭建的Web前端頁面中播放,超詳細步驟

Nginx安裝和配置 下載nginx-1.19.3-http-flv 模塊預編譯包并解壓放在d盤,路徑就跟安裝步驟里說的一樣(如下圖),不然會有其他問題出現。 打開conf/nginx.conf,查看RTMP和http相關的配置,確認端口號和路由名稱 ffpemg推流視頻…

Ubuntu-tomcat安裝部署

https://blog.csdn.net/weixin_43877427/article/details/144697087 Linux下Tomcat安裝與配置_tomcat linux安裝及配置教程-CSDN博客 一、下載Tomcat 1、官網下載 進入后根據自己需要選擇不同的版本,點擊download 進入后,在下圖標注的里邊選擇要下載…

希洛激活器策略思路

在復雜多變的外匯市場中,交易者常常尋求有效的工具來輔助決策。 希洛激活器作為一種綜合性的技術指標,結合了江恩理論、CCI(商品通道指數)和MACD(移動平均收斂發散指標),旨在為交易者提供更為全…

n8n工作流自動化平臺的實操:本地化高級部署

一、本地高級部署 1.下載 docker pull docker.n8n.io/n8nio/n8n 2.運行 docker volume create n8n_data docker run -dit --name n8n -p 5678:5678 -v n8n_data:/home/node/.n8n -e N8N_SECURE_COOKIEfalse -e N8N_RUNNERS_ENABLEDtrue -e N8N_ENFORCE_SETTINGS_FIL…

vector和string的迭代器

1. 迭代器的本質 (1) 標準要求 C 標準要求 std::string 和 std::vector 的迭代器必須是 隨機訪問迭代器(Random Access Iterator)。 指針天然滿足隨機訪問迭代器的所有操作(如 、--、n、* 等),因此可以直接用指針實現…

PyCharm代理配置全攻略:系統設置+Python運行環境一鍵搞定

文章目錄 1. 設置系統代理1.1 作用范圍1.2 使用場景1.3 設置步驟 2. 設置 python 運行/調試代理2.1 作用范圍2.2 使用場景2.3 設置步驟 Pycharm 工具作為一款強大的 IDE,其代理配置在實際開發中也是必不可少的,下面介紹下如何配置 Pycharm 的代理。 1. …

stm32 g031g8 flash擦除函數被坑

先記錄一下在擦除的時候由于調用了這個FLASH_PageErase(FLASH_BANK_1, secpos); 導致擦除不成功,寫入失敗。 下面的擦除有問題// 使用 FLASH_PageErase 擦除該頁while ((FLASH->SR & FLASH_SR_BSY1) ! 0); // 等待空閑FLASH_PageErase(FLASH_BANK_1, secpo…

深度學習與 PyTorch 基礎

筆記 1 深度學習簡介 1.1 深度學習概念 深度學習是機器學習的一類算法, 以人工神經網絡為結構, 可以實現自動提取特征 深度學習核心思想是人工神經網絡為結構, 自動提取特征 1.2 深度學習特點 自動提取特征 解釋性差 大量數據和高性能計算能力 非線性轉換(引入非線性因…

【Unity】XLua訪問C#文件

創建NPC.cs: public class NPC { public string name; public int age; public void Say() { Debug.Log("Say:我是未被修改的"); } public static void Say() { Debug.Log("Static Say:我是未被修改的"); } public void Say2(int a) { Debug.Lo…

【第十六屆藍橋杯省賽】比賽心得與經驗分享(PythonA 組)

文章目錄 一、我的成績二、我的備賽經歷三、如何備賽(個人觀點)1. 基礎語法2. 數據結構3. 算法4. 數學 四、做題技巧與注意事項五、我的題解試題A 偏藍 🏆100%試題B IPV6 🏆0%試題C 2025圖形 🏆100%試題D 最大數字 &am…

基于Springboot+Mysql的校園博客系統(含LW+PPT+源碼+系統演示視頻+安裝說明)

系統功能 管理員功能:首頁、個人中心、博主管理、文章分類管理、文章信息管理、舉報投訴管理、系統管理;博主功能:首頁、個人中心、文章信息管理、舉報投訴管理、我的收藏管理;前臺首頁功能:首頁、文章信息、系統公告…

第三次作業(密碼學)

#include <stdio.h> #include <stdlib.h> // 計算最大公約數 int gcd(int a, int b) { while (b ! 0) { int temp b; b a % b; a temp; } return a; } // 計算模冪運算 int mod_pow(int base, int exponent, int modulus) { …

3.0/Q1,Charls最新文章解讀

文章題目&#xff1a;Association between outdoor artificial light at night and metabolic diseases in middle-aged to older adults-the CHARLS survey DOI&#xff1a;10.3389/fpubh.2025.1515597 中文標題&#xff1a;夜間戶外人工光與中老年人代謝性疾病的關聯-CHARLS調…

MATLAB 中zerophase函數——零相位響應

零相位響應&#xff08;Zero-Phase Response&#xff09;是指濾波器的幅度函數&#xff0c;但相位為零。濾波器的相位響應為零&#xff0c;意味著不同頻率的信號通過濾波器后&#xff0c;其相位不發生任何變化&#xff0c;即信號的波形在時間軸上沒有偏移。 零相位響應指的是當…

馬克思最基本的哲學思想--改造世界以實現人的自由全面發展--deepseek

馬克思的哲學思想可以概括為“改造世界以實現人的自由全面發展”&#xff0c;這句話看似簡單&#xff0c;卻包含了其哲學的核心邏輯。我們可以從三個層面展開分析&#xff1a; 1. “改造世界”——實踐是哲學的終極使命 馬克思在《關于費爾巴哈的提綱》中寫道&#xff1a; “哲…

JAVA學習-練習試用Java實現“一個簡單的文本摘要系統 :基于關鍵詞提取或句子摘要”

問題&#xff1a; java語言編輯&#xff0c;實現一個簡單的文本摘要系統 &#xff1a;基于關鍵詞提取或句子摘要。 解答思路&#xff1a; 實現一個簡單的文本摘要系統&#xff0c;我們可以采用基于關鍵詞提取的方法。以下是一個簡單的Java實現&#xff0c;使用TF-IDF&#xff0…

案例解析:基于量子計算的分子對接-QDOCK(Quantum Docking)

分子對接&#xff08;Moleculardocking&#xff09;在藥物發現中具有重要意義&#xff0c;但對接的計算速度和準確率始終難以平衡&#xff0c;其巨大解搜索空間對傳統計算機來說異常艱巨。 本文通過引入網格點匹配&#xff08;GPM, Grind point matching&#xff09;和特征原子…