Spark面試題及詳細答案100道(71-80)-- 配置與部署

前后端面試題》專欄集合了前后端各個知識模塊的面試題,包括html,javascript,css,vue,react,java,Openlayers,leaflet,cesium,mapboxGL,threejs,nodejs,mangoDB,SQL,Linux… 。

前后端面試題-專欄總目錄

在這里插入圖片描述

文章目錄

  • 一、本文面試題目錄
      • 71. Spark standalone模式的部署步驟是什么?
      • 72. 如何在YARN上部署Spark?需要配置哪些關鍵參數?
      • 73. Spark on YARN的`client`模式和`cluster`模式有什么區別?
      • 74. Spark的`spark-env.sh`和`spark-defaults.conf`配置文件的作用是什么?
      • 75. 如何設置Spark應用程序的名稱、資源(內存、核數)等參數?
      • 76. 什么是Spark的歷史服務器(History Server)?如何配置和使用?
      • 77. Spark與Hadoop的兼容性如何?需要注意哪些配置?
      • 78. 如何在Spark中集成Hive?
      • 79. 如何在Spark中配置日志級別?
      • 80. Spark應用程序提交的命令(`spark-submit`)的常用參數有哪些?
  • 二、100道Spark面試題目錄列表

一、本文面試題目錄

71. Spark standalone模式的部署步驟是什么?

Spark standalone模式是Spark自帶的集群部署模式,適用于小規模集群,部署步驟如下:

  1. 環境準備

    • 所有節點安裝Java(JDK 8+),配置JAVA_HOME
    • 下載Spark二進制包(如spark-3.4.0-bin-hadoop3.tgz),解壓到所有節點的相同路徑(如/opt/spark)。
    • 配置SSH免密登錄(Master節點可無密碼登錄所有Worker節點)。
  2. 配置Master節點

    • 修改$SPARK_HOME/conf/slaves(或workers,Spark 2.0+),添加所有Worker節點的主機名或IP:
      worker1
      worker2
      worker3
      
    • (可選)修改spark-env.sh,配置Master端口和內存:
      export SPARK_MASTER_HOST=master  # Master節點主機名
      export SPARK_MASTER_PORT=7077    # Master端口(默認7077)
      export SPARK_MASTER_WEBUI_PORT=8080  # WebUI端口(默認8080)
      export SPARK_WORKER_MEMORY=8g    # 每個Worker的內存
      export SPARK_WORKER_CORES=4      # 每個Worker的核數
      
  3. 啟動集群

    • 在Master節點執行啟動腳本:
      $SPARK_HOME/sbin/start-all.sh
      
    • 驗證集群:訪問http://master:8080,查看Worker節點是否注冊成功。
  4. 提交應用

    $SPARK_HOME/bin/spark-submit \--master spark://master:7077 \--class org.apache.spark.examples.SparkPi \--executor-memory 2g \--total-executor-cores 4 \$SPARK_HOME/examples/jars/spark-examples_2.12-3.4.0.jar \100
    
  5. 停止集群

    $SPARK_HOME/sbin/stop-all.sh
    

72. 如何在YARN上部署Spark?需要配置哪些關鍵參數?

在YARN上部署Spark(Spark on YARN)需依賴Hadoop YARN集群,步驟及關鍵配置如下:

  1. 環境準備

    • 已部署Hadoop YARN集群(HDFS和YARN正常運行)。
    • 確保Spark與Hadoop版本兼容(如Spark 3.x兼容Hadoop 2.7+)。
    • 配置HADOOP_CONF_DIR指向Hadoop配置目錄(/etc/hadoop/conf):
      export HADOOP_CONF_DIR=/etc/hadoop/conf
      
  2. 關鍵配置參數(在spark-defaults.conf或提交命令中設置):

    • spark.master=yarn:指定YARN作為集群管理器。
    • spark.yarn.appMasterEnv.JAVA_HOME:YARN ApplicationMaster的JDK路徑。
    • spark.executorEnv.JAVA_HOME:Executor的JDK路徑。
    • spark.yarn.jars:Spark依賴JAR包的HDFS路徑(避免每次提交上傳JAR,如hdfs:///spark/jars/*)。
    • spark.yarn.queue:指定YARN隊列(默認default)。
    • spark.driver.memory:Driver內存(默認1g)。
    • spark.executor.memory:每個Executor內存(默認1g)。
    • spark.executor.cores:每個Executor的核數(默認1)。
    • spark.dynamicAllocation.enabled:是否開啟動態資源分配(默認false)。
  3. 提交應用到YARN

    spark-submit \--master yarn \--deploy-mode cluster \  # 或client模式--class org.apache.spark.examples.SparkPi \--executor-memory 2g \--executor-cores 2 \--num-executors 5 \$SPARK_HOME/examples/jars/spark-examples_2.12-3.4.0.jar \100
    
  4. 驗證部署

    • 訪問YARN WebUI(http://yarn-resourcemanager:8088)查看應用狀態。
    • 訪問Spark應用UI(通過YARN WebUI跳轉,默認端口4040)。

73. Spark on YARN的client模式和cluster模式有什么區別?

Spark on YARN的clientcluster模式主要區別在于Driver程序的運行位置,具體差異如下:

特性client模式cluster模式
Driver位置運行在提交應用的客戶端(如本地機器)運行在YARN集群的某個NodeManager節點上
網絡通信Driver與Executor直接通信,需客戶端與集群網絡通暢Driver在集群內部,通信更高效
客戶端依賴客戶端需保持運行(關閉則應用失敗)客戶端提交后可退出,不影響應用運行
適用場景交互式場景(如Spark Shell、調試)生產環境、批處理任務(無需客戶端持續連接)
日志查看驅動日志直接輸出到客戶端控制臺需通過YARN WebUI或yarn logs命令查看
資源占用客戶端需占用一定資源運行Driver客戶端資源占用少

示例

  • client模式提交(適合調試):
    spark-submit --master yarn --deploy-mode client ...
    
  • cluster模式提交(適合生產):
    spark-submit --master yarn --deploy-mode cluster ...
    

選擇建議

  • 開發調試用client模式,方便查看實時日志和交互。
  • 生產環境用cluster模式,避免客戶端故障影響應用,且更適合自動化任務(如定時調度)。

74. Spark的spark-env.shspark-defaults.conf配置文件的作用是什么?

spark-env.shspark-defaults.conf是Spark的核心配置文件,分別用于環境變量應用參數配置:

  1. spark-env.sh

    • 作用:配置Spark運行的環境變量,如JVM參數、集群地址、資源限制等,影響Spark進程(Master/Worker/Driver/Executor)的啟動。
    • 位置$SPARK_HOME/conf/spark-env.sh(需從模板spark-env.sh.template復制)。
    • 常見配置
      export JAVA_HOME=/usr/lib/jvm/java-8-openjdk  # JDK路徑
      export SPARK_MASTER_HOST=master              # Standalone模式Master地址
      export SPARK_WORKER_MEMORY=8g                # Standalone模式Worker內存
      export SPARK_WORKER_CORES=4                  # Standalone模式Worker核數
      export SPARK_DAEMON_JAVA_OPTS="-Xmx2g"       # Master/Worker的JVM參數
      export HADOOP_CONF_DIR=/etc/hadoop/conf      # Hadoop配置目錄(YARN模式)
      
  2. spark-defaults.conf

    • 作用:配置Spark應用的默認參數(如spark.masterspark.executor.memory),可被spark-submit命令的參數覆蓋。
    • 位置$SPARK_HOME/conf/spark-defaults.conf(需從模板spark-defaults.conf.template復制)。
    • 常見配置
      spark.master                     yarn                  # 默認集群管理器
      spark.driver.memory              1g                    # Driver默認內存
      spark.executor.memory            2g                    # Executor默認內存
      spark.executor.cores             2                     # 每個Executor默認核數
      spark.sql.shuffle.partitions     200                   # SQL Shuffle默認分區數
      spark.serializer                 org.apache.spark.serializer.KryoSerializer  # 序列化器
      spark.yarn.jars                  hdfs:///spark/jars/*  # YARN模式下的JAR包路徑
      

優先級spark-submit命令參數 > spark-defaults.conf > spark-env.sh(環境變量)。

75. 如何設置Spark應用程序的名稱、資源(內存、核數)等參數?

設置Spark應用的名稱和資源參數可通過**spark-submit命令**、代碼配置文件實現,常用方式如下:

  1. 通過spark-submit命令設置(優先級最高):

    spark-submit \--name "MySparkApp" \  # 應用名稱--master yarn \        # 集群管理器--deploy-mode cluster \ # 部署模式--driver-memory 2g \   # Driver內存--executor-memory 4g \ # 每個Executor內存--executor-cores 2 \   # 每個Executor的核數--num-executors 10 \   # Executor總數(YARN模式)--total-executor-cores 20 \ # 所有Executor的總核數(Standalone模式)--class com.example.MyApp \ # 主類myapp.jar \            # 應用JAR包arg1 arg2              # 應用參數
    
  2. 在代碼中設置(僅部分參數生效,如名稱、內存):

    import org.apache.spark.sql.SparkSessionval spark = SparkSession.builder().appName("MySparkApp") // 應用名稱.config("spark.driver.memory", "2g").config("spark.executor.memory", "4g").config("spark.executor.cores", "2").getOrCreate()
    
  3. 通過spark-defaults.conf設置(默認值,可被命令覆蓋):

    spark.app.name                   MySparkApp
    spark.driver.memory              2g
    spark.executor.memory            4g
    spark.executor.cores             2
    

注意

  • 資源參數(內存、核數)需根據集群實際容量調整,避免超過集群限制。
  • num-executors僅在YARN模式有效,Standalone模式通過total-executor-cores控制總核數。
  • 應用名稱會顯示在Spark UI和集群管理器(如YARN)中,便于識別。

76. 什么是Spark的歷史服務器(History Server)?如何配置和使用?

Spark歷史服務器(History Server) 用于持久化和展示已完成的Spark應用程序日志和統計信息,彌補實時UI(4040端口)在應用結束后關閉的不足。

配置步驟

  1. 配置存儲路徑

    • spark-defaults.conf中指定日志存儲目錄(通常為HDFS路徑,確保所有節點可訪問):
      spark.eventLog.enabled           true                   # 啟用事件日志
      spark.eventLog.dir               hdfs:///spark/eventLogs  # 日志存儲路徑(HDFS或本地)
      spark.history.fs.logDirectory    hdfs:///spark/eventLogs  # 歷史服務器讀取日志的路徑
      
  2. 配置歷史服務器端口(可選):

    • spark-env.sh中設置WebUI端口(默認18080):
      export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080"
      
  3. 啟動歷史服務器

    $SPARK_HOME/sbin/start-history-server.sh
    
  4. 訪問歷史服務器

    • 打開瀏覽器訪問http://history-server-host:18080,查看所有已完成的應用日志。
  5. 停止歷史服務器

    $SPARK_HOME/sbin/stop-history-server.sh
    

使用場景

  • 分析已完成應用的性能瓶頸(如查看Stage、Task詳情)。
  • 排查失敗應用的錯誤日志。
  • 審計應用資源使用情況。

注意:需確保spark.eventLog.dir目錄存在且有寫入權限(如hdfs dfs -mkdir -p /spark/eventLogs)。

77. Spark與Hadoop的兼容性如何?需要注意哪些配置?

Spark與Hadoop兼容性良好,可無縫集成HDFS、YARN和Hive,但需注意版本匹配和配置細節:

  1. 版本兼容性

    • Spark官方對Hadoop的支持版本通常為Hadoop 2.7+和3.x(如Spark 3.4支持Hadoop 2.7-3.3)。
    • 避免使用跨大版本組合(如Spark 3.x + Hadoop 1.x,可能存在API不兼容)。
    • 查看Spark官網的“Downloads”頁面獲取具體版本兼容表。
  2. 關鍵配置

    • HDFS集成:無需額外配置,Spark默認使用Hadoop的core-site.xmlhdfs-site.xml訪問HDFS。
    • YARN集成
      • 配置HADOOP_CONF_DIR指向Hadoop配置目錄:
        export HADOOP_CONF_DIR=/etc/hadoop/conf
        
      • 確保YARN的yarn.resourcemanager.hostname等參數正確配置。
    • 依賴包
      • 下載預編譯的Spark版本(如spark-3.4.0-bin-hadoop3.tgz),避免手動編譯。
      • 若需自定義Hadoop版本,需重新編譯Spark并指定Hadoop版本:
        ./dev/make-distribution.sh --name custom-spark --tgz -Phadoop-3.3
        
  3. 注意事項

    • YARN的資源隔離:確保YARN的yarn.nodemanager.resource.memory-mbyarn.scheduler.maximum-allocation-mb足夠分配Spark的Executor內存。
    • HDFS權限:Spark應用需有HDFS路徑的讀寫權限(如輸出目錄、事件日志目錄)。
    • 加密配置:若Hadoop啟用了Kerberos認證,需為Spark配置相應的安全憑證(如spark.yarn.keytabspark.yarn.principal)。

78. 如何在Spark中集成Hive?

Spark集成Hive可實現訪問Hive表、使用HiveQL和共享Hive元數據,步驟如下:

  1. 環境準備

    • 已安裝Hive并配置Metastore(支持本地Derby或遠程MySQL/PostgreSQL)。
    • 確保Spark與Hive版本兼容(如Spark 3.x兼容Hive 2.3+)。
  2. 配置Hive元數據

    • 將Hive的配置文件(hive-site.xml)復制到Spark的conf目錄:
      cp $HIVE_HOME/conf/hive-site.xml $SPARK_HOME/conf/
      
    • hive-site.xml中需正確配置Metastore地址(如遠程Metastore):
      <property><name>hive.metastore.uris</name><value>thrift://hive-metastore-host:9083</value>
      </property>
      
  3. 添加Hive依賴

    • Spark默認包含Hive支持(-Phive-Phive-thriftserver模塊),無需額外安裝。
    • 若使用自定義編譯的Spark,需確保編譯時包含Hive模塊。
  4. 驗證集成

    • 啟動Spark Shell(自動加載Hive配置):
      spark-shell --master yarn
      
    • 在Spark中訪問Hive表:
      // 查看Hive數據庫
      spark.sql("show databases").show()// 讀取Hive表
      val df = spark.table("default.user")
      df.show()// 創建Hive表
      spark.sql("create table if not exists spark_hive_test (id int, name string)")
      
  5. 啟動Thrift Server(可選)

    • 允許通過JDBC/ODBC訪問Spark SQL(兼容HiveServer2):
      $SPARK_HOME/sbin/start-thriftserver.sh --master yarn
      
    • 使用Beeline連接:
      beeline -u jdbc:hive2://localhost:10000 -n username
      

注意:若Hive啟用了Kerberos,需在spark-env.sh中配置相應的安全參數。

79. 如何在Spark中配置日志級別?

Spark的日志級別控制(如DEBUG、INFO、WARN、ERROR)可通過以下方式配置,用于減少冗余日志或調試問題:

  1. 通過log4j2.properties配置(全局默認)

    • 復制模板文件并修改:
      cp $SPARK_HOME/conf/log4j2.properties.template $SPARK_HOME/conf/log4j2.properties
      
    • 編輯log4j2.properties,設置根日志級別或特定類的日志級別:
      # 根日志級別(默認INFO)
      rootLogger.level = WARN# 特定類的日志級別(如Spark SQL)
      logger.org.apache.spark.sql.name = org.apache.spark.sql
      logger.org.apache.spark.sql.level = INFO# Spark Core的日志級別
      logger.org.apache.spark.name = org.apache.spark
      logger.org.apache.spark.level = ERROR
      
    • 生效范圍:所有Spark應用(需重啟Spark服務或重新提交應用)。
  2. 在代碼中動態設置(針對當前應用)

    import org.apache.log4j.{Level, Logger}// 設置Spark核心日志級別為WARN
    Logger.getLogger("org.apache.spark").setLevel(Level.WARN)// 設置Spark SQL日志級別為ERROR
    Logger.getLogger("org.apache.spark.sql").setLevel(Level.ERROR)// 設置Hadoop相關日志級別為ERROR
    Logger.getLogger("org.apache.hadoop").setLevel(Level.ERROR)
    
    • 生效范圍:僅當前應用,不影響其他應用。
  3. 通過spark-submit命令臨時設置

    spark-submit \--conf "spark.driver.extraJavaOptions=-Dlog4j.configuration=file:/path/to/custom-log4j2.properties" \--conf "spark.executor.extraJavaOptions=-Dlog4j.configuration=file:/path/to/custom-log4j2.properties" \...
    
    • 適用于臨時覆蓋默認日志配置,無需修改全局文件。

常見日志級別(從低到高):TRACE < DEBUG < INFO < WARN < ERROR < FATAL。生產環境通常用WARN或ERROR減少日志量,調試時用DEBUG或INFO。

80. Spark應用程序提交的命令(spark-submit)的常用參數有哪些?

spark-submit是提交Spark應用的統一命令,常用參數按功能分類如下:

  1. 集群與部署模式

    • --master <url>:指定集群管理器(如yarnspark://master:7077local[*])。
    • --deploy-mode <mode>:部署模式(clientcluster,默認client)。
    • --queue <queue-name>:YARN隊列名稱(默認default)。
  2. 應用基本信息

    • --name <name>:應用名稱(顯示在UI中)。
    • --class <class-name>:主類全路徑(如org.apache.spark.examples.SparkPi)。
    • --jars <paths>:依賴的額外JAR包(逗號分隔)。
    • --packages <packages>:Maven坐標的依賴包(如org.apache.hadoop:hadoop-aws:3.3.1)。
  3. 資源配置

    • --driver-memory <memory>:Driver內存(如2g,默認1g)。
    • --driver-cores <cores>:Driver核數(僅YARN cluster模式有效,默認1)。
    • --executor-memory <memory>:每個Executor內存(如4g,默認1g)。
    • --executor-cores <cores>:每個Executor的核數(YARN/Standalone模式,默認1)。
    • --num-executors <num>:Executor總數(僅YARN模式,默認2)。
    • --total-executor-cores <num>:所有Executor的總核數(僅Standalone模式)。
  4. 配置參數

    • --conf <key=value>:設置Spark配置參數(如spark.sql.shuffle.partitions=200)。
    • --properties-file <file>:指定配置文件(默認spark-defaults.conf)。
  5. 示例

    spark-submit \--master yarn \--deploy-mode cluster \--name "UserAnalysis" \--class com.example.UserAnalysis \--driver-memory 2g \--executor-memory 4g \--executor-cores 2 \--num-executors 10 \--conf spark.sql.shuffle.partitions=200 \--jars /path/to/mysql-connector.jar \user-analysis.jar \2023-01-01 2023-01-31
    

注意:參數需在應用JAR包和應用參數之前指定,不同集群管理器支持的參數略有差異(如num-executors僅YARN有效)。

二、100道Spark面試題目錄列表

文章序號Spark 100道
1Spark面試題及答案100道(01-10)
2Spark面試題及答案100道(11-20)
3Spark面試題及答案100道(21-30)
4Spark面試題及答案100道(31-44)
5Spark面試題及答案100道(41-55)
6Spark面試題及答案100道(56-70)
7Spark面試題及答案100道(71-80)
8Spark面試題及答案100道(81-90)
9Spark面試題及答案100道(91-100)

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/web/96246.shtml
繁體地址,請注明出處:http://hk.pswp.cn/web/96246.shtml
英文地址,請注明出處:http://en.pswp.cn/web/96246.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

Redis 面試

1、主從集群1、構建主從集群單節點Redis的并發能力是有上限的&#xff0c;要進一步提高Redis的并發能力&#xff0c;就需要搭建主從集群&#xff0c;實現讀寫分離。主寫從讀&#xff0c;主可以讀也可以寫&#xff0c;從只能讀利用docker-compose文件來構建主從集群&#xff1a;…

如何使用PostgreSQL數據庫進行數據挖掘與預測分析

如何使用PostgreSQL數據庫進行數據挖掘與預測分析 關鍵詞:PostgreSQL,數據挖掘,預測分析,數據庫,機器學習 摘要:本文旨在深入探討如何利用PostgreSQL數據庫進行數據挖掘與預測分析。首先介紹了使用PostgreSQL進行此類操作的背景信息,包括目的、預期讀者、文檔結構等。接…

ZooKeeper vs Redis:分布式鎖的實現與選型指南

一、Redis 分布式鎖&#xff1a;追求極致的性能 Redis 分布式鎖基于內存操作&#xff0c;其核心思想是在內存中設置一個唯一的鍵值對來表示鎖的持有。 1. 基礎實現&#xff08;SETNX Lua&#xff09; 最簡單的實現是使用 SETNX&#xff08;SET if Not eXists&#xff09;命令&…

vue基于Springboot框架的考研咨詢平臺系統實現

目錄前言-本系統介紹已開發項目效果實現截圖開發技術詳細介紹核心代碼參考示例1.建立用戶稀疏矩陣&#xff0c;用于用戶相似度計算【相似度矩陣】2.計算目標用戶與其他用戶的相似度系統測試總結源碼獲取詳細視頻演示或者查看其他版本&#xff1a;文章底部獲取博主聯系方式&…

蘋果用戶速更新!macOS存嚴重漏洞,用戶隱私數據面臨泄露風險

漏洞概況近日&#xff0c;macOS系統發現一個CVSS評分高達 9.8 的高危漏洞&#xff0c;該漏洞可能允許應用程序繞過系統保護機制&#xff0c;非法訪問受保護的用戶數據。該漏洞編號為 CVE-2025-24204&#xff0c;目前已有概念驗證&#xff08;PoC&#xff09;代碼公開。漏洞影響…

海盜王64位dx9客戶端修改篇之五

在海盜王3.0客戶都升級64位dx9版本的過程中&#xff0c;因為特效的問題&#xff0c;被卡殼了很久。 開始是精靈草的粒子效果、白銀城的煙囪煙霧效果、篝火的效果、陽光透射效果、海浪效果等&#xff0c;修了很長的時間&#xff0c;才找到竅門弄好。 然后是精靈效果、角色陰影。…

Linux學習——管理網絡安全(二十一)

一、管理服務器防火墻&#xff08;firewalld&#xff09;RHEL 默認使用 firewalld 作為防火墻管理工具&#xff0c;它通過 “區域&#xff08;zone&#xff09;” 和 “服務&#xff08;service&#xff09;” 的概念簡化規則配置&#xff0c;支持動態更新規則而無需重啟服務。…

leetcode-python-1941檢查是否所有字符出現次數相同

題目&#xff1a; 給你一個字符串 s &#xff0c;如果 s 是一個 好 字符串&#xff0c;請你返回 true &#xff0c;否則請返回 false 。 如果 s 中出現過的 所有 字符的出現次數 相同 &#xff0c;那么我們稱字符串 s 是 好 字符串。 示例 1&#xff1a; 輸入&#xff1a;s “…

Snort的介紹

當然可以。以下是對 Snort 的全面介紹&#xff0c;涵蓋其定義、核心功能、三種運行模式、工作原理、規則系統以及應用場景等內容。 Snort 網絡入侵檢測系統&#xff08;NIDS&#xff09;詳解 一、Snort 簡介 Snort 是一款開源的、輕量級但功能強大的 網絡入侵檢測與防御系統&…

滴滴二面準備(一)

結合你的簡歷內容和技術面試問題&#xff0c;以下是一個結構化的回答建議&#xff0c;突出你的技術深度和項目經驗&#xff1a;2. 項目與實習經歷 得物低代碼落地頁編輯器&#xff08;核心項目&#xff09; 背景&#xff1a;解決軟廣落地頁開發周期長、迭代慢問題。技術方案&am…

socket通信在Windows和Linux上的區別

前言 筆者在將socket通信的自定義類從Linux移植到Windows時遇到一些問題&#xff0c;整理下來希望幫助到需要的人&#xff0c;同時也加深自己的理解。 差異 頭文件 #ifdef _WIN32 #include <ws2tcpip.h> #define inet_pton InetPton #define SHUT_RDWR SD_BOTH #define M…

一款將PDF轉化為機器可讀格式的工具介紹

ps:以下內容來自MinerU項目 MinerU 項目簡介 MinerU是一款將PDF轉化為機器可讀格式的工具&#xff08;如markdown、json&#xff09;&#xff0c;可以很方便地抽取為任意格式。 MinerU誕生于書生-浦語的預訓練過程中&#xff0c;我們將會集中精力解決科技文獻中的符號轉化問…

代碼隨想錄算法訓練營第三十九天|62.不同路徑 63.不同路徑ll

62.不同路徑&#xff1a; 文檔講解&#xff1a;代碼隨想錄|62.不同路徑 視頻講解&#xff1a;https://www.bilibili.com/video/BV1ve4y1x7Eu 狀態&#xff1a;已做出 一、題目要求&#xff1a; 一個二維數組里&#xff0c;將(0&#xff0c;0)位置下標作為起點&#xff0c;計算…

openEuler2403安裝部署Prometheus和Grafana

文章目錄openEuler2403安裝部署Prometheus和Grafana一、前言1.簡介2.環境二、正文1.環境準備1&#xff09;JDK 安裝部署&#xff08;可選&#xff09;2&#xff09;關閉防火墻2.安裝 Prometheus1&#xff09;下載和安裝2&#xff09;啟動3&#xff09;systemd服務管理3.安裝 Gr…

樂吾樂大屏可視化組態軟件【SQL數據源】

樂吾樂大屏可視化組態軟件&#xff08;大屏可視化設計器 - 樂吾樂Le5le&#xff09;支持直接對接SQL數據源功能&#xff0c;目前僅對企業源碼客戶開放。 配置SQL數據源 管理員進入可視化管理中心&#xff0c;點擊SQL數據源&#xff0c;配置添加SQL數據源。 創建SQL數據源連接 …

Django高效查詢:values_list實戰詳解

Django 實戰案例 講解 values_list 的用法。 values_list("field", flatTrue) → 獲取單字段的一維列表。values_list("f1", "f2") → 獲取多個字段&#xff0c;返回元組。搭配 filter / distinct / in / 外鍵查詢 非常高效。適合用于 導出數據 …

Java數據結構——樹

一、樹型結構1.1 概念我們之前提到的數組&#xff0c;單鏈表&#xff0c;棧和隊列都是一種線性結構&#xff0c;每個元素都有最多一個后繼節點。而樹型結構是一種非線性結構&#xff0c;它是由n&#xff08;n>0&#xff09;節點組成的一個具有層次關系的集合。它之所以叫做樹…

基于LLM的月全食時空建模與智能預測:從天文現象到深度學習融合

當古老的天文學遇上現代人工智能,會碰撞出怎樣的火花? 一、當月球遇見AI 月全食,這一令人驚嘆的天文現象,自古以來就吸引著無數天文學家和愛好者的目光。當地球恰好運行到太陽和月球之間,完全遮擋太陽光時,我們就能目睹月球逐漸被"吞噬"然后又重煥光彩的奇妙…

LeetCode熱題 42.接雨水

題目 思路&#xff1a; 通過畫圖觀察我們其實可以很容易發現&#xff0c;每個柱子接多少水由這個地方左邊最高的柱子和右邊最高的柱子確定&#xff0c;因為總要形成一個坑嘛&#xff0c;然后就能接著確定&#xff1a; 當前柱子接水量 min(左邊最高柱子的高度, 右邊最高柱子的…

PostgreSQL與Greenplum數據庫的編程語言連接

編程語言連接數據庫 目前數據庫一般支持HA的連接&#xff0c;即一個Coordinator內的一個節點異常后會鏈接到另外的一個節點&#xff0c;不會影響業務的正常運行。在JDBC配置時需要采用 高可用鏈接字符串(Connection URL/DSN) 的方式連接。適用于不同的編程語言中使用&#xff…