【容器化技術 Docker 與微服務部署】詳解

容器化技術 Docker 與微服務部署

一、容器化技術概述

(一)概念

容器化技術是一種操作系統級別的虛擬化方法,它允許將應用程序及其依賴項(如運行時環境、系統工具、庫等)打包成一個獨立的、可移植的單元,這個單元就是容器。容器在運行時與宿主機共享操作系統內核,但又能在用戶空間實現進程、網絡、文件系統等資源的隔離,使得應用程序可以在不同的環境中以一致的方式運行。

(二)特點

1. 輕量級
  • 與傳統虛擬機相比,容器不需要為每個應用程序模擬完整的操作系統,而是共享宿主機的內核,只在用戶空間進行資源隔離和虛擬化。這使得容器的啟動速度更快,占用的磁盤空間和內存資源更少。例如,一個簡單的 Java 應用程序容器鏡像可能只有幾十兆字節,而一個包含完整操作系統的虛擬機鏡像往往會達到幾個吉字節。從源碼層面看,Docker(以 Docker 為例闡述容器化技術實現,后續會詳細介紹)通過使用 Linux 內核的 cgroups(控制組)來限制容器對 CPU、內存等資源的使用量,通過 namespaces 實現進程、網絡、文件系統等的隔離,這些內核特性的巧妙運用使得容器能夠以輕量級的方式運行。
2. 環境一致性
  • 容器將應用程序及其依賴項打包在一起,無論在開發、測試還是生產環境,只要宿主機安裝了容器運行時(如 Docker),容器就能以相同的配置和依賴運行,避免了傳統開發中常見的 “在我機器上能運行,在其他機器上不行” 的環境不一致問題。這是因為容器內部的文件系統、環境變量等都是在構建鏡像時就確定好的,不會受到宿主機環境變化的影響。
3. 快速部署
  • 容器可以快速啟動和停止,基于鏡像創建容器的過程通常只需要幾秒到幾十秒,相比于傳統虛擬機的部署(可能需要幾分鐘甚至更長時間來啟動操作系統和配置應用),大大提高了部署效率。例如,在應對突發流量時,可以快速啟動多個容器實例來擴展服務能力。
4. 可移植性強
  • 容器鏡像可以在不同的操作系統和云平臺上運行,只要該平臺支持相應的容器運行時。這方便了應用的遷移和部署,比如可以在本地開發環境構建好容器鏡像,然后輕松部署到云端的生產環境中。

(三)與傳統虛擬機的區別

1. 資源隔離與共享
  • 傳統虛擬機:在硬件層面通過虛擬化技術(如 VMware、Hyper-V 等使用的技術)模擬出完整的硬件環境,每個虛擬機都有自己獨立的操作系統內核,資源隔離是基于硬件級別的模擬實現的,不同虛擬機之間的資源完全獨立,對硬件資源的消耗較大。
  • 容器:如前面所述,容器是基于操作系統內核的特性實現資源隔離,多個容器共享宿主機的內核,只是在用戶空間進行隔離,在資源利用上更加高效,能在一臺宿主機上運行更多的容器實例,但同時也因為共享內核,如果內核出現問題可能會影響所有容器。
2. 啟動速度與資源占用
  • 傳統虛擬機:啟動時需要加載完整的操作系統內核、初始化各種系統服務等,啟動過程耗時較長,并且由于每個虛擬機都包含完整的操作系統及應用,占用的磁盤空間和內存資源較多。
  • 容器:直接利用宿主機的內核,啟動時只需加載容器自身的應用和配置,啟動速度極快,而且鏡像體積小,資源占用少,更適合在資源有限的環境下大規模部署應用。
3. 可移植性
  • 傳統虛擬機:由于依賴特定的虛擬化平臺和硬件環境,將虛擬機從一個平臺遷移到另一個平臺可能會遇到兼容性問題,需要進行復雜的配置和轉換工作。
  • 容器:基于容器鏡像的標準化格式,只要目標平臺支持容器運行時,就能輕松遷移和部署,可移植性非常好。

(四)Docker 在微服務架構下的應用優勢

1. 快速部署微服務
  • 在微服務架構中,通常有多個微服務組成一個完整的應用系統。使用 Docker,可以為每個微服務構建獨立的鏡像,然后快速部署成容器實例,每個微服務的部署和啟動都變得簡單快捷,減少了整體的部署時間。例如,一個電商系統包含用戶服務、商品服務、訂單服務等多個微服務,通過 Docker 可以將它們分別打包成鏡像并快速部署到生產環境中。
2. 環境隔離
  • 不同微服務可能依賴不同的運行時環境、庫版本等,Docker 容器能夠很好地實現這種環境隔離。比如用戶服務可能基于 Java 11 開發,商品服務基于 Python 開發,通過 Docker 容器可以確保它們在各自獨立的環境中運行,互不干擾,避免了不同微服務之間因依賴沖突而導致的問題。
3. 資源高效利用
  • 微服務架構下,各個微服務的資源需求不同,有的可能需要較多的 CPU 資源,有的可能更依賴內存資源。Docker 可以通過配置參數(基于 cgroups 等內核特性實現)為每個容器精確分配資源,實現資源的高效利用,避免資源浪費,同時保證各個微服務都能獲得所需的資源來穩定運行。
4. 便于服務的擴展和收縮
  • 根據業務流量的變化,可以方便地通過啟動或停止 Docker 容器來擴展或收縮微服務的實例數量。比如在電商促銷活動期間,可以快速啟動更多的訂單服務容器來處理大量的訂單請求,活動結束后再減少容器數量,節省資源,提高資源的靈活性和利用率。
5. 版本管理和回滾方便
  • Docker 鏡像的版本管理清晰,每個鏡像都有對應的標簽(如版本號等),在微服務升級過程中,如果發現新的版本出現問題,可以快速回滾到之前穩定的版本,只需要切換使用對應的鏡像來啟動容器即可,降低了微服務升級的風險。

二、Docker 的基本概念、安裝與配置

(一)基本概念

1. 鏡像(Image)
  • 鏡像是一個只讀的模板,包含了運行容器所需的所有文件和配置信息,如應用程序代碼、運行時環境、系統庫等。可以把鏡像看作是容器的 “藍圖”,它是通過一系列的文件系統層疊加而成的(在 Docker 的存儲驅動底層,采用了分層存儲的機制,比如 aufs、overlay2 等存儲驅動,通過對不同層的文件系統進行合并和管理來構建鏡像,每層只存儲與上一層相比發生變化的文件,這樣可以減少鏡像的體積并提高復用性)。鏡像可以被創建、共享和分發,多個容器可以基于同一個鏡像創建。
2. 容器(Container)
  • 容器是基于鏡像創建的運行實例,是鏡像的可運行態。它在運行時擁有獨立的文件系統、進程空間、網絡配置等,但共享宿主機的內核。容器可以被啟動、停止、刪除,并且可以動態地調整資源分配(通過 Docker 命令或者 API 基于 cgroups 等進行資源配置調整),在其生命周期內可以執行各種操作,比如運行應用程序、對外提供服務等。
3. 倉庫(Repository)
  • 倉庫是用于存放 Docker 鏡像的地方,類似于代碼倉庫(如 GitHub)存放代碼一樣。它可以是公共的(如 Docker Hub,上面有大量開源的鏡像可供使用),也可以是私有的(企業內部為了安全和隱私構建的鏡像倉庫)。通過倉庫,可以方便地分享、拉取和管理鏡像,在構建微服務的容器化部署時,通常會將自己構建的微服務鏡像推送到倉庫中,以便在不同環境中部署使用。

(二)安裝與配置過程

1. 在 Linux 系統(以 Ubuntu 為例)下安裝 Docker

更新包索引并安裝依賴包:

sudo apt-get update
sudo apt-get install apt-transport-https ca-certificates curl gnupg-agent software-properties-common

添加 Docker 的官方 GPG 密鑰:

curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -

設置穩定版倉庫:

sudo add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable"

安裝 Docker 引擎:

sudo apt-get update
sudo apt-get install docker-ce docker-ce-cli containerd.io

驗證安裝是否成功:

sudo docker run hello-world

如果看到輸出 Hello from Docker! 等歡迎信息,則表示 Docker 安裝成功。

2. 配置 Docker(可選)

配置鏡像加速器(以國內使用阿里云鏡像加速器為例):

對于國內用戶,拉取 Docker 鏡像時可能速度較慢,可以配置鏡像加速器來提高速度。

創建或編輯 /etc/docker/daemon.json 文件(如果不存在則創建),添加以下內容:

{"registry-mirrors": ["https://<你的阿里云加速器地址>.mirror.aliyuncs.com"]
}

然后重啟 Docker 服務:

sudo systemctl restart docker

(三)創建和管理 Docker 鏡像

1. 使用 docker commit 創建鏡像(不推薦用于生產,常用于臨時測試等場景)

首先,拉取一個基礎鏡像(以 Ubuntu 為例)并運行容器:

docker run -it ubuntu:latest /bin/bash

在容器內安裝一些軟件(假設安裝 curl):

apt-get update
apt-get install curl

然后退出容器,使用 docker commit 命令基于修改后的容器創建新的鏡像:

docker commit <容器 ID> my-custom-ubuntu:1.0

這里 <容器 ID> 是剛才運行并安裝了軟件的容器的唯一標識符,可以通過 docker ps -a 命令查看,my-custom-ubuntu:1.0 就是創建的新鏡像名稱及版本標簽。

2. 使用 Dockerfile 定義鏡像構建過程(推薦做法)

示例:構建一個簡單的 Java 應用程序鏡像
假設我們有一個簡單的 Java 項目,目錄結構如下:

my-java-app/
├── src/
│   └── Main.java
└── Dockerfile

Main.java 內容如下(簡單打印一句話):

public class Main {public static void main(String[] args) {System.out.println("Hello from my Java app in Docker!");}
}

Dockerfile 內容如下:

# 基于 OpenJDK 11 基礎鏡像
FROM openjdk:11-jdk# 設置工作目錄
WORKDIR /app# 將當前目錄下的所有文件(除了 Dockerfile 本身)復制到容器內的 /app 目錄下
COPY. /app# 編譯 Java 代碼
RUN javac src/Main.java# 設置容器啟動時執行的命令
CMD ["java", "src/Main.class"]

構建鏡像過程:
在包含 Dockerfile 的目錄下(這里是 my-java-app 目錄),執行以下命令:

docker build -t my-java-app:1.0.

其中 -t 參數用于指定鏡像的名稱和標簽,最后的 . 表示使用當前目錄下的 Dockerfile 進行構建。在構建過程中,Docker 會按照 Dockerfile 中的指令依次執行,先拉取 openjdk:11-jdk 基礎鏡像,然后設置工作目錄、復制文件、編譯代碼、設置啟動命令等操作,最終構建出 my-java-app:1.0 這個鏡像。

(四)運行和管理 Docker 容器

1. 運行容器

使用剛才構建的 my-java-app:1.0 鏡像運行容器:

docker run my-java-app:1.0

這會啟動一個容器,容器內的 Java 應用程序將會運行,在控制臺輸出 Hello from my Java app in Docker!。
可以添加一些參數來配置容器的運行,比如:

  • -d 參數表示讓容器在后臺運行(守護態),例如:
docker run -d my-java-app:1.0
  • -p 參數用于端口映射,假設容器內的應用監聽 8080 端口,要將其映射到宿主機的 8080 端口,可以這樣做:
docker run -p 8080:8080 my-java-app:1.0
  • –name 參數可以給容器指定一個名稱,方便后續對容器進行管理,比如:
docker run --name my-java-app-container -p 8080:8080 my-java-app:1.0
2. 查看容器狀態

使用 docker ps 命令可以查看正在運行的容器狀態,加上 -a 參數(docker ps -a)可以查看所有的容器(包括已經停止的容器),輸出信息會包含容器的 ID、名稱、鏡像名稱、狀態等信息,方便了解容器的運行情況和進行后續管理操作。

3. 停止和刪除容器
  • 停止容器可以使用 docker stop <容器名稱或 ID> 命令,例如:
docker stop my-java-app-container
  • 刪除容器使用 docker rm <容器名稱或 ID> 命令,不過要先停止容器才能刪除,或者使用 -f 參數強制刪除正在運行的容器(不建議,可能導致數據丟失等問題),比如:
docker rm my-java-app-container
  • 如果要刪除所有已經停止的容器,可以使用以下命令組合:
docker container prune

三、使用 Docker 進行微服務的部署

(一)構建微服務的鏡像

####1. 以 Spring Boot 微服務為例
假設我們有一個簡單的 Spring Boot 微服務項目,用于提供用戶管理功能,項目結構如下:

user-service/
├── src/
│   └── main/
│       ├── java/
│       │   └── com/example/userservice/
│       │       ├── UserController.java
│       │       ├── UserService.java
│       │       ├── UserRepository.java
│       │       └── User.java
│       └── resources/
│           ├── application.properties
│           └── static/
└── Dockerfile

關鍵代碼(簡化示例):
UserController.java:

@RestController
@RequestMapping("/users")
public class UserController {private final UserService userService;public UserController(UserService userService) {this.userService = userService;}@GetMapping("/{id}")public User getUserById(@PathVariable Long id) {return userService.getUserById(id);}
}

UserService.java:

@Service
public class UserService {private final UserRepository userRepository;public UserService(UserRepository userRepository) {this.userRepository = userRepository;}public User getUserById(Long id) {return userRepository.findById(id).orElse(null);}
}

UserRepository.java:

@Repository
public interface UserRepository extends JpaRepository<User, Long> {}

User.java:

@Entity
@Table(name = "users")
public class User {@Id@GeneratedValue(strategy = GenerationType.IDENTITY)private Long id;private String name;private String email;// 省略構造函數、Getter 和 Setter 等方法
}

application.properties:

server.port=8080
spring.datasource.url=jdbc:mysql://<數據庫地址>/<數據庫名稱>
spring.datasource.username=<用戶名>
spring.datasource.password=<密碼>

Dockerfile 示例:

# 基于 OpenJDK 11 構建 Spring Boot 微服務鏡像
FROM openjdk:11-jdk# 設置工作目錄
WORKDIR /app# 復制項目的 JAR 文件到容器內(假設已經通過 Maven 或 Gradle 構建好 JAR 文件)
COPY target/user-service-1.0.jar /app/user-service-1.0.jar# 設置容器啟動時執行的命令,運行 Spring Boot 微服務
CMD ["java", "-jar", "user-service-1.0.jar"]

構建鏡像過程:

  • 先在項目目錄下通過 Maven 或 Gradle 構建出可執行的 JAR 文件(以 Maven 為例,執行 mvn clean package),然后在包含 Dockerfile 的目錄下執行以下命令構建鏡像:
docker build -t user-service:1.0.

這樣就構建出了名為 user-service:1.0 的 Spring Boot 微服務鏡像,后續可以基于此鏡像部署容器實例。

(二)配置容器網絡

1. 容器網絡基礎

Docker 提供了多種網絡模式,以滿足不同的應用場景和網絡需求,常見的網絡模式如下:

橋接模式(Bridge):
  • 這是 Docker 默認的網絡模式,其實現依賴于 Linux 內核中的 bridge 模塊。從源碼角度來看,當啟動 Docker 并采用橋接模式時,Docker 守護進程會在內核中創建一個虛擬網橋(相當于一個虛擬交換機),這個網橋負責連接各個容器以及與外部網絡的通信交互。
  • 在這種模式下,每個啟動的容器都會被連接到這個虛擬網橋上,并且會被分配一個屬于內部網段的 IP 地址(通常在 172.17.0.0/16 這樣的網段內,不過具體網段是可以通過 Docker 的網絡配置參數進行調整的)。例如,啟動多個容器后,它們各自獲得如 172.17.0.2、172.17.0.3 等不同的內部 IP 地址,這些容器之間可以基于這些內部 IP 地址實現相互通信,就如同它們處于同一個局域網中一樣。
  • 同時,為了讓容器能夠與外部網絡(如互聯網或者宿主機所在的局域網)進行通信,Docker 支持通過端口映射機制來實現。在啟動容器時,使用 -p 參數可以指定宿主機的端口與容器內部端口的映射關系。比如,容器內的應用監聽 8080 端口,執行 docker run -p 8080:8080 <鏡像名稱> 命令后,外部網絡的請求發送到宿主機的 8080 端口時,就會被轉發到對應的容器內的 8080 端口上,從而實現容器對外提供服務以及接收外部請求的功能。
  • 從性能方面考慮,橋接模式在一般的應用場景下能夠提供較好的網絡隔離和通信效率,不過由于網絡數據包需要經過虛擬網橋的轉發,在大規模容器通信或者對網絡延遲要求極高的場景下,可能會存在一定的性能損耗,但對于大多數微服務部署場景來說,是完全可以滿足需求的。
  • 在實際應用場景中,比如一個微服務架構下的電商系統,用戶服務、商品服務、訂單服務等多個微服務分別部署在不同容器中,采用橋接模式時,這些容器之間可以方便地基于內部 IP 地址進行相互調用,協同完成業務邏輯,同時又能通過端口映射對外提供相應的 API 接口供前端應用或者第三方系統訪問。
主機模式(Host):
  • 在主機模式下,容器會直接使用宿主機的網絡命名空間,這意味著容器中的網絡配置與宿主機完全一致,容器內的網絡接口就是宿主機的網絡接口,容器共享宿主機的 IP 地址以及所有網絡配置信息(如網絡接口、IP 路由表等)。
  • 從實現原理來講,在 Docker 創建容器并指定為主機模式時,它不會像橋接模式那樣為容器單獨創建虛擬網絡環境,而是讓容器直接復用宿主機的網絡相關數據結構和配置。例如,容器內運行的網絡服務監聽某個端口時,實際上就是在宿主機的對應端口上進行監聽,外部網絡訪問宿主機該端口就直接能訪問到容器內的服務了,不存在端口映射的概念。
  • 這種模式的優勢在于網絡性能上幾乎沒有額外的損耗,因為沒有中間的虛擬網絡層進行轉發,網絡通信就如同直接在宿主機上運行的應用一樣高效,特別適合對網絡性能要求極高且對網絡隔離要求相對較低的場景。然而,其缺點也很明顯,由于容器和宿主機共享網絡,可能會導致端口沖突等問題,并且容器之間的網絡隔離性較差,一個容器對網絡配置的修改(比如修改了 IP 地址或者路由規則)可能會影響到宿主機以及其他共享網絡的容器。
  • 例如,在一個容器化的監控系統中,監控代理容器需要實時獲取宿主機的網絡狀態信息并且對網絡性能要求極高,此時采用主機模式,監控代理可以直接利用宿主機的網絡接口收集數據,避免了網絡轉發帶來的延遲和性能損耗,更好地保障監控數據的及時性和準確性。
overlay 網絡模式:
  • overlay 網絡模式主要用于跨多臺宿主機的容器網絡通信場景,它構建在已有的網絡之上(可以是物理網絡或者其他虛擬網絡),實現不同宿主機上的容器之間能夠像在同一局域網內一樣進行通信。
  • 其實現基于網絡虛擬化技術以及分布式鍵值存儲(如 etcd 等,用于存儲和同步網絡配置信息),在每臺宿主機上,Docker 會創建一個 overlay 網絡驅動實例,這個驅動負責將本地容器連接到 overlay 網絡中,并且與其他宿主機上的 overlay 網絡實例進行通信協調。當容器需要跨宿主機通信時,數據包會經過一系列的封裝和轉發處理(在源碼中涉及到網絡協議棧的相關處理以及對 overlay 網絡特定協議的實現),通過已有的網絡基礎設施傳輸到目標宿主機,然后再解封裝并轉發到目標容器。
  • 例如,在一個分布式的微服務應用部署場景中,微服務被部署在多臺服務器上的 Docker 容器中,為了讓這些分布在不同宿主機上的微服務能夠相互協作,就可以采用 overlay 網絡模式,使得不同宿主機上的容器可以通過統一的網絡命名空間進行通信,就像它們都在同一個物理網絡中一樣,方便實現服務間的調用和數據交互,保障整個分布式系統的正常運行。
  • 這種模式的優勢在于能夠很好地支持大規模的分布式容器部署,實現跨主機的網絡通信和服務發現,但由于涉及到復雜的網絡封裝、轉發以及分布式協調等機制,相對來說網絡配置和管理會復雜一些,并且在一定程度上會有網絡性能損耗,不過隨著技術的不斷發展和優化,其性能在很多場景下也是可以接受的。
macvlan 網絡模式:
  • macvlan 網絡模式允許容器擁有自己獨立的 MAC 地址,使得容器在網絡中看起來就像一臺獨立的物理主機一樣,可以直接連接到物理網絡或者二層網絡交換機上,實現與外部網絡設備的直接通信。
  • 在實現上,Docker 通過配置 Linux 內核的 macvlan 網絡驅動,為每個容器創建一個虛擬的網絡接口,賦予其獨特的 MAC 地址,并將其關聯到指定的物理網絡接口或者 VLAN 上。從網絡層面看,容器的網絡流量就如同從獨立的物理設備發出一樣,遵循傳統的網絡二層和三層協議進行轉發和通信,外部網絡設備(如路由器、交換機等)可以基于容器的 MAC 地址和 IP 地址對其進行路由和訪問控制。
  • 例如,在企業內部的網絡環境中,有一些對網絡兼容性和直接接入物理網絡有要求的應用容器,采用 macvlan 網絡模式,這些容器可以無縫接入現有的網絡架構,無需對網絡基礎設施進行大規模的改造,并且能夠方便地與其他物理設備或者基于物理網絡的系統進行通信和協作,同時也保障了容器網絡的獨立性和可管理性。
  • 不過,使用 macvlan 網絡模式需要注意網絡中的 MAC 地址沖突問題以及對物理網絡環境的一些配置要求(如交換機的端口配置等),并且由于容器直接接入物理網絡,可能會增加網絡管理的復雜性和潛在的安全風險,需要根據實際的網絡環境和安全策略進行合理的應用。
  • 不同的 Docker 網絡模式各有其特點和適用場景,在實際使用 Docker 進行微服務部署時,需要根據具體的業務需求、網絡環境以及性能要求等因素綜合考慮,選擇合適的網絡模式來構建容器網絡,以保障微服務之間能夠高效、安全地進行通信和協作。

(三)與其他容器編排工具(如 Kubernetes 等)的協同工作方式

1. Kubernetes 概述

Kubernetes
是一個開源的容器編排平臺,用于自動化容器的部署、擴展和管理,它提供了豐富的功能和機制來處理容器化應用在復雜環境下的運行、調度以及資源分配等問題。

從架構層面來看,Kubernetes 由多個核心組件構成,例如:

Master 節點組件:
  • kube-apiserver:這是 Kubernetes 的 API 服務器,是整個系統的 “大腦”,對外提供 RESTful API,用于接收和處理來自客戶端(如命令行工具 kubectl、其他管理界面等)的各種請求,包括創建、查詢、更新和刪除 Kubernetes 資源(如 Pod、Service、Deployment 等)的操作。它對請求進行驗證、授權以及持久化存儲等處理,并且協調其他組件之間的工作,所有對 Kubernetes 集群的操作基本都要通過它來實現,在源碼中,它實現了大量的 HTTP 處理邏輯以及對各種資源操作的接口定義和實現,保障 API 的穩定和高效運行。
  • kube-controller-manager:它是一組控制器的集合,負責運行各種控制器(如 ReplicationController、DeploymentController、NodeController 等),這些控制器會持續監控集群內的資源狀態,并根據預設的規則和期望狀態進行自動調節。例如,ReplicationController 會確保指定數量的 Pod 副本始終在運行,如果發現實際運行的 Pod 數量少于期望數量,就會自動創建新的 Pod;DeploymentController 則主要用于管理 Deployment 資源,實現應用的滾動更新等功能。通過這些控制器的協同工作,保障了集群內資源狀態的穩定和符合預期,在源碼中,各個控制器都有其獨立的邏輯實現和狀態管理機制,通過不斷地循環檢查和處理來維護集群的正常運行。
  • kube-scheduler:它的主要職責是為新創建的 Pod 選擇合適的 Node(節點,也就是運行容器的宿主機)進行部署,會綜合考慮多個因素,如 Node 的可用資源(CPU、內存等)、Pod 的資源需求、親和性和反親和性規則(決定哪些 Pod 適合或者不適合部署在同一 Node 上)等,通過一套復雜的調度算法(在源碼中有詳細的算法實現和相關的數據結構來支持調度決策)來找到最優的 Node,從而實現容器在集群內的合理分布和資源的高效利用。
Node 節點組件:
  • kubelet:運行在每個 Node 上,它負責與 Master 節點通信,接收 Master 發來的指令并在本地執行,比如創建、啟動、停止和刪除 Pod 等操作。同時,它還會監控本地容器的運行狀態,向 Master 節點匯報資源使用情況(如 CPU、內存的使用率等),在源碼中,kubelet 實現了與容器運行時(如 Docker、containerd 等)的交互接口,通過調用相應的 API 來管理容器,并且維護了本地容器的詳細狀態信息,保障容器在 Node 上的正常運行和與集群的協調一致。
  • kube-proxy:主要負責實現 Kubernetes 集群內的服務發現和負載均衡功能,它通過在 Node 上設置網絡規則(如 iptables 規則、IPVS 規則等,不同的實現方式可以通過配置選擇),將對服務(Service)的訪問請求轉發到對應的 Pod 集合上。例如,當有外部請求訪問一個后端由多個 Pod 組成的服務時,kube-proxy 會根據設定的負載均衡策略(如輪詢、隨機等)將請求均勻地分配到各個 Pod 上,保障服務的高可用性和負載均衡,在源碼中,kube-proxy 有針對不同網絡代理機制的具體實現代碼,用于準確地配置和更新網絡規則,實現高效的服務轉發和負載均衡功能。
2. Docker 與 Kubernetes 的協同工作

在實際的微服務部署場景中,Docker 與 Kubernetes 常常配合使用,各自發揮優勢來構建高效、可靠的容器化應用平臺。

容器運行時層面的協作:
  • Kubernetes 本身支持多種容器運行時,Docker 就是其常用的一種(當然也可以使用其他如 containerd 等)。在 Kubernetes 集群中,kubelet 作為與容器運行時交互的關鍵組件,當需要創建、啟動或管理容器時,kubelet 會調用 Docker 的 API(通過實現相應的接口規范,在源碼中有對應的調用邏輯和參數傳遞等實現細節)來執行具體的操作。例如,當一個新的 Pod(Pod 是 Kubernetes 中最小的可部署和可管理的計算單元,里面可以包含一個或多個容器)需要被部署到某個 Node 上時,kubelet 會向 Docker 發送創建容器的請求,按照 Pod 的配置信息(如鏡像名稱、容器啟動命令、資源需求等)來啟動相應的 Docker 容器,并且在容器運行過程中,kubelet 會持續監控容器狀態,通過 Docker 的 API 獲取容器的資源使用情況、運行狀態等信息,并反饋給 Kubernetes 的其他組件,實現容器在集群內的統一管理和狀態跟蹤。
鏡像管理與使用方面的協作:
  • Docker 構建的鏡像可以無縫地被 Kubernetes 使用。在 Kubernetes 的資源配置文件(如 Deployment、Pod 等資源定義文件)中,通過指定鏡像名稱和標簽(例如 image: my-service:1.0,這里 my-service:1.0 就是 Docker 構建的鏡像),Kubernetes 在調度 Pod 部署時會從相應的鏡像倉庫(可以是 Docker Hub 等公共倉庫,也可以是企業內部的私有倉庫)拉取指定的鏡像,然后基于該鏡像啟動容器。同時,Kubernetes 也提供了鏡像更新、版本管理等功能,當需要升級微服務時,可以通過修改資源配置文件中的鏡像標簽來觸發滾動更新(例如從 my-service:1.0 更新到 my-service:2.0),Kubernetes 會按照設定的更新策略(如逐步替換舊的 Pod 等),利用 Docker 的鏡像拉取和容器啟動功能,平穩地完成微服務的版本升級,保障業務的連續性和穩定性。
網絡配置方面的協作:
  • 在網絡配置上,Kubernetes 有自己的一套網絡模型和配置機制,它旨在實現容器之間以及容器與外部網絡的可靠、高效通信,同時要滿足集群內復雜的服務發現、負載均衡等需求。雖然 Docker 本身有多種網絡模式可供選擇,但在 Kubernetes 集群中,通常會采用 Kubernetes 原生的網絡插件(如 Calico、Flannel 等)來構建網絡。這些網絡插件會與 Docker 的網絡功能相互配合,例如,在容器啟動時,Kubernetes 網絡插件會基于 Docker 的網絡接口(通過調用 Docker 的網絡相關 API 或者利用 Docker 已創建的網絡環境基礎)為容器配置合適的 IP 地址、設置網絡路由以及實現跨節點的網絡通信等功能,保障容器在 Kubernetes 集群環境下能夠按照集群的網絡規劃進行通信和協作,實現不同微服務之間的相互調用以及對外提供統一的服務接口。
資源管理和調度方面的協作:
  • Kubernetes 通過資源配額(Resource Quota)、限制范圍(Limit Range)等機制來對集群內的資源(如 CPU、內存等)進行統一管理和分配,確保各個微服務(以 Pod 為單位進行資源分配考量)能夠獲得合理的資源來穩定運行,避免資源的過度占用或浪費。在這個過程中,Docker 提供了基于 cgroups 等內核特性的資源限制和統計功能(前面介紹 Docker 基本概念時有提到),Kubernetes 在調度 Pod 時,會參考 Docker 提供的容器資源使用情況(通過 kubelet 獲取并上報的信息)以及預先設定的資源需求參數(在 Pod 資源配置文件中定義),利用自身的調度算法(如前面提到的 kube-scheduler 的調度算法),將 Pod 合理地分配到不同的 Node 上,并且在運行過程中持續監控資源使用情況,通過與 Docker 的交互(如調整容器的資源限制參數等)來保障資源的有效利用和整個集群的性能平衡,實現微服務在資源層面的高效部署和穩定運行。

通過 Docker 與 Kubernetes 的緊密協作,能夠充分發揮 Docker 在容器構建、鏡像管理等方面的便利性以及 Kubernetes 在容器編排、資源管理、服務發現等方面的強大功能,為微服務的大規模部署、運行和管理提供了一個完善的解決方案,滿足復雜業務場景下對容器化應用的各種需求。

(四)實際項目案例演示微服務的容器化部署流程

1. 案例背景

假設有一個在線商城系統,采用微服務架構,包含用戶服務(負責用戶注冊、登錄、信息查詢等功能)、商品服務(管理商品信息的添加、查詢、修改等操作)、訂單服務(處理訂單的創建、支付、查詢等流程)以及支付服務(對接第三方支付平臺完成支付操作)等多個微服務。該系統需要部署到生產環境中,并且要滿足高可用性、可擴展性以及易于管理等要求,我們將使用 Docker 和 Kubernetes 來實現微服務的容器化部署。

2. 架構設計
整體架構:
  • 整個系統架構基于 Kubernetes 集群進行部署,Kubernetes 集群由多個 Master 節點(用于管理集群資源、調度等操作)和多個 Node 節點(作為容器的宿主機,運行各個微服務的容器)組成。每個微服務都構建為獨立的 Docker 鏡像,然后通過 Kubernetes 的資源配置文件進行定義和部署,實現微服務之間的相互協作以及對外提供服務。
微服務鏡像構建:

以用戶服務為例,其項目結構和代碼實現(簡化示例)如下:

user-service/
├── src/
│   └── main/
│       ├── java/
│       │   └── com/example/userservice/
│       │       ├── UserController.java
│       │       ├── UserService.java
│       │       ├── UserRepository.java
│       │       └── User.java
│       └── resources/
│           ├── application.properties
│           └── static/
└── Dockerfile

UserController.java:

@RestController
@RequestMapping("/users")
public class UserController {private final UserService userService;public UserController(UserService userService) {this.userService = userService;}@GetMapping("/{id}")public User getUserById(@PathVariable Long id) {return userService.getUserById(id);}@PostMapping("/register")public User registerUser(@RequestBody User user) {return userService.registerUser(user);}
}

UserService.java:

@Service
public class UserService {private final UserRepository userRepository;public UserService(UserRepository userRepository) {this.userRepository = userRepository;}public User getUserById(Long id) {return userRepository.findById(id).orElse(null);}public User registerUser(User user) {return userRepository.save(user);}
}

UserRepository.java:

@Repository
public interface UserRepository extends JpaRepository<User, Long> {}

User.java:

@Entity
@Table(name = "users")
public class User {@Id@GeneratedValue(strategy = GenerationType.IDENTITY)private Long id;private String name;private String email;// 省略構造函數、Getter 和 Setter 等方法
}

application.properties:

server.port=8080
spring.datasource.url=jdbc:mysql://<數據庫地址>/<數據庫名稱>
spring.datasource.username=<用戶名>
spring.datasource.password=<密碼>

Dockerfile 示例:

# 基于 OpenJDK 11 構建 Spring Boot 微服務鏡像
FROM openjdk:11-jdk# 設置工作目錄
WORKDIR /app# 復制項目的 JAR 文件到容器內(假設已經通過 Maven 或 Gradle 構建好 JAR 文件)
COPY target/user-service-1.0.jar /app/user-service-1.0.jar# 設置容器啟動時執行的命令,運行 Spring Boot 微服務
CMD ["java", "-jar", "user-service-1.0.jar"]
構建用戶服務鏡像的步驟如下:
  • 首先,在用戶服務項目目錄下通過 Maven 或 Gradle 構建出可執行的 JAR 文件(以 Maven 為例,執行 mvn clean package),然后在包含 Dockerfile 的目錄下執行以下命令構建鏡像:
docker build -t user-service:1.0.
  • 同樣的方式,可以為商品服務、訂單服務、支付服務等其他微服務分別構建對應的 Docker 鏡像,只是每個微服務的代碼實現和配置會根據其具體功能有所不同。
Kubernetes 資源配置:

接下來,為了在 Kubernetes 集群中部署這些微服務,需要創建相應的 Kubernetes 資源配置文件。
以用戶服務為例,創建一個 user-service-deployment.yaml 文件用于定義 Deployment(用于管理 Pod 的創建、更新和副本數量等)資源:

apiVersion: apps/v1
kind: Deployment
metadata:name: user-service-deploymentlabels:app: user-service
spec:replicas: 3selector:matchLabels:app: user-servicetemplate:metadata:labels:app: user-servicespec:containers:- name: user-service-containerimage: user-service:1.0ports:- containerPort: 8080

在這個配置文件中:

  • apiVersion、kind 等字段定義了這是一個 apps/v1 版本的 Deployment 資源,名稱為 user-service-deployment,并且通過 labels 打上了 app: user-service 的標簽用于標識和篩選。
  • replicas 字段指定了要創建 3 個副本的 Pod,以保障服務的高可用性,即使某個容器出現故障,還有其他副本可以繼續提供服務。
  • selector 用于指定該 Deployment 管理哪些 Pod,通過匹配 labels 中的 app: user-service 來關聯對應的 Pod。
  • template 部分定義了 Pod 的模板,每個 Pod 內包含一個名為 user-service-container 的容器,使用之前構建的 user-service:1.0 鏡像,并且容器內的應用監聽 8080 端口。

還需要創建一個 user-service-service.yaml 文件用于定義 Service(用于實現服務發現和負載均衡)資源,使得其他微服務或者外部客戶端能夠訪問到用戶服務:

apiVersion: v1
kind: Service
metadata:name: user-service
spec:selector:app: user-serviceports:- protocol: TCPport: 8080targetPort: 8080type: ClusterIP

在這個 Service 配置文件中:

  • 通過 selector 關聯到之前定義的帶有 app: user-service 標簽的 Pod,這樣 Service 就知道要將請求轉發到哪些后端 Pod 上。
  • ports 字段定義了服務暴露的端口信息,這里將外部訪問的端口(port)和轉發到容器內部的目標端口(targetPort)都設置為 8080,并且協議為 TCP。
  • type 字段設置為 ClusterIP,表示該服務在 Kubernetes 集群內部可訪問,外部網絡默認無法直接訪問,如果需要對外暴露,可以根據實際情況修改為 NodePort 或 LoadBalancer 等類型(NodePort 會在每個 Node 節點上開放一個指定端口用于外部訪問,LoadBalancer 通常用于結合云平臺的負載均衡器對外提供服務)。

類似地,為商品服務、訂單服務、支付服務等其他微服務也分別創建對應的 Deployment 和 Service 資源配置文件,只是配置中的名稱、鏡像等信息根據各自微服務進行相應修改。

3. 部署流程
準備 Kubernetes 集群:
  • 首先,需要搭建好一個 Kubernetes 集群,可以通過多種方式實現,比如使用 kubeadm 工具在多臺服務器上進行安裝和初始化(以下是簡單的 kubeadm 初始化 Master 節點示例,實際操作可能需要根據具體環境進行更多配置和調整):
    在 Master 節點上執行以下命令:
sudo apt-get update
sudo apt-get install -y apt-transport-https ca-certificates curl
curl -fsSL https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo apt-key add -
sudo add-apt-repository "deb https://packages.cloud.google.com/apt kubernetes-xenial main"
sudo apt-get update
sudo apt-get install -y kubelet kubeadm kubectl
sudo kubeadm init --pod-network-cidr=10.244.0.0/16
  • 初始化完成后,按照提示配置 kubectl 命令的使用權限(一般需要執行類似 mkdir -p $HOME/.kube && sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config && sudo chown ( i d ? u ) : (id -u): (id?u):(id -g) $HOME/.kube/config 的命令)。
    然后,安裝網絡插件(以 Flannel 網絡插件為例),在 Master 節點上執行:
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
  • 接著,將 Node 節點加入到 Kubernetes 集群中,在每個 Node 節點上執行 kubeadm join 命令(命令參數需要根據 Master 節點初始化完成后輸出的提示信息進行填寫)。
部署微服務到 Kubernetes 集群:
  • 在確保 Kubernetes 集群正常運行且網絡配置完成后,就可以將之前創建的微服務資源配置文件部署到集群中了。

以用戶服務為例,在包含 user-service-deployment.yaml 和 user-service-service.yaml 文件的目錄下,執行以下命令分別創建 Deployment 和 Service 資源:

kubectl apply -f user-service-deployment.yaml
kubectl apply -f user-service-service.yaml
  • 同樣的方式,依次將其他微服務(商品服務、訂單服務、支付服務等)對應的 Deployment 和 Service 資源配置文件部署到 Kubernetes 集群中,執行完這些操作后,Kubernetes 會根據配置自動調度并在合適的 Node 節點上創建相應的 Pod 副本,啟動容器,并且通過 Service 資源實現服務之間的相互訪問和負載均衡。

可以使用以下 kubectl 命令來查看部署情況:

  • 查看所有的 Deployment 資源狀態:
kubectl get deployments

輸出類似如下信息,展示各個微服務的 Deployment 的名稱、可用副本數、期望副本數等情況:

NAME                    READY   UP-TO-DATE   AVAILABLE   AGE
user-service-deployment   3/3     3            3           10m
product-service-deployment   3/3     3            3           8m
order-service-deployment    3/3     3            3           6m
payment-service-deployment   3/3     3            3           4m

查看所有的 Service 資源狀態:

kubectl get services

輸出類似如下信息,展示各個微服務的 Service 的名稱、類型、集群內部 IP 地址以及暴露的端口等情況:

NAME                    TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)    AGE
user-service            ClusterIP   10.96.123.123    <none>        8080/TCP   10m
product-service         ClusterIP   10.96.234.234    <none>        8080/TCP   8m
order-service           ClusterIP   10.96.345.345    <none>        8080/TCP   6m
payment-service          ClusterIP   10.96.456.456    <none>        8080/TCP   4m
  • 通過上述完整的流程,利用 Docker 構建微服務鏡像,再結合 Kubernetes 進行容器編排和資源管理,成功實現了在線商城系統微服務的容器化部署,并且能夠方便地進行擴展、管理以及保障服務的高可用性和穩定運行。
  • 在實際項目中,可以根據業務需求的變化,比如流量增長需要增加微服務副本數量、微服務版本更新等情況,通過修改 Kubernetes 的資源配置文件并執行相應的 kubectl 命令來實現靈活的調整和部署,充分發揮容器化技術和容器編排平臺在微服務架構下的優勢。

希望通過這個實際案例,能讓讀者更清晰地理解如何使用 Docker 與 Kubernetes 協同進行微服務的容器化部署,在實際的項目開發和部署中能夠更好地運用這些技術來構建高效、可靠的分布式系統。

總之,容器化技術特別是 Docker 以及與之配合的容器編排工具如Kubernetes,為微服務的部署和管理帶來了極大的便利和優勢,從鏡像構建、容器運行到集群化的資源調配和服務管理,形成了一套完整的解決方案,助力企業應對復雜多變的業務場景和不斷增長的系統規模需求。

相關資料已更新
關注公眾號:搜 架構研究站,回復:資料領取,即可獲取全部面試題以及1000+份學習資料
在這里插入圖片描述

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/web/64722.shtml
繁體地址,請注明出處:http://hk.pswp.cn/web/64722.shtml
英文地址,請注明出處:http://en.pswp.cn/web/64722.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

TypeScript 后端開發中的熱重載編譯處理

在一些除了nest框架外的一些其他nodejs框架中沒有提供對ts編譯和熱重載&#xff0c;如果使用typescript我們需要自己進行配置。 方法一&#xff08;推薦&#xff09; 使用bun運行環境&#xff08;快&#xff09;。注&#xff1a;一些不是使用js&#xff0c;ts代碼編寫的第三方…

QT集成IntelRealSense雙目攝像頭3,3D顯示

前兩篇文章&#xff0c;介紹了如何繼承intel realsense相機和opengl。 這里介紹如何給深度數據和色彩數據一塊顯示到opengl里面。 首先&#xff0c;需要了解深度數據和彩色數據是如何存儲的。先說彩色數據。彩色圖像一般都是RGB&#xff0c;也就是每個像素有三個字節&#xf…

Postman[4] 環境設置

作用&#xff1a;不同的環境可以定義不同的參數&#xff0c;在運行請求時可以根據自己的需求選擇需要的環境 1.創建Environment 步驟&#xff1a; Environment-> ->命名->添加環境變量 2.使用Environment 步驟&#xff1a;Collection- >右上角選擇需要的環境

【合并區間】

問題 以數組 intervals 表示若干個區間的集合&#xff0c;其中單個區間為 intervals[i] [starti, endi] 。 請你合并所有重疊的區間&#xff0c;并返回 一個不重疊的區間數組&#xff0c;該數組需恰好覆蓋輸入中的所有區間 。示例 1&#xff1a; 輸入&#xff1a;intervals …

SpringBoot_第二天

SpringBoot_第二天 學習目標 Mybatis整合&數據訪問 使用SpringBoot開發企業項目時&#xff0c;持久層數據訪問是前端頁面數據展示的基礎&#xff0c;SpringBoot支持市面上常見的關系庫產品(Oracle,Mysql,SqlServer,DB2等)對應的相關持久層框架&#xff0c;當然除了對于關系…

SparseViT:基于稀疏編碼Transformer的非語義中心、參數高效的圖像篡改定位

摘要 https://arxiv.org/pdf/2412.14598 非語義特征或語義無關特征&#xff0c;與圖像上下文無關但對圖像篡改敏感&#xff0c;被認為是圖像篡改定位&#xff08;IML&#xff09;的重要證據。由于無法獲得人工標簽&#xff0c;現有工作依賴于手工方法提取非語義特征。手工非語…

Redisson 分布式鎖獲取tryLock和lock的區別

問題 boolean isLock lock.tryLock(10, 30, TimeUnit.SECONDS); boolean isLock lock.lock(30, TimeUnit.SECONDS); boolean isLock lock.lock(); 三者的區別&#xff1f;&#xff1f; 這三個方法都是用于獲取 Redisson 分布式鎖的&#xff0c;但它們在獲取鎖的方式和行為…

【git】git生成rsa公鑰的方法

git生成rsa公鑰的方法 一&#xff0c;簡介二&#xff0c;操作方法三&#xff0c;總結 一&#xff0c;簡介 在工作的過程中&#xff0c;經常需要生成rsa的密鑰&#xff0c;然后提供給別人&#xff0c;然后別人給你開通代碼下載權限。本文介紹如何在本地生成rsa的密鑰供參考。 …

Zookeeper模式安裝Kafka(含常規、容器兩種安裝方式)

一、#創作靈感# 公司使用Kafka的軟件項目較多&#xff0c;故寫技術筆記鞏固知識要點 二、軟件環境 - Kafka 3.9.0 官方下載地址&#xff1a;Kafka 3.9.0 - ZooKeeper 3.9.3 官方下載地址&#xff1a;ZooKeeper 3.9.3 - Docker Desktop 4.37 容器圖形化工具 官方下載地址…

7.傅里葉級數練習題

7.傅里葉級數練習題 設函數&#xff1a; f ( x ) { ? x , 0 ≤ x ≤ 1 2 , 2 ? 2 x , 1 2 < x < 1 , f(x) \begin{cases} -x, & 0 \leq x \leq \frac{1}{2}, \\ 2 - 2x, & \frac{1}{2} < x < 1, \end{cases} f(x){?x,2?2x,?0≤x≤21?,21?<x&…

【高項】信息系統項目管理師(二)項目管理概論

一、PMBOK的發展 項目管理知識體系&#xff08;PMBOK&#xff09;是由美國項目管理協會&#xff08;PMI&#xff09;開發的一套描述項目管理專業范圍的知識體系&#xff0c;包含了對項目管理所需的知識、技能和工具的描述。 二、項目基本要素 2.1 項目基礎 項目是為提供一項…

C++設計模式:狀態模式(自動售貨機)

什么是狀態模式&#xff1f; 狀態模式是一種行為型設計模式&#xff0c;它允許一個對象在其內部狀態發生改變時&#xff0c;動態改變其行為。通過將狀態相關的邏輯封裝到獨立的類中&#xff0c;狀態模式能夠將狀態管理與行為解耦&#xff0c;從而讓系統更加靈活和可維護。 通…

【Pytorch實用教程】循環神經網絡中使用dropout需要注意的問題

文章目錄 問題解答警告的具體含義解決方案示例代碼總結問題 UserWarning: dropout option adds dropout after all but last recurrent layer, so non-zero dropout expects num_layers greater than 1, but got dropout=0.3 and num_layers=1 warnings.warn("dropout op…

數據中臺與數據治理服務方案[50頁PPT]

本文概述了數據中臺與數據治理服務方案的核心要點。數據中臺作為政務服務數據化的核心&#xff0c;通過整合各部門業務系統數據&#xff0c;進行建模與加工&#xff0c;以新數據驅動政府管理效率提升與政務服務能力增強。數據治理則聚焦于解決整體架構問題&#xff0c;確保數據…

postgresq-自定義執行計劃(custom plan)與generic plan(通用執行計劃)

文章目錄 之前寫過一篇關于 PostgreSQL prepare sql的文章&#xff0c;但當時沒有提到generic plan(通用計劃)和custom plan(自定義計劃)這兩個概念。現在將通過舉例介紹這兩個概念。 創建測試表&#xff1a; postgres# create database demo; CREATE DATABASE postgres# \c d…

dockfile 配置 /etc/apt/source.list.d/debian.list 清華鏡像

docker:3.12.7 鏡像使用的是 debian 系統&#xff0c;比 ubuntu 更輕量。debian 系統內&#xff0c;apt 鏡像源列表位于 /etc/apt/source.list.d/debian.list&#xff08;作為對比&#xff0c;ubuntu 的鏡像列表位于 /etc/apt/source.list&#xff0c;二者語法相同&#xff09;…

程序員測試日常小工具

作為一名程序員&#xff0c;或者測試人員&#xff0c;日常工作最常用的工具有哪些&#xff0c;截圖&#xff0c;截圖漂浮&#xff0c;翻譯&#xff0c;日期處理&#xff0c;api調用...&#xff0c; 當你拿到一串報文后&#xff0c;想要json轉換時&#xff0c;是不是要打…

【MySQL高級】第1-4章

第1章 存儲過程 1.1 什么是存儲過程&#xff1f; 存儲過程可稱為過程化SQL語言&#xff0c;是在普通SQL語句的基礎上增加了編程語言的特點&#xff0c;把數據操作語句(DML)和查詢語句(DQL)組織在過程化代碼中&#xff0c;通過邏輯判斷、循環等操作實現復雜計算的程序語言。 換…

深入淺出:AWT事件監聽器及其應用

前言 在Java的GUI編程中&#xff0c;事件處理是非常重要的一環。AWT&#xff08;Abstract Window Toolkit&#xff09;框架提供了靈活的事件處理機制&#xff0c;使得開發者能夠響應用戶的操作&#xff0c;例如點擊按鈕、鍵盤輸入、鼠標點擊等。AWT的事件監聽器就是實現這一機…

【Rust自學】8.5. HashMap Pt.1:HashMap的定義、創建、合并與訪問

8.5.0. 本章內容 第八章主要講的是Rust中常見的集合。Rust中提供了很多集合類型的數據結構&#xff0c;這些集合可以包含很多值。但是第八章所講的集合與數組和元組有所不同。 第八章中的集合是存儲在堆內存上而非棧內存上的&#xff0c;這也意味著這些集合的數據大小無需在編…