Hadoop集群(四) Hadoop升級

Hadoop前面安裝的集群是2.6版本,現在升級到2.7版本。

注意,這個集群上有運行Hbase,所以,升級前后,需要啟停Hbase。

更多安裝步驟,請參考:

Hadoop集群(一) Zookeeper搭建

Hadoop集群(二) HDFS搭建

Hadoop集群(三) Hbase搭建

升級步驟如下:

集群IP列表

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
Namenode:
192.168.143.46
192.168.143.103
Journalnode:
192.168.143.101
192.168.143.102
192.168.143.103
Datanode&Hbase?regionserver:
192.168.143.196
192.168.143.231
192.168.143.182
192.168.143.235
192.168.143.41
192.168.143.127
Hbase?master:
192.168.143.103
192.168.143.101
Zookeeper:
192.168.143.101
192.168.143.102
192.168.143.103

1. 首先確定hadoop運行的路徑,將新版本的軟件分發到每個節點的這個路徑下,并解壓。

1
2
3
4
5
6
7
8
#?ll?/usr/local/hadoop/
total?493244
drwxrwxr-x?9?root?root??????4096?Mar?21??2017?hadoop-release?->hadoop-2.6.0-EDH-0u1-SNAPSHOT-HA-SECURITY
drwxr-xr-x?9?root?root??????4096?Oct?11?11:06?hadoop-2.7.1
-rw-r--r--?1?root?root?194690531?Oct??9?10:55?hadoop-2.7.1.tar.gz
drwxrwxr-x?7?root?root??????4096?May?21??2016?hbase-1.1.3
-rw-r--r--?1?root?root?128975247?Apr?10??2017?hbase-1.1.3.tar.gz
lrwxrwxrwx?1?root?root????????29?Apr?10??2017?hbase-release?->?/usr/local/hadoop/hbase-1.1.3

由于是升級,配置文件完全不變,將原hadoop-2.6.0下的etc/hadoop路徑完全拷貝/替換到hadoop-2.7.1下。

至此,升級前的準備就已經完成了。

?

下面開始升級操作過程。全程都是在一個中轉機上執行的命令,通過shell腳本執行,省去頻繁ssh登陸的操作。

## 停止hbase,hbase用戶執行?

2. 停止Hbase master,hbase用戶執行

狀態檢查,確認master,先停standby master

1
http://192.168.143.101:16010/master-status
1
2
3
4
5
master:
ssh?-t?-q?192.168.143.103??sudo?su?-l?hbase?-c?"/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\?stop\?master"
ssh?-t?-q?192.168.143.103??sudo?su?-l?hbase?-c?"jps"
ssh?-t?-q?192.168.143.101??sudo?su?-l?hbase?-c?"/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\?stop\?master"
ssh?-t?-q?192.168.143.101??sudo?su?-l?hbase?-c?"jps"

3. 停止Hbase regionserver,hbase用戶執行

1
2
3
4
5
6
ssh?-t?-q?192.168.143.196??sudo?su?-l?hbase?-c?"/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\?stop\?regionserver"
ssh?-t?-q?192.168.143.231??sudo?su?-l?hbase?-c?"/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\?stop\?regionserver"
ssh?-t?-q?192.168.143.182??sudo?su?-l?hbase?-c?"/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\?stop\?regionserver"
ssh?-t?-q?192.168.143.235??sudo?su?-l?hbase?-c?"/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\?stop\?regionserver"
ssh?-t?-q?192.168.143.41???sudo?su?-l?hbase?-c?"/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\?stop\?regionserver"
ssh?-t?-q?192.168.143.127??sudo?su?-l?hbase?-c?"/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\?stop\?regionserver"

檢查運行狀態

1
2
3
4
5
6
ssh?-t?-q?192.168.143.196??sudo?su?-l?hbase?-c?"jps"?
ssh?-t?-q?192.168.143.231??sudo?su?-l?hbase?-c?"jps"
ssh?-t?-q?192.168.143.182??sudo?su?-l?hbase?-c?"jps"
ssh?-t?-q?192.168.143.235??sudo?su?-l?hbase?-c?"jps"
ssh?-t?-q?192.168.143.41???sudo?su?-l?hbase?-c?"jps"
ssh?-t?-q?192.168.143.127??sudo?su?-l?hbase?-c?"jps"

## 停止服務--HDFS

4. 先確認,active的namenode,網頁確認.后續要先啟動這個namenode

1
https://192.168.143.46:50470/dfshealth.html#tab-overview

5. 停止NameNode,hdfs用戶執行

NN: 先停standby namenode

1
2
3
4
5
ssh?-t?-q?192.168.143.103??sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?stop\?namenode"
ssh?-t?-q?192.168.143.46???sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?stop\?namenode"
檢查狀態
ssh?-t?-q?192.168.143.103??sudo?su?-l?hdfs?-c?"jps"
ssh?-t?-q?192.168.143.46???sudo?su?-l?hdfs?-c?"jps"

6. 停止DataNode,hdfs用戶執行

1
2
3
4
5
6
ssh?-t?-q?192.168.143.196??sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?stop\?datanode"
ssh?-t?-q?192.168.143.231??sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?stop\?datanode"
ssh?-t?-q?192.168.143.182??sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?stop\?datanode"
ssh?-t?-q?192.168.143.235??sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?stop\?datanode"
ssh?-t?-q?192.168.143.41???sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?stop\?datanode"
ssh?-t?-q?192.168.143.127??sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?stop\?datanode"

7. 停止ZKFC,hdfs用戶執行

1
2
ssh?-t?-q?192.168.143.46???sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?stop\?zkfc"
ssh?-t?-q?192.168.143.103??sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?stop\?zkfc"

8.停止JournalNode,hdfs用戶執行

1
2
3
4
JN:
ssh?-t?-q?192.168.143.101??sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?stop\?journalnode"
ssh?-t?-q?192.168.143.102??sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?stop\?journalnode"
ssh?-t?-q?192.168.143.103??sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?stop\?journalnode"

### 備份NameNode的數據,由于生產環境,原有的數據需要備份。以備升級失敗回滾。

9. 備份namenode1

1
2
ssh?-t?-q?192.168.143.46?"cp?-r?/data1/dfs/name????/data1/dfs/name.bak.20171011-2;ls?-al?/data1/dfs/;du?-sm?/data1/dfs/*"?
ssh?-t?-q?192.168.143.46?"cp?-r?/data2/dfs/name????/data2/dfs/name.bak.20171011-2;ls?-al?/data1/dfs/;du?-sm?/data1/dfs/*"

10. 備份namenode2

1
2
ssh?-t?-q?192.168.143.103?"cp?-r?/data1/dfs/name
/data1/dfs/name.bak.20171011-2;ls?-al?/data1/dfs/;du?-sm?/data1/dfs/*"

11. 備份journal

1
2
3
ssh?-t?-q?192.168.143.101?"cp?-r?/data1/journalnode???/data1/journalnode.bak.20171011;ls?-al?/data1/dfs/;du?-sm?/data1/*"
ssh?-t?-q?192.168.143.102?"cp?-r?/data1/journalnode???/data1/journalnode.bak.20171011;ls?-al?/data1/dfs/;du?-sm?/data1/*"
ssh?-t?-q?192.168.143.103?"cp?-r?/data1/journalnode???/data1/journalnode.bak.20171011;ls?-al?/data1/dfs/;du?-sm?/data1/*"

journal路徑,可以查看hdfs-site.xml文件

1
2
dfs.journalnode.edits.dir:??
/data1/journalnode

### 升級相關

12. copy文件(已提前處理,參考第一步)

切換軟連接到2.7.1版本

1
ssh?-t?-q?$h?"cd?/usr/local/hadoop;?rm?hadoop-release;?ln?-s?hadoop-2.7.1?hadoop-release"

13. 切換文件軟鏈接,root用戶執行

1
2
3
4
5
6
7
8
9
10
ssh?-t?-q?192.168.143.46???"cd?/usr/local/hadoop;?rm?hadoop-release;?ln?-s?hadoop-2.7.1?hadoop-release"
ssh?-t?-q?192.168.143.103???"cd?/usr/local/hadoop;?rm?hadoop-release;?ln?-s?hadoop-2.7.1?hadoop-release"
ssh?-t?-q?192.168.143.101???"cd?/usr/local/hadoop;?rm?hadoop-release;?ln?-s?hadoop-2.7.1?hadoop-release"
ssh?-t?-q?192.168.143.102???"cd?/usr/local/hadoop;?rm?hadoop-release;?ln?-s?hadoop-2.7.1?hadoop-release"
ssh?-t?-q?192.168.143.196???"cd?/usr/local/hadoop;?rm?hadoop-release;?ln?-s?hadoop-2.7.1?hadoop-release"
ssh?-t?-q?192.168.143.231???"cd?/usr/local/hadoop;?rm?hadoop-release;?ln?-s?hadoop-2.7.1?hadoop-release"
ssh?-t?-q?192.168.143.182???"cd?/usr/local/hadoop;?rm?hadoop-release;?ln?-s?hadoop-2.7.1?hadoop-release"
ssh?-t?-q?192.168.143.235???"cd?/usr/local/hadoop;?rm?hadoop-release;?ln?-s?hadoop-2.7.1?hadoop-release"
ssh?-t?-q?192.168.143.41????"cd?/usr/local/hadoop;?rm?hadoop-release;?ln?-s?hadoop-2.7.1?hadoop-release"
ssh?-t?-q?192.168.143.127???"cd?/usr/local/hadoop;?rm?hadoop-release;?ln?-s?hadoop-2.7.1?hadoop-release"

確認狀態

1
2
3
4
5
6
7
8
9
10
ssh?-t?-q?192.168.143.46????"cd?/usr/local/hadoop;?ls?-al"
ssh?-t?-q?192.168.143.103???"cd?/usr/local/hadoop;?ls?-al"
ssh?-t?-q?192.168.143.101???"cd?/usr/local/hadoop;?ls?-al"
ssh?-t?-q?192.168.143.102???"cd?/usr/local/hadoop;?ls?-al"
ssh?-t?-q?192.168.143.196???"cd?/usr/local/hadoop;?ls?-al"
ssh?-t?-q?192.168.143.231???"cd?/usr/local/hadoop;?ls?-al"
ssh?-t?-q?192.168.143.182???"cd?/usr/local/hadoop;?ls?-al"
ssh?-t?-q?192.168.143.235???"cd?/usr/local/hadoop;?ls?-al"
ssh?-t?-q?192.168.143.41????"cd?/usr/local/hadoop;?ls?-al"
ssh?-t?-q?192.168.143.127???"cd?/usr/local/hadoop;?ls?-al"

### 啟動HDFS,hdfs用戶執行

14. 啟動JournalNode?

1
2
3
4
JN:
ssh?-t?-q?192.168.143.101??sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?start\?journalnode"
ssh?-t?-q?192.168.143.102??sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?start\?journalnode"
ssh?-t?-q?192.168.143.103??sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?start\?journalnode"
1
2
3
ssh?-t?-q?192.168.143.101??sudo?su?-l?hdfs?-c?"jps"
ssh?-t?-q?192.168.143.102??sudo?su?-l?hdfs?-c?"jps"
ssh?-t?-q?192.168.143.103??sudo?su?-l?hdfs?-c?"jps"

15. 啟動第一個NameNode

1
2
3
ssh?192.168.143.46
su?-?hdfs
/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh?start?namenode?-upgrade

16. 確認狀態,在狀態完全OK之后,才可以啟動另一個namenode

1
https://192.168.143.46:50470/dfshealth.html#tab-overview

17. 啟動第一個ZKFC

1
2
3
su?-?hdfs
/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh?start?zkfc
192.168.143.46

18. 啟動第二個NameNode

1
2
3
4
ssh?192.168.143.103
su?-?hdfs
/usr/local/hadoop/hadoop-release/bin/hdfs?namenode?-bootstrapStandby
/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh?start?namenode

19. 啟動第二個ZKFC

1
2
3
ssh?192.168.143.103
su?-?hdfs
/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh?start?zkfc

20. 啟動DataNode

1
2
3
4
5
6
ssh?-t?-q?192.168.143.196??sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?start\?datanode"
ssh?-t?-q?192.168.143.231??sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?start\?datanode"
ssh?-t?-q?192.168.143.182??sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?start\?datanode"
ssh?-t?-q?192.168.143.235??sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?start\?datanode"
ssh?-t?-q?192.168.143.41???sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?start\?datanode"
ssh?-t?-q?192.168.143.127??sudo?su?-l?hdfs?-c?"/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\?start\?datanode"

確認狀態

1
2
3
4
5
6
ssh?-t?-q?192.168.143.196??sudo?su?-l?hdfs?-c?"jps"
ssh?-t?-q?192.168.143.231??sudo?su?-l?hdfs?-c?"jps"
ssh?-t?-q?192.168.143.182??sudo?su?-l?hdfs?-c?"jps"
ssh?-t?-q?192.168.143.235??sudo?su?-l?hdfs?-c?"jps"
ssh?-t?-q?192.168.143.41???sudo?su?-l?hdfs?-c?"jps"
ssh?-t?-q?192.168.143.127??sudo?su?-l?hdfs?-c?"jps"

21. 一切正常之后,啟動hbase, hbase用戶執行

啟動hbase master,最好先啟動原來的active master。

1
2
ssh?-t?-q?192.168.143.101??sudo?su?-l?hbase?-c?"/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\?start\?master"
ssh?-t?-q?192.168.143.103??sudo?su?-l?hbase?-c?"/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\?start\?master"

啟動Hbase regionserver

1
2
3
4
5
6
ssh?-t?-q?192.168.143.196??sudo?su?-l?hbase?-c?"/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\?start\?regionserver"
ssh?-t?-q?192.168.143.231??sudo?su?-l?hbase?-c?"/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\?start\?regionserver"
ssh?-t?-q?192.168.143.182??sudo?su?-l?hbase?-c?"/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\?start\?regionserver"
ssh?-t?-q?192.168.143.235??sudo?su?-l?hbase?-c?"/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\?start\?regionserver"
ssh?-t?-q?192.168.143.41???sudo?su?-l?hbase?-c?"/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\?start\?regionserver"
ssh?-t?-q?192.168.143.127??sudo?su?-l?hbase?-c?"/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\?start\?regionserver"

22. Hbase region需要手動Balance開啟、關閉

需要登錄HBase Shell運行如下命令

開啟

balance_switch true

關閉

balance_switch false

?

23. 本次不執行,系統運行一周,確保系統運行穩定,再執行Final。

注意:這期間,磁盤空間可能會快速增長。在執行完final之后,會釋放一部分空間。

Finallize upgrade: hdfs dfsadmin -finalizeUpgrade ?

http://blog.51cto.com/hsbxxl/1976472

?

轉載于:https://www.cnblogs.com/chuancheng/p/8973311.html

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/451870.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/451870.shtml
英文地址,請注明出處:http://en.pswp.cn/news/451870.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

學成在線--24.課程圖片管理(保存課程圖片)

文章目錄一. 需求分析二. 服務端開發1. 模型類2. API3. Dao4. Service5. Controller三. 前端開發1. API2. 頁面1). 添加上傳成功的鉤子 :on-success"handleSuccess"2). 在鉤子方法 中保存課程圖片信息一. 需求分析 圖片上傳到文件系統后,其它子系統如果想…

從任意網頁上摘取酷炫Jquery效果為自己使用的方法

前些天發現了一個巨牛的人工智能學習網站,通俗易懂,風趣幽默,忍不住分享一下給大家。點擊跳轉到教程。 1. 用的chrome 瀏覽器 2. 隨意百度一個漂亮的jquery效果 比如我找到一個可以旋轉的多面體效果 3. 再F12選 Resources到如下界面&…

shell基礎05 處理用戶輸入

1. 命令行參數------類似javac 參數1 參數2 類似Java中編譯的javac parm1....。在shell中,參數與參數之間用空格隔開。采用位置參數來識別對應的參數值:$0是程序名,$1是第一個參數,以此類推,知道第9個參數$9。對于大…

OpenCV 2.4.0 正式版發布,開源計算機視覺庫

OpenCV 于近日發布了 2.4.0 正式版。 OpenCV是一個基于BSD許可證授權發行的跨平臺開源計算機視覺庫,可以運行在Linux、Windows和Mac OS操作系統上。作為一款簡潔而且高效的視覺庫,OpenCV由一系列 C 函數和少量 C 類構成,同時提供了Python、Ru…

最小編輯代價-golang

題目: 給定兩個字符串str1和str2,在給定三個整數ic,dc和rc,分別代表插入、刪除和替換一個 字符,返回將str1編輯成str2的最小代價。 解題方法: 動態規劃。首先生成大小為(M1)X(N1)的矩陣dp。 假設str1"avb12cd3", str2&q…

You can't specify target table 'TS_AUTH_ADMIN' for update in FROM clause記錄

1. 報錯:You cant specify target table TS_AUTH_ADMIN for update in FROM clause, 百度查到說是,不能在同一語句中先select出同一表中的某些值,再update這個表 。 我原本的sql是:(刪除角色的時候&#…

study of javaserver faces lifecycle

JavaServer Faces應用程序的生命周期在客戶端為頁面發出HTTP請求時開始,并在服務器響應該頁面并轉換為HTML時結束。 通常將JSF的生命周期分為兩個階段: #執行階段 #渲染階段 1.執行階段 JavaServer Faces應用程序生命周期執行階段包含以下子階段&#xf…

從開源軟件開發中體會到的心得

Mitchell Hashimoto 是一名開源軟件工程師。由他托管到 GitHub 上的 開源項目 Vagrant,是一個用于創建和部署虛擬化開發環境的工具。近日,Mitchell撰文講述了在開發 Vagrant 的過程中學到的有關開源軟件開發的一些心得。 以下為原文文章: 把 …

學成在線--25.課程圖片管理(圖片查詢)

文章目錄一. 需求分析二. API三. 服務端開發1. Dao2. Service3. Controller四. 前端開發1. API方法2. 頁面一. 需求分析 課程圖片上傳成功,再次進入課程上傳頁面應該顯示出來已上傳的圖片。 二. API 在課程管理服務定義查詢方法 文件位置:xcEduServic…

redux源碼解讀

背景 因為就得去實習了。所以打算開始補補坑。比如自己閱讀源碼的計劃。所以今天來聊聊redux的源碼。后續會有redux-thunk和react-redux的源碼閱讀。搞定這些的話,就開始閱讀一個node的庫的源碼了,比如eventproxy和anywhere。 開始 總覽, redux的文件結構…

sql語句update中多個case/when的寫法

前些天發現了一個巨牛的人工智能學習網站,通俗易懂,風趣幽默,忍不住分享一下給大家。點擊跳轉到教程。 又如: update xxxx_xxxx set xxx_typeCASE WHEN xxx_type 0 THENYXLX-0WHEN xxx_type 1 THENYXLX-1WHEN xxx_type 2 THE…

Redis-ha(sentinel)搭建

服務器描述:本次搭建是用來測試,所以是在一臺服務器上搭建三個redis服務(一主兩從) 服務角色 端口 Redis.conf名稱 sentinel配置文件名稱 sentinel端口 redis日志路徑 sentinel路勁 主(master) 6379 redis.conf sentine…

學成在線--26.課程圖片管理(圖片刪除)

文章目錄一. 需求分析二. API三. 服務端開發1. Dao2. Service3. Controller四. 前端開發1. API方法2. 頁面1.before-remove鉤子方法2.handleRemove鉤子方法一. 需求分析 課程圖片上傳成功后,可以重新上傳,方法是先刪除現有圖片再上傳新圖片;…

警惕開源代碼庫中的安全隱患

最近的一項研究發現, 在調查的31個流行庫(框架)的1261個版本中,超過三分之一存在已知的安全漏洞,大約四分之一的下載文件已經被污染。 該項研究由Aspect Security和Sonatype發起。Aspect Security是一家評估軟件安全漏…

jsp注釋

jsp注釋 <%--注釋內容--%> html注釋 <!--注釋內容-->

線程間的協作(3)——管道輸入/輸出流

2019獨角獸企業重金招聘Python工程師標準>>> 1.管道輸入/輸出流類 分為兩類&#xff0c;字節流管道類&#xff08;PipedInputStream/PipedOutputStream&#xff09;和字符流管道類&#xff08;PipedReader/ PipedWriter&#xff09;。這兩個IO流實現了可以在不同的任…

windows簡易版本 Redis 使用 demo樣例(ssm框架下)

前些天發現了一個巨牛的人工智能學習網站&#xff0c;通俗易懂&#xff0c;風趣幽默&#xff0c;忍不住分享一下給大家。點擊跳轉到教程。 1. 在網上下載 windows 版本 的Redis 。下載了直接解壓出來 &#xff1a; 2. 雙擊 redis-server.exe 啟動服務&#xff08;如下圖&#…

Redhat7.3安裝配置Telnet詳細教程

請參考&#xff1a;https://blog.csdn.net/weixin_39934520/article/details/84835949 謝謝樓主分享&#xff01;