Redis主從復制原理學習

Redis主從復制原理學習總結 - 運維筆記

?

和Mysql主從復制的原因一樣,Redis雖然讀取寫入的速度都特別快,但是也會產生讀壓力特別大的情況。為了分擔讀壓力,Redis支持主從復制,Redis的主從結構可以采用一主多從或者級聯結構,Redis主從復制可以根據是否是全量分為全量同步和增量同步。下圖為級聯結構。?

全量同步
Redis全量復制一般發生在Slave初始化階段,這時Slave需要將Master上的所有數據都復制一份。具體步驟如下:
-? 從服務器連接主服務器,發送SYNC命令;
-? 主服務器接收到SYNC命名后,開始執行BGSAVE命令生成RDB文件并使用緩沖區記錄此后執行的所有寫命令;
-? 主服務器BGSAVE執行完后,向所有從服務器發送快照文件,并在發送期間繼續記錄被執行的寫命令;
-? 從服務器收到快照文件后丟棄所有舊數據,載入收到的快照;
-? 主服務器快照發送完畢后開始向從服務器發送緩沖區中的寫命令;
-? 從服務器完成對快照的載入,開始接收命令請求,并執行來自主服務器緩沖區的寫命令;

完成上面幾個步驟后就完成了從服務器數據初始化的所有操作,從服務器此時可以接收來自用戶的讀請求。

增量同步
Redis增量復制是指Slave初始化后開始正常工作時主服務器發生的寫操作同步到從服務器的過程。
增量復制的過程主要是主服務器每執行一個寫命令就會向從服務器發送相同的寫命令,從服務器接收并執行收到的寫命令。
?
Redis主從同步策略
主從剛剛連接的時候,進行全量同步;全同步結束后,進行增量同步。當然,如果有需要,slave 在任何時候都可以發起全量同步。redis 策略是,無論如何,首先會嘗試進行增量同步,如不成功,要求從機進行全量同步。
?
需要注意:如果多個Slave斷線了,需重啟時,因為只要Slave啟動,就會發送sync請求和主機全量同步,當多個同時出現的時候,可能會導致Master IO劇增宕機。

Redis主從復制的配置十分簡單,它可以使從服務器是主服務器的完全拷貝。需要清楚知道Redis主從復制的幾點重要內容:
1)Redis使用異步復制。但從Redis 2.8開始,從服務器會周期性的應答從復制流中處理的數據量。
2)一個主服務器可以有多個從服務器。
3)從服務器也可以接受其他從服務器的連接。除了多個從服務器連接到一個主服務器之外,多個從服務器也可以連接到一個從服務器上,形成一個圖狀結構。
4)Redis主從復制不阻塞主服務器端。也就是說當若干個從服務器在進行初始同步時,主服務器仍然可以處理請求。
5)主從復制也不阻塞從服務器端。當從服務器進行初始同步時,它使用舊版本的數據來應對查詢請求,假設你在redis.conf配置文件是這么配置的。否則的話,你可以配置當復制流關閉時讓從服務器給客戶端返回一個錯誤。但是當初始同步完成后,需刪除舊數據集和加載新的數據集,在這個短暫時間內,從服務器會阻塞連接進來的請求。
6)主從復制可以用來增強擴展性,使用多個從服務器來處理只讀的請求(比如,繁重的排序操作可以放到從服務器去做),也可以簡單的用來做數據冗余。
7)使用主從復制可以為主服務器免除把數據寫入磁盤的消耗:在主服務器的redis.conf文件中配置“避免保存”(注釋掉所有“保存“命令),然后連接一個配置為“進行保存”的從服務器即可。但是這個配置要確保主服務器不會自動重啟(要獲得更多信息請閱讀下一段)

主從復制的一些特點:
1)采用異步復制;
2)一個主redis可以含有多個從redis;
3)每個從redis可以接收來自其他從redis服務器的連接;
4)主從復制對于主redis服務器來說是非阻塞的,這意味著當從服務器在進行主從復制同步過程中,主redis仍然可以處理外界的訪問請求;
5)主從復制對于從redis服務器來說也是非阻塞的,這意味著,即使從redis在進行主從復制過程中也可以接受外界的查詢請求,只不過這時候從redis返回的是以前老的數據,如果你不想這樣,那么在啟動redis時,可以在配置文件中進行設置,那么從redis在復制同步過程中來自外界的查詢請求都會返回錯誤給客戶端;(雖然說主從復制過程中對于從redis是非阻塞的,但是當從redis從主redis同步過來最新的數據后還需要將新數據加載到內存中,在加載到內存的過程中是阻塞的,在這段時間內的請求將會被阻,但是即使對于大數據集,加載到內存的時間也是比較多的);
6)主從復制提高了redis服務的擴展性,避免單個redis服務器的讀寫訪問壓力過大的問題,同時也可以給為數據備份及冗余提供一種解決方案;
7)為了編碼主redis服務器寫磁盤壓力帶來的開銷,可以配置讓主redis不在將數據持久化到磁盤,而是通過連接讓一個配置的從redis服務器及時的將相關數據持久化到磁盤,不過這樣會存在一個問題,就是主redis服務器一旦重啟,因為主redis服務器數據為空,這時候通過主從同步可能導致從redis服務器上的數據也被清空;

Redis大概主從同步是怎么實現的?
====全量同步====
master服務器會開啟一個后臺進程用于將redis中的數據生成一個rdb文件,與此同時,服務器會緩存所有接收到的來自客戶端的寫命令(包含增、刪、改),當后臺保存進程處理完畢后,會將該rdb文件傳遞給slave服務器,而slave服務器會將rdb文件保存在磁盤并通過讀取該文件將數據加載到內存,在此之后master服務器會將在此期間緩存的命令通過redis傳輸協議發送給slave服務器,然后slave服務器將這些命令依次作用于自己本地的數據集上最終達到數據的一致性。

====部分同步=====
從redis 2.8版本以前,并不支持部分同步,當主從服務器之間的連接斷掉之后,master服務器和slave服務器之間都是進行全量數據同步,但是從redis 2.8開始,即使主從連接中途斷掉,也不需要進行全量同步,因為從這個版本開始融入了部分同步的概念。部分同步的實現依賴于在master服務器內存中給每個slave服務器維護了一份同步日志和同步標識,每個slave服務器在跟master服務器進行同步時都會攜帶自己的同步標識和上次同步的最后位置。當主從連接斷掉之后,slave服務器隔斷時間(默認1s)主動嘗試和master服務器進行連接,如果從服務器攜帶的偏移量標識還在master服務器上的同步備份日志中,那么就從slave發送的偏移量開始繼續上次的同步操作,如果slave發送的偏移量已經不再master的同步備份日志中(可能由于主從之間斷掉的時間比較長或者在斷掉的短暫時間內master服務器接收到大量的寫操作),則必須進行一次全量更新。在部分同步過程中,master會將本地記錄的同步備份日志中記錄的指令依次發送給slave服務器從而達到數據一致。

主從同步中需要注意幾個問題
1)在上面的全量同步過程中,master會將數據保存在rdb文件中然后發送給slave服務器,但是如果master上的磁盤空間有效怎么辦呢?那么此時全部同步對于master來說將是一份十分有壓力的操作了。此時可以通過無盤復制來達到目的,由master直接開啟一個socket將rdb文件發送給slave服務器。(無盤復制一般應用在磁盤空間有限但是網絡狀態良好的情況下)
2)主從復制結構,一般slave服務器不能進行寫操作,但是這不是死的,之所以這樣是為了更容易的保證主和各個從之間數據的一致性,如果slave服務器上數據進行了修改,那么要保證所有主從服務器都能一致,可能在結構上和處理邏輯上更為負責。不過你也可以通過配置文件讓從服務器支持寫操作。(不過所帶來的影響還得自己承擔哦。。。)
3)主從服務器之間會定期進行通話,但是如果master上設置了密碼,那么如果不給slave設置密碼就會導致slave不能跟master進行任何操作,所以如果你的master服務器上有密碼,那么也給slave相應的設置一下密碼吧(通過設置配置文件中的masterauth);
4)關于slave服務器上過期鍵的處理,由master服務器負責鍵的過期刪除處理,然后將相關刪除命令已數據同步的方式同步給slave服務器,slave服務器根據刪除命令刪除本地的key。

當主服務器不進行持久化時復制的安全性
在進行主從復制設置時,強烈建議在主服務器上開啟持久化,當不能這么做時,比如考慮到延遲的問題,應該將實例配置為避免自動重啟。

為什么不持久化的主服務器自動重啟非常危險呢?
為了更好的理解這個問題,看下面這個失敗的例子,其中主服務器和從服務器中數據庫都被刪除了。

設置節點A為主服務器,關閉持久化,節點B和C從節點A復制數據。這時出現了一個崩潰,但Redis具有自動重啟系統,重啟了進程,因為關閉了持久化,節點重啟后只有一個空的數據集。節點B和C從節點A進行復制,現在節點A是空的,所以節點B和C上的復制數據也會被刪除。當在高可用系統中使用Redis Sentinel,關閉了主服務器的持久化,并且允許自動重啟,這種情況是很危險的。比如主服務器可能在很短的時間就完成了重啟,以至于Sentinel都無法檢測到這次失敗,那么上面說的這種失敗的情況就發生了。如果數據比較重要,并且在使用主從復制時關閉了主服務器持久化功能的場景中,都應該禁止實例自動重啟。

Redis主從復制是如何工作的
如果設置了一個從服務器,在連接時它發送了一個SYNC命令,不管它是第一次連接還是再次連接都沒有關系。然后主服務器開始后臺存儲,并且開始緩存新連接進來的修改數據的命令。當后臺存儲完成后,主服務器把數據文件發送到從服務器,從服務器將其保存在磁盤上,然后加載到內存中。然后主服務器把剛才緩存的命令發送到從服務器。這是作為命令流來完成的,并且和Redis協議本身格式相同。可以通過telnet自己嘗試一下。在Redis服務器工作時連接到Redis端口,發送SYNC命令,會看到一個批量的傳輸,并且主服務器接收的每一個命令都會通過telnet會話重新發送一遍。當主從服務器之間的連接由于某些原因斷開時,從服務器可以自動進行重連接。當有多個從服務器同時請求同步時,主服務器只進行一個后臺存儲。當連接斷開又重新連上之后,一般都會進行一個完整的重新同步,但是從Redis2.8開始,只重新同步一部分也可以。

===== 部分重新同步 =====
從Redis 2.8開始,如果遭遇連接斷開,重新連接之后可以從中斷處繼續進行復制,而不必重新同步。

它的工作原理是這樣:
主服務器端為復制流維護一個內存緩沖區(in-memory backlog)。主從服務器都維護一個復制偏移量(replication offset)和master run id ,當連接斷開時,從服務器會重新連接上主服務器,然后請求繼續復制,假如主從服務器的兩個master run id相同,并且指定的偏移量在內存緩沖區中還有效,復制就會從上次中斷的點開始繼續。如果其中一個條件不滿足,就會進行完全重新同步(在2.8版本之前就直接進行完全重新同步)。因為主運行id不保存在磁盤中,如果從服務器重啟的話就只能進行完全同步了。

部分重新同步這個新特性內部使用PSYNC命令,舊的實現中使用SYNC命令。Redis2.8版本可以檢測出它所連接的服務器是否支持PSYNC命令,不支持的話使用SYNC命令。

===== 無磁盤復制 =====
通常來講,一個完全重新同步需要在磁盤上創建一個RDB文件,然后加載這個文件以便為從服務器發送數據。

如果使用比較低速的磁盤,這種操作會給主服務器帶來較大的壓力。Redis從2.8.18版本開始嘗試支持無磁盤的復制。使用這種設置時,子進程直接將RDB通過網絡發送給從服務器,不使用磁盤作為中間存儲。

===== 配置 =====
主從復制的配置十分簡單:把下面這行加入到從服務器的配置文件中即可。
slaveof 192.168.1.1 6379

當然你需要把其中的192.168.1.1 6379替換為你自己的主服務器IP(或者主機名hostname)和端口。另外你可以調用SLAVEOF命令,
主服務器就會開始與從服務器同步。

關于部分重新同步,還有一些針對復制內存緩沖區的優化參數。查看Redis介質中的Redis.conf示例獲得更多信息。

使用repl-diskless-sync配置參數來啟動無磁盤復制。使用repl-diskless-sync-delay 參數來配置傳輸開始的延遲時間,以便等待
更多的從服務器連接上來。查看Redis介質中的Redis.conf示例獲得更多信息。

===== 只讀從服務器 ======
從Redis 2.6開始,從服務器支持只讀模式,并且是默認模式。這個行為是由Redis.conf文件中的slave-read-only 參數控制的,可以在運行中通過CONFIG SET來啟用或者禁用。

只讀的從服務器會拒絕所有寫命令,所以對從服務器不會有誤寫操作。但這不表示可以把從服務器實例暴露在危險的網絡環境下,因為像DEBUG或者CONFIG這樣的管理命令還是可以運行的。不過你可以通過使用rename-command命令來為這些命令改名來增加安全性。

你可能想知道為什么只讀限制還可以被還原,使得從服務器還可以進行寫操作。雖然當主從服務器進行重新同步或者從服務器重啟后,這些寫操作都會失效,還是有一些使用場景會想從服務器中寫入臨時數據的,但將來這個特性可能會被去掉。

===== 限制有N個以上從服務器才允許寫入 =====
從Redis 2.8版本開始,可以配置主服務器連接N個以上從服務器才允許對主服務器進行寫操作。但是,因為Redis使用的是異步主從復制,沒辦法確保從服務器確實收到了要寫入的數據,所以還是有一定的數據丟失的可能性。

這一特性的工作原理如下:
1)從服務器每秒鐘ping一次主服務器,確認處理的復制流數量。
2)主服務器記住每個從服務器最近一次ping的時間。
3)用戶可以配置最少要有N個服務器有小于M秒的確認延遲。
4)如果有N個以上從服務器,并且確認延遲小于M秒,主服務器接受寫操作。

還可以把這看做是CAP原則(一致性,可用性,分區容錯性)不嚴格的一致性實現,雖然不能百分百確保一致性,但至少保證了丟失的數據不會超過M秒內的數據量。

如果條件不滿足,主服務器會拒絕寫操作并返回一個錯誤。
1)min-slaves-to-write(最小從服務器數)
2)min-slaves-max-lag(從服務器最大確認延遲)

通過redis實現服務器崩潰等數據恢復
由于redis存儲在內存中且提供一般編程語言常用的數據結構存儲類型,所以經常被用于做服務器崩潰宕機的數據恢復處理。服務器可以在某些指定過程中將需要保存的數據以json對象等方式存儲到redis中,也就是我們常說的快照,當服務器運行時讀取redis來判斷是否有待需要恢復數據繼續處理的業務。當一次業務處理結束后再刪除redis的數據即可。redis提供兩種將內存數據導出到硬盤實現數據備份的方法

1)RDB方式 (默認)
RDB方式的持久化是通過快照(snapshotting)完成的,當符合一定條件時Redis會自動將內存中的所有數據進行快照并存儲在硬盤上。進行快照的條件可以由用戶在配置文件中自定義,由兩個參數構成:時間和改動的鍵的個數。當在指定的時間內被更改的鍵的個數大于指定的數值時就會進行快照。RDB是redis默認采用的持久化方式,在配置文件中已經預置了3個條件:
save 900 1 #900秒內有至少1個鍵被更改則進行快照
save 300 10 #300秒內有至少10個鍵被更改則進行快照
save 60 10000 #60秒內有至少10000個鍵被更改則進行快照

可以存在多個條件,條件之間是"或"的關系,只要滿足其中一個條件,就會進行快照。 如果想要禁用自動快照,只需要將所有的save參數刪除即可。
Redis默認會將快照文件存儲在當前目錄(可CONFIG GET dir來查看)的dump.rdb文件中,可以通過配置dir和dbfilename兩個參數分別指定快照文件的存儲路徑和文件名。

Redis實現快照的過程
->? Redis使用fork函數復制一份當前進程(父進程)的副本(子進程);
->? 父進程繼續接收并處理客戶端發來的命令,而子進程開始將內存中的數據寫入硬盤中的臨時文件;
->? 當子進程寫入完所有數據后會用該臨時文件替換舊的RDB文件,至此一次快照操作完成。
->? 在執行fork的時候操作系統(類Unix操作系統)會使用寫時復制(copy-on-write)策略,即fork函數發生的一刻父子進程共享同一內存數據,當父進程要更改其中某片數據時(如執行一個寫命令 ),操作系統會將該片數據復制一份以保證子進程的數據不受影響,所以新的RDB文件存儲的是執行fork一刻的內存數據。

Redis在進行快照的過程中不會修改RDB文件,只有快照結束后才會將舊的文件替換成新的,也就是說任何時候RDB文件都是完整的。這使得我們可以通過定時備份RDB文件來實 現Redis數據庫備份。RDB文件是經過壓縮(可以配置rdbcompression參數以禁用壓縮節省CPU占用)的二進制格式,所以占用的空間會小于內存中的數據大小,更加利于傳輸。

除了自動快照,還可以手動發送SAVE或BGSAVE命令讓Redis執行快照,兩個命令的區別在于,前者是由主進程進行快照操作,會阻塞住其他請求,后者會通過fork子進程進行快照操作。 Redis啟動后會讀取RDB快照文件,將數據從硬盤載入到內存。根據數據量大小與結構和服務器性能不同,這個時間也不同。通常將一個記錄一千萬個字符串類型鍵、大小為1GB的快照文件載入到內 存中需要花費20~30秒鐘。 通過RDB方式實現持久化,一旦Redis異常退出,就會丟失最后一次快照以后更改的所有數據。這就需要開發者根據具體的應用場合,通過組合設置自動快照條件的方式來將可能發生的數據損失控制在能夠接受的范圍。如果數據很重要以至于無法承受任何損失,則可以考慮使用AOF方式進行持久化。

2)AOF方式
默認情況下Redis沒有開啟AOF(append only file)方式的持久化,可以在redis.conf中通過appendonly參數開啟:
appendonly yes
在啟動時Redis會逐個執行AOF文件中的命令來將硬盤中的數據載入到內存中,載入的速度相較RDB會慢一些

開啟AOF持久化后每執行一條會更改Redis中的數據的命令,Redis就會將該命令寫入硬盤中的AOF文件。AOF文件的保存位置和RDB文件的位置相同,都是通過dir參數設置的,默認的文件名是appendonly.aof,可以通過appendfilename參數修改:
appendfilename appendonly.aof
配置redis自動重寫AOF文件的條件

auto-aof-rewrite-percentage 100 # 當目前的AOF文件大小超過上一次重寫時的AOF文件大小的百分之多少時會再次進行重寫,如果之前沒有重寫過,則以啟動時的AOF文件大小為依據

auto-aof-rewrite-min-size 64mb # 允許重寫的最小AOF文件大小
配置寫入AOF文件后,要求系統刷新硬盤緩存的機制

# appendfsync always # 每次執行寫入都會執行同步,最安全也最慢
appendfsync everysec # 每秒執行一次同步操作

# appendfsync no # 不主動進行同步操作,而是完全交由操作系統來做(即每30秒一次),最快也最不安全

Redis允許同時開啟AOF和RDB,既保證了數據安全又使得進行備份等操作十分容易。此時重新啟動Redis后Redis會使用AOF文件來恢復數據,因為AOF方式的持久化可能丟失的數據更少

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/535341.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/535341.shtml
英文地址,請注明出處:http://en.pswp.cn/news/535341.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

redis數據恢復

公司線上一個項目數據存儲采用MySQL,共分為10個庫,分布在4臺機器上,每個庫數據量約為10G,各機器均采用RAID5加速磁盤訪問; 當同時在線人數達高峰期(10w),DB磁盤IO壓力巨大&#xff0…

Redis哨兵模式(sentinel)學習總結及部署記錄(主從復制、讀寫分離、主從切換)

Redis的集群方案大致有三種:1)redis cluster集群方案;2)master/slave主從方案;3)哨兵模式來進行主從替換以及故障恢復。 一、sentinel哨兵模式介紹 Sentinel(哨兵)是用于監控redis集群中Master狀態的工具&…

Redis之Redis內存模型

Redis是目前最火爆的內存數據庫之一,通過在內存中讀寫數據,大大提高了讀寫速度,可以說Redis是實現網站高并發不可或缺的一部分。 我們使用Redis時,會接觸Redis的5種對象類型(字符串、哈希、列表、集合、有序集合&…

MySQL 數據庫誤刪除后的數據恢復操作說明

在日常運維工作中,對mysql數據庫的備份是萬分重要的,以防在數據庫表丟失或損壞情況出現,可以及時恢復數據。 線上數據庫備份場景: 每周日執行一次全量備份,然后每天下午1點執行MySQLdump增量備份. 下面對這種備份方案…

MySQL 之binlog日志說明及利用binlog日志恢復數據操作記錄

眾所周知,binlog日志對于mysql數據庫來說是十分重要的。在數據丟失的緊急情況下,我們往往會想到用binlog日志功能進行數據恢復(定時全備份binlog日志恢復增量數據部分),化險為夷! 一、簡單了解binlog MySQ…

zabbix巡檢腳本

#!/bin/bash BIN/usr/local/zabbix/binpasswort() { name$2 while read line do ipecho $line|awk -F {print $1} timeecho $line|awk -F {print $2} echo -e "${name}passport${ip}探活時間\t $time" done <$1 }for i in 100.245.160.113 100.245.160.141 1…

mysqldump備份(全量+增量)

在日常運維工作中&#xff0c;對mysql數據庫的備份是萬分重要的&#xff0c;以防在數據庫表丟失或損壞情況出現&#xff0c;可以及時恢復數據。 線上數據庫備份場景&#xff1a; 每周日執行一次全量備份&#xff0c;然后每天下午1點執行MySQLdump增量備份. 下面對這種備份方案…

查找指定日期數據所在分區數據

select a.subobject_namefrom dba_objects a join (select dbms_rowid.rowid_object(rowid) object_idfrom NEWLOG4 where TO_CHAR(autudt,YYYY-MM-DD) 2021-06-22) b on a.object_id b.object_id and object_name UPPER(NEWLOG4) group by a.subobject_name

統計內存使用率shell

#!/bin/bashdatedate "%Y-%m-%d %H:%M:%S"#顯示消耗資源內存最高的進程名firstps aux | grep -v "grep" | grep -v "USER" | sort -rn -k 4 | head -4 | awk -F {print $13} | sed -n 1pSecondps aux | grep -v "grep" | grep -v &q…

Oracle 11g系統自動收集統計信息

從Oracle Database 10g開始&#xff0c;Oracle在建庫后就默認創建了一個名為GATHER_STATS_JOB的定時任務&#xff0c;用于自動收集CBO的統計信息&#xff0c;調用DBMS_STATS.GATHER_DATABASE_STATS_JOB_PROC收集統計信息。該過程首先檢測統計信息缺失和陳舊的對象。然后確定優先…

Redis監控指標

監控指標 ?性能指標&#xff1a;Performance?內存指標: Memory?基本活動指標&#xff1a;Basic activity?持久性指標: Persistence?錯誤指標&#xff1a;Error 性能指標&#xff1a;Performance NameDescriptionlatencyRedis響應一個請求的時間instantaneous_ops_per_s…

innobackupex參數說明

1、備份&#xff1a; #常用參數     --user&#xff1a;該選項表示備份賬號。     --password&#xff1a;該選項表示備份的密碼。     --port&#xff1a;該選項表示備份數據庫的端口。     --host&#xff1a;該選項表示備份數據庫的地址。     --socket…

innobackupex遠程備份腳本

#!/bin/sh #備份主機 remote_ip10.2.142.161 Master_ip10.2.142.148 VIP103.2.132.136 #備份用戶 userroot #密碼 password123456 # 返回年月日 backup_datedate %F # 返回時分秒 backup_timedate %H-%M-%S # 返回今天是這周的第幾天 backup_week_daydate %u backup_ok0 #備份目…

MySQL管理利器 MySQL Utilities---mysqlreplicate

mysqlreplicate 工具是在兩臺服務器間設置和啟動復制。用戶提供登錄從服務器信息和連接到主的信息。也可以指定一個數據庫用于測試復制。 該工具報告條件是當主和從的存儲引擎不一樣時。如果主和從的存儲引擎不同將產生告警信息。對于Innodb存儲引擎而言&#xff0c;必需完全…

MySQL管理工具MySQL Utilities — 如何連接MySQL服務器

連接參數 連接到一個服務器&#xff0c;必須指定連接參數&#xff0c;如用戶名&#xff0c;主機名稱&#xff0c;密碼&#xff0c;端口號&#xff0c;socket。MySQL Utilities提供了三種提供這些參數的方法&#xff0c;這些方法都需要通過命令行指定。 使用.mylogin.cnf文件&…

MHA高可用

manager 組件 masterha_manger # 啟動MHA masterha_check_ssh # 檢查MHA的SSH配置狀況 masterha_check_repl # 檢查MySQL復制狀況&#xff0c;配置信息 masterha_master_monitor # 檢測master是否宕機 masterha_check_status # 檢測當…

MySQL Replication需要注意的問題

主庫意外宕機 如果沒有設置主庫的sync_binlog選項&#xff0c;就可能在奔潰前沒有將最后的幾個二進制日志事件刷新到磁盤中。備庫I/O線程因此也可一直處于讀不到尚未寫入磁盤的事件的狀態中。當主庫從新啟動時&#xff0c;備庫將重連到主庫并再次嘗試去讀該事件&#xff0c;但…

update和delete操作忘加where條件導致全表更新的處理方法

在數據庫日常維護中&#xff0c;開發人員是最讓人頭痛的&#xff0c;很多時候都會由于SQL語句寫的有問題導致服務器出問題&#xff0c;導致資源耗盡。最危險的操作就是在做DML操作的時候忘加where條件&#xff0c;導致全表更新&#xff0c;這是作為運維或者DBA的我們改如何處理…

Innodb結構

從MySQL5.5版本開始默認使用InnoDB作為引擎&#xff0c;它擅長處理事務&#xff0c;具有自動崩滿恢復的特性&#xff0c;在日常開發中使用非常廣泛&#xff0c;下面是言方的InnoDB引擎美構圖&#xff0c;主要分為內存結構和磁盤結構兩大部分。 內存結構主要包括Buffer Pool、C…

ES備份工具elasticdump

安裝 下載node下載 | Node.js 中文網 tar xvf node-v16.5.0-linux-x64.tar.xz ln -s /app/temp/node-v16.5.0-linux-x64/bin/node /usr/bin/node ln -s /app/temp/node-v16.5.0-linux-x64/bin/npm /usr/bin/npm npm install elasticdump -g npm config get cache npm in…