并發編程的模型
并發編程需要解決的兩個問題:線程之間如何同步,線程之間如何通信。
線程之間通信:共享內存,消息傳遞。
共享內存通過線程之間讀-寫程序的公共狀態進行通信。消息傳遞要通過線程之間主動傳遞消息進行通信。
線程之間同步:控制不同線程之間操作發生的相對順序。
共享內存并發模型中的同步是顯式進行的。需要手動指明代碼在線程之間如何互斥地執行。在消息傳遞的并發模型里,由于消息的發送必須在消息的接收之前,因此同步是隱式進行的。
Java的并發采用了共享內存模型。線程之間的通信是隱式進行的,需要手動進行控制。
Java內存模型
在Java中,實例域,靜態域和數組對象存儲在堆內存中,堆內存在內存之間共享。局部變量,方法定義參數和異常處理參數不會在內存中共享,不存在可見性問題,不受內存模型的影響。Java線程之間的通信由JMM控制,JMM決定了一個線程對共享變量的寫入何時對另一個線程可見。抽象來看就是:線程之間的共享變量存儲在主內存中,每個線程有一個私有的本地內存,本地內存中存儲了該線程以讀/寫共享變量的副本。
- 首先,線程A把本地內存A中更新過的共享變量刷新到主內存中去。
- 然后,線程B到主內存中去讀取線程A之前已更新過的共享變量。
JMM通過控制主內存與每個線程的本地內存之間的交互來為程序提供內存可見性的保證。
重排序
為了提高程序執行時的效率,編譯器和處理器通常會對指令做重排序。
- 編譯器優化的重排序。編譯器在不改變單線程程序語義的前提下,可以重新安排語句的執行順序。
- 指令級并行的重排序。現代處理器采用了指令級并行技術(Instruction-Level Parallelism, ILP)來將多條指令重疊執行。如果不存在數據依賴性,處理器可以改變語句對應機器指令的執行順序。
- 內存系統的重排序。由于處理器使用緩存和讀/寫緩沖區,這使得加載和存儲操作看上去可能是在亂序執行。
JMM通過禁止特定類型的編譯器重排序和處理器重排序為程序提供了內存可見性的保障。
處理器重排序和內存屏障指令
現代的處理器使用寫緩沖區來臨時保存向內存寫入的數據。每個處理器上的寫緩沖區,僅僅對它所在的處理器可見。這個特性會對內存操作的執行順序產生重要的影響:處理器對內存的讀/寫操作的執行順序,不一定與內存實際發生的讀/寫操作順序一致!如圖:
為了保證內存可見性,java編譯器在生成指令序列的適當位置會插入內存屏障指令來禁止特定類型的處理器重排序。JMM把內存屏障指令分為下列四類:
happens-before
happens-before概念用來描述操作之間的內存可見性。在JMM中,如果一個操作執行的結果需要對另一個操作可見,那么這兩個操作之間必須要存在happens-before關系。這里提到的兩個操作既可以是在一個線程之內,也可以是在不同線程之間。 與程序員密切相關的happens-before規則如下:
- 程序順序規則:一個線程中的每個操作,happens- before 于該線程中的任意后續操作。
- 監視器鎖規則:對一個監視器鎖的解鎖,happens- before 于隨后對這個監視器鎖的加鎖。
- volatile變量規則:對一個volatile域的寫,happens- before 于任意后續對這個volatile域的讀。
- 傳遞性:如果A happens- before B,且B happens- before C,那么A happens- before C。
注意,兩個操作之間具有happens-before關系,并不意味著前一個操作必須要在后一個操作之前執行!happens-before僅僅要求前一個操作(執行的結果)對后一個操作可見,且前一個操作按順序排在第二個操作之前(the first is visible to and ordered before the second)。
數據依賴性
如果兩個操作訪問同一個變量,且這兩個操作中有一個為寫操作,此時這兩個操作之間就存在數據依賴性。數據依賴分下列三種類型:
前面提到過,編譯器和處理器可能會對操作做重排序。編譯器和處理器在重排序時,會遵守數據依賴性,編譯器和處理器不會改變存在數據依賴關系的兩個操作的執行順序。
注意,這里所說的數據依賴性僅針對單個處理器中執行的指令序列和單個線程中執行的操作,不同處理器之間和不同線程之間的數據依賴性不被編譯器和處理器考慮。
as-if-serial語義
as-if-serial語義的意思指:不管怎么重排序(編譯器和處理器為了提高并行度),(單線程)程序的執行結果不能被改變。編譯器,runtime 和處理器都必須遵守as-if-serial語義。
為了遵守as-if-serial語義,編譯器和處理器不會對存在數據依賴關系的操作做重排序,因為這種重排序會改變執行結果。但是,如果操作之間不存在數據依賴關系,這些操作可能被編譯器和處理器重排序。為了具體說明,請看下面計算圓面積的代碼示例:
double pi = 3.14; //A
double r = 1.0; //B
double area = pi * r * r; //C
復制代碼
上面三個操作的數據依賴關系如下圖所示:
程序順序規則
根據happens- before的程序順序規則,上面計算圓的面積的示例代碼存在三個happens- before關系:
- A happens- before B;
- B happens- before C;
- A happens- before C;
這里的第3個happens- before關系,是根據happens- before的傳遞性推導出來的。
這里A happens- before B,但實際執行時B卻可以排在A之前執行(看上面的重排序后的執行順序)。在第一章提到過,如果A happens- before B,JMM并不要求A一定要在B之前執行。JMM僅僅要求前一個操作(執行的結果)對后一個操作可見,且前一個操作按順序排在第二個操作之前。這里操作A的執行結果不需要對操作B可見;而且重排序操作A和操作B后的執行結果,與操作A和操作B按happens- before順序執行的結果一致。在這種情況下,JMM會認為這種重排序并不非法(not illegal),JMM允許這種重排序。
在計算機中,軟件技術和硬件技術有一個共同的目標:在不改變程序執行結果的前提下,盡可能的開發并行度。編譯器和處理器遵從這一目標,從happens- before的定義我們可以看出,JMM同樣遵從這一目標。
重排序對多線程的影響
現在讓我們來看看,重排序是否會改變多線程程序的執行結果。請看下面的示例代碼:
class ReorderExample {
int a = 0;
boolean flag = false;public void writer() {a = 1; //1flag = true; //2
}Public void reader() {if (flag) { //3int i = a * a; //4……}
}
}
復制代碼
flag變量是個標記,用來標識變量a是否已被寫入。這里假設有兩個線程A和B,A首先執行writer()方法,隨后B線程接著執行reader()方法。線程B在執行操作4時,能否看到線程A在操作1對共享變量a的寫入?
答案是:不一定能看到。
由于操作1和操作2沒有數據依賴關系,編譯器和處理器可以對這兩個操作重排序;同樣,操作3和操作4沒有數據依賴關系,編譯器和處理器也可以對這兩個操作重排序。讓我們先來看看,當操作1和操作2重排序時,可能會產生什么效果?請看下面的程序執行時序圖:
下面再讓我們看看,當操作3和操作4重排序時會產生什么效果(借助這個重排序,可以順便說明控制依賴性)。下面是操作3和操作4重排序后,程序的執行時序圖:
從圖中我們可以看出,猜測執行實質上對操作3和4做了重排序。重排序在這里破壞了多線程程序的語義!
在單線程程序中,對存在控制依賴的操作重排序,不會改變執行結果(這也是as-if-serial語義允許對存在控制依賴的操作做重排序的原因);但在多線程程序中,對存在控制依賴的操作重排序,可能會改變程序的執行結果。
數據競爭與順序一致性保證
當程序未正確同步時,就會存在數據競爭。java內存模型規范對數據競爭的定義如下:
- 在一個線程中寫一個變量,
- 在另一個線程讀同一個變量,
- 而且寫和讀沒有通過同步來排序。
當代碼中包含數據競爭時,程序的執行往往產生違反直覺的結果(前一章的示例正是如此)。如果一個多線程程序能正確同步,這個程序將是一個沒有數據競爭的程序。
JMM對正確同步的多線程程序的內存一致性做了如下保證:
如果程序是正確同步的,程序的執行將具有順序一致性(sequentially consistent)– 即程序的執行結果與該程序在順序一致性內存模型中的執行結果相同(馬上我們將會看到,這對于程序員來說是一個極強的保證)。這里的同步是指廣義上的同步,包括對常用同步原語(lock,volatile和final)的正確使用。
順序一致性內存模型
順序一致性內存模型是一個被計算機科學家理想化了的理論參考模型,它為程序員提供了極強的內存可見性保證。順序一致性內存模型有兩大特性:
- 一個線程中的所有操作必須按照程序的順序來執行。
- (不管程序是否同步)所有線程都只能看到一個單一的操作執行順序。在順序一致性內存模型中,每個操作都必須原子執行且立刻對所有線程可見。
順序一致性內存模型為程序員提供的視圖如下:
在概念上,順序一致性模型有一個單一的全局內存,這個內存通過一個左右擺動的開關可以連接到任意一個線程。同時,每一個線程必須按程序的順序來執行內存讀/寫操作。從上圖我們可以看出,在任意時間點最多只能有一個線程可以連接到內存。當多個線程并發執行時,圖中的開關裝置能把所有線程的所有內存讀/寫操作串行化。
假設有兩個線程A和B并發執行。其中A線程有三個操作,它們在程序中的順序是:A1->A2->A3。B線程也有三個操作,它們在程序中的順序是:B1->B2->B3。
假設這兩個線程使用監視器來正確同步:A線程的三個操作執行后釋放監視器,隨后B線程獲取同一個監視器。那么程序在順序一致性模型中的執行效果將如下圖所示:
現在我們再假設這兩個線程沒有做同步,下面是這個未同步程序在順序一致性模型中的執行示意圖:
但是,在JMM中就沒有這個保證。未同步程序在JMM中不但整體的執行順序是無序的,而且所有線程看到的操作執行順序也可能不一致。比如,在當前線程把寫過的數據緩存在本地內存中,且還沒有刷新到主內存之前,這個寫操作僅對當前線程可見;從其他線程的角度來觀察,會認為這個寫操作根本還沒有被當前線程執行。只有當前線程把本地內存中寫過的數據刷新到主內存之后,這個寫操作才能對其他線程可見。在這種情況下,當前線程和其它線程看到的操作執行順序將不一致。
同步程序的順序一致性效果
下面我們對前面的示例程序ReorderExample用監視器來同步,看看正確同步的程序如何具有順序一致性。
請看下面的示例代碼:
class SynchronizedExample {
int a = 0;
boolean flag = false;public synchronized void writer() {a = 1;flag = true;
}public synchronized void reader() {if (flag) {int i = a;……}
}
}
復制代碼
上面示例代碼中,假設A線程執行writer()方法后,B線程執行reader()方法。這是一個正確同步的多線程程序。根據JMM規范,該程序的執行結果將與該程序在順序一致性模型中的執行結果相同。下面是該程序在兩個內存模型中的執行時序對比圖:
從這里我們可以看到JMM在具體實現上的基本方針:在不改變(正確同步的)程序執行結果的前提下,盡可能的為編譯器和處理器的優化打開方便之門。
未同步程序的執行特性
對于未同步或未正確同步的多線程程序,JMM只提供最小安全性:線程執行時讀取到的值,要么是之前某個線程寫入的值,要么是默認值(0,null,false),JMM保證線程讀操作讀取到的值不會無中生有(out of thin air)的冒出來。為了實現最小安全性,JVM在堆上分配對象時,首先會清零內存空間,然后才會在上面分配對象(JVM內部會同步這兩個操作)。因此,在以清零的內存空間(pre-zeroed memory)分配對象時,域的默認初始化已經完成了。
JMM不保證未同步程序的執行結果與該程序在順序一致性模型中的執行結果一致。因為未同步程序在順序一致性模型中執行時,整體上是無序的,其執行結果無法預知。保證未同步程序在兩個模型中的執行結果一致毫無意義。
和順序一致性模型一樣,未同步程序在JMM中的執行時,整體上也是無序的,其執行結果也無法預知。同時,未同步程序在這兩個模型中的執行特性有下面幾個差異:
- 順序一致性模型保證單線程內的操作會按程序的順序執行,而JMM不保證單線程內的操作會按程序的順序執行(比如上面正確同步的多線程程序在臨界區內的重排序)。這一點前面已經講過了,這里就不再贅述。
- 順序一致性模型保證所有線程只能看到一致的操作執行順序,而JMM不保證所有線程能看到一致的操作執行順序。這一點前面也已經講過,這里就不再贅述。
- JMM不保證對64位的long型和double型變量的讀/寫操作具有原子性,而順序一致性模型保證對所有的內存讀/寫操作都具有原子性。
第3個差異與處理器總線的工作機制密切相關。在計算機中,數據通過總線在處理器和內存之間傳遞。每次處理器和內存之間的數據傳遞都是通過一系列步驟來完成的,這一系列步驟稱之為總線事務(bus transaction)。總線事務包括讀事務(read transaction)和寫事務(write transaction)。讀事務從內存傳送數據到處理器,寫事務從處理器傳送數據到內存,每個事務會讀/寫內存中一個或多個物理上連續的字。這里的關鍵是,總線會同步試圖并發使用總線的事務。在一個處理器執行總線事務期間,總線會禁止其它所有的處理器和I/O設備執行內存的讀/寫。下面讓我們通過一個示意圖來說明總線的工作機制:
總線的這些工作機制可以把所有處理器對內存的訪問以串行化的方式來執行;在任意時間點,最多只能有一個處理器能訪問內存。這個特性確保了單個總線事務之中的內存讀/寫操作具有原子性。
在一些32位的處理器上,如果要求對64位數據的讀/寫操作具有原子性,會有比較大的開銷。為了照顧這種處理器,java語言規范鼓勵但不強求JVM對64位的long型變量和double型變量的讀/寫具有原子性。當JVM在這種處理器上運行時,會把一個64位long/ double型變量的讀/寫操作拆分為兩個32位的讀/寫操作來執行。這兩個32位的讀/寫操作可能會被分配到不同的總線事務中執行,此時對這個64位變量的讀/寫將不具有原子性。
當單個內存操作不具有原子性,將可能會產生意想不到后果。請看下面示意圖:
volatile的特性
當我們聲明共享變量為volatile后,對這個變量的讀/寫將會很特別。理解volatile特性的一個好方法是:把對volatile變量的單個讀/寫,看成是使用同一個鎖對這些單個讀/寫操作做了同步。下面我們通過具體的示例來說明,請看下面的示例代碼:
class VolatileFeaturesExample {//使用volatile聲明64位的long型變量volatile long vl = 0L;public void set(long l) {vl = l; //單個volatile變量的寫}public void getAndIncrement () {vl++; //復合(多個)volatile變量的讀/寫}public long get() {return vl; //單個volatile變量的讀}
}
復制代碼
假設有多個線程分別調用上面程序的三個方法,這個程序在語義上和下面程序等價:
class VolatileFeaturesExample {long vl = 0L; // 64位的long型普通變量//對單個的普通 變量的寫用同一個鎖同步public synchronized void set(long l) { vl = l;}public void getAndIncrement () { //普通方法調用long temp = get(); //調用已同步的讀方法temp += 1L; //普通寫操作set(temp); //調用已同步的寫方法}public synchronized long get() { //對單個的普通變量的讀用同一個鎖同步return vl;}
}
復制代碼
如上面示例程序所示,對一個volatile變量的單個讀/寫操作,與對一個普通變量的讀/寫操作使用同一個鎖來同步,它們之間的執行效果相同。
鎖的happens-before規則保證釋放鎖和獲取鎖的兩個線程之間的內存可見性,這意味著對一個volatile變量的讀,總是能看到(任意線程)對這個volatile變量最后的寫入。
鎖的語義決定了臨界區代碼的執行具有原子性。這意味著即使是64位的long型和double型變量,只要它是volatile變量,對該變量的讀寫就將具有原子性。如果是多個volatile操作或類似于volatile++這種復合操作,這些操作整體上不具有原子性。
簡而言之,volatile變量自身具有下列特性:
- 可見性。對一個volatile變量的讀,總是能看到(任意線程)對這個volatile變量最后的寫入。
- 原子性:對任意單個volatile變量的讀/寫具有原子性,但類似于volatile++這種復合操作不具有原子性。
volatile的寫-讀建立的happens before關系
上面講的是volatile變量自身的特性,對程序員來說,volatile對線程的內存可見性的影響比volatile自身的特性更為重要,也更需要我們去關注。
從JSR-133開始,volatile變量的寫-讀可以實現線程之間的通信。
從內存語義的角度來說,volatile與鎖有相同的效果:volatile寫和鎖的釋放有相同的內存語義;volatile讀與鎖的獲取有相同的內存語義。
請看下面使用volatile變量的示例代碼:
class VolatileExample {int a = 0;volatile boolean flag = false;public void writer() {a = 1; //1flag = true; //2}public void reader() {if (flag) { //3int i = a; //4……}}
}
復制代碼
假設線程A執行writer()方法之后,線程B執行reader()方法。根據happens before規則,這個過程建立的happens before 關系可以分為兩類:
- 根據程序次序規則,1 happens before 2; 3 happens before 4。
- 根據volatile規則,2 happens before 3。
- 根據happens before 的傳遞性規則,1 happens before 4。
上述 happens before 關系的圖形化表現形式如下:
在上圖中,每一個箭頭鏈接的兩個節點,代表了一個 happens before 關系。黑色箭頭表示程序順序規則;橙色箭頭表示 volatile 規則;藍色箭頭表示組合這些規則后提供的 happens before 保證。
這里A線程寫一個volatile變量后,B線程讀同一個volatile變量。A線程在寫volatile變量之前所有可見的共享變量,在B線程讀同一個volatile變量后,將立即變得對B線程可見。
volatile寫-讀的內存語義
volatile 寫的內存語義如下:
當寫一個 volatile 變量時,JMM 會把該線程對應的本地內存中的共享變量刷新到主內存。 以上面示例程序 VolatileExample 為例,假設線程 A 首先執行 writer() 方法,隨后線程 B 執行 reader() 方法,初始時兩個線程的本地內存中的 flag 和 a 都是初始狀態。下圖是線程 A 執行 volatile 寫后,共享變量的狀態示意圖:
volatile讀的內存語義如下:
當讀一個 volatile 變量時,JMM 會把該線程對應的本地內存置為無效。線程接下來將從主內存中讀取共享變量。 下面是線程B讀同一個 volatile 變量后,共享變量的狀態示意圖:
如果我們把 volatile 寫和 volatile 讀這兩個步驟綜合起來看的話,在讀線程 B 讀一個volatile 變量后,寫線程 A 在寫這個 volatile 變量之前所有可見的共享變量的值都將立即變得對讀線程 B 可見。
下面對 volatile 寫和 volatile 讀的內存語義做個總結:
- 線程 A 寫一個 volatile 變量,實質上是線程 A 向接下來將要讀這個 volatile 變量的某個線程發出了(其對共享變量所在修改的)消息。
- 線程 B 讀一個 volatile 變量,實質上是線程 B 接收了之前某個線程發出的(在寫這個volatile 變量之前對共享變量所做修改的)消息。
- 線程A寫一個 volatile 變量,隨后線程 B 讀這個 volatile 變量,這個過程實質上是線程A 通過主內存向線程 B 發送消息。
volatile 內存語義的實現
JMM 如何實現 volatile 寫/讀的內存語義。
前文我們提到過重排序分為編譯器重排序和處理器重排序。為了實現 volatile 內存語義,JMM 會分別限制這兩種類型的重排序類型。下面是 JMM 針對編譯器制定的 volatile 重排序規則表:
從上表我們可以看出:
- 當第二個操作是 volatile 寫時,不管第一個操作是什么,都不能重排序。這個規則確保volatile 寫之前的操作不會被編譯器重排序到 volatile 寫之后。
- 當第一個操作是 volatile 讀時,不管第二個操作是什么,都不能重排序。這個規則確保volatile 讀之后的操作不會被編譯器重排序到 volatile 讀之前。
- 當第一個操作是 volatile 寫,第二個操作是 volatile 讀時,不能重排序。
為了實現 volatile 的內存語義,編譯器在生成字節碼時,會在指令序列中插入內存屏障來禁止特定類型的處理器重排序。對于編譯器來說,發現一個最優布置來最小化插入屏障的總數幾乎不可能,為此,JMM 采取保守策略。下面是基于保守策略的 JMM 內存屏障插入策略:
- 在每個 volatile 寫操作的前面插入一個 StoreStore 屏障。
- 在每個 volatile 寫操作的后面插入一個 StoreLoad 屏障。
- 在每個 volatile 讀操作的后面插入一個 LoadLoad 屏障。
- 在每個 volatile 讀操作的后面插入一個 LoadStore 屏障。
上述內存屏障插入策略非常保守,但它可以保證在任意處理器平臺,任意的程序中都能得到正確的volatile 內存語義。
下面是保守策略下,volatile 寫 插入內存屏障后生成的指令序列示意圖:
這里比較有意思的是 volatile 寫后面的 StoreLoad 屏障。這個屏障的作用是避免 volatile寫與后面可能有的 volatile 讀/寫操作重排序。因為編譯器常常無法準確判斷在一個 volatile寫的后面,是否需要插入一個 StoreLoad 屏障(比如,一個 volatile 寫之后方法立即return)。為了保證能正確實現 volatile 的內存語義,JMM 在這里采取了保守策略:在每個volatile 寫的后面或在每個 volatile 讀的前面插入一個 StoreLoad 屏障。從整體執行效率的角度考慮,JMM 選擇了在每個 volatile 寫的后面插入一個 StoreLoad 屏障。因為volatile 寫-讀內存語義的常見使用模式是:一個寫線程寫 volatile 變量,多個讀線程讀同一個 volatile 變量。當讀線程的數量大大超過寫線程時,選擇在 volatile 寫之后插入StoreLoad 屏障將帶來可觀的執行效率的提升。從這里我們可以看到 JMM 在實現上的一個特點:首先確保正確性,然后再去追求執行效率。
下面是在保守策略下,volatile 讀插入內存屏障后生成的指令序列示意圖:
上述 volatile 寫和 volatile 讀的內存屏障插入策略非常保守。在實際執行時,只要不改變volatile 寫-讀的內存語義,編譯器可以根據具體情況省略不必要的屏障。下面我們通過具體的示例代碼來說明:
class VolatileBarrierExample {int a;volatile int v1 = 1;volatile int v2 = 2;void readAndWrite() {int i = v1; //第一個volatile讀int j = v2; // 第二個volatile讀a = i + j; //普通寫v1 = i + 1; // 第一個volatile寫v2 = j * 2; //第二個 volatile寫}… //其他方法
}
復制代碼
針對 readAndWrite() 方法,編譯器在生成字節碼時可以做如下的優化:
上面的優化是針對任意處理器平臺,由于不同的處理器有不同“松緊度”的處理器內存模型,內存屏障的插入還可以根據具體的處理器內存模型繼續優化。以 x86 處理器為例,上圖中除最后的StoreLoad 屏障外,其它的屏障都會被省略。
前面保守策略下的 volatile 讀和寫,在 x86 處理器平臺可以優化成:
JSR-133 為什么要增強 volatile 的內存語義
在 JSR-133 之前的舊 Java 內存模型中,雖然不允許 volatile 變量之間重排序,但舊的Java 內存模型允許 volatile 變量與普通變量之間重排序。在舊的內存模型中,VolatileExample 示例程序可能被重排序成下列時序來執行:
因此在舊的內存模型中 ,volatile 的寫-讀沒有鎖的釋放-獲所具有的內存語義。為了提供一種比鎖更輕量級的線程之間通信的機制,JSR-133 專家組決定增強 volatile 的內存語義:嚴格限制編譯器和處理器對 volatile 變量與普通變量的重排序,確保 volatile 的寫-讀和鎖的釋放-獲取一樣,具有相同的內存語義。從編譯器重排序規則和處理器內存屏障插入策略來看,只要volatile 變量與普通變量之間的重排序可能會破壞 volatile 的內存語意,這種重排序就會被編譯器重排序規則和處理器內存屏障插入策略禁止。
由于 volatile 僅僅保證對單個 volatile 變量的讀/寫具有原子性,而鎖的互斥執行的特性可以確保對整個臨界區代碼的執行具有原子性。在功能上,鎖比 volatile 更強大;在可伸縮性和執行性能上,volatile 更有優勢。
鎖的釋放-獲取建立的happens before 關系
鎖是java并發編程中最重要的同步機制。鎖除了讓臨界區互斥執行外,還可以讓釋放鎖的線程向獲取同一個鎖的線程發送消息。下面是鎖釋放-獲取的示例代碼:
class MonitorExample {int a = 0;public synchronized void writer() { //1a++; //2} //3public synchronized void reader() { //4int i = a; //5……} //6
}
復制代碼
假設線程A執行writer()方法,隨后線程B執行reader()方法。根據happens before規則,這個過程包含的happens before 關系可以分為兩類:
- 根據程序次序規則,1 happens before 2, 2 happens before 3; 4 happens before 5, 5 happens before 6。
- 根據監視器鎖規則,3 happens before 4。
- 根據happens before 的傳遞性,2 happens before 5。
上述happens before 關系的圖形化表現形式如下:
上圖表示在線程A釋放了鎖之后,隨后線程B獲取同一個鎖。在上圖中,2 happens before 5。因此,線程A在釋放鎖之前所有可見的共享變量,在線程B獲取同一個鎖之后,將立刻變得對B線程可見。
鎖釋放和獲取的內存語義
當線程釋放鎖時,JMM 會把該線程對應的本地內存中的共享變量刷新到主內存中。以上面的MonitorExample 程序為例,A線程釋放鎖后,共享數據的狀態示意圖如下:
下面對鎖釋放和鎖獲取的內存語義做個總結:
- 線程 A 釋放一個鎖,實質上是線程 A 向接下來將要獲取這個鎖的某個線程發出了(線程 A 對共享變量所做修改的)消息。
- 線程 B 獲取一個鎖,實質上是線程 B 接收了之前某個線程發出的(在釋放這個鎖之前對共享變量所做修改的)消息。
- 線程 A 釋放鎖,隨后線程 B 獲取這個鎖,這個過程實質上是線程 A 通過主內存向線程 B 發送消息。
鎖內存語義的實現
class ReentrantLockExample {
int a = 0;
ReentrantLock lock = new ReentrantLock();public void writer() {lock.lock(); //獲取鎖try {a++;} finally {lock.unlock(); //釋放鎖}
}public void reader () {lock.lock(); //獲取鎖try {int i = a;……} finally {lock.unlock(); //釋放鎖}
}
}
復制代碼
ReentrantLock 的實現依賴于 java 同步器框架 AbstractQueuedSynchronizer(本文簡稱之為AQS)。AQS 使用一個整型的 volatile 變量(命名為 state)來維護同步狀態,馬上我們會看到,這個 volatile 變量是 ReentrantLock 內存語義實現的關鍵。 下面是ReentrantLock 的類圖(僅畫出與本文相關的部分):
使用公平鎖時,加鎖方法 lock() 的方法調用軌跡如下:
- ReentrantLock : lock()
- FairSync : lock()
- AbstractQueuedSynchronizer : acquire(int arg)
- ReentrantLock : tryAcquire(int acquires)
在第4步真正開始加鎖,下面是該方法的源代碼:
protected final boolean tryAcquire(int acquires) {final Thread current = Thread.currentThread();int c = getState(); //獲取鎖的開始,首先讀volatile變量stateif (c == 0) {if (isFirst(current) &&compareAndSetState(0, acquires)) {setExclusiveOwnerThread(current);return true;}}else if (current == getExclusiveOwnerThread()) {int nextc = c + acquires;if (nextc < 0) throw new Error("Maximum lock count exceeded");setState(nextc);return true;}return false;
}
復制代碼
從上面源代碼中我們可以看出,加鎖方法首先讀 volatile 變量 state。
在使用公平鎖時,解鎖方法 unlock() 的方法調用軌跡如下:
- ReentrantLock : unlock()
- AbstractQueuedSynchronizer : release(int arg)
- Sync : tryRelease(int releases)
在第3步真正開始釋放鎖,下面是該方法的源代碼:
protected final boolean tryRelease(int releases) {int c = getState() - releases;if (Thread.currentThread() != getExclusiveOwnerThread())throw new IllegalMonitorStateException();boolean free = false;if (c == 0) {free = true;setExclusiveOwnerThread(null);}setState(c); //釋放鎖的最后,寫volatile變量statereturn free;
}
復制代碼
從上面的源代碼我們可以看出,在釋放鎖的最后寫 volatile 變量 state。
公平鎖在釋放鎖的最后寫 volatile 變量 state;在獲取鎖時首先讀這個 volatile 變量。根據 volatile 的 happens-before 規則,釋放鎖的線程在寫 volatile 變量之前可見的共享變量,在獲取鎖的線程讀取同一個 volatile 變量后將立即變的對獲取鎖的線程可見。
使用非公平鎖時,加鎖方法 lock() 的方法調用軌跡如下:
- ReentrantLock : lock()
- NonfairSync : lock()
- AbstractQueuedSynchronizer : compareAndSetState(int expect, int update)
在第3步真正開始加鎖,下面是該方法的源代碼:
protected final boolean compareAndSetState(int expect, int update) {return unsafe.compareAndSwapInt(this, stateOffset, expect, update);
}
復制代碼
該方法以原子操作的方式更新 state 變量,本文把 java 的 compareAndSet() 方法調用簡稱為 CAS。JDK 文檔對該方法的說明如下:如果當前狀態值等于預期值,則以原子方式將同步狀態設置為給定的更新值。此操作具有 volatile 讀和寫的內存語義。
這里我們分別從編譯器和處理器的角度來分析,CAS 如何同時具有 volatile 讀和 volatile 寫的內存語義。
前文我們提到過,編譯器不會對 volatile 讀與 volatile 讀后面的任意內存操作重排序;編譯器不會對 volatile 寫與 volatile 寫前面的任意內存操作重排序。組合這兩個條件,意味著為了同時實現 volatile 讀和 volatile 寫的內存語義,編譯器不能對 CAS 與 CAS 前面和后面的任意內存操作重排序。
下面我們來分析在常見的 intel x86 處理器中,CAS 是如何同時具有 volatile 讀和 volatile 寫的內存語義的。
下面是 sun.misc.Unsafe 類的 compareAndSwapInt() 方法的源代碼:
public final native boolean compareAndSwapInt(Object o, long offset,int expected,int x);
復制代碼
可以看到這是個本地方法調用。這個本地方法在 openjdk 中依次調用的 C++ 代碼為:unsafe.cpp,atomic.cpp 和 atomicwindowsx86.inline.hpp。這個本地方法的最終實現在 openjdk 的如下位置:openjdk-7-fcs-src-b147-27jun2011\openjdk\hotspot\src\oscpu\windowsx86\vm\ atomicwindowsx86.inline.hpp(對應于 windows 操作系統,X86 處理器)。下面是對應于 intel x86 處理器的源代碼的片段:
// Adding a lock prefix to an instruction on MP machine
// VC++ doesn't like the lock prefix to be on a single line
// so we can't insert a label after the lock prefix.
// By emitting a lock prefix, we can define a label after it.
#define LOCK_IF_MP(mp) __asm cmp mp, 0 \__asm je L0 \__asm _emit 0xF0 \__asm L0:inline jint Atomic::cmpxchg (jint exchange_value, volatile jint* dest, jint compare_value) {// alternative for InterlockedCompareExchangeint mp = os::is_MP();__asm {mov edx, destmov ecx, exchange_valuemov eax, compare_valueLOCK_IF_MP(mp)cmpxchg dword ptr [edx], ecx}
}
復制代碼
如上面源代碼所示,程序會根據當前處理器的類型來決定是否為 cmpxchg 指令添加 lock 前綴。如果程序是在多處理器上運行,就為 cmpxchg 指令加上 lock 前綴(lock cmpxchg)。反之,如果程序是在單處理器上運行,就省略 lock 前綴(單處理器自身會維護單處理器內的順序一致性,不需要 lock 前綴提供的內存屏障效果)。
intel 的手冊對 lock 前綴的說明如下:
- 確保對內存的讀-改-寫操作原子執行。在 Pentium 及 Pentium 之前的處理器中,帶有lock 前綴的指令在執行期間會鎖住總線,使得其他處理器暫時無法通過總線訪問內存。很顯然,這會帶來昂貴的開銷。從 Pentium 4,Intel Xeon 及 P6 處理器開始,intel 在原有總線鎖的基礎上做了一個很有意義的優化:如果要訪問的內存區域(area of memory)在 lock 前綴指令執行期間已經在處理器內部的緩存中被鎖定(即包含該內存區域的緩存行當前處于獨占或以修改狀態),并且該內存區域被完全包含在單個緩存行(cache line)中,那么處理器將直接執行該指令。由于在指令執行期間該緩存行會一直被鎖定,其它處理器無法讀/寫該指令要訪問的內存區域,因此能保證指令執行的原子性。這個操作過程叫做緩存鎖定(cache locking),緩存鎖定將大大降低 lock 前綴指令的執行開銷,但是當多處理器之間的競爭程度很高或者指令訪問的內存地址未對齊時,仍然會鎖住總線。
- 禁止該指令與之前和之后的讀和寫指令重排序。
- 把寫緩沖區中的所有數據刷新到內存中。
上面的第2點和第3點所具有的內存屏障效果,足以同時實現 volatile 讀和 volatile 寫的內存語義。
經過上面的這些分析,現在我們終于能明白為什么 JDK 文檔說 CAS 同時具有 volatile 讀和volatile 寫的內存語義了。
現在對公平鎖和非公平鎖的內存語義做個總結:
- 公平鎖和非公平鎖釋放時,最后都要寫一個 volatile 變量 state。
- 公平鎖獲取時,首先會去讀這個 volatile 變量。
- 非公平鎖獲取時,首先會用 CAS 更新這個 volatile 變量,這個操作同時具有 volatile 讀和 volatile 寫的內存語義。
從本文對 ReentrantLock 的分析可以看出,鎖釋放-獲取的內存語義的實現至少有下面兩種方式:
- 利用 volatile 變量的寫-讀所具有的內存語義。
- 利用 CAS 所附帶的 volatile 讀和 volatile 寫的內存語義。
concurrent 包的實現
由于 java 的 CAS 同時具有 volatile 讀和 volatile 寫的內存語義,因此 Java 線程之間的通信現在有了下面四種方式:
- A 線程寫 volatile 變量,隨后 B 線程讀這個 volatile 變量。
- A 線程寫 volatile 變量,隨后 B 線程用 CAS 更新這個 volatile 變量。
- A 線程用 CAS 更新一個volatile變量,隨后 B 線程用 CAS 更新這個 volatile 變量。
- A 線程用 CAS 更新一個 volatile 變量,隨后 B 線程讀這個 volatile 變量。
Java 的 CAS 會使用現代處理器上提供的高效機器級別原子指令,這些原子指令以原子方式對內存執行讀-改-寫操作,這是在多處理器中實現同步的關鍵(從本質上來說,能夠支持原子性讀-改-寫指令的計算機器,是順序計算圖靈機的異步等價機器,因此任何現代的多處理器都會去支持某種能對內存執行原子性讀-改-寫操作的原子指令)。同時,volatile 變量的讀/寫和 CAS 可以實現線程之間的通信。把這些特性整合在一起,就形成了整個 concurrent 包得以實現的基石。如果我們仔細分析 concurrent 包的源代碼實現,會發現一個通用化的實現模式:
- 首先,聲明共享變量為 volatile;
- 然后,使用 CAS 的原子條件更新來實現線程之間的同步;
- 同時,配合以 volatile 的讀/寫和 CAS 所具有的 volatile 讀和寫的內存語義來實現線程之間的通信。
AQS,非阻塞數據結構和原子變量類(java.util.concurrent.atomic 包中的類),這些 concurrent 包中的基礎類都是使用這種模式來實現的,而 concurrent 包中的高層類又是依賴于這些基礎類來實現的。從整體來看,concurrent 包的實現示意圖如下:
final
對于final 域,編譯器和處理器要遵守兩個重排序規則:
- 在構造函數內對一個 final 域的寫入,與隨后把這個被構造對象的引用賦值給一個引用變量,這兩個操作之間不能重排序。
- 初次讀一個包含 final 域的對象的引用,與隨后初次讀這個 final 域,這兩個操作之間不能重排序。
下面,我們通過一些示例性的代碼來分別說明這兩個規則:
public class FinalExample {int i; //普通變量final int j; //final變量static FinalExample obj;public void FinalExample () { //構造函數i = 1; //寫普通域j = 2; //寫final域}public static void writer () { //寫線程A執行obj = new FinalExample ();}public static void reader () { //讀線程B執行FinalExample object = obj; //讀對象引用int a = object.i; //讀普通域int b = object.j; //讀final域}
}
復制代碼
這里假設一個線程 A 執行 writer() 方法,隨后另一個線程 B 執行 reader() 方法。
寫 final 域的重排序規則
寫 final 域的重排序規則禁止把 final 域的寫重排序到構造函數之外。這個規則的實現包含下面2個方面:
- JMM 禁止編譯器把 final 域的寫重排序到構造函數之外。
- 編譯器會在 final 域的寫之后,構造函數 return 之前,插入一個 StoreStore 屏障。這個屏障禁止處理器把 final 域的寫重排序到構造函數之外。
現在讓我們分析 writer() 方法。writer() 方法只包含一行代碼:finalExample = new FinalExample()。這行代碼包含兩個步驟:
構造一個 FinalExample 類型的對象; 把這個對象的引用賦值給引用變量 obj。 假設線程 B 讀對象引用與讀對象的成員域之間沒有重排序(馬上會說明為什么需要這個假設),下圖是一種可能的執行時序:
寫 final 域的重排序規則可以確保:在對象引用為任意線程可見之前,對象的 final 域已經被正確初始化過了,而普通域不具有這個保障。以上圖為例,在讀線程 B “看到”對象引用 obj 時,很可能 obj 對象還沒有構造完成(對普通域i的寫操作被重排序到構造函數外,此時初始值2還沒有寫入普通域i)。
讀 final 域的重排序規則
讀 final 域的重排序規則如下:
- 在一個線程中,初次讀對象引用與初次讀該對象包含的 final 域,JMM 禁止處理器重排序這兩個操作(注意,這個規則僅僅針對處理器)。編譯器會在讀 final 域操作的前面插入一個 LoadLoad 屏障。
初次讀對象引用與初次讀該對象包含的 final 域,這兩個操作之間存在間接依賴關系。由于編譯器遵守間接依賴關系,因此編譯器不會重排序這兩個操作。大多數處理器也會遵守間接依賴,大多數處理器也不會重排序這兩個操作。但有少數處理器允許對存在間接依賴關系的操作做重排序(比如 alpha 處理器),這個規則就是專門用來針對這種處理器。
reader() 方法包含三個操作:
- 初次讀引用變量 obj;
- 初次讀引用變量 obj 指向對象的普通域 j。
- 初次讀引用變量 obj 指向對象的 final 域 i。
現在我們假設寫線程 A 沒有發生任何重排序,同時程序在不遵守間接依賴的處理器上執行,下面是一種可能的執行時序:
讀 final 域的重排序規則可以確保:在讀一個對象的 final 域之前,一定會先讀包含這個 final 域的對象的引用。在這個示例程序中,如果該引用不為 null,那么引用對象的 final 域一定已經被 A 線程初始化過了。
如果 final 域是引用類型
public class FinalReferenceExample {
final int[] intArray; //final是引用類型
static FinalReferenceExample obj;public FinalReferenceExample () { //構造函數intArray = new int[1]; //1intArray[0] = 1; //2
}public static void writerOne () { //寫線程A執行obj = new FinalReferenceExample (); //3
}public static void writerTwo () { //寫線程B執行obj.intArray[0] = 2; //4
}public static void reader () { //讀線程C執行if (obj != null) { //5int temp1 = obj.intArray[0]; //6}
}
}
復制代碼
這里 final 域為一個引用類型,它引用一個 int 型的數組對象。對于引用類型,寫 final 域的重排序規則對編譯器和處理器增加了如下約束:
- 在構造函數內對一個 final 引用的對象的成員域的寫入,與隨后在構造函數外把這個被構造對象的引用賦值給一個引用變量,這兩個操作之間不能重排序。
對上面的示例程序,我們假設首先線程 A 執行 writerOne() 方法,執行完后線程 B 執行 writerTwo() 方法,執行完后線程 C 執行 reader() 方法。下面是一種可能的線程執行時序:
JMM 可以確保讀線程 C 至少能看到寫線程 A 在構造函數中對 final 引用對象的成員域的寫入。即 C 至少能看到數組下標 0 的值為 1。而寫線程 B 對數組元素的寫入,讀線程 C 可能看的到,也可能看不到。JMM 不保證線程 B 的寫入對讀線程 C 可見,因為寫線程 B 和讀線程 C 之間存在數據競爭,此時的執行結果不可預知。
如果想要確保讀線程 C 看到寫線程 B 對數組元素的寫入,寫線程 B 和讀線程 C 之間需要使用同步原語(lock 或 volatile)來確保內存可見性。
為什么 final 引用不能從構造函數內“逸出”
前面我們提到過,寫 final 域的重排序規則可以確保:在引用變量為任意線程可見之前,該引用變量指向的對象的 final 域已經在構造函數中被正確初始化過了。其實要得到這個效果,還需要一個保證:在構造函數內部,不能讓這個被構造對象的引用為其他線程可見,也就是對象引用不能在構造函數中“逸出”。為了說明問題,讓我們來看下面示例代碼:
public class FinalReferenceEscapeExample {
final int i;
static FinalReferenceEscapeExample obj;public FinalReferenceEscapeExample () {i = 1; //1寫final域obj = this; //2 this引用在此“逸出”
}public static void writer() {new FinalReferenceEscapeExample ();
}public static void reader {if (obj != null) { //3int temp = obj.i; //4}
}
}
復制代碼
假設一個線程 A 執行 writer() 方法,另一個線程 B 執行 reader() 方法。這里的操作2使得對象還未完成構造前就為線程 B 可見。即使這里的操作 2 是構造函數的最后一步,且即使在程序中操作 2 排在操作 1 后面,執行 read() 方法的線程仍然可能無法看到 final 域被初始化后的值,因為這里的操作 1 和操作 2 之間可能被重排序。實際的執行時序可能如下圖所示:
final 語義在處理器中的實現
現在我們以 x86 處理器為例,說明 final 語義在處理器中的具體實現。
上面我們提到,寫 final 域的重排序規則會要求譯編器在 final 域的寫之后,構造函數return 之前,插入一個 StoreStore 障屏。讀 final 域的重排序規則要求編譯器在讀 final 域的操作前面插入一個 LoadLoad 屏障。
由于 x86 處理器不會對寫-寫操作做重排序,所以在 x86 處理器中,寫 final 域需要的 StoreStore 障屏會被省略掉。同樣,由于 x86 處理器不會對存在間接依賴關系的操作做重排序,所以在 x86 處理器中,讀 final 域需要的 LoadLoad 屏障也會被省略掉。也就是說在 x86 處理器中,final 域的讀/寫不會插入任何內存屏障!