JMM 學習筆記

并發編程的模型

并發編程需要解決的兩個問題:線程之間如何同步,線程之間如何通信。

線程之間通信:共享內存,消息傳遞。

共享內存通過線程之間讀-寫程序的公共狀態進行通信。消息傳遞要通過線程之間主動傳遞消息進行通信。

線程之間同步:控制不同線程之間操作發生的相對順序。

共享內存并發模型中的同步是顯式進行的。需要手動指明代碼在線程之間如何互斥地執行。在消息傳遞的并發模型里,由于消息的發送必須在消息的接收之前,因此同步是隱式進行的。

Java的并發采用了共享內存模型。線程之間的通信是隱式進行的,需要手動進行控制。

Java內存模型

在Java中,實例域,靜態域和數組對象存儲在堆內存中,堆內存在內存之間共享。局部變量,方法定義參數和異常處理參數不會在內存中共享,不存在可見性問題,不受內存模型的影響。Java線程之間的通信由JMM控制,JMM決定了一個線程對共享變量的寫入何時對另一個線程可見。抽象來看就是:線程之間的共享變量存儲在主內存中,每個線程有一個私有的本地內存,本地內存中存儲了該線程以讀/寫共享變量的副本。

線程A與B通信需要經過兩個步驟:

  1. 首先,線程A把本地內存A中更新過的共享變量刷新到主內存中去。
  2. 然后,線程B到主內存中去讀取線程A之前已更新過的共享變量。

JMM通過控制主內存與每個線程的本地內存之間的交互來為程序提供內存可見性的保證。

重排序

為了提高程序執行時的效率,編譯器和處理器通常會對指令做重排序。

  1. 編譯器優化的重排序。編譯器在不改變單線程程序語義的前提下,可以重新安排語句的執行順序。
  2. 指令級并行的重排序。現代處理器采用了指令級并行技術(Instruction-Level Parallelism, ILP)來將多條指令重疊執行。如果不存在數據依賴性,處理器可以改變語句對應機器指令的執行順序。
  3. 內存系統的重排序。由于處理器使用緩存和讀/寫緩沖區,這使得加載和存儲操作看上去可能是在亂序執行。

這些重排序都可能會導致多線程程序出現內存可見性問題。對于編譯器,JMM的編譯器重排序規則會禁止特定類型的編譯器重排序(不是所有的編譯器重排序都要禁止)。對于處理器重排序,JMM的處理器重排序規則會要求java編譯器在生成指令序列時,插入特定類型的內存屏障(memory barriers,intel稱之為memory fence)指令,通過內存屏障指令來禁止特定類型的處理器重排序(不是所有的處理器重排序都要禁止)。

JMM通過禁止特定類型的編譯器重排序和處理器重排序為程序提供了內存可見性的保障。

處理器重排序和內存屏障指令

現代的處理器使用寫緩沖區來臨時保存向內存寫入的數據。每個處理器上的寫緩沖區,僅僅對它所在的處理器可見。這個特性會對內存操作的執行順序產生重要的影響:處理器對內存的讀/寫操作的執行順序,不一定與內存實際發生的讀/寫操作順序一致!如圖:

假設處理器A和處理器B按程序的順序并行執行內存訪問,最終卻可能得到x = y = 0的結果。具體的原因如下圖所示:

里處理器A和處理器B可以同時把共享變量寫入自己的寫緩沖區(A1,B1),然后從內存中讀取另一個共享變量(A2,B2),最后才把自己寫緩存區中保存的臟數據刷新到內存中(A3,B3)。當以這種時序執行時,程序就可以得到x = y = 0的結果。 從內存操作實際發生的順序來看,直到處理器A執行A3來刷新自己的寫緩存區,寫操作A1才算真正執行了。雖然處理器A執行內存操作的順序為:A1->A2,但內存操作實際發生的順序卻是:A2->A1。此時,處理器A的內存操作順序被重排序了。

為了保證內存可見性,java編譯器在生成指令序列的適當位置會插入內存屏障指令來禁止特定類型的處理器重排序。JMM把內存屏障指令分為下列四類:

StoreLoad Barriers是一個“全能型”的屏障,它同時具有其他三個屏障的效果。執行該屏障開銷會很昂貴,因為當前處理器通常要把寫緩沖區中的數據全部刷新到內存中(buffer fully flush)。

happens-before

happens-before概念用來描述操作之間的內存可見性。在JMM中,如果一個操作執行的結果需要對另一個操作可見,那么這兩個操作之間必須要存在happens-before關系。這里提到的兩個操作既可以是在一個線程之內,也可以是在不同線程之間。 與程序員密切相關的happens-before規則如下:

  • 程序順序規則:一個線程中的每個操作,happens- before 于該線程中的任意后續操作。
  • 監視器鎖規則:對一個監視器鎖的解鎖,happens- before 于隨后對這個監視器鎖的加鎖。
  • volatile變量規則:對一個volatile域的寫,happens- before 于任意后續對這個volatile域的讀。
  • 傳遞性:如果A happens- before B,且B happens- before C,那么A happens- before C。

注意,兩個操作之間具有happens-before關系,并不意味著前一個操作必須要在后一個操作之前執行!happens-before僅僅要求前一個操作(執行的結果)對后一個操作可見,且前一個操作按順序排在第二個操作之前(the first is visible to and ordered before the second)。

數據依賴性

如果兩個操作訪問同一個變量,且這兩個操作中有一個為寫操作,此時這兩個操作之間就存在數據依賴性。數據依賴分下列三種類型:

上面三種情況,只要重排序兩個操作的執行順序,程序的執行結果將會被改變。

前面提到過,編譯器和處理器可能會對操作做重排序。編譯器和處理器在重排序時,會遵守數據依賴性,編譯器和處理器不會改變存在數據依賴關系的兩個操作的執行順序。

注意,這里所說的數據依賴性僅針對單個處理器中執行的指令序列和單個線程中執行的操作,不同處理器之間和不同線程之間的數據依賴性不被編譯器和處理器考慮。

as-if-serial語義

as-if-serial語義的意思指:不管怎么重排序(編譯器和處理器為了提高并行度),(單線程)程序的執行結果不能被改變。編譯器,runtime 和處理器都必須遵守as-if-serial語義。

為了遵守as-if-serial語義,編譯器和處理器不會對存在數據依賴關系的操作做重排序,因為這種重排序會改變執行結果。但是,如果操作之間不存在數據依賴關系,這些操作可能被編譯器和處理器重排序。為了具體說明,請看下面計算圓面積的代碼示例:

double pi  = 3.14;    //A
double r   = 1.0;     //B
double area = pi * r * r; //C
復制代碼

上面三個操作的數據依賴關系如下圖所示:

如上圖所示,A和C之間存在數據依賴關系,同時B和C之間也存在數據依賴關系。因此在最終執行的指令序列中,C不能被重排序到A和B的前面(C排到A和B的前面,程序的結果將會被改變)。但A和B之間沒有數據依賴關系,編譯器和處理器可以重排序A和B之間的執行順序。下圖是該程序的兩種執行順序:
as-if-serial語義把單線程程序保護了起來,遵守as-if-serial語義的編譯器,runtime 和處理器共同為編寫單線程程序的程序員創建了一個幻覺:單線程程序是按程序的順序來執行的。as-if-serial語義使單線程程序員無需擔心重排序會干擾他們,也無需擔心內存可見性問題。

程序順序規則

根據happens- before的程序順序規則,上面計算圓的面積的示例代碼存在三個happens- before關系:

  • A happens- before B;
  • B happens- before C;
  • A happens- before C;

這里的第3個happens- before關系,是根據happens- before的傳遞性推導出來的。

這里A happens- before B,但實際執行時B卻可以排在A之前執行(看上面的重排序后的執行順序)。在第一章提到過,如果A happens- before B,JMM并不要求A一定要在B之前執行。JMM僅僅要求前一個操作(執行的結果)對后一個操作可見,且前一個操作按順序排在第二個操作之前。這里操作A的執行結果不需要對操作B可見;而且重排序操作A和操作B后的執行結果,與操作A和操作B按happens- before順序執行的結果一致。在這種情況下,JMM會認為這種重排序并不非法(not illegal),JMM允許這種重排序。

在計算機中,軟件技術和硬件技術有一個共同的目標:在不改變程序執行結果的前提下,盡可能的開發并行度。編譯器和處理器遵從這一目標,從happens- before的定義我們可以看出,JMM同樣遵從這一目標。

重排序對多線程的影響

現在讓我們來看看,重排序是否會改變多線程程序的執行結果。請看下面的示例代碼:

class ReorderExample {
int a = 0;
boolean flag = false;public void writer() {a = 1;                   //1flag = true;             //2
}Public void reader() {if (flag) {                //3int i =  a * a;        //4……}
}
}
復制代碼

flag變量是個標記,用來標識變量a是否已被寫入。這里假設有兩個線程A和B,A首先執行writer()方法,隨后B線程接著執行reader()方法。線程B在執行操作4時,能否看到線程A在操作1對共享變量a的寫入?

答案是:不一定能看到。

由于操作1和操作2沒有數據依賴關系,編譯器和處理器可以對這兩個操作重排序;同樣,操作3和操作4沒有數據依賴關系,編譯器和處理器也可以對這兩個操作重排序。讓我們先來看看,當操作1和操作2重排序時,可能會產生什么效果?請看下面的程序執行時序圖:

如上圖所示,操作1和操作2做了重排序。程序執行時,線程A首先寫標記變量flag,隨后線程B讀這個變量。由于條件判斷為真,線程B將讀取變量a。此時,變量a還根本沒有被線程A寫入,在這里多線程程序的語義被重排序破壞了!

下面再讓我們看看,當操作3和操作4重排序時會產生什么效果(借助這個重排序,可以順便說明控制依賴性)。下面是操作3和操作4重排序后,程序的執行時序圖:

在程序中,操作3和操作4存在控制依賴關系。當代碼中存在控制依賴性時,會影響指令序列執行的并行度。為此,編譯器和處理器會采用猜測(Speculation)執行來克服控制相關性對并行度的影響。以處理器的猜測執行為例,執行線程B的處理器可以提前讀取并計算a*a,然后把計算結果臨時保存到一個名為重排序緩沖(reorder buffer ROB)的硬件緩存中。當接下來操作3的條件判斷為真時,就把該計算結果寫入變量i中。

從圖中我們可以看出,猜測執行實質上對操作3和4做了重排序。重排序在這里破壞了多線程程序的語義!

在單線程程序中,對存在控制依賴的操作重排序,不會改變執行結果(這也是as-if-serial語義允許對存在控制依賴的操作做重排序的原因);但在多線程程序中,對存在控制依賴的操作重排序,可能會改變程序的執行結果。

數據競爭與順序一致性保證

當程序未正確同步時,就會存在數據競爭。java內存模型規范對數據競爭的定義如下:

  • 在一個線程中寫一個變量,
  • 在另一個線程讀同一個變量,
  • 而且寫和讀沒有通過同步來排序。

當代碼中包含數據競爭時,程序的執行往往產生違反直覺的結果(前一章的示例正是如此)。如果一個多線程程序能正確同步,這個程序將是一個沒有數據競爭的程序。

JMM對正確同步的多線程程序的內存一致性做了如下保證:

如果程序是正確同步的,程序的執行將具有順序一致性(sequentially consistent)– 即程序的執行結果與該程序在順序一致性內存模型中的執行結果相同(馬上我們將會看到,這對于程序員來說是一個極強的保證)。這里的同步是指廣義上的同步,包括對常用同步原語(lock,volatile和final)的正確使用。

順序一致性內存模型

順序一致性內存模型是一個被計算機科學家理想化了的理論參考模型,它為程序員提供了極強的內存可見性保證。順序一致性內存模型有兩大特性:

  • 一個線程中的所有操作必須按照程序的順序來執行。
  • (不管程序是否同步)所有線程都只能看到一個單一的操作執行順序。在順序一致性內存模型中,每個操作都必須原子執行且立刻對所有線程可見。

順序一致性內存模型為程序員提供的視圖如下:

在概念上,順序一致性模型有一個單一的全局內存,這個內存通過一個左右擺動的開關可以連接到任意一個線程。同時,每一個線程必須按程序的順序來執行內存讀/寫操作。從上圖我們可以看出,在任意時間點最多只能有一個線程可以連接到內存。當多個線程并發執行時,圖中的開關裝置能把所有線程的所有內存讀/寫操作串行化。

假設有兩個線程A和B并發執行。其中A線程有三個操作,它們在程序中的順序是:A1->A2->A3。B線程也有三個操作,它們在程序中的順序是:B1->B2->B3。

假設這兩個線程使用監視器來正確同步:A線程的三個操作執行后釋放監視器,隨后B線程獲取同一個監視器。那么程序在順序一致性模型中的執行效果將如下圖所示:

現在我們再假設這兩個線程沒有做同步,下面是這個未同步程序在順序一致性模型中的執行示意圖:

未同步程序在順序一致性模型中雖然整體執行順序是無序的,但所有線程都只能看到一個一致的整體執行順序。以上圖為例,線程A和B看到的執行順序都是:B1->A1->A2->B2->A3->B3。之所以能得到這個保證是因為順序一致性內存模型中的每個操作必須立即對任意線程可見。

但是,在JMM中就沒有這個保證。未同步程序在JMM中不但整體的執行順序是無序的,而且所有線程看到的操作執行順序也可能不一致。比如,在當前線程把寫過的數據緩存在本地內存中,且還沒有刷新到主內存之前,這個寫操作僅對當前線程可見;從其他線程的角度來觀察,會認為這個寫操作根本還沒有被當前線程執行。只有當前線程把本地內存中寫過的數據刷新到主內存之后,這個寫操作才能對其他線程可見。在這種情況下,當前線程和其它線程看到的操作執行順序將不一致。

同步程序的順序一致性效果

下面我們對前面的示例程序ReorderExample用監視器來同步,看看正確同步的程序如何具有順序一致性。

請看下面的示例代碼:

class SynchronizedExample {
int a = 0;
boolean flag = false;public synchronized void writer() {a = 1;flag = true;
}public synchronized void reader() {if (flag) {int i = a;……}
}
}
復制代碼

上面示例代碼中,假設A線程執行writer()方法后,B線程執行reader()方法。這是一個正確同步的多線程程序。根據JMM規范,該程序的執行結果將與該程序在順序一致性模型中的執行結果相同。下面是該程序在兩個內存模型中的執行時序對比圖:

在順序一致性模型中,所有操作完全按程序的順序串行執行。而在JMM中,臨界區內的代碼可以重排序(但JMM不允許臨界區內的代碼“逸出”到臨界區之外,那樣會破壞監視器的語義)。JMM會在退出監視器和進入監視器這兩個關鍵時間點做一些特別處理,使得線程在這兩個時間點具有與順序一致性模型相同的內存視圖(具體細節后文會說明)。雖然線程A在臨界區內做了重排序,但由于監視器的互斥執行的特性,這里的線程B根本無法“觀察”到線程A在臨界區內的重排序。這種重排序既提高了執行效率,又沒有改變程序的執行結果。

從這里我們可以看到JMM在具體實現上的基本方針:在不改變(正確同步的)程序執行結果的前提下,盡可能的為編譯器和處理器的優化打開方便之門。

未同步程序的執行特性

對于未同步或未正確同步的多線程程序,JMM只提供最小安全性:線程執行時讀取到的值,要么是之前某個線程寫入的值,要么是默認值(0,null,false),JMM保證線程讀操作讀取到的值不會無中生有(out of thin air)的冒出來。為了實現最小安全性,JVM在堆上分配對象時,首先會清零內存空間,然后才會在上面分配對象(JVM內部會同步這兩個操作)。因此,在以清零的內存空間(pre-zeroed memory)分配對象時,域的默認初始化已經完成了。

JMM不保證未同步程序的執行結果與該程序在順序一致性模型中的執行結果一致。因為未同步程序在順序一致性模型中執行時,整體上是無序的,其執行結果無法預知。保證未同步程序在兩個模型中的執行結果一致毫無意義。

和順序一致性模型一樣,未同步程序在JMM中的執行時,整體上也是無序的,其執行結果也無法預知。同時,未同步程序在這兩個模型中的執行特性有下面幾個差異:

  • 順序一致性模型保證單線程內的操作會按程序的順序執行,而JMM不保證單線程內的操作會按程序的順序執行(比如上面正確同步的多線程程序在臨界區內的重排序)。這一點前面已經講過了,這里就不再贅述。
  • 順序一致性模型保證所有線程只能看到一致的操作執行順序,而JMM不保證所有線程能看到一致的操作執行順序。這一點前面也已經講過,這里就不再贅述。
  • JMM不保證對64位的long型和double型變量的讀/寫操作具有原子性,而順序一致性模型保證對所有的內存讀/寫操作都具有原子性。

第3個差異與處理器總線的工作機制密切相關。在計算機中,數據通過總線在處理器和內存之間傳遞。每次處理器和內存之間的數據傳遞都是通過一系列步驟來完成的,這一系列步驟稱之為總線事務(bus transaction)。總線事務包括讀事務(read transaction)和寫事務(write transaction)。讀事務從內存傳送數據到處理器,寫事務從處理器傳送數據到內存,每個事務會讀/寫內存中一個或多個物理上連續的字。這里的關鍵是,總線會同步試圖并發使用總線的事務。在一個處理器執行總線事務期間,總線會禁止其它所有的處理器和I/O設備執行內存的讀/寫。下面讓我們通過一個示意圖來說明總線的工作機制:

如上圖所示,假設處理器A,B和C同時向總線發起總線事務,這時總線仲裁(bus arbitration)會對競爭作出裁決,這里我們假設總線在仲裁后判定處理器A在競爭中獲勝(總線仲裁會確保所有處理器都能公平的訪問內存)。此時處理器A繼續它的總線事務,而其它兩個處理器則要等待處理器A的總線事務完成后才能開始再次執行內存訪問。假設在處理器A執行總線事務期間(不管這個總線事務是讀事務還是寫事務),處理器D向總線發起了總線事務,此時處理器D的這個請求會被總線禁止。

總線的這些工作機制可以把所有處理器對內存的訪問以串行化的方式來執行;在任意時間點,最多只能有一個處理器能訪問內存。這個特性確保了單個總線事務之中的內存讀/寫操作具有原子性。

在一些32位的處理器上,如果要求對64位數據的讀/寫操作具有原子性,會有比較大的開銷。為了照顧這種處理器,java語言規范鼓勵但不強求JVM對64位的long型變量和double型變量的讀/寫具有原子性。當JVM在這種處理器上運行時,會把一個64位long/ double型變量的讀/寫操作拆分為兩個32位的讀/寫操作來執行。這兩個32位的讀/寫操作可能會被分配到不同的總線事務中執行,此時對這個64位變量的讀/寫將不具有原子性。

當單個內存操作不具有原子性,將可能會產生意想不到后果。請看下面示意圖:

如上圖所示,假設處理器A寫一個long型變量,同時處理器B要讀這個long型變量。處理器A中64位的寫操作被拆分為兩個32位的寫操作,且這兩個32位的寫操作被分配到不同的寫事務中執行。同時處理器B中64位的讀操作被拆分為兩個32位的讀操作,且這兩個32位的讀操作被分配到同一個的讀事務中執行。當處理器A和B按上圖的時序來執行時,處理器B將看到僅僅被處理器A“寫了一半“的無效值。

volatile的特性

當我們聲明共享變量為volatile后,對這個變量的讀/寫將會很特別。理解volatile特性的一個好方法是:把對volatile變量的單個讀/寫,看成是使用同一個鎖對這些單個讀/寫操作做了同步。下面我們通過具體的示例來說明,請看下面的示例代碼:

class VolatileFeaturesExample {//使用volatile聲明64位的long型變量volatile long vl = 0L;public void set(long l) {vl = l;   //單個volatile變量的寫}public void getAndIncrement () {vl++;    //復合(多個)volatile變量的讀/寫}public long get() {return vl;   //單個volatile變量的讀}
}
復制代碼

假設有多個線程分別調用上面程序的三個方法,這個程序在語義上和下面程序等價:

class VolatileFeaturesExample {long vl = 0L;               // 64位的long型普通變量//對單個的普通 變量的寫用同一個鎖同步public synchronized void set(long l) {             vl = l;}public void getAndIncrement () { //普通方法調用long temp = get();           //調用已同步的讀方法temp += 1L;                  //普通寫操作set(temp);                   //調用已同步的寫方法}public synchronized long get() { //對單個的普通變量的讀用同一個鎖同步return vl;}
}
復制代碼

如上面示例程序所示,對一個volatile變量的單個讀/寫操作,與對一個普通變量的讀/寫操作使用同一個鎖來同步,它們之間的執行效果相同。

鎖的happens-before規則保證釋放鎖和獲取鎖的兩個線程之間的內存可見性,這意味著對一個volatile變量的讀,總是能看到(任意線程)對這個volatile變量最后的寫入。

鎖的語義決定了臨界區代碼的執行具有原子性。這意味著即使是64位的long型和double型變量,只要它是volatile變量,對該變量的讀寫就將具有原子性。如果是多個volatile操作或類似于volatile++這種復合操作,這些操作整體上不具有原子性。

簡而言之,volatile變量自身具有下列特性:

  • 可見性。對一個volatile變量的讀,總是能看到(任意線程)對這個volatile變量最后的寫入。
  • 原子性:對任意單個volatile變量的讀/寫具有原子性,但類似于volatile++這種復合操作不具有原子性。

volatile的寫-讀建立的happens before關系

上面講的是volatile變量自身的特性,對程序員來說,volatile對線程的內存可見性的影響比volatile自身的特性更為重要,也更需要我們去關注。

從JSR-133開始,volatile變量的寫-讀可以實現線程之間的通信。

從內存語義的角度來說,volatile與鎖有相同的效果:volatile寫和鎖的釋放有相同的內存語義;volatile讀與鎖的獲取有相同的內存語義。

請看下面使用volatile變量的示例代碼:

class VolatileExample {int a = 0;volatile boolean flag = false;public void writer() {a = 1;                   //1flag = true;               //2}public void reader() {if (flag) {                //3int i =  a;           //4……}}
}
復制代碼

假設線程A執行writer()方法之后,線程B執行reader()方法。根據happens before規則,這個過程建立的happens before 關系可以分為兩類:

  • 根據程序次序規則,1 happens before 2; 3 happens before 4。
  • 根據volatile規則,2 happens before 3。
  • 根據happens before 的傳遞性規則,1 happens before 4。

上述 happens before 關系的圖形化表現形式如下:

在上圖中,每一個箭頭鏈接的兩個節點,代表了一個 happens before 關系。黑色箭頭表示程序順序規則;橙色箭頭表示 volatile 規則;藍色箭頭表示組合這些規則后提供的 happens before 保證。

這里A線程寫一個volatile變量后,B線程讀同一個volatile變量。A線程在寫volatile變量之前所有可見的共享變量,在B線程讀同一個volatile變量后,將立即變得對B線程可見。

volatile寫-讀的內存語義

volatile 寫的內存語義如下:

當寫一個 volatile 變量時,JMM 會把該線程對應的本地內存中的共享變量刷新到主內存。 以上面示例程序 VolatileExample 為例,假設線程 A 首先執行 writer() 方法,隨后線程 B 執行 reader() 方法,初始時兩個線程的本地內存中的 flag 和 a 都是初始狀態。下圖是線程 A 執行 volatile 寫后,共享變量的狀態示意圖:

如上圖所示,線程A在寫flag變量后,本地內存A中被線程A更新過的兩個共享變量的值被刷新到主內存中。此時,本地內存A和主內存中的共享變量的值是一致的。

volatile讀的內存語義如下:

當讀一個 volatile 變量時,JMM 會把該線程對應的本地內存置為無效。線程接下來將從主內存中讀取共享變量。 下面是線程B讀同一個 volatile 變量后,共享變量的狀態示意圖:

如上圖所示,在讀 flag 變量后,本地內存 B 已經被置為無效。此時,線程 B 必須從主內存中讀取共享變量。線程 B 的讀取操作將導致本地內存B與主內存中的共享變量的值也變成一致的了。

如果我們把 volatile 寫和 volatile 讀這兩個步驟綜合起來看的話,在讀線程 B 讀一個volatile 變量后,寫線程 A 在寫這個 volatile 變量之前所有可見的共享變量的值都將立即變得對讀線程 B 可見。

下面對 volatile 寫和 volatile 讀的內存語義做個總結:

  • 線程 A 寫一個 volatile 變量,實質上是線程 A 向接下來將要讀這個 volatile 變量的某個線程發出了(其對共享變量所在修改的)消息。
  • 線程 B 讀一個 volatile 變量,實質上是線程 B 接收了之前某個線程發出的(在寫這個volatile 變量之前對共享變量所做修改的)消息。
  • 線程A寫一個 volatile 變量,隨后線程 B 讀這個 volatile 變量,這個過程實質上是線程A 通過主內存向線程 B 發送消息。

volatile 內存語義的實現

JMM 如何實現 volatile 寫/讀的內存語義。

前文我們提到過重排序分為編譯器重排序和處理器重排序。為了實現 volatile 內存語義,JMM 會分別限制這兩種類型的重排序類型。下面是 JMM 針對編譯器制定的 volatile 重排序規則表:

舉例來說,第三行最后一個單元格的意思是:在程序順序中,當第一個操作為普通變量的讀或寫時,如果第二個操作為 volatile 寫,則編譯器不能重排序這兩個操作。

從上表我們可以看出:

  • 當第二個操作是 volatile 寫時,不管第一個操作是什么,都不能重排序。這個規則確保volatile 寫之前的操作不會被編譯器重排序到 volatile 寫之后。
  • 當第一個操作是 volatile 讀時,不管第二個操作是什么,都不能重排序。這個規則確保volatile 讀之后的操作不會被編譯器重排序到 volatile 讀之前。
  • 當第一個操作是 volatile 寫,第二個操作是 volatile 讀時,不能重排序。

為了實現 volatile 的內存語義,編譯器在生成字節碼時,會在指令序列中插入內存屏障來禁止特定類型的處理器重排序。對于編譯器來說,發現一個最優布置來最小化插入屏障的總數幾乎不可能,為此,JMM 采取保守策略。下面是基于保守策略的 JMM 內存屏障插入策略:

  • 在每個 volatile 寫操作的前面插入一個 StoreStore 屏障。
  • 在每個 volatile 寫操作的后面插入一個 StoreLoad 屏障。
  • 在每個 volatile 讀操作的后面插入一個 LoadLoad 屏障。
  • 在每個 volatile 讀操作的后面插入一個 LoadStore 屏障。

上述內存屏障插入策略非常保守,但它可以保證在任意處理器平臺,任意的程序中都能得到正確的volatile 內存語義。

下面是保守策略下,volatile 寫 插入內存屏障后生成的指令序列示意圖:

上圖中的 StoreStore 屏障可以保證在 volatile 寫之前,其前面的所有普通寫操作已經對任意處理器可見了。這是因為 StoreStore 屏障將保障上面所有的普通寫在 volatile 寫之前刷新到主內存。

這里比較有意思的是 volatile 寫后面的 StoreLoad 屏障。這個屏障的作用是避免 volatile寫與后面可能有的 volatile 讀/寫操作重排序。因為編譯器常常無法準確判斷在一個 volatile寫的后面,是否需要插入一個 StoreLoad 屏障(比如,一個 volatile 寫之后方法立即return)。為了保證能正確實現 volatile 的內存語義,JMM 在這里采取了保守策略:在每個volatile 寫的后面或在每個 volatile 讀的前面插入一個 StoreLoad 屏障。從整體執行效率的角度考慮,JMM 選擇了在每個 volatile 寫的后面插入一個 StoreLoad 屏障。因為volatile 寫-讀內存語義的常見使用模式是:一個寫線程寫 volatile 變量,多個讀線程讀同一個 volatile 變量。當讀線程的數量大大超過寫線程時,選擇在 volatile 寫之后插入StoreLoad 屏障將帶來可觀的執行效率的提升。從這里我們可以看到 JMM 在實現上的一個特點:首先確保正確性,然后再去追求執行效率。

下面是在保守策略下,volatile 讀插入內存屏障后生成的指令序列示意圖:

上圖中的 LoadLoad 屏障用來禁止處理器把上面的 volatile 讀與下面的普通讀重排序。LoadStore 屏障用來禁止處理器把上面的 volatile 讀與下面的普通寫重排序。

上述 volatile 寫和 volatile 讀的內存屏障插入策略非常保守。在實際執行時,只要不改變volatile 寫-讀的內存語義,編譯器可以根據具體情況省略不必要的屏障。下面我們通過具體的示例代碼來說明:

class VolatileBarrierExample {int a;volatile int v1 = 1;volatile int v2 = 2;void readAndWrite() {int i = v1;           //第一個volatile讀int j = v2;           // 第二個volatile讀a = i + j;            //普通寫v1 = i + 1;          // 第一個volatile寫v2 = j * 2;          //第二個 volatile寫}…                    //其他方法
}  
復制代碼

針對 readAndWrite() 方法,編譯器在生成字節碼時可以做如下的優化:

注意,最后的 StoreLoad 屏障不能省略。因為第二個 volatile 寫之后,方法立即 return。此時編譯器可能無法準確斷定后面是否會有 volatile 讀或寫,為了安全起見,編譯器常常會在這里插入一個 StoreLoad 屏障。

上面的優化是針對任意處理器平臺,由于不同的處理器有不同“松緊度”的處理器內存模型,內存屏障的插入還可以根據具體的處理器內存模型繼續優化。以 x86 處理器為例,上圖中除最后的StoreLoad 屏障外,其它的屏障都會被省略。

前面保守策略下的 volatile 讀和寫,在 x86 處理器平臺可以優化成:

前文提到過,x86 處理器僅會對寫-讀操作做重排序。X86 不會對讀-讀,讀-寫和寫-寫操作做重排序,因此在 x86 處理器中會省略掉這三種操作類型對應的內存屏障。在 x86 中,JMM 僅需在volatile 寫后面插入一個 StoreLoad 屏障即可正確實現 volatile 寫-讀的內存語義。這意味著在 x86 處理器中,volatile 寫的開銷比 volatile 讀的開銷會大很多(因為執行StoreLoad 屏障開銷會比較大)。

JSR-133 為什么要增強 volatile 的內存語義

在 JSR-133 之前的舊 Java 內存模型中,雖然不允許 volatile 變量之間重排序,但舊的Java 內存模型允許 volatile 變量與普通變量之間重排序。在舊的內存模型中,VolatileExample 示例程序可能被重排序成下列時序來執行:

在舊的內存模型中,當1和2之間沒有數據依賴關系時,1和2之間就可能被重排序(3和4類似)。其結果就是:讀線程B執行4時,不一定能看到寫線程 A 在執行1時對共享變量的修改。

因此在舊的內存模型中 ,volatile 的寫-讀沒有鎖的釋放-獲所具有的內存語義。為了提供一種比鎖更輕量級的線程之間通信的機制,JSR-133 專家組決定增強 volatile 的內存語義:嚴格限制編譯器和處理器對 volatile 變量與普通變量的重排序,確保 volatile 的寫-讀和鎖的釋放-獲取一樣,具有相同的內存語義。從編譯器重排序規則和處理器內存屏障插入策略來看,只要volatile 變量與普通變量之間的重排序可能會破壞 volatile 的內存語意,這種重排序就會被編譯器重排序規則和處理器內存屏障插入策略禁止。

由于 volatile 僅僅保證對單個 volatile 變量的讀/寫具有原子性,而鎖的互斥執行的特性可以確保對整個臨界區代碼的執行具有原子性。在功能上,鎖比 volatile 更強大;在可伸縮性和執行性能上,volatile 更有優勢。

鎖的釋放-獲取建立的happens before 關系

鎖是java并發編程中最重要的同步機制。鎖除了讓臨界區互斥執行外,還可以讓釋放鎖的線程向獲取同一個鎖的線程發送消息。下面是鎖釋放-獲取的示例代碼:

class MonitorExample {int a = 0;public synchronized void writer() {  //1a++;                             //2}                                    //3public synchronized void reader() {  //4int i = a;                       //5……}                                    //6
}
復制代碼

假設線程A執行writer()方法,隨后線程B執行reader()方法。根據happens before規則,這個過程包含的happens before 關系可以分為兩類:

  • 根據程序次序規則,1 happens before 2, 2 happens before 3; 4 happens before 5, 5 happens before 6。
  • 根據監視器鎖規則,3 happens before 4。
  • 根據happens before 的傳遞性,2 happens before 5。

上述happens before 關系的圖形化表現形式如下:

在上圖中,每一個箭頭鏈接的兩個節點,代表了一個 happens before 關系。黑色箭頭表示程序順序規則;橙色箭頭表示監視器鎖規則;藍色箭頭表示組合這些規則后提供的 happens before保證。

上圖表示在線程A釋放了鎖之后,隨后線程B獲取同一個鎖。在上圖中,2 happens before 5。因此,線程A在釋放鎖之前所有可見的共享變量,在線程B獲取同一個鎖之后,將立刻變得對B線程可見。

鎖釋放和獲取的內存語義

當線程釋放鎖時,JMM 會把該線程對應的本地內存中的共享變量刷新到主內存中。以上面的MonitorExample 程序為例,A線程釋放鎖后,共享數據的狀態示意圖如下:

當線程獲取鎖時,JMM 會把該線程對應的本地內存置為無效。從而使得被監視器保護的臨界區代碼必須要從主內存中去讀取共享變量。下面是鎖獲取的狀態示意圖:
對比鎖釋放-獲取的內存語義與 volatile 寫-讀的內存語義,可以看出:鎖釋放與 volatile 寫有相同的內存語義;鎖獲取與 volatile 讀有相同的內存語義。

下面對鎖釋放和鎖獲取的內存語義做個總結:

  • 線程 A 釋放一個鎖,實質上是線程 A 向接下來將要獲取這個鎖的某個線程發出了(線程 A 對共享變量所做修改的)消息。
  • 線程 B 獲取一個鎖,實質上是線程 B 接收了之前某個線程發出的(在釋放這個鎖之前對共享變量所做修改的)消息。
  • 線程 A 釋放鎖,隨后線程 B 獲取這個鎖,這個過程實質上是線程 A 通過主內存向線程 B 發送消息。

鎖內存語義的實現

class ReentrantLockExample {
int a = 0;
ReentrantLock lock = new ReentrantLock();public void writer() {lock.lock();         //獲取鎖try {a++;} finally {lock.unlock();  //釋放鎖}
}public void reader () {lock.lock();        //獲取鎖try {int i = a;……} finally {lock.unlock();  //釋放鎖}
}
}  
復制代碼

ReentrantLock 的實現依賴于 java 同步器框架 AbstractQueuedSynchronizer(本文簡稱之為AQS)。AQS 使用一個整型的 volatile 變量(命名為 state)來維護同步狀態,馬上我們會看到,這個 volatile 變量是 ReentrantLock 內存語義實現的關鍵。 下面是ReentrantLock 的類圖(僅畫出與本文相關的部分):

ReentrantLock 分為公平鎖和非公平鎖。

使用公平鎖時,加鎖方法 lock() 的方法調用軌跡如下:

  • ReentrantLock : lock()
  • FairSync : lock()
  • AbstractQueuedSynchronizer : acquire(int arg)
  • ReentrantLock : tryAcquire(int acquires)

在第4步真正開始加鎖,下面是該方法的源代碼:

protected final boolean tryAcquire(int acquires) {final Thread current = Thread.currentThread();int c = getState();   //獲取鎖的開始,首先讀volatile變量stateif (c == 0) {if (isFirst(current) &&compareAndSetState(0, acquires)) {setExclusiveOwnerThread(current);return true;}}else if (current == getExclusiveOwnerThread()) {int nextc = c + acquires;if (nextc < 0)  throw new Error("Maximum lock count exceeded");setState(nextc);return true;}return false;
}  
復制代碼

從上面源代碼中我們可以看出,加鎖方法首先讀 volatile 變量 state。

在使用公平鎖時,解鎖方法 unlock() 的方法調用軌跡如下:

  • ReentrantLock : unlock()
  • AbstractQueuedSynchronizer : release(int arg)
  • Sync : tryRelease(int releases)

在第3步真正開始釋放鎖,下面是該方法的源代碼:

protected final boolean tryRelease(int releases) {int c = getState() - releases;if (Thread.currentThread() != getExclusiveOwnerThread())throw new IllegalMonitorStateException();boolean free = false;if (c == 0) {free = true;setExclusiveOwnerThread(null);}setState(c);           //釋放鎖的最后,寫volatile變量statereturn free;
}  
復制代碼

從上面的源代碼我們可以看出,在釋放鎖的最后寫 volatile 變量 state。

公平鎖在釋放鎖的最后寫 volatile 變量 state;在獲取鎖時首先讀這個 volatile 變量。根據 volatile 的 happens-before 規則,釋放鎖的線程在寫 volatile 變量之前可見的共享變量,在獲取鎖的線程讀取同一個 volatile 變量后將立即變的對獲取鎖的線程可見。

使用非公平鎖時,加鎖方法 lock() 的方法調用軌跡如下:

  • ReentrantLock : lock()
  • NonfairSync : lock()
  • AbstractQueuedSynchronizer : compareAndSetState(int expect, int update)

在第3步真正開始加鎖,下面是該方法的源代碼:

protected final boolean compareAndSetState(int expect, int update) {return unsafe.compareAndSwapInt(this, stateOffset, expect, update);
}  
復制代碼

該方法以原子操作的方式更新 state 變量,本文把 java 的 compareAndSet() 方法調用簡稱為 CAS。JDK 文檔對該方法的說明如下:如果當前狀態值等于預期值,則以原子方式將同步狀態設置為給定的更新值。此操作具有 volatile 讀和寫的內存語義。

這里我們分別從編譯器和處理器的角度來分析,CAS 如何同時具有 volatile 讀和 volatile 寫的內存語義。

前文我們提到過,編譯器不會對 volatile 讀與 volatile 讀后面的任意內存操作重排序;編譯器不會對 volatile 寫與 volatile 寫前面的任意內存操作重排序。組合這兩個條件,意味著為了同時實現 volatile 讀和 volatile 寫的內存語義,編譯器不能對 CAS 與 CAS 前面和后面的任意內存操作重排序。

下面我們來分析在常見的 intel x86 處理器中,CAS 是如何同時具有 volatile 讀和 volatile 寫的內存語義的。

下面是 sun.misc.Unsafe 類的 compareAndSwapInt() 方法的源代碼:

public final native boolean compareAndSwapInt(Object o, long offset,int expected,int x);  
復制代碼

可以看到這是個本地方法調用。這個本地方法在 openjdk 中依次調用的 C++ 代碼為:unsafe.cpp,atomic.cpp 和 atomicwindowsx86.inline.hpp。這個本地方法的最終實現在 openjdk 的如下位置:openjdk-7-fcs-src-b147-27jun2011\openjdk\hotspot\src\oscpu\windowsx86\vm\ atomicwindowsx86.inline.hpp(對應于 windows 操作系統,X86 處理器)。下面是對應于 intel x86 處理器的源代碼的片段:

// Adding a lock prefix to an instruction on MP machine
// VC++ doesn't like the lock prefix to be on a single line
// so we can't insert a label after the lock prefix.
// By emitting a lock prefix, we can define a label after it.
#define LOCK_IF_MP(mp) __asm cmp mp, 0  \__asm je L0      \__asm _emit 0xF0 \__asm L0:inline jint     Atomic::cmpxchg    (jint     exchange_value, volatile jint*     dest, jint     compare_value) {// alternative for InterlockedCompareExchangeint mp = os::is_MP();__asm {mov edx, destmov ecx, exchange_valuemov eax, compare_valueLOCK_IF_MP(mp)cmpxchg dword ptr [edx], ecx}
}  
復制代碼

如上面源代碼所示,程序會根據當前處理器的類型來決定是否為 cmpxchg 指令添加 lock 前綴。如果程序是在多處理器上運行,就為 cmpxchg 指令加上 lock 前綴(lock cmpxchg)。反之,如果程序是在單處理器上運行,就省略 lock 前綴(單處理器自身會維護單處理器內的順序一致性,不需要 lock 前綴提供的內存屏障效果)。

intel 的手冊對 lock 前綴的說明如下:

  • 確保對內存的讀-改-寫操作原子執行。在 Pentium 及 Pentium 之前的處理器中,帶有lock 前綴的指令在執行期間會鎖住總線,使得其他處理器暫時無法通過總線訪問內存。很顯然,這會帶來昂貴的開銷。從 Pentium 4,Intel Xeon 及 P6 處理器開始,intel 在原有總線鎖的基礎上做了一個很有意義的優化:如果要訪問的內存區域(area of memory)在 lock 前綴指令執行期間已經在處理器內部的緩存中被鎖定(即包含該內存區域的緩存行當前處于獨占或以修改狀態),并且該內存區域被完全包含在單個緩存行(cache line)中,那么處理器將直接執行該指令。由于在指令執行期間該緩存行會一直被鎖定,其它處理器無法讀/寫該指令要訪問的內存區域,因此能保證指令執行的原子性。這個操作過程叫做緩存鎖定(cache locking),緩存鎖定將大大降低 lock 前綴指令的執行開銷,但是當多處理器之間的競爭程度很高或者指令訪問的內存地址未對齊時,仍然會鎖住總線。
  • 禁止該指令與之前和之后的讀和寫指令重排序。
  • 把寫緩沖區中的所有數據刷新到內存中。

上面的第2點和第3點所具有的內存屏障效果,足以同時實現 volatile 讀和 volatile 寫的內存語義。

經過上面的這些分析,現在我們終于能明白為什么 JDK 文檔說 CAS 同時具有 volatile 讀和volatile 寫的內存語義了。

現在對公平鎖和非公平鎖的內存語義做個總結:

  • 公平鎖和非公平鎖釋放時,最后都要寫一個 volatile 變量 state。
  • 公平鎖獲取時,首先會去讀這個 volatile 變量。
  • 非公平鎖獲取時,首先會用 CAS 更新這個 volatile 變量,這個操作同時具有 volatile 讀和 volatile 寫的內存語義。

從本文對 ReentrantLock 的分析可以看出,鎖釋放-獲取的內存語義的實現至少有下面兩種方式:

  • 利用 volatile 變量的寫-讀所具有的內存語義。
  • 利用 CAS 所附帶的 volatile 讀和 volatile 寫的內存語義。

concurrent 包的實現

由于 java 的 CAS 同時具有 volatile 讀和 volatile 寫的內存語義,因此 Java 線程之間的通信現在有了下面四種方式:

  • A 線程寫 volatile 變量,隨后 B 線程讀這個 volatile 變量。
  • A 線程寫 volatile 變量,隨后 B 線程用 CAS 更新這個 volatile 變量。
  • A 線程用 CAS 更新一個volatile變量,隨后 B 線程用 CAS 更新這個 volatile 變量。
  • A 線程用 CAS 更新一個 volatile 變量,隨后 B 線程讀這個 volatile 變量。

Java 的 CAS 會使用現代處理器上提供的高效機器級別原子指令,這些原子指令以原子方式對內存執行讀-改-寫操作,這是在多處理器中實現同步的關鍵(從本質上來說,能夠支持原子性讀-改-寫指令的計算機器,是順序計算圖靈機的異步等價機器,因此任何現代的多處理器都會去支持某種能對內存執行原子性讀-改-寫操作的原子指令)。同時,volatile 變量的讀/寫和 CAS 可以實現線程之間的通信。把這些特性整合在一起,就形成了整個 concurrent 包得以實現的基石。如果我們仔細分析 concurrent 包的源代碼實現,會發現一個通用化的實現模式:

  • 首先,聲明共享變量為 volatile;
  • 然后,使用 CAS 的原子條件更新來實現線程之間的同步;
  • 同時,配合以 volatile 的讀/寫和 CAS 所具有的 volatile 讀和寫的內存語義來實現線程之間的通信。

AQS,非阻塞數據結構和原子變量類(java.util.concurrent.atomic 包中的類),這些 concurrent 包中的基礎類都是使用這種模式來實現的,而 concurrent 包中的高層類又是依賴于這些基礎類來實現的。從整體來看,concurrent 包的實現示意圖如下:

final

對于final 域,編譯器和處理器要遵守兩個重排序規則:

  • 在構造函數內對一個 final 域的寫入,與隨后把這個被構造對象的引用賦值給一個引用變量,這兩個操作之間不能重排序。
  • 初次讀一個包含 final 域的對象的引用,與隨后初次讀這個 final 域,這兩個操作之間不能重排序。

下面,我們通過一些示例性的代碼來分別說明這兩個規則:

public class FinalExample {int i;                            //普通變量final int j;                      //final變量static FinalExample obj;public void FinalExample () {     //構造函數i = 1;                        //寫普通域j = 2;                        //寫final域}public static void writer () {    //寫線程A執行obj = new FinalExample ();}public static void reader () {       //讀線程B執行FinalExample object = obj;       //讀對象引用int a = object.i;                //讀普通域int b = object.j;                //讀final域}
}  
復制代碼

這里假設一個線程 A 執行 writer() 方法,隨后另一個線程 B 執行 reader() 方法。

寫 final 域的重排序規則

寫 final 域的重排序規則禁止把 final 域的寫重排序到構造函數之外。這個規則的實現包含下面2個方面:

  • JMM 禁止編譯器把 final 域的寫重排序到構造函數之外。
  • 編譯器會在 final 域的寫之后,構造函數 return 之前,插入一個 StoreStore 屏障。這個屏障禁止處理器把 final 域的寫重排序到構造函數之外。

現在讓我們分析 writer() 方法。writer() 方法只包含一行代碼:finalExample = new FinalExample()。這行代碼包含兩個步驟:

構造一個 FinalExample 類型的對象; 把這個對象的引用賦值給引用變量 obj。 假設線程 B 讀對象引用與讀對象的成員域之間沒有重排序(馬上會說明為什么需要這個假設),下圖是一種可能的執行時序:

在上圖中,寫普通域的操作被編譯器重排序到了構造函數之外,讀線程B錯誤的讀取了普通變量i初始化之前的值。而寫 final 域的操作,被寫 final 域的重排序規則“限定”在了構造函數之內,讀線程 B 正確的讀取了 final 變量初始化之后的值。

寫 final 域的重排序規則可以確保:在對象引用為任意線程可見之前,對象的 final 域已經被正確初始化過了,而普通域不具有這個保障。以上圖為例,在讀線程 B “看到”對象引用 obj 時,很可能 obj 對象還沒有構造完成(對普通域i的寫操作被重排序到構造函數外,此時初始值2還沒有寫入普通域i)。

讀 final 域的重排序規則

讀 final 域的重排序規則如下:

  • 在一個線程中,初次讀對象引用與初次讀該對象包含的 final 域,JMM 禁止處理器重排序這兩個操作(注意,這個規則僅僅針對處理器)。編譯器會在讀 final 域操作的前面插入一個 LoadLoad 屏障。

初次讀對象引用與初次讀該對象包含的 final 域,這兩個操作之間存在間接依賴關系。由于編譯器遵守間接依賴關系,因此編譯器不會重排序這兩個操作。大多數處理器也會遵守間接依賴,大多數處理器也不會重排序這兩個操作。但有少數處理器允許對存在間接依賴關系的操作做重排序(比如 alpha 處理器),這個規則就是專門用來針對這種處理器。

reader() 方法包含三個操作:

  • 初次讀引用變量 obj;
  • 初次讀引用變量 obj 指向對象的普通域 j。
  • 初次讀引用變量 obj 指向對象的 final 域 i。

現在我們假設寫線程 A 沒有發生任何重排序,同時程序在不遵守間接依賴的處理器上執行,下面是一種可能的執行時序:

在上圖中,讀對象的普通域的操作被處理器重排序到讀對象引用之前。讀普通域時,該域還沒有被寫線程A寫入,這是一個錯誤的讀取操作。而讀 final 域的重排序規則會把讀對象 final 域的操作“限定”在讀對象引用之后,此時該 final 域已經被 A 線程初始化過了,這是一個正確的讀取操作。

讀 final 域的重排序規則可以確保:在讀一個對象的 final 域之前,一定會先讀包含這個 final 域的對象的引用。在這個示例程序中,如果該引用不為 null,那么引用對象的 final 域一定已經被 A 線程初始化過了。

如果 final 域是引用類型

public class FinalReferenceExample {
final int[] intArray;                     //final是引用類型
static FinalReferenceExample obj;public FinalReferenceExample () {        //構造函數intArray = new int[1];              //1intArray[0] = 1;                   //2
}public static void writerOne () {          //寫線程A執行obj = new FinalReferenceExample ();  //3
}public static void writerTwo () {          //寫線程B執行obj.intArray[0] = 2;                 //4
}public static void reader () {              //讀線程C執行if (obj != null) {                    //5int temp1 = obj.intArray[0];       //6}
}
}  
復制代碼

這里 final 域為一個引用類型,它引用一個 int 型的數組對象。對于引用類型,寫 final 域的重排序規則對編譯器和處理器增加了如下約束:

  • 在構造函數內對一個 final 引用的對象的成員域的寫入,與隨后在構造函數外把這個被構造對象的引用賦值給一個引用變量,這兩個操作之間不能重排序。

對上面的示例程序,我們假設首先線程 A 執行 writerOne() 方法,執行完后線程 B 執行 writerTwo() 方法,執行完后線程 C 執行 reader() 方法。下面是一種可能的線程執行時序:

在上圖中,1 是對 final 域的寫入,2 是對這個 final 域引用的對象的成員域的寫入,3是把被構造的對象的引用賦值給某個引用變量。這里除了前面提到的1不能和3重排序外,2和3也不能重排序。

JMM 可以確保讀線程 C 至少能看到寫線程 A 在構造函數中對 final 引用對象的成員域的寫入。即 C 至少能看到數組下標 0 的值為 1。而寫線程 B 對數組元素的寫入,讀線程 C 可能看的到,也可能看不到。JMM 不保證線程 B 的寫入對讀線程 C 可見,因為寫線程 B 和讀線程 C 之間存在數據競爭,此時的執行結果不可預知。

如果想要確保讀線程 C 看到寫線程 B 對數組元素的寫入,寫線程 B 和讀線程 C 之間需要使用同步原語(lock 或 volatile)來確保內存可見性。

為什么 final 引用不能從構造函數內“逸出”

前面我們提到過,寫 final 域的重排序規則可以確保:在引用變量為任意線程可見之前,該引用變量指向的對象的 final 域已經在構造函數中被正確初始化過了。其實要得到這個效果,還需要一個保證:在構造函數內部,不能讓這個被構造對象的引用為其他線程可見,也就是對象引用不能在構造函數中“逸出”。為了說明問題,讓我們來看下面示例代碼:

public class FinalReferenceEscapeExample {
final int i;
static FinalReferenceEscapeExample obj;public FinalReferenceEscapeExample () {i = 1;                              //1寫final域obj = this;                          //2 this引用在此“逸出”
}public static void writer() {new FinalReferenceEscapeExample ();
}public static void reader {if (obj != null) {                     //3int temp = obj.i;                 //4}
}
}  
復制代碼

假設一個線程 A 執行 writer() 方法,另一個線程 B 執行 reader() 方法。這里的操作2使得對象還未完成構造前就為線程 B 可見。即使這里的操作 2 是構造函數的最后一步,且即使在程序中操作 2 排在操作 1 后面,執行 read() 方法的線程仍然可能無法看到 final 域被初始化后的值,因為這里的操作 1 和操作 2 之間可能被重排序。實際的執行時序可能如下圖所示:

從上圖我們可以看出:在構造函數返回前,被構造對象的引用不能為其他線程可見,因為此時的 final 域可能還沒有被初始化。在構造函數返回后,任意線程都將保證能看到 final 域正確初始化之后的值。

final 語義在處理器中的實現

現在我們以 x86 處理器為例,說明 final 語義在處理器中的具體實現。

上面我們提到,寫 final 域的重排序規則會要求譯編器在 final 域的寫之后,構造函數return 之前,插入一個 StoreStore 障屏。讀 final 域的重排序規則要求編譯器在讀 final 域的操作前面插入一個 LoadLoad 屏障。

由于 x86 處理器不會對寫-寫操作做重排序,所以在 x86 處理器中,寫 final 域需要的 StoreStore 障屏會被省略掉。同樣,由于 x86 處理器不會對存在間接依賴關系的操作做重排序,所以在 x86 處理器中,讀 final 域需要的 LoadLoad 屏障也會被省略掉。也就是說在 x86 處理器中,final 域的讀/寫不會插入任何內存屏障!

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/277835.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/277835.shtml
英文地址,請注明出處:http://en.pswp.cn/news/277835.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

嵌套函數,匿名函數,高階函數

目錄 嵌套函數匿名函數高階函數嵌套函數 就是在函數里再定義一個函數 # 1,函數內部可以在定義函數 # 2,函數要想執行&#xff0c;必須要先被調用 def name1():print(kk)def name2():print(vfx)name2() name1() 輸出&#xff1a; kk vfx name2 現在他內部代碼找輸出&#xff0c;…

Teams Developer Portal介紹

在去年的 Build2021 大會上講到的 Teams Developer Portal 已經上線一段時間了&#xff0c;我這幾天玩了一下&#xff0c;發現比之前的 app studio 強大了很多&#xff0c;所以趕快寫篇文章和大家分享。 Developer Portal 有兩種訪問的方式&#xff0c;一個是網頁版&#xff0…

使用環境變量來配置 Teams App 的 manifest

上篇文章我們介紹了 Teams 的 Developer Portal&#xff0c;今天我想分享一個dev portal里一個比較實用的功能。這個功能在之前的 App Studio 里沒有。這個功能叫 Environment variables。 當我們真實開發一個 teams app的時候&#xff0c;肯定有自己的開發環境&#xff0c;測…

[Unity優化]批處理03:靜態批處理

[Unity優化]批處理03&#xff1a;靜態批處理 原理&#xff1a; 運行時&#xff0c;把需要進行靜態批處理的網格合并到一個新的網格中。雖然只進行一次合并操作&#xff0c;但是會占用更多的內存來存儲合并后的網格&#xff0c;并且被靜態批處理的物體無法移動旋轉縮放 要使用靜…

制造領域的人工智能技術

“AI將執行制造、質量控制、縮短設計時間、減少材料浪費、提高生產再利用率&#xff0c;執行預測性維護等等&#xff0c;盡管人工智能有望從根本上改變很多行業&#xff0c;但該技術非常適合制造業”Ng說。Andrew Ng是深度學習Google Brain項目的創始人兼斯坦福大學計算機科學兼…

如何獲取一個會議的 transcripts

Teams 開發團隊在過去半年里提供了很多的關于會議的 api&#xff0c;這讓我們又有了很多的可以實現的功能和場景。今天我要介紹的是如何獲取會議的 transcripts。 首先我們要知道的一個概念是&#xff1a;一個會議 meeting 可能有很多的 transcript&#xff0c;是一對多的關系…

JS獲取IP地址

HTML代碼&#xff1a; <!DOCTYPE html> <html><head><meta charset"UTF-8"><title></title><script src"https://unpkg.com/vue/dist/vue.js"></script></head><body><div id"vm&quo…

1小時玩爆趣頭條自媒體平臺,增粉實戰操作分享

做自媒體的人最關注的就是每天自己賬號的后臺數據&#xff0c;因為數據決定當天的收益。因此只要每天能達到幾十萬的數據&#xff0c;相信對于做自媒體的朋友來說&#xff0c;一個月下來&#xff0c;最少也有1萬以上的收入。目前&#xff0c;自媒體平臺能賺錢的平臺有很多&…

營業額統計

傳送門 這個題...裸題啊,裸的不能再裸了 按天數插入,每次插入之后,比較和前驅后繼的差,取 min 統計入答案即可 注意之前已經插入過的值就不需要插入了.然后這題就 A 了 Code: #include <iostream> #include <cstdlib> #include <cstdio> #include <ctime&…

React setStats數組不更新,百思不得其解。

樓樓今日遇到個坑爹的問題。 就是 this.setStats({}) 對 this.stats 不更新問題 問題是這樣的 constructor(props) {super(props);this.state {imageList: []}WechatService.getMaterialOrealList("image").then((result) > {this.setState({imageList: result})…

隧道6in4 和隧道6to4(GNS3)

隧道6in4實驗配置 拓撲圖 Device Interface IP Address&#xff08;IPv6&#xff09; R1 F 0/0 10.1.81.1 F 0/1 2001:db8:cafe:81::10 R2 F 0/0 10.81.1.2 F 0/1 172.81.1.2 R3 F 0/0 172.81.1.3 F 0/1 2001:DB8:ACE:81::20 R4 F 0/0 2001:db8:cafe:81::4…

hadoop常用命令總結

2019獨角獸企業重金招聘Python工程師標準>>> 一、前述 分享一篇hadoop的常用命令的總結&#xff0c;將常用的Hadoop命令總結如下。 二、具體 1、啟動hadoop所有進程 start-all.sh等價于start-dfs.sh start-yarn.sh 但是一般不推薦使用start-all.sh(因為開源框架中內…

C面向對象編程

C語言面向對象編程 1. 定義一個SuperObject結構體, 里面包含最少的元素, 但是確實每一個對象都含有的, 這樣可以實現多態2. 每一個對象都是基于類的, 我們知道類都是單例對象, 所以我們創建結構體, TypeObject(類似于Java中的class), 接著每一個Object結構體中 都包含著一個對應…

幾道web題簡單總結

拖了好長時間&#xff0c;總結一下這一段時間做的幾道值得記錄一下的題目&#xff0c;有的沒做出來&#xff0c;但是學習到了新的東西 1.homebrew event loop ddctf的一道題目&#xff0c;學到了python eval函數的用法&#xff0c;首先分析題目&#xff1a; # -*- encoding: ut…

js進階 9-5 js如何確認form的提交和重置按鈕

js進階 9-5 js如何確認form的提交和重置按鈕 一、總結 一句話總結&#xff1a; 1、這個并不好做&#xff1a;onsubmit 里面的代碼必須返回false才能取消onsubmit方法的執行&#xff0c;所以&#xff0c;有return。注意&#xff1a;一般的調用肯定是沒有return的。onsubmit"…

.NET中RabbitMQ的使用

.NET中RabbitMQ的使用 概述 MQ全稱為Message Queue, 消息隊列&#xff08;MQ&#xff09;是一種應用程序對應用程序的通信方法。RabbitMQ是一個在AMQP基礎上完整的&#xff0c;可復用的企業消息系統。他遵循Mozilla Public License開源協議。AMQP(高級消息隊列協議) 是一個異步…

SQL Server死鎖診斷--同一行數據在不同索引操作下引起的死鎖

死鎖概述 對于數據庫中出現的死鎖&#xff0c;通俗地解釋就是&#xff1a;不同Session&#xff08;會話&#xff09;持有一部分資源&#xff0c;并且同時相互排他性地申請對方持有的資源&#xff0c;然后雙方都得不到自己想要的資源&#xff0c;從而造成的一種僵持的現象。當然…

python下載安裝搭建

python官網下載python運行環境&#xff08;https://www.python.org/downloads/&#xff09;&#xff0c;建議下載穩定版本&#xff0c;不推薦使用最新版本 安裝 然后我們打開CMD&#xff0c;在里面輸入python&#xff0c;就可以直接進入進行編碼了 如果輸入python出現下面錯誤 …

35個Java 代碼性能優化總結

前言代碼優化&#xff0c;一個很重要的課題。可能有些人覺得沒用&#xff0c;一些細小的地方有什么好修改的&#xff0c;改與不改對于代碼的運行效率有什么影響呢&#xff1f;這個問題我是這么考慮的&#xff0c;就像大海里面的鯨魚一樣&#xff0c;它吃一條小蝦米有用嗎&#…

MySQL講義

1 MySQL基礎知識 瑞典MySQL AB公司開發&#xff0c;由SUN收購&#xff0c;而后SUN被甲骨文并購&#xff0c;目前屬于Oracle公司。 MySQL是一種關聯數據庫管理系統 由于其體積小、速度快、總體擁有成本低、MySQL軟件采用了雙授權政策&#xff0c;分為社區版和企業版。 …