赫布定律 | 機器學習 / 反向傳播 / 經驗 / 習慣

注:本文為 “赫布定律” 相關文章合輯。

未整理。


赫布定律 Hebb‘s law

馥墨軒 2021 年 03 月 13 日 00:03

1 赫布集合的基本定義

唐納德?赫布(Donald Hebb)在 1949 年出版了《行為的組織》(The Organization of Behavior)。他在書中提出,腦內反映的某些外界客觀物體的表征,是由被該外界刺激激活的所有皮層細胞組成的,赫布把這群同時激活的皮層細胞稱為一個細胞集合(cell asssembly)。突觸前神經元向突觸后神經元進行持續重復的刺激后,會使傳遞的效能被強化或改變。

這句話的意思就是當有鄰近的刺激時,無論是空間鄰近,還是時間鄰近,鄰近元素都會形成一個被強化的整體。

下面通過簡單、抽象的圖式來一步步說明赫布集合。首先,細胞集合是由神經元和神經元之間的連接構成的,如下圖所示。

圖片

基本的赫布集合

圖中的一個圓圈既可以代表一個神經元,也可以代表另一個細胞集合。

圖片

一個圓圈也可以是一個更小級別的赫布集合

所以第一個圖也可以用更復雜的形式表達,如下圖所示。

圖片

一個大的赫布集合可以由多個子赫布集合構成

2 赫布定律的產生作用的過程

前面介紹了赫布集合的基本定義,它產生作用分為兩步,第一步是同時刺激,形成赫布集合;第二步是再現,即再現原始的刺激。下面詳細說明。

圖片

(1)同時刺激

當出現一個刺激源的時候,與刺激源具有映射關系的神經元或細胞集合就會受到刺激,當被反復刺激之后,映射的神經元之間的連接就被加強了。

圖片
刺激會加強神經元或細胞集合之間的聯系

(2)再現

同時受到刺激的神經元被加強后,只要其中的一部分受到刺激,就會通過被加強的聯系(突觸或髓鞘的變化)激活之前共同受到刺激的神經元。

圖片

再現原始刺激

一個并不完整的刺激可以激活完整的記憶,這就是格式塔閉合原則的神經學基礎。

圖片

將未閉合圖形認知為閉合的傾向

大家可以思考一下鄰近元素之間構成的整體與赫布集合原始刺激之間的關系,這二者是不是有什么聯系呢?

文章來源:書籍:UI 設計與認知心理學


赫布法則(Hebb’s rule)與機器學習

Neuro 科學和人工智能 2022 年 10 月 24 日 20:16 上海

人工智能的方法,不管是搜索還是決策,本質上是基于預先定義的規則的,即使是概率推理,也是根據預先給定的概率分布的,但當 Agent 面對真實環境時,實際的情況會比預先規則能夠預見的情況復雜很多倍,在經過很多年的努力后專家系統的基本上以失敗告終的結局更加使人們認清了這個事實,在這種情況下,如果能夠讓 Agent 能夠不斷地根據實際環境進行自發調整就變得越來越重要,這背后的基礎理論涉及到記憶和學習,本節我們就來介紹機器學習。

我們首先需要明確的一點是:機器學習是有著明確的目標的,也就是學習是和具體的問題有關的。只有把具體的一類問題能夠用很清晰的數學語言定義出來,機器學習才能夠發揮驚人的威力,但是在這個嚴格定義的數學問題之外,曾經非常成功的機器學習算法也很難發揮威力。我們現在聚焦一類具體的學習問題:從一組 “輸入 - 輸出” 對中學習能夠預測新輸入相對應的輸出的函數。

我們描述的 Agent 的部件包括:

① 在當前狀態上,條件到動作的直接映射;

② 從感知序列推演世界的合適特征的方法;

③ 關于世界進化方式的信息和關于 Agent 能執行的可能動作的結果信息;

④ 表明世界狀態愿望的效用信息;

⑤ 表明動作愿望的動作 - 價值信息;

⑥ 描述能最大化成就的 Agent 效用的狀態類的目標。

這些部件中的每一個都能學習。關于 Agent 部件的表示法有:邏輯 Agent 部件的命題和一階邏輯語句;決策 - 理論 Agent 推理部件的貝葉斯網絡,等等,對于所有這些表示法,都已經發明了有效學習算法。大多數當前機器學習研究涉及到這樣的輸入和輸出,其中輸入使用一種要素化表示法 —— 屬性值向量,輸出或是連續數字值或是離散值。除了這種被稱為歸納學習的之外,還有就是所謂的分析或演繹學習,是從已知通用規則走向被其邏輯蘊涵的新規則,不過隨著專家系統的式微,這種學習已經沉寂很久了。

有三種類型的反饋,決定了如下三種主要的學習類型:無監督學習、強化學習和有監督學習,當然居間的還有所謂的半監督學習。

接下來我們重點關注在計算神經學構建的生物神經元網絡和人工智能的機器學習搭建的人工神經元網絡模型中涉及的學習。-=

神經元學習中的赫布法則及相關問題

神經元中的學習基礎是前面講過的赫布法則,赫布認為通過修改突觸連接強度可以模擬訓練時神經元之間的關系。然而,直接應用赫布法則會存在問題:突觸連接的增強是一個正反饋,修改突觸連接的活動本身會帶來更強的活動以及更多的突觸增強,如果沒有對突觸可塑性規則的一些調整或增加限制條件,赫布修改將會產生突觸強度的不可控增長,因此一般需要對權重設置上限。

然而,突觸后神經元本來對于輸入具有選擇性,這是通過突觸間競爭來實現的,但是如果設置了權重上限,而許多突觸的權重達到上限,這樣就失去了對輸入的選擇性,這就需要我們再引入一些其它規則來恢復突觸間的競爭。

基于累積放電模型的討論

我們用累積放電模型的線性方程為基礎進行討論:

τ r d v d t = ? v + w ? u = ? v + ∑ b = 1 N u w b u b \Large\tau_{r} \frac{d v}{d t}=-v + w\cdot u=-v + \sum_{b = 1}^{N_{u}} w_{b} u_{b} τr?dtdv?=?v+w?u=?v+b=1Nu??wb?ub?

突觸可塑性的過程遠比上式描述的要慢得多,如果我們再假設刺激也是足夠慢使得網絡在訓練期間保持穩定狀態的活動,則上式變成:

v = w ? u \Large v = w\cdot u v=w?u
最簡單的赫布法則是如下的形式:

τ w d w d t = v u \Large\tau_{w} \frac{d w}{d t} = vu τw?dtdw?=vu
其中, τ w \tau_{w} τw? 是控制權重變化率的時間常數。

我們用訓練期間的平均輸入,上式變成:

τ w d w d t = ? v u ? \Large\tau_{w} \frac{d w}{d t} = \langle vu\rangle τw?dtdw?=?vu?

角括號 ? ? \langle\rangle ?? 表示多次試驗的平均值。在無監督學習中,將 v = w ? u v = w\cdot u v=w?u 帶入:

τ w d w d t = Q ? w or τ w d w b d t = ∑ b ′ = 1 N u Q b b ′ w b ′ \Large\tau_{w} \frac{d w}{d t} = Q\cdot w \quad \text{or} \quad \tau_{w} \frac{d w_{b}}{d t} = \sum_{b' = 1}^{N_{u}} Q_{b b'} w_{b'} τw?dtdw?=Q?worτw?dtdwb??=b=1Nu??Qbb?wb?

這個式子叫做基于相關系數的可塑性規則。其中, Q Q Q 是輸入的相關系數矩陣:

Q = ? u u ? or Q b b ′ = ? u b u b ′ ? \Large Q = \langle uu\rangle \quad \text{or} \quad Q_{b b'} = \left\langle u_{b} u_{b'}\right\rangle Q=?uu?orQbb?=?ub?ub??

上面的基本赫布法則是不穩定的。為避免沒有邊界的增長,我們必須設定一個飽和上限。如果活動變量允許為負,那就同樣需要一個下限。但是即使加上飽和條件,基本赫布法則也無法同時滿足在不同突觸前的競爭要求。

BCM 法則及相關改進

在赫布最原始的推測中, u u u v v v 代表放電率,則上面的基本赫布法則只描述了突觸的長時程增強(LTP),而沒有將長時程抑制(LTD)也包括進來。Bienenstock, Cooper and Munro在1982年提出了被稱為BCM法則的改進方程:

τ w d w d t = v u ( v ? θ v ) \Large\tau_{w} \frac{d w}{d t} = vu\left(v - \theta_{v}\right) τw?dtdw?=vu(v?θv?)

其中, θ v \theta_{v} θv? 是一個閾值向量,突觸后活動如果超過閾值是 LTP,否則就是 LTD。這樣,突觸后活動與突觸前活動一起參與塑造突觸權重。

如果閾值 θ v \theta_{v} θv? 是固定的,那么 BCM 法則象基本的赫布法則一樣是不穩定的,但是如果閾值是可變的,并且當輸出活動增加時 θ v \theta_{v} θv? v v v 變化得更快,則權重的變化就可以避免無界限地增長。這可以通過引入一個滑動閾值,或者更直接地引入與權重相關的項,一般是通過歸一化來實現的,例如Oja法則(參看:https://www.zhihu.com/question/26564573/answer/1604087457):

τ w d w d t = v u ? α v 2 w \Large\tau_{w} \frac{d w}{d t} = vu - \alpha v^{2} w τw?dtdw?=vu?αv2w

其中, α \alpha α 是一個正的常數。

突觸可塑性的脈沖時間依賴關系

在實際中突觸前動作電位和突觸后動作電位的相對時間對于活動產生的對突觸功效變化的符合和幅度至關重要。例如,在一些試驗中發現只有突觸前和突觸后脈沖時間落在 ± 50 m s \pm50ms ±50ms 窗口內才會表現出突觸可變性,在這個窗口之內,突觸前脈沖出現在突觸后動作電位之前產生LTP,反之則產生 LTD,這是與赫布法則一致的。

如果要模擬上述的突觸可塑性的脈沖時間依賴關系需要脈沖模型,但是我們可以用放電率模型來近似模擬,例如在突觸前放電率和突觸后放電率之間引入一個時間差 τ \tau τ ,而函數 H ( τ ) H(\tau) H(τ) 表示由與突觸前活動相差時間 τ \tau τ 的突觸后活動引起的突觸權重變化,則突觸權重變化由下式給出:

τ w d w d t = ∫ 0 ∞ d τ ( H ( τ ) v ( t ) u ( t ? τ ) + H ( ? τ ) v ( t ? τ ) u ( t ) ) \Large\tau_{w} \frac{d w}{d t} = \int_{0}^{\infty} d\tau(H(\tau) v(t) u(t - \tau) + H(-\tau) v(t - \tau) u(t)) τw?dtdw?=0?dτ(H(τ)v(t)u(t?τ)+H(?τ)v(t?τ)u(t))

如果對于正的時間 τ \tau τ H ( τ ) H(\tau) H(τ) 為正,對于負的時間 τ \tau τ H ( τ ) H(\tau) H(τ) 為負,則式中右邊第一項表示 LTP,第二項表示 LTD。-=

下圖給出這樣一個 H ( τ ) H(\tau) H(τ) 的曲線例子:

圖片

H 的時間不對稱性對于突觸權重修改帶來了戲劇性的效果,因為它使它們在訓練時依賴于活動的時間順序,這使得突觸權重可以存儲時間序列的信息。

赫布法則啟發了人工智能領域的研究人員。最早 McCulloch 和 Pitts 設計的簡單的神經元模型如下圖:

圖片

而霍普菲爾德(Hopfield)提出了一個全連接的 Hopfield 神經網絡模型:

圖片

左圖是離散 Hopfield 網絡,右圖是 Hopfield 網絡的網狀結構。

現在一般通用的人工神經元網絡如下圖所示:

圖片
-=
人工數據應用網絡由結點或單元組成,單元通過有向鏈相連接。從單元 i i i 到單元 j j j 的鏈負責從 i i i j j j 傳播激活 a i a_i ai? 。每個鏈也有一個數值權重 w i j w_{ij} wij? 與它相關聯,該權重決定了連接強度和符號。另外,每個單元有一個啞輸入 a 0 = 1 a_0 = 1 a0?=1 ,其連接權重為 w 0 j w_{0j} w0j? 。每個單元 j j j 首先計算輸入的加權和:

i n j = ∑ i = 0 n w i , j a i \Large i{{n}_{j}}=\sum\limits_{i=0}^{n}{{{w}_{i,j}}{{a}_{i}}} inj?=i=0n?wi,j?ai?

然后在該和之上施加一個激活函數 g g g 而導致輸出:

a j = g ( i n j ) = g ( ∑ i = 0 n w i , j a i ) \Large a_{j}=g\left(in_{j}\right)=g\left(\sum\limits_{i = 0}^{n}w_{i,j}a_{i}\right) aj?=g(inj?)=g ?i=0n?wi,j?ai? ?

典型的激活函數可以是一個硬閾值,其中的單元稱為感知器,也可以是 l o g i s t i c logistic logistic 函數,有時用術語 s i g m o i d sigmoid sigmoid 感知器稱呼之。人工神經元可以連接成單純的前饋網絡,前饋網絡的連接僅有一個方向,即它形成一個有向無環圖,也可以連接成循環網絡,循環網絡將其輸出反饋到其輸入,這意味著網絡的激活層級形成了一個動態系統,這樣,循環網絡就能夠支持短期記憶。

前饋網絡一般排列成層次,每一個單元都僅僅從其直接前一層的單元接受輸入。多層網絡除了直接的輸入層和最終的輸出層之外,中間有一個或多個隱藏單元層,這些單元不與網絡的輸出連接。

最早的人工神經元網絡由于硬件資源和數據的限制,是所有輸入直接連接到輸出的網絡,稱為感知機( P e r c e p t r o n Perceptron Perceptron ),訓練的過程要么是感知機學習規則,要么是關于 l o g i s t i c logistic logistic 回歸的梯度下降。如明斯基和 P a p e r t Papert Papert 證明了感知機不能夠對異或進行分類,造成了人工神經網絡研究幾十年的停滯,直到采用反向傳播的深度學習才帶來了人工神經網絡的回歸和復興。-=

參考書籍:

計算神經學教材(Theoretical Neuroscience, Computational and Mathematical Modeling of Neural Systems, by Peter Dayan and L. F. Abbott).


反向傳播和生物學沒關系?

新智元 2021 年 02 月 24 日 17:52

新智元報道

來源:quantamagazine

編輯:LRS,LQ

【新智元導讀】反向傳播和生物學無關?近期網上出現了一些質疑,那么二者之間真的沒有關系?也許 Hinton 和 Bengio 的想法可以解答你的疑惑。

2007 年,深度學習研究的先驅們在 NIPS 召開期間發起了一場關于「深度學習」的非正式研討會,當時距離深度神經網絡接管人工智能還有幾年時間。

圖片

這次會上,最后一位發言人是多倫多大學的杰弗里?辛頓(Geoffrey Hinton),他以一個笑話開場:「大概一年前,我回家吃晚飯,我說,‘我想我終于弄明白大腦是怎么工作的了’,我 15 歲的女兒說,‘哎呀,爸爸,又來了,別這樣了。」觀眾大笑。

圖片

辛頓繼續說:「而這,就是它的工作原理」。這又引發了更多的笑聲。

人工智能領域一直都有一個嚴肅的追求:如何利用人工智能來理解大腦。今天,深層神經網絡統治人工智能的部分原因是源于反向傳播 (backpropagation) 算法。

但是真正的大腦不可能依賴反向傳播算法。「大腦的概括和學習能力比最先進的 AI 系統更快更好」(Bengio),而且反向傳播不符合大腦的解剖學和生理學,特別是在大腦皮層。

許多研究人員一直在思考更具生物學意義的學習機制,其中,反饋比對法、平衡傳播法和預測編碼法具有獨特的應用前景。

一些研究人員還將某些類型的皮層神經元和注意力等過程的特性加入到他們的模型中,這些研究使我們更能理解哪些算法可能在大腦中起作用。

「人們普遍認為,對于大腦這個巨大的謎團,如果我們能夠解開其中的一些原理,那將對人工智能有所幫助。但它本身也有價值。」Bengio 說。

通過「反向傳播」學習

幾十年來,神經科學家關于大腦如何學習的理論主要受到 1949 年提出的「赫布理論」影響,通常被解釋為「共同激發的神經元之間存在連接」,即相鄰神經元的活動越相關,它們之間的突觸聯系就越強。

圖片

這個原則經過一些修改后,成功解釋了某些類型的學習和分類任務。

圖片

赫布規則在使用錯誤信息時,是一種的非常狹窄、特殊且不敏感的方法。盡管如此,這對神經科學家來說,仍然是最好的學習規則,甚至在 20 世紀 50 年代后期,它就激發了第一個人工神經網絡的發展。

這些網絡中的每個人工神經元接收多個輸入并產生一個輸出,就真實的神經元一樣。人工神經元用一個所謂的「突觸」權重 (一個表示該輸入重要性的數字),然后對輸入進行加權求和。

到了 20 世紀 60 年代,這些神經元可以被組織成一個有輸入層和輸出層的網絡,人工神經網絡可以被訓練來解決某些簡單的問題。

在訓練過程中,神經網絡為其神經元確定最佳權值,以降低誤差。

圖片

然而直到 1986 年以前,沒有人知道如何有效地訓練帶有隱藏層的人工神經網絡,直到 Hinton 發表了「反向傳播算法」相關論文。

圖片

對大腦來說反向傳播是不可能的

反向傳播的發明立即引起了一些神經科學家的強烈抗議,他們認為這種方法不可能在真正的大腦中起作用。

首先,雖然計算機可以很容易地在兩個階段實現該算法,但是對于生物神經網絡來說,這樣做并不簡單。

其次,是計算神經科學家所說的權重傳遞問題:反向傳播算法復制或「傳輸」關于推理所涉及的所有突觸權重的信息,并更新這些權重以獲得更高的準確性。

但是在生物網絡中,神經元只能看到其他神經元的輸出,而不能看到影響輸出的突觸權重或內部過程。

從神經元的角度來看,「知道自己的突觸權重是可以的,你不能知道其他神經元的突觸權重。」

圖片

任何生物學上似乎可行的學習規則也需要遵守神經元只能從相鄰神經元獲取信息的限制;反向傳播可能需要從更遠的神經元獲取信息。

因此,「如果你反向傳播信號,大腦似乎不可能計算。」

更像生命體

2016 年,DeepMind 的 Timothy Lillicrap 提供了一個解決權重傳遞問題的特殊方法:使用一個隨機值初始化的矩陣作為反向傳遞的權重矩陣,而不使用正向傳遞。

圖片

一旦被賦值,矩陣中的值是恒定的,因此不需要為每個反向通道傳輸權重。讓人驚訝的是,網絡仍然是可訓練的。

由于用于推理的正向權值和每次反向通道的更新頻率一致,因此網絡仍然沿著不同的路徑減小誤差。

正向權重慢慢地與隨機選擇的反向權重對齊,最終得到正確的答案,這種算法就是「反饋對齊」。

對于大規模的問題和具有更多隱藏層的更深層次的網絡,反饋對齊不如反向傳播好:因為正向權重的更新不如真正的反向傳播信息準確,所以訓練網絡需要更多的數據。

在辛頓研究的基礎上,本吉奧的團隊在 2017 年提出了一個學習規則,要求神經網絡具有循環連接 (也就是說,如果神經元 A 激活神經元 B,那么神經元 B 反過來激活神經元 A)。

圖片

如果給這樣一個網絡一些輸入,網絡就會自我學習,每個神經元都與直接相鄰的神經元來傳遞權重。

神經網絡達到一個最終狀態,在這個狀態中神經元與輸入以及彼此之間處于平衡,它產生一個輸出,然后該算法將輸出神經元推向預期結果。

這就通過網絡設置了另一個反向傳播的信號,引發了類似的動態。網絡找到了新的平衡點。訓練網絡在大量的標記數據上重復這個「平衡傳播」過程。

預測知覺

Beren Millidge 提出的預測編碼 (predictive coding),也同樣要求反向傳播。「如果合理設置預測編碼,將會生成一個在生物學上看起來很合理的學習規則。」

圖片

預測編碼假定大腦不斷地對感覺輸入的原因進行預測。這個過程包括了神經處理的層次結構。

為了產生特定的輸出,每一層必須預測前一層的神經活動。如果最上層想要看到一張臉,那他就會預測前一層的活動來判斷這種感知的預測。

前面的層對更前的層進行相似的預測,以此類推。最低層能夠預測實際的感受輸入,比如說光子落在視網膜上。

通過這種方式,高層的感知能力流向低層。

但是錯誤可能發生在任何一個網絡中的任何一個層,每層的期望的輸入和實際的輸入之間的存在誤差。

最底層根據接收到的感知信息調整突觸的權重來降低誤差。這個調整結果導致了更新后的高層和更上面一層之間的誤差,因此更高層也必須調整突觸的權重來降低預測誤差。

這些錯誤信號向上逐層傳遞,直到每層的預測誤差都達到最小值。通過適當的設置,預測編碼網絡可以收斂到和反向傳播幾乎相同的學習梯度值。

然而,對于反向傳播運行一次來說,預測編碼網絡必須迭代多次。盡管如此,如果可以接受一定程度上不準確的預測結果,預測編碼通常可以快速地得到有用的答案。

錐體神經元

一些科學家已經開始研究基于單個神經元的已知特性來構建類似反向傳播的算法。

圖片

標準神經元有樹突,它們從其他神經元的軸突中收集信息。樹突傳遞信號到神經元的細胞體來整合信號。

但并非所有的神經元都有這種結構。特別是錐體神經元,它在大腦皮層中有著最豐富的的神經元類型。

錐體神經元具有樹狀結構,有兩套不同的樹突。樹干向上伸展,分枝形成所謂的頂端樹突。

樹干向上延伸,分枝形成頂端樹突。根向下延伸,分枝形成基部樹突。

圖片

2001 年由 Kording 獨立開發的模型已經表明錐體神經元能夠同時進行向前和向后計算,可以作為深度學習網絡的基本單元。

模型的關鍵是分離進入神經元的信號,包括前向推理或者向后的流動誤差。這些誤差可以通過基樹突和頂樹突分別處理。

這兩種信號都可以編碼在神經元傳遞到軸突電活動的尖峰中。

Richards 的團隊最新研究表明,已經可以通過相當真實的神經元模擬,來訓練錐體神經元網絡去完成各種各樣的任務。

沒有人會告訴大腦神經元該打開 / 關閉

對于使用反向傳播的深度網絡,一個隱含的要求就是必須有「老師」來幫助計算神經元網絡的誤差。

但是,大腦中沒有一個老師會告訴運動皮層中的每一個神經元,「你應該被打開,你應該被關閉。」

Roelfsema 認為大腦解決這個問題的方案是「注意力」。

在上世紀 90 年代后期,他和他的同事發現,當猴子盯著一個物體,在大腦皮層中表示該物體的神經元變得更加活躍。

猴子集中注意力的行為給相關的神經元一個反饋信號。

「這是一個高度選擇性的反饋信號,它不是一個錯誤信號。他只是告訴這些神經元:你們負責這個動作。」

當這種反饋信號與其他神經科學的研究成果結合起來時,可以實現類似反向傳播學習的效果。

劍橋大學的 Wolfram Schultz 和其他研究人員已經證明:當動物做一個行動產生比預期更好的結果時,大腦中的多巴胺系統就會被激活。

圖片

「他讓整個大腦充滿了神經調節劑。多巴胺水平就像一個全局強化的信號。」

圖片

理論上,注意力的反饋信號只能通過更新對應的突觸權重來啟動那些負責對整體強化信號做出反應的神經元。

Roelfsema 和他的同事利用這個想法構建了一個深層神經網絡,并且研究了數學屬性,得到的是和反向傳播基本相同的等式,但在生物學上有了合理的解釋。

這個團隊在 NIPS 上展示了這項工作,它可以被訓練成深層次的網絡,這只比反向傳播慢兩到三倍,比其他所有生物學相關的算法都要快。

鑒于這些進步,計算神經學家們對未來的發展十分樂觀。

Hinton 提出的反向傳播,并且是深度學習的大大牛,但是現在他一直在否定自己的工作,提出膠囊網絡還有其他工作來增加生物學上的解釋。

參考資料:

https://www.quantamagazine.org/artificial-neural-nets-finally-yield-clues-to-how-brains-learn-20210218/


人如何一步步成為經驗的奴隸?

原創 Chantel Prat 酷炫腦 2022 年 08 月 24 日 20:00 湖北

圖片

Via:Rozie

作者 |Chantel Prat

翻譯 | 棉花熊

審校 | 酷炫腦主創

朗讀 | 鴿仔

美工 | 老雕蟲

編輯 | 加薪

大腦是由我們的經驗塑造的,這樣我們就可以適應各種不同的情況

我們對新冠疫情初期第一次接到 “待在家里” 命令的那一天記憶猶新。我的態度很快從 “可能是暫時的吧,就像暴雪天在家一樣” 的感覺轉變為感覺像一只被關在籠子里的鳥。作為一個性格外向又不喜歡被人指手畫腳的人,這個轉變是非常艱難的。

但是你知道嗎?我已經習慣了。盡管這場大流行病無疑對你們一些人的生活影響更大,但我知道它以我們永遠不會忘記的方式影響著我們每一個人。現在,經過兩年的計算,我確信,每一個讀到這篇文章的人都與疫情開始時的態度有根本的不同。

因為我們的大腦就是這樣工作的。它們是由我們的經驗塑造的,這樣我們就可以適應各種不同的情況**。

這實際上是我們大腦中最具人性的東西之一。事實上,根據當代人類進化的一些觀點,我們的祖先經歷了一場 “認知革命”,正是因為他們被迫適應環境。有證據表明,在極端天氣不穩定的時期,我們祖先的大腦體積會增加,對于我們大腦的靈活性,一個流行的解釋是,無法適應環境變化的原始人類沒有生存下來。換句話說,現代人類的大腦因其學習和適應不斷變化的環境的能力而被選中。

但這種顯著靈活性的主要代價之一是:人類生來就沒有任何關于事物如何運作的先入為主的概念。如果你和某人談論過一件你們都參與過的事情,你可能會覺得你們中的一個人有妄想癥,因為你們的故事太不一樣了,你可能會發現你的經歷在多大程度上塑造了你理解周圍世界的方式。這可能會令人抓狂,因為 —— 讓我們面對現實吧 —— 我們自己的大腦在構建我們個人版本的現實時,真的很有說服力。還記得藍金裙子之爭嗎?雖然當別人看到的與你的不同時,你會感覺說服別人你所看到的像是在操控別人,但也完全有可能你們都在說自己眼見為實的真相。

圖片

圖源互聯網

你的經歷塑造你的大腦最重要的方式之一是通過一個被稱為赫布理論(Hebbian Learning)的過程。從本質上說,赫布理論(Hebbian Learning)是一種生物機制,它讓你的大腦保持一套關于事物在你的環境中發生的頻率的統計數據。

就像運動隊會保存球員的統計數據,并利用這些數據來決定誰首發誰會被轉移到別的俱樂部一樣,你的大腦也有一種方法來 “計算” 不同類型事件發生的頻率,并在接收到不完全信息的情況下,使用這個系統來找出最有可能發生的事情。

幸運的是,**你的大腦統計數據的方式不需要你進行任何計算。**相反,這自動發生在八卦神經元之間的連接中 —— 在決定誰在和誰說話以及說話聲音有多大的空間中。時間對于組織這種交流非常重要。事實證明,這對學習也很重要。

當兩個靠近的神經元幾乎同時興奮時,它們之間的聯系會加強,增加了其中一個接收到另一個的信息的可能性。雖然赫布理論的實際原則比這要微妙一些,但我始終記得我在本科時第一次學到的那句吸引人的口號:“一起激發的神經元,連接在一起。” 這種情況發生得越頻繁,兩個神經元之間的連接就越強。這是你的大腦把這些點連接起來的方式。它假設,如果事件 A 和事件 B 幾乎總是同時發生,它們是同一 “神經事件” 的一部分。一旦發生了這種情況,即使你的大腦只得到了 A 在外部世界發生的證據,它也可能會假設 B 也發生了,并會為你創造那種體驗。

圖片

Via:《綠皮書》

我想具體說明,在發展你的觀點時,什么才 “算” 是經驗。簡單地說,**你從所有的神經經驗中學習。**從你的大腦的角度來看,通過它的信號是否來自于你在外部世界看到的東西、白日夢的幻想,或者是有意想象你潛在的未來,這并不重要。每一個相應的電風暴都會塑造你大腦數據庫的格局。

幾乎所有人都有一個共同的經歷,它對你的思想和大腦有廣泛的影響,那就是我們所說的語言**。這是因為語言是我們思考、感覺和行為方式的中心,我們醒著的大部分時間都在使用它。

如果你只懂一種以上的語言,或者你的第二語言知識有限,又或者是后天習得的 (例如,青春期后),那么你的大腦會只適應你的第一語言,相比起那些擁有更多樣的語言經歷的人。這樣做的一個好處是,你的大腦可能比學過多種語言的人的大腦更容易使用這一種語言。粗略地說,也就是說多種語言的人在使用他們的統計數據來理解或產生一種語言時有更多的選擇。在使用任何特定的語言之前,他們需要解決它們之間的競爭。這意味著他們需要多花幾分之一秒的時間來獲取他們需要使用的任何語言信息,即使是用他們最熟練的語言。

但廣泛接觸不同類型的統計數據也有好處。接觸多種語言的人不僅有更豐富的行為選擇,他們在決定如何行為時也可能會考慮更多的信息 —— 比如他們認為哪種語言在當前環境下最合適。但是考慮到 “在野外” 的不同回應方式的成本肯定會增加。簡而言之,大腦暴露的范圍越廣,在任何特定環境或背景下的處理速度就會越慢,但這也能讓一個人為更多的情況做好準備。

圖片

唐納德 赫布

我們大多數人都知道,**在孩提時代學習語言比成年后學習語言要容易得多。**這就提出了一個問題:有多少學習是在生命的早期階段進行的,我們又能在多大程度上適應以后的生活?簡而言之,大腦的不同部位有不同的適應窗口。

為了簡化,我們可以根據對經驗開放的程度和持續的時間,將大腦區域分成三種類型。**第一種類型,幾乎完全由大腦中控制維持生命的功能的部分組成,是獨立于經驗的。**這些是大腦中調節呼吸、心率和體溫等關鍵功能的部分,這些功能在不同的環境中變化不大。

下一個是經驗期待區。**大腦的這些部分注定要學習與解釋關于 “外面” 世界的特定類型的信息,因為它們天生就能從我們的感官接收信息。例如,在正常發育的嬰兒中,通過眼睛進入的光線被傳送到大腦后部的枕葉皮層,通過耳朵進入的聲音被傳送到大腦兩側顳葉的聽覺皮層,通過鼻子進入的氣味被位于大腦前部底部的嗅球處理。我們必須學會識別我們看到的、聽到的和聞到的東西,這使得人類嬰兒能夠在他們出生的環境中成長。

但是,許多期待經驗的區域也有接受輸入的 “關鍵時期”。在生命之初,它們等待數據,并且具有不可思議的可塑性。但隨著你年齡的增長,這些區域積累了關于周圍世界的信息,它們在處理它們期望看到的事物時變得越來越頑固,而且很少受到外部世界新經驗的影響。

幸運的是,我們大腦的某些部分在我們一生的大部分時間里都保持著可塑性**。這些是大腦中依賴經驗的部分。其中包括我們大腦皮層的大部分 “聯系” 區域,包括那些讓我們在一生中獲得新詞匯的區域。

最關鍵的經驗依賴區域之一是額葉,它支持人類適應環境的大部分靈活行為。基底神經節核也依賴于經驗。**事實上,它們可以說是適應性最強的大腦區域之一,因為它們富含增加神經可塑性的多巴胺交流信號。這對塑造大腦的決策過程至關重要。

圖片

圖源互聯網

不幸的是,這些依賴經驗的區域也會把我們引向一些死胡同:例如,它們塑造了我們關于種族、年齡、性別和性取向的隱性偏見。**即使這些偏見涉及到我們學習在同一時間或同一背景下發生的高級概念與另一個概念相關聯的方式,它們仍然會以令人不安的方式影響我們對世界的早期感性理解。

一個明顯的例子,在世界各地的實驗室中,在不同的人群和不同的條件下,被反復證明的是,當一個模糊的物體被放在一張黑人的臉旁邊時 (在空間或時間上),人們更有可能報告說看到了武器。

Keith Payne 在 2001 年首次證明了這種效應。在兩個實驗中,佩恩向 60 名非黑人參與者展示了一系列工具或手槍的黑白圖片,這些圖片在屏幕上快速閃爍,時間為五分之一秒,并要求他們指出他們看到了什么。問題在于,在兩個實驗中,在每個要被識別的物體前都有一張黑人或白人男性的臉。研究參與者被告知,這些面孔只是物體即將到來的提示;他們不被期望與物體有任何關系,事實上他們也沒有。在工具和手槍面前,黑人和白人的面孔同樣頻繁出現。盡管如此,佩恩的參與者發現,根據他們的反應時間,當看到一張黑人面孔時比看到一張白人面孔時更容易識別出手槍。隨著黑人的面孔,槍比工具更容易被識別,盡管當它們隨著白人的面孔時,兩者同樣容易被識別。

雖然這種影響的規模很小,但它反映的關于學習和參與者的大腦的信息是重要的。在實驗中,在黑人面孔后面顯示槍支是最容易識別的事情,這一事實表明,平均而言,參與者的神經數據庫在黑人面孔和槍支之間包含了足夠強的聯系,從而在他們的大腦中創建了一條捷徑。換句話說,為什么人們在看到黑人面孔后能更快地識別出槍支,最直接的解釋是,當他們單獨看到黑人面孔時,他們的大腦已經開始填補空白,構建武器的概念。

對任何能看到新聞的人來說,這一事件的致命后果是顯而易見的。不幸的是,這項原始研究基本上沒有回答一個關鍵問題:我們如何修復它?首先要弄清楚導致這些偏見的數據來自哪里。盡管很多美國人擁有槍支,但很難相信這些研究中的普通大學生在現實生活中與黑人和槍支有過很多 (或任何) 經歷。那么,這些捷徑從何而來呢?

圖片

Via:《綠皮書》

簡單地說,**你在現實生活中對某一特定類型的人、地點或事物的體驗越少,你大腦對該主題的數據庫條目就越有可能是基于你在電視上看到的,或在新聞中讀到的,在社交媒體上,或在虛構的描述中接收到的。**因此,如果你在電視上看到的黑人面孔更有可能拿著槍,而不是聽診器,你的大腦就會認為這是真實的,并將其納入你所看到的基于經驗的透鏡中。

通過這種方式,當我們消費他人創造的現實版本時,我們的許多大腦實際上受到了社會系統性偏見的影響。這些偏見會以一種快速而自動的方式影響我們理解世界的方式。這讓我想到了另一個重要的區別 —— 參與這項研究的人,他們的大腦中有這種類型的捷徑,他們不一定對什么樣的人攜帶槍支持有有意識的、明確的想法。事實上,你的外顯信念和你的經驗數據庫完全可以互相矛盾。

你可能會認為內隱偏見是過度適應的結果,當大腦在一個比你想要生活的更狹窄的環境中變得根深蒂固時,就會發生這種情況。當我們開始從比通常更狹窄的流行病隔離泡沫中擺脫出來時,意識到這種過度適應似乎就更加重要了。

為了糾正我們大腦中的捷徑,我們可以讓自己接觸到各種各樣的真實世界的經歷,允許從不同角度講述的故事來塑造我們。如果我們能更有意識地考慮我們向大腦灌輸什么樣的體驗,我們就能幫助塑造未來自我適應世界的方式。

圖片

Via:《綠皮書》

參考文獻

1.The Neuroscience of You: How Every Brain Is Different and How to Understand Yours by Chantel Prat, Ph.D., published on August 2, 2022 by Dutton, an imprint of Penguin Publishing Group, a division of Penguin Random House, LLC. Copyright ? 2022 by Chantel Prat.


赫布定律:為什么有些壞習慣很難打破?

原創 胡風 胡風筆記 2023 年 12 月 14 日 17:24 湖南

你是否有遇到下面這些情況

自己明明在做自己不想做的事情,但又一直還在做,沒有停止?

為什么一個人重復喝酒的次數越多,喝酒的沖動就會變得越來越強烈?

我們可能在赫布定律中找到答案。

01 赫布定律

赫布定律是心理學家唐納德?赫布(Donald Olding Hebb)提出的關于神經元之間聯系的變化規律的定律。赫布的理論認為在同一時間被激發的神經元間的聯系會被強化。

例如,在一個實驗中,研究人員對狗進行訓練,通過搖鈴鐺激發狗的鈴鐺連接,然后再給狗喂狗糧,激發狗的口水連接。在訓練之前,鈴鐺連接和口水連接沒有關系,但是通過訓練,這兩個連接組被強化了,形成了新的細胞回路。

另一個案例是關于記憶的研究。研究人員發現,當人們學習新的知識時,大腦中的神經元會形成新的連接。這些新的連接會被強化和鞏固,從而形成記憶。

比如幼兒園老師教小朋友認識蘋果,會拿著蘋果的卡片,然后大聲朗讀 “蘋果”,反復多次后,一條新的神經元通路就建立起來。以后再聽到蘋果,小朋友就迅速想到那個圓圓的蘋果。

赫布定律可以解釋為什么人們在學習新知識時需要反復練習和重復,以及為什么在學習之后進行復習可以提高記憶效果。

02 為什么壞習慣難打破

簡單來說,大腦中的神經元使用越頻繁,它們之間的連接就越強,越牢固。我以戒煙為例,為何人們開始抽煙后就很難停下來?

有沒有上班起不來的朋友?假設你來到一個新公司上班,最開始是 8 點上班,你也許會在 7:50 左右趕到,慢慢地變成 7:57,再慢慢地變成 8:00,最后變成遲到趕不上偶爾發生。

此時,你會懷疑是不是 8 點上班太早了。但是換一種情況,夏天來了,公司改成了 8:30 上班,你還會重復上面的情況,這到底是為什么呢?

比如 8 點打卡上班,你錯過了一輛地鐵后,感覺會被領導罵,于是抽了一根煙以緩解壓力。尼古丁的香味,使你放松了下來。

此時,你的大腦開辟了一條新的神經元通路,遲到帶來的壓力和抽煙降壓聯系起來。而你以后每次遲到,這種情況就會加強。曾經的一次遲到,變成了一種新習慣。本來是一個解決遲到壓力的方案,卻變成了一個新的永久的,痛苦的問題。

多年以前,我經常年初制定 Flag,到了年底被頻發打臉,于是又重新立 Flag,然后又被打臉。此時,我年底立 Flag 目的,是為了緩解沒有完成目標的快速解決方案,但是它并沒有從根源上幫我解決問題。

此時,也就是赫布定律提到的,當神經細胞以相同的模式反復激活時,它們最終會形成大腦回路。一旦建立了回路,每次出現類似情況時,回路中涉及的大腦區域都會以相同的方式自動響應。這會導致電路變得更堅固,并養成和保持習慣。

最好的辦法是什么?不是年底立新的 Flag,而是完成一件又一件小事情。不要想著快速解決,而是哪些習慣能從根源上解決。當我們遇到目標沒有達成時,我們就去做小事情,這樣一來,做小事情的習慣和沒有達成目標綁定起來。于是,我們就真的就能完成制定的目標。

03 赫布定律的應用

應用赫布定律可以幫助我們解決工作、生活中多種問題:

1.學習與記憶:赫布定律解釋了為什么重復和練習對于學習和記憶是重要的。通過反復刺激神經元之間的連接,我們可以強化它們,從而提高記憶和學習的效果。例如,在準備考試時,重復學習和練習是關鍵,因為這可以幫助我們加強大腦中的相關神經元連接,從而更有效地記住和應用知識。

2.團隊協作:赫布定律也可以應用于團隊協作。當團隊成員經常一起工作并取得成功時,他們之間的聯系會被強化,形成一個有效的團隊回路。這種團隊回路可以提高團隊的效率和協作能力。例如,在工作中,如果一個團隊成員經常與另一個成員合作并取得成功,那么他們之間的信任和合作能力會增強,從而提高整個團隊的工作效率。

3.習慣養成:赫布定律也可以應用于習慣養成。通過重復某種行為,我們可以強化與這種行為相關的神經元連接,從而形成習慣。例如,如果我們每天早晨都鍛煉,那么與鍛煉相關的神經元連接會被強化,從而更容易養成鍛煉的習慣。

4.問題解決:赫布定律還可以應用于問題解決。通過反復思考和嘗試不同的解決方案,我們可以強化與問題解決相關的神經元連接,從而更有效地找到解決方案。例如,在工作中遇到難題時,我們可以嘗試不同的解決方案,并反復思考和嘗試,從而找到最有效的解決方案。

很多時候,大腦會欺騙我們。我們很多自動自發的行為,誤以為是最好的解決方案;但是這些簡單行為的重復,反而加強了問題解決的難度;用一種新的壞習慣來代替老的壞習慣,最終讓問題越來越難解決。

其實,很多的 “拖延癌” 就是這么來的。簡單粗暴的解決方案,科學家稱此為喂養怪物。


(1949 年)基于神經心理學的學習機制 —— 赫布學習規則

曲靖婦女兒童中心 麒麟區青少年校外活動中心 2021 年 01 月 20 日 20:05 云南

1949 年,唐納德?赫布基于神經心理學的學習機制,踏出了學習的第一步,創造了此后被稱為赫布學習規則的方法。赫布認為神經網絡的學習過程發生在神經元之間的突觸部位,突觸的聯結強度隨著突觸前后神經元的活動而變化,正確的反饋會讓兩個神經元的聯系得到強化。這個原理機制類似巴普洛夫的條件反射實驗:每次給夠喂食前都響鈴,時間一長,夠的神經系統就會將鈴聲和食物聯系起來。

赫布用一套加權公式來模仿人類的神經網,權重就代表神經元之間聯系的強弱。赫布給機器創造了一套可以簡單區分事物的方法,對于每個數據,讓決策程序做出判斷,判斷對了就獎勵,判斷錯了就懲罰。他利用這個方法創造了一個分類器,可以提取數據集的統計特性,把輸入信息按照它們的相似程度劃分為若干類。

看上去如同人類在觀察某種現象時,會觀察和總結并區分事物,但機器的這種 “觀察” 更接近一種通過訓練達成的條件反射,并非如人類那樣思考,重視的是數據中蘊含的相關性關系,而非人類思維中的因果性關系。

圖片

Hebb 學習規則是一個無監督學習規則,這種學習的結果是使網絡能夠提取訓練集的統計特性,從而把輸入信息按照它們的相似性程度劃分為若干類。這一點與人類觀察和認識世界的過程非常吻合,人類觀察和認識世界在相當程度上就是在根據事物的統計特征進行分類。Hebb 學習規則只根據神經元連接間的激活水平改變權值,因此這種方法又稱為相關學習或并聯學習。

由赫布提出的 Hebb 學習規則為神經網絡的學習算法奠定了基礎,在此基礎上,人們提出了各種學習規則和算法,以適應不同網絡模型的需要。有效的學習算法,使得神經網絡能夠通過聯結權重的調整,構造客觀世界的內在表征。

赫布理論

是一個神經科學理論,解釋了在學習的過程中腦中的神經元所發生的變化。赫布理論描述了突觸可塑性的基本原理,即突觸前神經元向突觸后神經元的持續重復的刺激,可以導致突觸傳遞效能的增加。赫布理論解釋了神經元如何組成聯接,從而形成記憶印痕。

圖片

赫布理論闡明了細胞集群(Cell Assemblies)的形態和功能:“兩個神經元或者神經元系統,如果總是同時被激發,就會形成一種‘組合’,其中一個神經元的激發會促進另一個的激發。” 赫布同時寫道:“如果一個神經元持續激活另一個神經元,前者的軸突將會生長出突觸小體(如果已有,則會繼續長大)和后者的胞體相連接。”

在人工神經網絡中,突觸間傳遞作用的變化被當作是(被映射成)神經元網絡圖中相應權重的變化。如果兩個神經元同步激發,則它們之間的權重增加;如果單獨激發,則權重減少。赫布學習規則是最古老的也是最簡單的神經元學習規則。

表達意義

由赫布提出的 Hebb 學習規則為神經網絡的學習算法奠定了基礎,在此基礎上,人們提出了各種學習規則和算法,以適應不同網絡模型的需要。有效的學習算法,使得神經網絡能夠通過聯結權重的調整,構造客觀世界的內在表征。

Hebb 學習規則與 “條件反射” 機理一致,并且已經得到了神經細胞學說的證實。

巴甫洛夫的條件反射實驗:每次給狗喂食前都先響鈴,時間一長,狗就會將鈴聲和食物聯系起來。以后如果響鈴但是不給食物,狗也會流口水。

受該實驗的啟發,Hebb 的理論認為在同一時間被激發的神經元間的聯系會被強化。比如,鈴聲響時一個神經元被激發,在同一時間食物的出現會激發附近的另一個神經元,那么這兩個神經元間的聯系就會強化,從而記住這兩個事物之間存在著聯系。相反,如果兩個神經元總是不能同步激發,那么它們間的聯系將會越來越弱。


via:

  • 赫布定律 馥墨軒 2021 年 03 月 13 日 00:03
    https://mp.weixin.qq.com/s/GocwOkuemA6WgVoJihcnlw

  • 赫布法則(Hebb’s rule)與機器學習 Neuro 科學和人工智能 2022 年 10 月 24 日 20:16 上海
    https://mp.weixin.qq.com/s/gYceJ8DuqeoKTCrSsgLPTw

  • 反向傳播和生物學沒關系?NO!大牛告訴你:在反向傳播基礎上找到生物學解釋 新智元 2021 年 02 月 24 日 17:52
    https://mp.weixin.qq.com/s/_mzsSmEZlQDEe_3y7rVTsw

  • 人如何一步步成為經驗的奴隸?原創 Chantel Prat 酷炫腦 2022 年 08 月 24 日 20:00 湖北

    https://mp.weixin.qq.com/s/UiFc3wKq3W28VwW6SMtr1A

  • 赫布定律:為什么有些壞習慣很難打破?原創 胡風 胡風筆記 2023 年 12 月 14 日 17:24 湖南
    https://mp.weixin.qq.com/s/V5-nKYUAwuVvgajG_1vJoQ

  • (1949 年)基于神經心理學的學習機制 —— 赫布學習規則 曲靖婦女兒童中心 麒麟區青少年校外活動中心 2021 年 01 月 20 日 20:05 云南
    https://mp.weixin.qq.com/s/uvijPNIwULpOc0X5oRD2rQ

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/web/63257.shtml
繁體地址,請注明出處:http://hk.pswp.cn/web/63257.shtml
英文地址,請注明出處:http://en.pswp.cn/web/63257.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

各個數據庫優劣勢對比

1.關系型數據庫(RDBMS) 優勢: ? 數據一致性:通過嚴格的事務處理和ACID(原子性、一致性、隔離性、持久性)特性,確保數據的一致性和完整性。 ? 易于理解和使用:關系型數據庫的表結構…

Excel中如何消除“長短款”

函數微調可以可以實施,簡單且易于操作的氣球🎈漲縮更妙。 (筆記模板由python腳本于2024年12月17日 06:19:13創建,本篇筆記適合用Excel操作數據的coder翻閱) 【學習的細節是歡悅的歷程】 Python 官網:https://www.python.org/ Fre…

Jdk1.7到Jdk1.8 HashMap 發生了什么變化(底層)

從JDK 1.7到JDK 1.8,HashMap在底層實現上發生了顯著的變化, 主要體現在數據結構、鏈表插入方式、哈希算法、擴容機制以及并發性方面。 以下是具體的變化點: 1. 數據結構的變化 JDK 1.7:HashMap的底層數據結構是數組單向鏈表。…

RJ45 網線線序、E1線線序、2B+d線序

1、RJ45 網線線序 線序排列如下: T568A線序:綠白—1,綠—2,橙白—3,藍—4,藍白—5, 橙—6,棕白—7,棕—8 T568B線序:橙白—1,橙—2&#xff0c…

FreeBSD安裝教程

FreeBSD 是一個功能強大且可靠的開源 UNIX 操作系統,適合服務器和桌面環境。本文將介紹如何安裝 FreeBSD,從系統準備到基礎設置,為你快速上手提供幫助。 一、準備工作 1. 硬件要求 CPU:支持 x86 或 AMD64 架構的處理器。 內存&a…

Fortify_SCA_v24.2.0

前言 Fortify SCA 支持豐富的開發環境、語言、平臺和框架,可對開發與生產混合環境進行安全檢查。25 種編程語言 超過 911,000 個組件級 API 可檢測超過 961 個漏洞類別 支持所有主流平臺、構建環境和 IDE。 Fortify SCA是一款商業軟件,價格較為昂貴&am…

MyBatis框架的入門

目錄 MyBatis第一章:框架的概述1. MyBatis框架的概述 第二章:MyBatis的入門程序1. 創建數據庫和表結構2. MyBatis的入門步驟 MyBatis 第一章:框架的概述 1. MyBatis框架的概述 MyBatis是一個優秀的基于Java的持久層框架,內部對…

rust的axux框架開啟負載均衡和重啟自身的方法-會議簽到的調優

開啟負載均衡和重啟自身 更換axum后臺的意外解決的嘗試在caddy反代,使用負載均衡,加多一個節點axum主程序 ip映射信息做全局共享axum重啟自身刷新全局共享配置 前期剛實現了rust的后臺關鍵業務.結果出現了兩類大問題停止服務.在正用著的時候,出現很多意外,真是刺激… 更換axum…

深入理解數據庫索引:原理、分類與優化

目錄 1. 索引基礎1.1 索引的工作原理 2. 最左匹配原則2.1 什么是最左匹配原則?2.2 示例說明2.3 最左匹配原則的圖示 3. 索引分類3.1 按數據結構分類3.2 按索引列數分類3.3 按唯一性分類3.4 按存儲方式分類 4. 聚集索引與非聚集索引的區別4.1 聚集索引4.2 非聚集索引…

Three.js相機Camera控件知識梳理

原文:https://juejin.cn/post/7231089453695238204?searchId20241217193043D32C9115C2057FE3AD64 1. 相機類型 Three.js 主要提供了兩種類型的相機:正交相機(OrthographicCamera)和透視相機(PerspectiveCamera&…

Bernstein-type inequality (BTI)

參見論文: Dual-Functional Artificial Noise (DFAN) Aided Robust Covert Communications in Integrated Sensing and Communications 理論 \boxed{} ?用于加框 Lemma 2. (BTI): For any A ∈ C N N \mathbf{A} \in\mathbb{C}^{N\times N} A∈CNN, b ∈ C N …

一條線上的點

給你一個數組 points &#xff0c;其中 points[i] [xi, yi] 表示 X-Y 平面上的一個點。求最多有多少個點在同一條直線上。 提示&#xff1a; 1 < points.length < 300points[i].length 2-104 < xi, yi < 104points 中的所有點 互不相同 解析&#xff1a;使用斜…

XX服務器上的npm不知道咋突然壞了

收到同事的V&#xff0c;說是&#xff1a;182上的npm不知道咋突然壞了&#xff0c;查到這里了&#xff0c;不敢動了。 咱一定要抓重點&#xff1a;突然壞了。這里的突然肯定不是瞬間&#xff08;大概率是上次可用&#xff0c;這次不可用&#xff0c;中間間隔了多長時間&#x…

GNSS定位局限性與綜合PNT及5G定位技術研究

摘要 本文主要介紹了GNSS定位技術的系統組成與原理、發展歷程、應用領域及現狀&#xff0c;并分析了其存在的局限性&#xff0c;如信號遮擋、多路徑效應、大氣層干擾等。文章還探討了綜合PNT技術的體系架構、多源信息融合方法以及智能化算法在PNT中的應用&#xff0c;強調了綜…

/hbase/oldWALs 文件

/hbase/oldWALs 是 HBase 中的一個目錄&#xff0c;用于存儲那些不再需要用于恢復目的的 WAL&#xff08;Write-Ahead Log&#xff09;文件。這些文件在 HBase 確認所有的數據都已經從 MemStore 持久化到 HFile 之后&#xff0c;會被移動到這個目錄。 /hbase/oldWALs 目錄中的…

HALCON 算子 之 形態學操作算子

文章目錄 什么是形態學操作&#xff1f;為什么要形態學操作&#xff1f;怎么形態學操作&#xff1f;腐蝕 —— Erosionerosion1erosion_circle&#xff1a;erosion_rectangle1&#xff1a; 膨脹 —— Dilationdilation1dilation_circledilation_rectangle1 打開 —— Openingop…

[金盾杯 2024] PWN 復現

好長時間不作題了&#xff0c;在復現平臺上看到這個比賽&#xff0c;作了一下&#xff0c;題過于簡單了。不過密碼一言難盡。 Orange 要說libc-2.23有多老&#xff0c;我一開始學PWN的時候還有不少&#xff0c;這兩年幾乎不見了。一些比賽估計是拿的舊題。 遠看像個堆題&…

pytest入門九:feature

fixture是pytest特有的功能&#xff0c;用以在測試執行前和執行后進行必要的準備和清理工作。使用pytest.fixture標識&#xff0c;定義在函數前面。在你編寫測試函數的時候&#xff0c;你可以將此函數名稱做為傳入參數&#xff0c;pytest將會以依賴注入方式&#xff0c;將該函數…

uniapp Vue3 語法實現瀏覽器中音頻錄制、停止、保存、播放、轉碼、實時音頻輸出

一、引言 在現代 Web 應用開發中,音頻處理功能變得越來越重要。本文將詳細介紹如何使用 uniapp 結合 Vue3 語法在瀏覽器環境中實現音頻錄制、停止、保存、播放、轉碼以及實時音頻輸出等一系列功能。通過深入剖析代碼結構和功能實現細節,幫助讀者全面理解和掌握相關技術,以便…

【jpa】會什么jpa會自動新建一個hibernate_sequence表

目錄 1. 說明2. 主鍵生成策略3. hibernate_sequence表的創建4. 如何避免自動創建hibernate_sequence表 1. 說明 1.JPA&#xff08;Java Persistence API&#xff09;在默認情況下&#xff0c;如果使用Hibernate作為持久化框架&#xff0c;并且沒有顯式指定主鍵生成策略&#x…