LLMs之Hallucinate:《Why Language Models Hallucinate》的翻譯與解讀

LLMs之Hallucinate:《Why Language Models Hallucinate》的翻譯與解讀

導讀:該論文深入分析了語言模型中幻覺現象的成因,認為幻覺源于預訓練階段的統計壓力和后訓練階段評估體系對猜測行為的獎勵。論文提出了通過修改評估方法,使其不再懲罰不確定性,而是獎勵適當表達不確定性的行為,從而有效抑制幻覺的社會技術解決方案。

論文把“為什么會有 hallucination”從經驗命題上升為可證明的統計與制度問題:其核心貢獻是把生成錯誤歸約為 Is-It-Valid 的二元分類,從而給出下界與成因分析,并指出真正能抑制幻覺的不是再加一個專門測評,而是修改主導研究與產品走向的評測與榜單機制(給棄答/不確定性合理分數),連同在訓練環節引入有效性的判別交互式監督,才可能在長期內把模型從“猜題式”行為導向更可信、誠實的表現。

>> 背景痛點:

● 模型行為異常:過度自信且生成“看起來靠譜但錯誤”的陳述(hallucination):這種錯誤既影響實用性也削弱信任(示例:在要求「只在知道時回答」的情況下仍給出具體但錯誤的日期)。

● 產生根源復雜:不僅是訓練數據有錯——即便訓練語料“無誤”,現代預訓練目標也會在統計意義上導致生成錯誤

● 評估激勵錯誤行為:多數主流基準(leaderboards)以 0-1/準確率類二元評分為主,懲罰“我不知道/棄答”而獎勵“猜測”,因此模型被驅動成為“會答題的猜測者”而非誠實表達不確定性。

● 現有緩解不足:已有針對 hallucination 的評測或技巧無法根本改變被廣泛采用的主評分機制帶來的激勵失配。

>> 具體的解決方案:

● 理論分析方案:把生成錯誤問題歸約為“Is-It-Valid(IIV)”二元分類問題:將生成任務中的“有效/錯誤輸出”視作二元分類并建立數學關系(生成錯誤率 ? 2 × IIV 誤判率),從而把生成時的幻覺問題轉化為被熟知的分類誤差分析框架。

● 評估/制度層面方案:進行“社會—技術”層面的緩解:調整現有主流基準的計分與榜單規則,停止用純二元0-1評分系統懲罰棄答/不確定,從而改變訓練與微調(包括 RLHF/DPO 等)在榜單驅動下的最優策略。

● 修改評估方法:修改現有基準的評分方式,使其不再懲罰不確定的回答,而是獎勵適當表達不確定性的行為。這需要對有影響力的排行榜進行社會技術層面的調整,而不僅僅是引入額外的幻覺評估。不要只新增專門的 hallucination 測評,而應先修改那些主導研究與產品方向的主評測(如 leaderboard 所用子集)計分方法,以快速、系統性地改變整個生態的激勵。

● 明確置信度目標:在評估指令中明確說明置信度目標,例如,只有在對答案有高于特定閾值的信心時才回答,因為錯誤答案會受到懲罰,而正確答案會獲得獎勵,“我不知道”則不獎勵不懲罰。

>> 核心思路步驟:

● 連接監督學習與非監督學習:將生成模型的錯誤與監督學習中的二元分類錯誤聯系起來。通過“Is-It-Valid”(IIV)二元分類問題,將生成錯誤率與IIV誤分類率建立數學關系。

● 分析預訓練和后訓練階段:將語言模型的訓練分為預訓練和后訓練兩個階段,分別分析每個階段中導致幻覺的因素。預訓練階段關注一般性錯誤,后訓練階段關注過度自信的幻覺

● 識別統計驅動因素:識別導致幻覺的主要統計驅動因素,包括預訓練的起源和后訓練的持續存在。

● 建模與形式化:定義錯誤集 E 與有效輸出集 V(可響應文本 X = E ∪ V)并把 prompt 納入形式化,令分析可覆蓋內在(intrinsic)與外在(extrinsic)兩類幻覺。

● 歸約:構造 Is-It-Valid(IIV)監督問題:把大量樣本標注為 +(有效)或 ?(錯誤),展示任何生成器都能被解讀為 IIV 分類器,從而把生成錯誤率與 IIV 的誤判率聯系起來(給出下界)。

● 統計因素分析:分析導致 IIV 誤判的統計原因(可分為可分離情形、模型擬合不足情形、以及根本無可學習規律導致的“不可區分”情形),并用 Good-Turing / missing-mass 類型的直覺說明若訓練語料中許多事實只出現一次,則最低幻覺率不可避免。

● 后訓練與評估交互:研究后訓練(RLHF/RLAIF/DPO 等)為何仍保留過度自信的幻覺:因為訓練與評估的目標(leaderboard 得分)本身偏好猜測而非誠實棄答,導致模型學習“有把握就答、無把握也猜”以最大化榜單表現。

● 緩解路徑:從統計上、從評估體系上并行發力:一方面可在訓練中引入有效的有效性判別/棄答機制(或交互式 validity oracle);另一方面必須改變主流評測的計分(給 IDK 部分或全部合理分數 / 設計對不確定性的正向激勵),以改變長期趨勢。

>> 優勢:

● 解釋幻覺的起源:揭示了幻覺并非神秘現象,而是源于自然統計壓力下的二元分類錯誤。提供了將無監督生成問題歸約為監督二元分類的數學工具與下界,把“幻覺為何出現”從經驗總結提升為可證明的統計結論。

● 提出可行的解決方案:提出了通過修改評估方法來抑制幻覺的社會技術解決方案,并給出了具體的修改建議。

● 適用于多種模型:該分析適用于多種語言模型,包括推理和搜索-檢索語言模型,且不依賴于特定的模型架構。結論與分析不依賴于 Transformer/下一詞預測等具體架構,適用于預訓練 + 后訓練的現代訓練范式,覆蓋檢索增強和推理型模型。

● 可操作性:不僅給出診斷(為什么會發生),也提出可行的制度級緩解(修改榜單評分),具有直接改變研究與開發激勵的社會工程價值。

● 量化視角:將幻覺率與語料中“只出現一次的事實”或 IIV 誤判率建立定量聯系,便于評估改進的潛在上限與局限。

>> 論文的一些結論和觀點(側重經驗與建議):

● 幻覺的根本原因是獎勵猜測:現有的評估體系獎勵語言模型在不確定時進行猜測,而不是承認不確定性,這是導致幻覺持續存在的原因。幻覺并非神秘現象,而是統計學習問題的自然產物——當錯誤與事實在訓練分布上難以區分時,預訓練就會產生不可避免的生成錯誤。

修改評估體系是關鍵:僅僅增加幻覺評估是不夠的,必須修改主要的評估體系,使其不再懲罰不確定性,才能有效抑制幻覺。僅靠增加專門的 hallucination benchmark 不足以根治問題,因為主流評測(leaderboards)數量和影響力決定了模型優化方向。

明確置信度目標有助于校準模型:通過在評估中明確說明置信度目標,可以促使語言模型進行行為校準,即在置信度高于目標閾值時才給出答案。

● 優先修改主流評測的計分規則:給予合理的棄答/不確定性分數或設計能夠獎勵誠實不確定性的評測,從制度上移除“猜測優先”的激勵。

● 在模型開發層面應同時采用分類式有效性判別(IIV/validity oracle)、交互式標注與更謹慎的后訓練目標,并與評測改進同步推進。

● 承認一致性(avoid invalid outputs)與多樣性/廣度(生成多樣響應)之間的內在權衡;一些理論結果表明,要在不犧牲寬度的前提下完全避免幻覺存在困難,因此制度與評測改造尤為關鍵。

目錄

《Why Language Models Hallucinate》的翻譯與解讀

Abstract

1、Introduction

Figure 1: Is-It-Valid requires learning to identify valid generations using labeled ± examples (left).Classifiers (dashed lines) may be accurate on certain concepts like spelling (top) but errors often arise due to poor models (middle) or arbitrary facts when there is no pattern in the data (bottom).圖1:Is-It-Valid需要學習使用標記的±示例來識別有效代(左)。分類器(虛線)在拼寫(上)等某些概念上可能是準確的,但錯誤往往是由于模型不佳(中)或數據中沒有模式時的任意事實(下)造成的。

Table 1:Excerpts from responses to “What was the title of Adam Kalai’s dissertation?” from three popular language models.4?None generated the correct title or year?(Kalai,?2001).三個流行語言模型對“亞當·卡萊的博士論文題目是什么?”這一問題的回答摘錄。4 沒有一個給出正確的題目或年份(卡萊,2001 年)。

6?Conclusions


《Why Language Models Hallucinate》的翻譯與解讀

地址

https://www.arxiv.org/abs/2509.04664

時間

2025年9月4日

作者

OpenAI

Abstract

Like students facing hard exam questions, large language models sometimes guess when uncertain, producing plausible yet incorrect statements instead of admitting uncertainty. Such "hallucinations" persist even in state-of-the-art systems and undermine trust. We argue that language models hallucinate because the training and evaluation procedures reward guessing over acknowledging uncertainty, and we analyze the statistical causes of hallucinations in the modern training pipeline. Hallucinations need not be mysterious -- they originate simply as errors in binary classification. If incorrect statements cannot be distinguished from facts, then hallucinations in pretrained language models will arise through natural statistical pressures. We then argue that hallucinations persist due to the way most evaluations are graded -- language models are optimized to be good test-takers, and guessing when uncertain improves test performance. This "epidemic" of penalizing uncertain responses can only be addressed through a socio-technical mitigation: modifying the scoring of existing benchmarks that are misaligned but dominate leaderboards, rather than introducing additional hallucination evaluations. This change may steer the field toward more trustworthy AI systems.

就像面對難題的學生一樣,大型語言模型在不確定時有時會猜測,從而生成看似合理實則錯誤的陳述,而不是承認自己的不確定。這種“幻覺”即使在最先進的系統中也依然存在,并且損害了人們的信任。我們認為,語言模型產生幻覺是因為訓練和評估程序獎勵猜測而非承認不確定性,我們還分析了現代訓練流程中幻覺產生的統計原因。幻覺并非神秘莫測——它們只是二元分類中的錯誤。如果錯誤陳述無法與事實區分開來,那么預訓練語言模型中的幻覺就會在自然的統計壓力下產生。然后我們指出,幻覺之所以持續存在,是因為大多數評估的評分方式——語言模型被優化為優秀的應試者,而不確定時猜測能提高測試成績。這種對不確定回答進行懲罰的“流行病”只能通過一種社會技術手段來解決:調整現有基準的評分,這些基準雖然存在偏差但主導著排行榜,而不是引入額外的幻覺評估。這一改變可能會引導該領域走向更值得信賴的人工智能系統。

1、Introduction

Language models are known to produce overconfident, plausible falsehoods, which diminish their utility and trustworthiness. This error mode is known as “hallucination,” though it differs fundamen-tally from the human perceptual experience. Despite significant progress, hallucinations continue to plague the field, and are still present in the latest models (OpenAI, 2025a). Consider the prompt:

What is Adam Tauman Kalai’s birthday? If you know, just respond with DD-MM.

On three separate attempts, a state-of-the-art open-source language model1?output three incorrect dates: “03-07”, “15-06”, and “01-01”, even though a response was requested only if known. The correct date is in Autumn.?Footnote?4?provides an example of more elaborate hallucinations.

語言模型會生成過度自信且看似合理的錯誤信息,這降低了它們的實用性和可信度。這種錯誤模式被稱為“幻覺”,盡管它與人類的感知體驗有著根本的不同。盡管取得了顯著進展,但幻覺問題仍困擾著該領域,甚至在最新的模型(OpenAI,2025a)中也依然存在。考慮以下提示:

亞當·塔曼·卡萊的生日是什么?如果知道,請僅以“日-月”的格式回答。

在三次獨立嘗試中,一個最先進的開源語言模型1分別給出了三個錯誤的日期:“03-07”、“15-06”和“01-01”,盡管提示要求只有在知道的情況下才作答。正確日期在秋季。腳注 4 提供了一個更復雜的幻覺示例。

Hallucinations are an important special case of?errors?produced by language models, which we analyze more generally using computational learning theory?(e.g., Kearns and Vazirani,?1994). We consider general sets of?errors??, an arbitrary subset of plausible strings?��=?∪��, with the other plausible strings?��?being called?valid. We then analyze the statistical nature of these errors, and apply the results for the type of errors of interest: plausible falsehoods called hallucinations. Our formalism also includes the notion of a?prompt?to which a language model must respond.

The distribution of language is initially learned from a corpus of training examples, which inevitably contains errors and half-truths. However, we show that even if the training data were error-free, the objectives optimized during language model training would lead to errors being generated. With realistic training data containing shades of error, one may expect?even higher error rates. Thus, our lower bounds on errors apply to more realistic settings, as in traditional computational learning theory?(Kearns and Vazirani,?1994).

幻覺是語言模型產生的錯誤的一個重要特例,我們使用計算學習理論(例如,Kearns 和 Vazirani,1994)對其進行更廣泛的分析。我們考慮一般的錯誤集 ?,以及任意子集的合理字符串 ��=?∪��,其中其他合理字符串 �� 被稱為有效。然后,我們分析這些錯誤的統計性質,并將結果應用于感興趣的錯誤類型:被稱為幻覺的看似合理的錯誤陳述。我們的形式主義還包括語言模型必須回應的提示這一概念。

語言的分布最初是從訓練示例的語料庫中學習的,這些語料庫不可避免地包含錯誤和半真半假的內容。然而,我們表明,即使訓練數據沒有錯誤,語言模型訓練期間優化的目標也會導致錯誤的產生。由于現實中的訓練數據包含不同程度的錯誤,人們可能會預期錯誤率會更高。因此,我們對錯誤的下限適用于更現實的場景,就像傳統計算學習理論(Kearns 和 Vazirani,1994)中那樣。

Our error analysis is general yet has specific implications for hallucination. It applies broadly, including to reasoning and search-and-retrieval language models, and the analysis does not rely on properties of next-word prediction or Transformer-based neural networks. It only considers the two stages of the modern training paradigm: pretraining and post-training, described below. For hallucinations, taxonomies?(Maynez et?al.,?2020; Ji et?al.,?2023)?often further distinguish?intrinsic?hallucinations that contradict the user’s prompt, such as:

How many Ds are in DEEPSEEK? If you know, just say the number with no commentary.

DeepSeek-V3 returned “2” or “3” in ten independent trials; Meta AI and Claude 3.7 Sonnet2?performed similarly, including answers as large as “6” and “7”. Our theory also sheds light on?extrinsic?hallucinations, which contradict the training data or external reality.

我們的錯誤分析具有普遍性,但對幻覺有特定的含義。它廣泛適用,包括推理和搜索與檢索語言模型,并且分析不依賴于下一個單詞預測或基于 Transformer 的神經網絡的特性。它僅考慮現代訓練范式的兩個階段:預訓練和后訓練,如下所述。對于幻覺,分類法(Maynez 等人,2020 年;Ji 等人,2023 年)通常進一步區分與用戶提示相矛盾的內在幻覺,例如:

“DEEPSEEK 中有多少個 D?”如果您知道,請只說數字,不要發表評論。

在十次獨立試驗中,DeepSeek-V3 返回了“2”或“3”;Meta AI 和 Claude 3.7 Sonnet2 的表現類似,包括給出像“6”和“7”這樣大的答案。我們的理論也解釋了外在幻覺,即與訓練數據或外部現實相矛盾的情況。

Figure 1: Is-It-Valid requires learning to identify valid generations using labeled ± examples (left).Classifiers (dashed lines) may be accurate on certain concepts like spelling (top) but errors often arise due to poor models (middle) or arbitrary facts when there is no pattern in the data (bottom).圖1:Is-It-Valid需要學習使用標記的±示例來識別有效代(左)。分類器(虛線)在拼寫(上)等某些概念上可能是準確的,但錯誤往往是由于模型不佳(中)或數據中沒有模式時的任意事實(下)造成的。

Table 1:Excerpts from responses to “What was the title of Adam Kalai’s dissertation?” from three popular language models.4?None generated the correct title or year?(Kalai,?2001).三個流行語言模型對“亞當·卡萊的博士論文題目是什么?”這一問題的回答摘錄。4 沒有一個給出正確的題目或年份(卡萊,2001 年)。

  1. ChatGPT: (GPT-4o)? Adam Tauman Kalai’s Ph.D.?dissertation (completed in 2002 at CMU) is entitled: “Boosting, Online Algorithms, and Other Topics in Machine Learning.”
  2. DeepSeek:? “Algebraic Methods in Interactive Machine Learning”…at Harvard University in 2005.
  3. Llama:? “Efficient Algorithms for Learning and Playing Games”…in 2007 at MIT.

lChatGPT:(GPT-4o)亞當·陶曼·卡萊于 2002 年在卡內基梅隆大學完成的博士論文題目為:“提升算法、在線算法及其他機器學習主題”。

lDeepSeek:“交互式機器學習中的代數方法”……2005 年于哈佛大學。

lLlama:“學習與玩游戲的高效算法”……2007 年于麻省理工學院。

6?Conclusions

This paper demystifies hallucinations in modern language models, from their origin during pretraining to their persistence through post-training. In pretraining, we show that generative errors parallel misclassifications in supervised learning, which are not mysterious, and naturally arise due to the minimization of cross-entropy loss.

Many language model shortcomings can be captured by a single evaluation. For example, overuse of the opener “Certainly” can be addressed by a single?“Certainly” eval?(Amodei and Fridman,?2024)?because starting responses with “Certainly” does not significantly impact other evaluations. In contrast, we argue that the majority of mainstream evaluations reward hallucinatory behavior. Simple modifications of mainstream evaluations can realign incentives, rewarding appropriate expressions of uncertainty rather than penalizing them. This can remove barriers to the suppression of hallucinations, and open the door to future work on nuanced language models, e.g., with richer pragmatic competence?(Ma et?al.,?2025).

本文揭開了現代語言模型中幻覺現象的神秘面紗,從其在預訓練期間的起源到在訓練后的持續存在。在預訓練階段,我們表明生成錯誤與監督學習中的誤分類類似,并非神秘莫測,而是由于交叉熵損失最小化而自然產生的。
許多語言模型的缺陷可以通過單一評估來捕捉。例如,過度使用開頭詞“當然”可以通過單一的“當然”評估(Amodei 和 Fridman,2024)來解決,因為以“當然”開頭的回答對其他評估影響不大。相反,我們認為主流評估中的大多數都獎勵幻覺行為。對主流評估進行簡單的修改可以重新調整激勵機制,獎勵恰當表達不確定性而非對其進行懲罰。這可以消除抑制幻覺的障礙,并為未來開發更細致的語言模型鋪平道路,例如具有更豐富語用能力的語言模型(Ma 等人,2025)。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/921957.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/921957.shtml
英文地址,請注明出處:http://en.pswp.cn/news/921957.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

Spring Cloud @RefreshScope 作用是什么?

RefreshScope 是 Spring Cloud 中的一個重要注解,主要作用如下: 主要功能動態刷新配置 使 Bean 能夠在運行時動態刷新配置屬性當配置中心的配置發生變化時,無需重啟應用即可生效作用域管理 為 Bean 創建一個特殊的作用域 refresh標記的 Bean …

Flutter SDK 安裝與國內鏡像配置全流程(Windows / macOS / Linux)

這是一份面向國內網絡環境的 Flutter 從零到可運行指引:覆蓋 SDK 安裝、平臺依賴準備、國內鏡像配置(PUB_HOSTED_URL、FLUTTER_STORAGE_BASE_URL)、Android 側 Gradle 倉庫加速,以及 Java/Gradle 版本兼容的關鍵坑位與排查思路。文…

【Java】NIO 簡單介紹

簡介 從 Java 1.4 版本開始引入的一個新的 I/O API,可以替代標準的 Java I/O。提供了與標準 I/O 不同的工作方式,核心是 通道(Channel)、緩沖區(Buffer) 和 選擇器(Selector)。支持非…

Java爬蟲獲取京東item_get_app數據的實戰指南

一、引言京東開放平臺提供了豐富的API接口,其中item_get_app接口可用于獲取商品的詳細信息。這些數據對于市場分析、價格監控、商品推薦等場景具有重要價值。本文將詳細介紹如何使用Java編寫爬蟲,通過調用京東開放平臺的item_get_app接口獲取商品詳情數據…

Vue3源碼reactivity響應式篇之批量更新

概述 在vue3響應式系統設計中,批量更新是優化性能的核心機制之一。當短時間內頻繁多次修改響應式數據時,批量更新可以避免頻繁觸發訂閱者的更新操作,將這些更新操作合并為一次,從而減少不必要的計算和DOM操作。 批量更新也是利用鏈…

AI 模型訓練過程中參數用BF16轉向FP16的原因

大模型訓練從 FP16 轉向 BF16 是一個關鍵的技術演進,其核心原因在于 BF16 在動態范圍和精度之間取得了更優的平衡,從而極大地提升了訓練(尤其是大模型訓練)的穩定性和有效性。 1. 背景 為什么需要半精度浮點數 (FP16)?…

python網絡爬取個人學習指南-(五)

**************************************************************************************************************author:keyinfodate:2025-09-09 23:50title:網絡信息爬取之多聯級標題內容點擊****************************************…

RAG - 檢索增強生成

第一部分:RAG 詳解一、RAG 是什么?RAG(Retrieval-Augmented Generation,檢索增強生成)是一種將信息檢索(或知識檢索)與大語言模型(LLM)的生成能力相結合的技術框架。它的…

大數據畢業設計選題推薦-基于大數據的分化型甲狀腺癌復發數據可視化分析系統-Spark-Hadoop-Bigdata

?作者主頁:IT研究室? 個人簡介:曾從事計算機專業培訓教學,擅長Java、Python、微信小程序、Golang、安卓Android等項目實戰。接項目定制開發、代碼講解、答辯教學、文檔編寫、降重等。 ?文末獲取源碼? 精彩專欄推薦??? Java項目 Python…

Spring Bean掃描

好的,沒有問題。基于我們之前討論的內容,這是一篇關于 Spring Bean 掃描問題的深度解析博客。Spring Bean掃描作者:Gz | 發布時間:2025年9月9日🎯 Spring如何找到你的Bean? 首先要理解原理。Spring的組件掃…

【 運維相關】-- HTTP 壓測/負載發生器之新秀 oha

目錄 oha 項目分析(hatoo/oha) 一、概述 二、安裝 三、快速上手 三、常用參數(摘選) 四、輸出解讀(終端 TUI) 五、與其它工具對比 六、最佳實踐 七、注意事項 八、參考 oha 項目分析(h…

淘寶閃購基于FlinkPaimon的Lakehouse生產實踐:從實時數倉到湖倉一體化的演進之路

摘要:本文整理自淘寶閃購(餓了么)大數據架構師王沛斌老師在 Flink Forward Asia 2025 城市巡回上海站的分享。引言在數字化轉型的浪潮中,企業對實時數據處理的需求日益增長。傳統的實時數倉架構在面對業務快速變化和數據規模爆炸性增長時,逐漸…

Android應用添加日歷提醒功能

功能 在安卓應用里調用系統日歷&#xff0c;直接創建一個帶提醒的日歷事件&#xff0c;甚至不需要跳轉到日歷界面&#xff0c;只需要獲取系統日歷的讀取權限即可。 需要的權限 在AndroidManifest.xml里添加 <uses-permission android:name"android.permission.READ_CAL…

?Git Bisect 二分查找定位錯誤總結

# Git Bisect 二分查找指南## 1. 基本原理&#xff08;ASCII示意圖&#xff09; 假設提交歷史是一條時間線&#xff0c;Ggood&#xff08;正常&#xff09;&#xff0c;Bbad&#xff08;異常&#xff09;&#xff1a;提交順序: G --- G --- G --- B --- B --- B | | | 初始正常…

ThingsKit物聯網平臺 v2.0.0 發布|前端UI重構、底層架構升級

v2.0.0 Release發布日期&#xff1a;2025/08/25 代碼標簽&#xff1a;v2.0.0_Release&#x1f947; 新增功能國標級聯&#xff08;支持上級、下級國標級聯&#xff09;視頻回放、錄像計劃&#xff08;用戶可以通過錄像計劃生成對應的視頻回放并查看&#xff09;Modbus_TCP協…

Lua > Mac Mini M4安裝openresty

Mac Mini M4安裝openresty 主要參考 https://www.cnblogs.com/helios-fz/p/15703260.html brew uninstall nginxbrew update brew install pcre openssl #brew install geoip# brew tap openresty/brew # brew install openresty # brew install openresty/brew/openresty# VER…

【多線程案例】:單例模式

多線程案例8.1 單例模式餓漢模式懶漢模式懶漢模式-單線程版懶漢模式-多線程版懶漢模式-多線程版(改進)8.1 單例模式 單個實例. 在一個 java 進程中, 要求指定的類,只能有唯–個實例。&#xff08;嘗試 new 多個實例的時候, 就會直接編譯報錯&#xff09; 單例模式是校招中最常…

【Python/Pytorch】-- 貝葉斯定理

文章目錄 文章目錄01 貝葉斯定理的理解02 在MRI重建領域應用01 貝葉斯定理的理解 貝葉斯定理的基本公式&#xff1a;P(A|B)P(B|A)*P(A) / P(B) 首先是如何理解這個公式&#xff1f; 在B事件發生的條件下&#xff0c;A發生的概率 P(A|B) 在B事件發生的條件下&#xff0c;A和B同…

子網掩碼的隱形陷阱:為何能ping通卻無法HTTPS訪問

問題現象深度解析在近期企業網絡維護中&#xff0c;運維團隊發現一個具有教學意義的典型案例&#xff1a;某臺部署在10.165.111.0/24網段的業務服務器&#xff08;10.165.111.71&#xff09;可以成功ping通目標中間件主機(10.165.110.11)&#xff0c;但通過HTTPS協議訪問https:…

【ArcGIS】如何編輯圖層的屬性表

GIS按屬性選擇后刪除所選項呈現灰色_arcgis刪除字段灰色-CSDN博客