支持向量機 SVM | 線性可分:硬間隔模型公式推導

目錄

  • 一. SVM的優越性
  • 二. SVM算法推導
    • 小節
    • 概念

在開始講述SVM算法之前,我們先來看一段定義:

'''
支持向量機(Support VecorMachine, SVM)本身是一個二元分類算法,支持線性分類和非線性分類的分類應用,同時通過OvR或者OvO的方式可以應用在多元分類領域中能夠直接將SVM應用于回歸應用中
在不考慮集成學習算法或者特定的數據集時,SVM在分類算法中可以說是一種特別優秀的算法
'''

在這里插入圖片描述

一. SVM的優越性

在Logistic回歸算法中:
????我們追求是尋找一條決策邊界,即找到一條能夠正確劃分所有訓練樣本的邊界;
????當所有樣本正確劃分時,損失函數已降至最低,模型不再優化

在SVM算法中:
????我們追求是尋找一條最優決策邊界

	那什么是最優呢?SVM提出的基本思想是,尋找一條決策邊界,使得該邊界到兩邊最近的點間隔最大這樣做得目的在于:相比于其他邊界,svm尋找到的邊界對于樣本的局部擾動容忍性最好,對新進樣本更容易判斷正確;也就是說,此時決策邊界具有最好的魯棒性

在這里插入圖片描述

二. SVM算法推導

	注意:下面講述的是線性分類

這里我們換一種思路尋找最佳決策邊界:

首先假設決策邊界為
y = ω → ? x → + b y= \overrightarrow{\omega }\cdot \overrightarrow{x} +b y=ω ?x +b

公式解釋1:
?
為什么要這么設方程呢?

我們希望通過向量點乘來確定距離
換句話說,希望通過向量點乘來確定正負樣本的邊界

在這里插入圖片描述

為了尋找最佳決策邊界,我們可以:
以上述決策邊界為中心線,向兩邊做平行線,讓這兩條平行線過兩邊最近的樣本點;此時會形成一條“街道”,最佳決策邊界就是使這條街道最寬的那個決策邊界。

在這里插入圖片描述

補充一點:
在Logistic回歸算法中,我們人為的將數據集設為1,0
在SVM算法中,我們人為的將數據集設為1,-1
?
參數說明:

width:街寬
?
ω → \overrightarrow{\omega } ω :決策邊界的法向量
?
u ? → \overrightarrow{u_{-} } u?? ?:街邊上的負樣本向量
?
u + → \overrightarrow{u_{+} } u+? ?:街邊上的正樣本向量
?
單位向量: a → ∥ a ∥ \frac{\overrightarrow{a}}{\left \| a \right \| } aa ?

向量點乘幾何的意義:
a → ? b → = ∣ a → ∣ ∣ b → ∣ cos ? θ \overrightarrow{a}\cdot \overrightarrow{b} =\left | \overrightarrow{a} \right| |\overrightarrow{b} | \cos \theta a ?b = ?a ?b cosθ
可以理解為 a → \overrightarrow{a} a b → \overrightarrow{b} b 上的投影長度乘以 ∣ b → ∣ |\overrightarrow{b}| b 的模長
在這里插入圖片描述

對于訓練集中的任何一個數據,我們總會取到一個合適長度的 ω → \overrightarrow{\omega } ω ,以及一個適合的常數b,得到:
{ ω → ? u + → + b ≥ 1 ω → ? u ? → + b ≤ ? 1 \left\{\begin{matrix}\overrightarrow{\omega }\cdot \overrightarrow{u_{+} } +b\ge 1 \\\overrightarrow{\omega }\cdot \overrightarrow{u_{-} } +b\le -1 \end{matrix}\right. {ω ?u+? ?+b1ω ?u?? ?+b?1?

即可以合并為: y i ( ω → ? u i → + b ) ≥ 1 y_{i} (\overrightarrow{\omega }\cdot \overrightarrow{u_{i} } +b)\ge1 yi?(ω ?ui? ?+b)1
而對于街邊點而言,滿足
y i ( ω → ? u i → + b ) = 1 y_{i} (\overrightarrow{\omega }\cdot \overrightarrow{u_{i} } +b)=1 yi?(ω ?ui? ?+b)=1

	注意:這些街邊點對于決定決策邊界取決定性作用,因此被稱為支持向量

這樣,我們就可以用數學方式將上述街寬抽象出來:
w i d t h = ( u + → ? u ? → ) ? w → ∥ w ∥ width = (\overrightarrow{u_{+}}-\overrightarrow{u_{-}} )\cdot \frac{\overrightarrow{w}}{\left \| w \right \| } width=(u+? ??u?? ?)?ww ?
推導式子,就可以進一步得到:

w i d t h = ( u + → ? u ? → ) ? w → ∥ w ∥ width = (\overrightarrow{u_{+}}-\overrightarrow{u_{-}} )\cdot \frac{\overrightarrow{w}}{\left \| w \right \| } width=(u+? ??u?? ?)?ww ?

??????? = u + → ? ω → ∥ ω → ∥ ? u ? → ? ω → ∥ ω → ∥ =\frac{\overrightarrow{u_{+}}\cdot\overrightarrow{\omega _{}} }{\left \| \overrightarrow{\omega\mathrm{} } \right \| }-\frac{\overrightarrow{u_{-}}\cdot\overrightarrow{\omega _{}} }{\left \| \overrightarrow{\omega\mathrm{} } \right \| } =ω u+? ??ω? ???ω u?? ??ω? ??

??????? = 1 ? b ∥ w → ∥ ? ? 1 ? b ∥ w → ∥ =\frac{1-b}{\left \| \overrightarrow{w} \right \| } -\frac{-1-b}{\left \| \overrightarrow{w} \right \| } =w 1?b??w ?1?b?

??????? = 2 ∥ w → ∥ =\frac{2}{\left \| \overrightarrow{w} \right \| } =w 2?

此時,我們要求街寬最大,即是求 m i n ( ∥ w → ∥ ) min({\left \| \overrightarrow{w} \right \| }) min( ?w ?),這里為了后續求導方便,將值寫成 m i n ( 1 2 ∥ w → ∥ 2 ) min(\frac{1}{2}\left \| \overrightarrow{w} \right \| ^{2} ) min(21? ?w ?2)

需要明確,"街邊"最大值的條件是基于支持向量的,而支持向量是屬于數據集的,因此我們的問題就變成了:
{ m i n ( 1 2 ∥ w → ∥ 2 ) s . t . y i ( ω → ? x → + b ) ? 1 ≥ 0 \left\{\begin{matrix}min(\frac{1}{2}\left \| \overrightarrow{w} \right \| ^{2} ) \\s.t. y_{i} (\overrightarrow{\omega }\cdot \overrightarrow{x } +b)-1\ge0 \end{matrix}\right. {min(21? ?w ?2)s.t.yi?(ω ?x +b)?10?

這是一個典型的條件極值問題,我們用拉格朗日乘數法,得到拉格朗日函數為:
L = 1 2 ∥ w → ∥ 2 ? ∑ i = 1 m β i [ y i ( ω → ? x → + b ) ? 1 ] , ( β i ≥ 0 ) L = \frac{1}{2}\left \| \overrightarrow{w} \right \| ^{2} -\sum_{i=1}^{m} \beta _{i}[ y_{i} (\overrightarrow{\omega }\cdot \overrightarrow{x } +b)-1] ,(\beta _{i}\ge 0) L=21? ?w ?2?i=1m?βi?[yi?(ω ?x +b)?1],(βi?0)

這里的約束是不等式約束,所以要使用KKT條件(KKT是拉格朗日乘數法的一種泛化形式,此時 β i ≥ 0 \beta _{i}\ge0 βi?0),而KKT條件的計算方式為: max ? β ≥ 0 min ? w , b L ( w , b , β ) \max_{\beta \ge 0} \min_{w,b}L(w,b,\beta ) β0max?w,bmin?L(w,b,β)

? L ? w = w ? ∑ i = 1 m β i x ( i ) y ( i ) = 0 ? w = ∑ i = 1 m β i x ( i ) y ( i ) \frac{\partial L}{\partial w} =w-\sum_{i=1}^{m} \beta _{i} x^{(i)}y^{(i)}=0\Rightarrow w=\sum_{i=1}^{m} \beta _{i} x^{(i)}y^{(i)} ?w?L?=w?i=1m?βi?x(i)y(i)=0?w=i=1m?βi?x(i)y(i)

? L ? b = ? ∑ i = 1 m β i y ( i ) = 0 ? 0 = ∑ i = 1 m β i y ( i ) \frac{\partial L}{\partial b} =-\sum_{i=1}^{m} \beta _{i}y^{(i)}=0\Rightarrow 0=\sum_{i=1}^{m} \beta _{i} y^{(i)} ?b?L?=?i=1m?βi?y(i)=0?0=i=1m?βi?y(i)

公式解釋:
β \beta β是每個樣本對應的拉格朗日乘子

對于非支持向量而言, β = 0 \beta=0 β=0,即對非支持向量無約束

則: y ( i ) ? 0 = 0 y^{(i)}*0=0 y(i)?0=0

對于支持向量而言, β > 0 \beta>0 β>0,即對支持向量有約束

則: 正樣本支持向量 ? 1 + 負樣本支持向量 ? ( ? 1 ) = 0 正樣本支持向量\ast 1+負樣本支持向量\ast (-1)=0 正樣本支持向量?1+負樣本支持向量?(?1)=0

此時 L ( β ) L(\beta) L(β)為:

L ( β ) = 1 2 ∥ w → ∥ 2 ? ∑ i = 1 m β i [ y ( i ) ( ω T ? x ( i ) + b ) ? 1 ] L(\beta)=\frac{1}{2}\left \| \overrightarrow{w} \right \| ^{2} -\sum_{i=1}^{m} \beta _{i}[y^{(i)} (\omega ^{T} \cdot x^{(i)} +b)-1] L(β)=21? ?w ?2?i=1m?βi?[y(i)(ωT?x(i)+b)?1]

????? = 1 2 ω T ω ? ∑ i = 1 m β i y ( i ) ω T ? x ( i ) ? b ∑ i = 1 m β i y ( i ) + ∑ i = 1 m β i =\frac{1}{2}\omega ^{T}\omega -\sum_{i=1}^{m} \beta _{i}y^{(i)}\omega ^{T} \cdot x^{(i)}-b\sum_{i=1}^{m} \beta _{i}y^{(i)}+\sum_{i=1}^{m} \beta _{i} =21?ωTω?i=1m?βi?y(i)ωT?x(i)?bi=1m?βi?y(i)+i=1m?βi?

????? = 1 2 ω T ∑ i = 1 m β i x ( i ) y ( i ) ? ∑ i = 1 m β i y ( i ) ω T x ( i ) + ∑ i = 1 m β i =\frac{1}{2}\omega ^{T}\sum_{i=1}^{m} \beta _{i} x^{(i)}y^{(i)} -\sum_{i=1}^{m} \beta _{i}y^{(i)}\omega ^{T}x^{(i)}+\sum_{i=1}^{m} \beta _{i} =21?ωTi=1m?βi?x(i)y(i)?i=1m?βi?y(i)ωTx(i)+i=1m?βi?

????? = ? 1 2 ω T ∑ i = 1 m β i x ( i ) y ( i ) + ∑ i = 1 m β i =-\frac{1}{2}\omega ^{T}\sum_{i=1}^{m} \beta _{i} x^{(i)}y^{(i)} +\sum_{i=1}^{m} \beta _{i} =?21?ωTi=1m?βi?x(i)y(i)+i=1m?βi?

????? = ? 1 2 ( ∑ j = 1 m β j x ( j ) y ( j ) ) T ( ∑ i = 1 m β i x ( i ) y ( i ) ) + ∑ i = 1 m β i =-\frac{1}{2}(\sum_{j=1}^{m} \beta _{j} x^{(j)}y^{(j)})^{T}(\sum_{i=1}^{m} \beta _{i} x^{(i)}y^{(i)} )+\sum_{i=1}^{m} \beta _{i} =?21?(j=1m?βj?x(j)y(j))T(i=1m?βi?x(i)y(i))+i=1m?βi?

????? = ? 1 2 ∑ j = 1 m β j x ( j ) T y ( j ) ∑ i = 1 m β i x ( i ) y ( i ) + ∑ i = 1 m β i =-\frac{1}{2}\sum_{j=1}^{m} \beta _{j} x^{(j)^{T}}y^{(j)}\sum_{i=1}^{m} \beta _{i} x^{(i)}y^{(i)} +\sum_{i=1}^{m} \beta _{i} =?21?j=1m?βj?x(j)Ty(j)i=1m?βi?x(i)y(i)+i=1m?βi?

????? = ∑ i = 1 m β i ? 1 2 ∑ i = 1 m ∑ j = 1 m β i β j y ( i ) y ( j ) x ( j ) T x ( i ) =\sum_{i=1}^{m} \beta _{i}-\frac{1}{2}\sum_{i=1}^{m}\sum_{j=1}^{m} \beta _{i}\beta _{j} y^{(i)}y^{(j)}x^{(j)^{T}} x^{(i)} =i=1m?βi??21?i=1m?j=1m?βi?βj?y(i)y(j)x(j)Tx(i)

即: { L ( β ) = ∑ i = 1 m β i ? 1 2 ∑ i = 1 m ∑ j = 1 m β i β j y ( i ) y ( j ) x ( j ) T x ( i ) s . t : ∑ i = 1 m β i y ( i ) = 0 \left\{\begin{matrix}L(\beta)=\sum_{i=1}^{m} \beta _{i}-\frac{1}{2}\sum_{i=1}^{m}\sum_{j=1}^{m} \beta _{i}\beta _{j} y^{(i)}y^{(j)}x^{(j)^{T}} x^{(i)} \\s.t:\sum_{i=1}^{m} \beta _{i} y^{(i)}=0 \end{matrix}\right. {L(β)=i=1m?βi??21?i=1m?j=1m?βi?βj?y(i)y(j)x(j)Tx(i)s.t:i=1m?βi?y(i)=0?

解到這一步,我們發現L函數只與 β \beta β有關,所以此時可以直接極大化我們的優化函數,且
max ? β ≥ 0 l ( β ) ? min ? β ≥ 0 ? l ( β ) \max_{\beta \ge 0}l(\beta ) \longrightarrow \min_{\beta \ge 0}-l(\beta ) β0max?l(β)?β0min??l(β)
因此,求解 β \beta β就變成了
{ min ? β ≥ 0 1 2 ∑ i = 1 m ∑ j = 1 m β i β j y ( i ) y ( j ) x ( j ) T x ( i ) ? ∑ i = 1 m β i s . t : ∑ i = 1 m β i y ( i ) = 0 \left\{\begin{matrix}\min_{\beta \ge 0}\frac{1}{2}\sum_{i=1}^{m}\sum_{j=1}^{m} \beta _{i}\beta _{j} y^{(i)}y^{(j)}x^{(j)^{T}} x^{(i)}-\sum_{i=1}^{m} \beta _{i} \\s.t:\sum_{i=1}^{m} \beta _{i} y^{(i)}=0 \end{matrix}\right. {minβ0?21?i=1m?j=1m?βi?βj?y(i)y(j)x(j)Tx(i)?i=1m?βi?s.t:i=1m?βi?y(i)=0?

但是對于 β \beta β,可以使用SMO算法求得;對于SMO算法,我們先放一放

這里,假設我們用SMO求得了 β \beta β的最優解,那么我們可以分別計算得到對應的:

w = ∑ i = 1 m β i x ( i ) y ( i ) w=\sum_{i=1}^{m} \beta _{i} x^{(i)}y^{(i)} w=i=1m?βi?x(i)y(i)
b:一般使用所有支持向量的計算均值作為實際值

怎么得到支持向量呢?
β = 0 \beta=0 β=0,該樣本不是支持向量
β > 1 \beta>1 β>1,該樣本是支持向量

小節

對于線性可分的m個樣本(x1,y1),(x2,y2)… :

	x為n維的特征向量y為二元輸出,即+1,-1

SVM的輸出為w,b,分類決策函數

通過構造約束問題:
{ min ? β ≥ 0 1 2 ∑ i = 1 m ∑ j = 1 m β i β j y ( i ) y ( j ) x ( j ) T x ( i ) ? ∑ i = 1 m β i s . t : ∑ i = 1 m β i y ( i ) = 0 \left\{\begin{matrix}\min_{\beta \ge 0}\frac{1}{2}\sum_{i=1}^{m}\sum_{j=1}^{m} \beta _{i}\beta _{j} y^{(i)}y^{(j)}x^{(j)^{T}} x^{(i)}-\sum_{i=1}^{m} \beta _{i} \\s.t:\sum_{i=1}^{m} \beta _{i} y^{(i)}=0 \end{matrix}\right. {minβ0?21?i=1m?j=1m?βi?βj?y(i)y(j)x(j)Tx(i)?i=1m?βi?s.t:i=1m?βi?y(i)=0?
使用SMO算法求出上述最優解 β \beta β
找到所有支持向量集合:
S = ( x ( i ) , y ( i ) ) ( β > 0 , i = 1 , 2 , . . . , m ) S = (x^{(i)}, y^{(i)}) (\beta > 0,i=1,2,...,m) S=(x(i),y(i))(β>0,i=1,2,...,m)
從而更新w,b

w = ∑ i = 1 m β i x ( i ) y ( i ) w=\sum_{i=1}^{m} \beta _{i} x^{(i)}y^{(i)} w=i=1m?βi?x(i)y(i)

b = 1 S ∑ i = 1 S ( y s ? ∑ i = 1 m β i x ( i ) T y ( i ) x s ) b=\frac{1}{S} \sum_{i=1}^{S}(y^{s}- \sum_{i=1}^{m} \beta _{i} x^{(i)^{T}}y^{(i)}x^{s} ) b=S1?i=1S?(ys?i=1m?βi?x(i)Ty(i)xs)

構造最終的分類器,為:
f ( x ) = s i g n ( w ? x + b ) f(x)=sign(w\ast x+b) f(x)=sign(w?x+b)

	x<0時,y=-1x=0時,y=0x>0時,y=1注意:假設,不會出現0若出現,正負樣本隨意輸出一個,即+0.00000001或-0.00000001都可以

概念

最后,我們定義具體概念:

分割超平面(Separating Hyperplane):將數據集分割開來的直線、平面叫分割超平面

支持向量(Support Vector):離分割超平面最近的那些點叫做支持向量

間隔(Margin):支持向量數據點到分割超平面的距離稱為間隔;任何一個支持向量到分割超平面的距離都是相等的


感謝閱讀🌼
如果喜歡這篇文章,記得點贊👍和轉發🔄哦!
有任何想法或問題,歡迎留言交流💬,我們下次見!
本文相關代碼存放位置
????

祝愉快🌟!


本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/719431.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/719431.shtml
英文地址,請注明出處:http://en.pswp.cn/news/719431.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

長貴對趙本山說:你需要我們家大腳,我立馬給你配雙大鞋!

長貴對趙本山說&#xff1a;你需要我們家大腳&#xff0c;我立馬給你配雙大鞋&#xff01; --小品《鄉村愛情》&#xff08;中2&#xff09;的臺詞 表演者&#xff1a;趙本山 于月仙 王小利 唐鑒軍等 &#xff08;接上&#xff09; 哈哈哈 伊拉克啊 這地方也不產這玩意吧 …

Chat GPT:AI聊天機器人的革命性突破!

一、引言 近年來&#xff0c;人工智能&#xff08;AI&#xff09;技術的發展日新月異&#xff0c;其中最具代表性的成果之一便是Chat GPT。這款基于自然語言處理&#xff08;NLP&#xff09;技術的聊天機器人&#xff0c;以其高度智能、靈活多變的特點&#xff0c;迅速吸引了全…

筆記74:在SLAM建圖過程中,為什么要使用【障礙物點云配準算法】和【里程計估算算法】結合的方法

僅使用【障礙物點云配準算法】&#xff0c;很容易導致在一條長通道中&#xff0c;因為前后兩幀的雷達點云圖過于相似&#xff0c;導致特征匹配一直完全重合&#xff0c;使得機器人建圖一直停留在原地&#xff0c;但實體機器人早就沿著通道跑向遠端了&#xff1b; 使用Hector_ma…

(學習日記)2024.03.02:UCOSIII第四節:創建任務

寫在前面&#xff1a; 由于時間的不足與學習的碎片化&#xff0c;寫博客變得有些奢侈。 但是對于記錄學習&#xff08;忘了以后能快速復習&#xff09;的渴望一天天變得強烈。 既然如此 不如以天為單位&#xff0c;以時間為順序&#xff0c;僅僅將博客當做一個知識學習的目錄&a…

js 精確計算(解決js四則運算精度缺失問題)

js的小數的運算&#xff0c;可能會得到一個不精確的結果&#xff0c;因為所有的運算都要轉換成二進制去計算&#xff0c;然而&#xff0c;二進制無法精確表示1/10。 var a 0.1 0.2; console.log(a); //打印結果&#xff1a;0.30000000000000004因此需要使用以下方法實現精確…

這是開玩笑嗎?加個工具,WPS與Excel表格變成了應用系統

表格處理數據簡單快捷&#xff0c;是個人用戶的首選。然而&#xff0c;當企業長期使用&#xff0c;成本表、客戶表、銷售表等堆積如山&#xff0c;尋找所需表格如同大海撈針&#xff0c;稍有不慎便可能導致數據丟失、混亂。即便使用WPS和Excel這樣的表格軟件&#xff0c;處理大…

代碼隨想錄算法訓練營第三十六天 | LeeCode 435. 無重疊區間 ,763.劃分字母區間 , 56. 合并區間

435. 無重疊區間 - 力扣&#xff08;LeetCode&#xff09; class Solution { private:static bool cmp(const vector<int> &a,const vector<int> &b){if(a[0]b[0]) return a[1]<b[1];return a[0]<b[0];} public:int eraseOverlapIntervals(vector&l…

C#進階高級語法之LINQ:查詢操作的便利性與效率提升

引言&#xff1a; 在C#編程中&#xff0c;LINQ&#xff08;Language-Integrated Query&#xff09;是一種強大的查詢語言&#xff0c;它被集成在.NET框架中&#xff0c;允許開發者對各種數據源進行查詢和操作。LINQ的出現&#xff0c;極大地提升了C#在數據處理方面的能力&#…

回溯難題(算法村第十八關黃金挑戰)

復原 IP 地址 93. 復原 IP 地址 - 力扣&#xff08;LeetCode&#xff09; 有效 IP 地址 正好由四個整數&#xff08;每個整數位于 0 到 255 之間組成&#xff0c;且不能含有前導 0&#xff09;&#xff0c;整數之間用 . 分隔。 例如&#xff1a;"0.1.2.201" 和 &q…

IDEA中使用git提交代碼時,有.class文件怎么避免

在IDEA中使用git提交代碼時&#xff0c;git把.class文件都給我放進來了&#xff0c;而我并不想要提交.class文件 我要提交的是.java文件 應該怎么設置呢 解決方案&#xff0c;點擊整個項目的生命周期中的clean之前&#xff0c;你會發現git提交欄的.class文件都不見了。

常用LDO型號

常用LDO型號 常用LDO型號-國產&進口 常用的LDO&#xff08;低壓差線性穩壓器&#xff09;型號有以下這些&#xff1a; LM2937及LM2937-N&#xff1a;這兩款是TI&#xff08;德州儀器&#xff09;的產品&#xff0c;其中LM2937-N為低噪聲版本&#xff0c;適用于對噪聲敏感…

vue是如何監聽對象和數組變化的

Vue框架通過其響應式系統來監聽對象和數組的變化。這個系統的核心在于追蹤依賴關系&#xff0c;并在數據變化時通知所有依賴于該數據的觀察者。 1. 對象監聽 Vue使用Object.defineProperty方法來劫持各個屬性的getter和setter。當組件中的數據被讀取時&#xff0c;會觸發gette…

ROS2服務通信的實現

文章目錄 1.服務通信的概念及應用場景1.1概念1.2 應用場景 2.準備工作3.服務通信的實現3.1 服務通信接口消息3.2 服務端實現3.3 客戶端實現3.4 編譯及運行3.4.1 修改CMakeLists3.4.2 服務端運行結果3.4.2 客戶端運行結果 1.服務通信的概念及應用場景 1.1概念 服務通信也是ROS…

抖店0元入駐不交錢會怎么樣?個人店和個體店的利弊分析,開店必看

我是王路飛。 現在的抖店是可以開通個人店的。 也就是不需要營業執照、直接使用個人身份證就可以在抖音開店&#xff0c;而且也不需要繳納店鋪保證金就能開店運營了。 但真實情況是怎么樣的呢&#xff1f;新手0元入駐抖店不交這個保證金會怎么樣呢&#xff1f; 今天給想在抖…

AI大預言模型——ChatGPT在地學、GIS、氣象、農業、生態、環境應用

原文鏈接&#xff1a;AI大預言模型——ChatGPT在地學、GIS、氣象、農業、生態、環境應用 一開啟大模型 1 開啟大模型 1)大模型的發展歷程與最新功能 2)大模型的強大功能與應用場景 3)國內外經典大模型&#xff08;ChatGPT、LLaMA、Gemini、DALLE、Midjourney、Stable Diff…

ios App 發送廣播失敗解決

記錄開發 ios App 使用 c 混編時遇到的問題&#xff1a; 開發環境 macOS Sonoma&#xff08;最新版本14.3.1&#xff09; Xcode Version 15.2 ipadOS&#xff08;最新版本17.3.1&#xff09; 問題&#xff1a;在mac 上 和 ipad上測試&#xff0c;當 udp 發送廣播&#xff…

跨域引起的兩個接口的session_id不是同一個

來源場景&#xff1a; RequestMapping(“/captcha”)接口設置了SESSION_KEY&#xff0c;也能獲取到&#xff0c;但是到了PostMapping(“/login”)接口就是空的&#xff0c;由于跨域導致的兩個session_id不是同一個 /*** 系統用戶 前端控制器*/ Controller CrossOrigin(origins…

【數據結構和算法初階(C語言)】雙向循環帶頭鏈表的增刪查改詳解(天才設計的鏈表結構,應用簡單逆天!!!!!)

目錄 ?編輯?編輯 1.雙向鏈表的定義&#xff1a;前赴后繼 2.帶頭鏈表的定義-----哨兵位 3.增刪查改 3.1創建新節點函數----方便后續增加節點調用 3.2創建哨兵位----創建頭結點 3.3增加節點&#xff0c;尾部插入數據 3.4尾刪除 3.5查找函數----遍歷對比&#xff…

AcWing 562.壁畫

咱先看一眼算法標簽&#xff0c;發現是思維題、枚舉、前綴和 Buttt其實我們根據上訴的樣例解釋部分就會發現&#xff0c;其實這就是一個長度為?n/2?&#xff08;向上取整哦&#xff09;的連續子數組的最大和。 這題我也用暴力法試過啦&#xff0c;很明顯會TLE 如果你對dp題…

Mac M系列芯片如何重新安裝系統

使用可引導安裝器重新安裝&#xff08;可用于安裝非最新的 Mac OS&#xff0c;系統降級&#xff0c;需要清除所有數據&#xff0c;過程確保連接上網絡&#xff0c;雖然這種方式不會下載 Mac OS&#xff0c;但是需要下載固件等信息&#xff09; 插入制作好的可引導安裝器&#x…