【計算機視覺|生成對抗】條件生成對抗網絡(CGAN)

本系列博文為深度學習/計算機視覺論文筆記,轉載請注明出處

標題:Conditional Generative Adversarial Nets

鏈接:[1411.1784] Conditional Generative Adversarial Nets (arxiv.org)

摘要

生成對抗網絡(Generative Adversarial Nets)[8] 最近被引入為訓練生成模型的一種新穎方法。

在這項工作中,我們介紹了生成對抗網絡的條件版本,通過簡單地將我們希望依賴的數據 y y y同時提供給生成器和判別器,就可以構建它。我們展示了這個模型可以生成依據類標簽條件化的MNIST數字。

我們還說明了如何使用這個模型學習一個多模態模型(multi-modal model),并提供了一個初步的圖像標記應用示例,在其中我們展示了如何使用這種方法生成并不是訓練標簽部分的描述性標簽。

1 引言

生成對抗網絡最近被引入為訓練生成模型的一種替代框架,以便繞過許多難以處理的概率計算的困難。

對抗網絡具有以下優勢:

  • 從不需要馬爾可夫鏈,僅使用反向傳播來獲取梯度

  • 學習過程中不需要推理,而且

  • 各種因素和相互作用都可以輕松納入模型中

此外,正如[8]中所展示的,它可以產生最先進的對數似然估計和逼真的樣本。

在一個無條件的生成模型中,生成數據的模式沒有控制。

然而,通過在模型上附加額外的信息進行條件化,就可以引導數據生成過程。這種條件化可能基于類標簽,像[5]那樣基于部分數據進行修補,甚至基于不同的模態數據。

在這項工作中,我們展示了如何構建條件生成對抗網絡。至于實證結果,我們展示了兩組實驗。一組是基于類標簽的MNIST數字數據集,另一組是用于多模態學習的MIR Flickr 25,000數據集[10]。

2 相關工作

2.1 針對圖像標記的多模態學習

盡管監督神經網絡(特別是卷積網絡)[13, 17]近來取得了許多成功,但將這些模型擴展以容納極大數量的預測輸出類別仍然具有挑戰性。第二個問題是迄今為止的大部分工作都集中在學習輸入到輸出的一對一映射。然而,許多有趣的問題更自然地被認為是概率性的一對多映射。例如,在圖像標記的情況下,可能有許多不同的標簽可以適當地應用于給定的圖像,不同的(人類)注釋者可能使用不同的(但通常是同義或相關的)術語來描述同一圖像。

  • 解決第一個問題的一種方法

    • 是利用其他模態的附加信息:例如,使用自然語言語料庫學習標簽的向量表示,其中幾何關系在語義上有意義。
    • 在這樣的空間中進行預測時,我們從事實中受益,即當預測錯誤時,我們仍然通常接近真相(例如,預測“桌子”而不是“椅子”),并且也從我們可以自然地對訓練期間未見過的標簽進行預測概括的事實中受益。
    • 諸如[3]的作品已經表明,即使是從圖像特征空間到單詞表示空間的簡單線性映射也可以提高分類性能。
  • 解決第二個問題的一種方法

    • 是使用條件概率生成模型,輸入被視為條件變量,一對多映射被實例化為條件預測分布。
    • [16]對此問題采取了類似的方法,并在MIR Flickr 25,000數據集上訓練了一種多模態深度玻爾茲曼機,就像我們在這項工作中所做的那樣。

此外,在[12]中,作者展示了如何訓練一種受監督的多模態神經語言模型,并且他們能夠為圖像生成描述性句子。

3 條件生成對抗網絡

3.1 生成對抗網絡

生成對抗網絡最近被引入作為訓練生成模型的一種新穎方法。

它們由兩個“對抗”的模型組成:一個生成模型G,用于捕獲數據分布;和一個判別模型D,用于估計樣本來自訓練數據還是G的概率。G和D都可以是非線性映射函數,例如多層感知器。

為了學習生成器分布 p g p_g pg?在數據 x x x上的分布,生成器從先驗噪聲分布 p z ( z ) p_z(z) pz?(z)構建到數據空間的映射函數 G ( z ; θ g ) G(z; \theta_g) G(z;θg?)。而判別器 D ( x ; θ d ) D(x; \theta_d) D(x;θd?)輸出一個標量,表示 x x x來自訓練數據而不是 p g p_g pg?的概率。

G和D都同時進行訓練:我們調整G的參數以使 log ? ( 1 ? D ( G ( z ) ) \log(1 - D(G(z)) log(1?D(G(z))最小化,并調整D的參數以使 log ? D ( X ) \log D(X) logD(X)最小化,就好像它們在遵循具有值函數 V ( G , D ) V(G, D) V(G,D)的兩玩家極小極大博弈:
min ? G max ? D V ( D , G ) = E x ~ p data ( x ) [ log ? D ( x ) ] + E z ~ p z ( z ) [ log ? ( 1 ? D ( G ( z ) ) ) ] 。 (1) \min_G \max_D V(D, G) = \mathbb{E}_{x \sim p_{\text{data}}(x)} [\log D(x)] + \mathbb{E}_{z \sim p_z(z)} [\log(1 - D(G(z)))]。 \tag{1} Gmin?Dmax?V(D,G)=Expdata?(x)?[logD(x)]+Ezpz?(z)?[log(1?D(G(z)))](1)

3.2 條件生成對抗網絡

生成對抗網絡可以擴展到條件模型,如果生成器和判別器都基于一些額外的信息 y y y進行條件化。 y y y可以是任何類型的輔助信息,例如類標簽或來自其他模態的數據。我們可以通過將 y y y作為附加的輸入層輸入到判別器和生成器中來執行條件化。

在生成器中,先驗輸入噪聲 p z ( z ) p_z(z) pz?(z) y y y結合在聯合隱藏表示中,而對抗訓練框架允許在組成這個隱藏表示方面具有相當大的靈活性。1

在判別器中, x x x y y y被呈現為輸入,并輸入到判別函數(在這種情況下再次由MLP體現)。
兩個玩家極小極大博弈的目標函數將與等式2相同
min ? G max ? D V ( D , G ) = E x ~ p data ( x ) [ log ? D ( x ∣ y ) ] + E z ~ p z ( z ) [ log ? ( 1 ? D ( G ( z ∣ y ) ) ) ] 。 (2) \min_G \max_D V(D, G) = \mathbb{E}_{x \sim p_{\text{data}}(x)} [\log D(x|y)] + \mathbb{E}_{z \sim p_z(z)} [\log(1 - D(G(z|y)))]。 \tag{2} Gmin?Dmax?V(D,G)=Expdata?(x)?[logD(xy)]+Ezpz?(z)?[log(1?D(G(zy)))](2)
圖1說明了一個簡單條件對抗網絡的結構。

圖1:條件生成對抗網絡

4 實驗結果

4.1 單模態

我們在MNIST圖像上訓練了一個條件生成對抗網絡,并基于它們的類標簽進行條件化,以one-hot向量進行編碼。
在生成器網絡中,從單位超立方體中均勻分布抽取了一個具有100個維度的噪聲先驗 z z z z z z y y y都被映射到具有整流線性單元(ReLu)激活[4, 11]的隱藏層,層大小分別為200和1000,然后再被映射到維度為1200的第二個組合隱藏ReLu層。然后我們有一個最終的Sigmoid單元層作為生成784維MNIST樣本的輸出。

判別器將 x x x映射到具有240個單元和5個部分的maxout [6]層,并將 y y y映射到具有50個單元和5個部分的maxout層。在被送入Sigmoid層之前,兩個隱藏層都映射到一個具有240個單元和4個部分的聯合maxout層。(判別器的確切架構并不關鍵,只要它具有足夠的能力;我們發現maxout單元通常適合這項任務。)

該模型使用具有大小為100的小批量和初始學習率0.1的隨機梯度下降進行訓練,該學習率以1.00004的衰減因子呈指數遞減至0.000001。初始動量為0.5,增加到0.7。Dropout [9]概率為0.5應用于生成器和判別器。并以驗證集上的對數似然的最佳估計作為停止點。

表1顯示了用于MNIST數據集測試數據的高斯Parzen窗口對數似然估計。從每個10個類別中抽取1000個樣本,并對這些樣本擬合高斯Parzen窗口。然后我們使用Parzen窗口分布估計測試集的對數似然。(有關如何構建此估計的更多詳細信息,請參見[8]。)

表1:基于Parzen窗口的MNIST對數似然估計。我們遵循了與[8]相同的程序來計算這些值。

我們展示的條件生成對抗網絡結果與其他一些基于網絡的結果相當,但被其他幾種方法所超過,包括非條件生成對抗網絡。我們更多地將這些結果作為概念驗證而非有效性展示,并相信通過進一步探索超參數空間和架構,條件模型應當匹配或超過非條件結果。

圖2顯示了一些生成的樣本。每一行都以一個標簽為條件,每一列都是一個不同的生成樣本。

圖2:生成的MNIST數字,每一行都是基于一個標簽

4.2 多模態

像Flickr這樣的照片網站是圖像及其關聯的用戶生成元數據(UGM)形式的豐富標簽數據源,特別是用戶標簽。用戶生成的元數據與更“規范”的圖像標簽方案不同,因為它們通常更具描述性,并且在語義上更接近人們如何用自然語言描述圖像,而不僅僅是識別圖像中存在的對象。UGM的另一個方面是同義詞普遍存在,不同的用戶可能會使用不同的詞匯來描述相同的概念,因此,有效地標準化這些標簽變得重要。概念詞嵌入[14]在這里可能非常有用,因為相關概念最終會被表示為相似的向量。

在本節中,我們演示了使用條件對抗網絡生成圖像的自動標簽(可能是多模態的)標簽向量分布的多標簽預測。

對于圖像特征,我們使用與[13]類似的卷積模型預訓練了具有21,000個標簽[15]的完整ImageNet數據集。我們使用最后一個完全連接的層的輸出,該層具有4096個單元作為圖像表示。

對于世界表示,我們首先從YFCC100M2數據集元數據的用戶標簽、標題和描述的串聯中收集文本。在文本的預處理和清理之后,我們用單詞向量大小為200訓練了一個跳過的gram模型[14]。我們省略了在詞匯表中出現少于200次的任何單詞,從而最終得到大小為247465的字典。

在對抗網絡的訓練期間,我們保持卷積模型和語言模型固定。并將通過這些模型的反向傳播留作未來工作。

對于我們的實驗,我們使用MIR Flickr 25,000數據集[10],并使用我們上述描述的卷積模型和語言模型提取圖像和標簽特征。未加任何標簽的圖像被省略,注釋被視為額外標簽。前150,000個示例用作訓練集。具有多個標簽的圖像在訓練集內重復,每個關聯標簽重復一次。

對于評估,我們為每個圖像生成100個樣本,并使用詞匯表中單詞的向量表示與每個樣本的余弦相似度找到最接近的前20個單詞。然后我們選擇所有100個樣本中最常見的前10個單詞。表4.2顯示了用戶分配的標簽和注釋以及生成的標簽的一些樣本。

最佳工作模型的生成器接收大小為100的高斯噪聲作為噪聲先驗,并將其映射到500維ReLu層。并將4096維圖像特征向量映射到2000維ReLu隱藏層。這兩層都映射到200維線性層,該層將輸出生成的單詞向量。

鑒別器由單詞向量和圖像特征分別為500和1200維的ReLu隱藏層組成,并且具有1000個單位和3個部分的最大層作為連接層,最終輸入到一個單一的S形單元。

該模型使用隨機梯度下降進行訓練,批量大小為100,并且初始學習速率為0.1,這個速率呈指數下降至.000001,衰減因子為1.00004。還使用了初始值為.5的動量,該動量增加到0.7。在生成器和鑒別器上均應用了概率為0.5的丟棄。

通過交叉驗證和隨機網格搜索與手動選擇的混合(盡管在有限的搜索空間內)獲得了超參數和架構選擇。

5 未來工作

本文所示的結果非常初步,但它們展示了條件對抗網絡的潛力,并對有趣和有用的應用展示了希望。

在現在和工作坊之間的未來探索中,我們期望呈現更復雜的模型,以及對它們的性能和特性進行更詳細和徹底的分析。

表格2:生成標簽樣本

此外,在當前的實驗中,我們只單獨使用每個標簽。但是,通過同時使用多個標簽(有效地將生成問題提出為“集合生成”問題),我們希望能夠取得更好的結果。

未來工作的另一個明顯方向是構建聯合訓練方案以學習語言模型。例如[12]的工作表明,我們可以為特定任務學習適合的語言模型。

致謝

本項目是在Pylearn2 [7] 框架中開發的,我們想要感謝Pylearn2的開發者們。我們還要感謝Ian Goodfellow在蒙特利爾大學任職期間的有益討論。作者衷心感謝Flickr的視覺與機器學習團隊以及生產工程團隊的支持(按字母順序:Andrew Stadlen, Arel Cordero, Clayton Mellina, Cyprien Noel, Frank Liu, Gerry Pesavento, Huy Nguyen, Jack Culpepper, John Ko, Pierre Garrigues, Rob Hess, Stacey Svetlichnaya, Tobi Baumgartner, 和 Ye Lu)。

參考文獻

  1. Bengio, Y., Mesnil, G., Dauphin, Y.和Rifai, S.(2013)。通過深度表示實現更好的混合。在ICML’2013上。
  2. Bengio, Y., Thibodeau-Laufer, E., Alain, G.和Yosinski, J.(2014)。可以通過反向傳播進行訓練的深度生成隨機網絡。在第30屆國際機器學習大會(ICML’14)論文集中。
  3. Frome, A., Corrado, G. S., Shlens, J., Bengio, S., Dean, J., Mikolov, T.等(2013)。Devise:一種深度視覺語義嵌入模型。在神經信息處理系統的進展中,頁碼:2121–2129。
  4. Glorot, X., Bordes, A.和Bengio, Y.(2011)。深度稀疏整流器神經網絡。在人工智能與統計學國際會議上,頁碼:315–323。
  5. Goodfellow, I.,Mirza, M.,Courville, A.和Bengio, Y.(2013a)。多預測深度Boltzmann機。在神經信息處理系統的進展中,頁碼:548–556。
  6. Goodfellow, I. J.,Warde-Farley, D.,Mirza, M.,Courville, A.和Bengio, Y.(2013b)。最大輸出網絡。在ICML’2013上。
  7. Goodfellow, I. J., Warde-Farley, D., Lamblin, P., Dumoulin, V., Mirza, M., Pascanu, R., Bergstra, J., Bastien, F.和Bengio, Y.(2013c)。Pylearn2:一個機器學習研究庫。arXiv預印本arXiv:1308.4214。
  8. Goodfellow, I. J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A.和Bengio, Y.(2014)。生成對抗網絡。在NIPS’2014上。
  9. Hinton, G. E.,Srivastava, N.,Krizhevsky, A.,Sutskever, I.和Salakhutdinov, R.(2012)。通過防止特征檢測器的共適應來改善神經網絡。技術報告,編號:arXiv:1207.0580。
  10. Huiskes, M. J.和Lew, M. S.(2008)。mir flickr檢索評估。在MIR’08:2008年ACM國際多媒體信息檢索大會上,紐約,美國。ACM。
  11. Jarrett, K.,Kavukcuoglu, K.,Ranzato, M.和LeCun, Y.(2009)。用于對象識別的最佳多級架構是什么?在ICCV’09上。
  12. Kiros, R.,Zemel, R.和Salakhutdinov, R.(2013)。多模態神經語言模型。在NIPS深度學習研討會的論文集中。
  13. Krizhevsky, A.,Sutskever, I.和Hinton, G.(2012)。使用深度卷積神經網絡的ImageNet分類。在神經信息處理系統25的進展(NIPS’2012)中。
  14. Mikolov, T.,Chen, K.,Corrado, G.和Dean, J.(2013)。在向量空間中有效估計單詞表示。在學習表示國際會議:研討會跟蹤上。
  15. Russakovsky, O.和Fei-Fei, L.(2010)。大規模數據集中的屬性學習。在歐洲計算機視覺大會(ECCV),希臘克里特島的部分和屬性國際研討會上。
  16. Srivastava, N.和Salakhutdinov, R.(2012)。用深度Boltzmann機進行多模態學習。在NIPS’2012上。
  17. Szegedy, C.,Liu, W.,Jia, Y.,Sermanet, P.,Reed, S.,Anguelov, D.,Erhan, D.,Vanhoucke, V.和Rabiovich, A.(2014)。用卷積深入探究。arXiv預印本arXiv:1409.4842。

References

  1. Bengio, Y., Mesnil, G., Dauphin, Y., and Rifai, S. (2013). Better mixing via deep representations. In ICML’2013.
  2. Bengio, Y., Thibodeau-Laufer, E., Alain, G., and Yosinski, J. (2014). Deep generative stochastic networks trainable by backprop. In Proceedings of the 30th International Conference on Machine Learning (ICML’14).
  3. Frome, A., Corrado, G. S., Shlens, J., Bengio, S., Dean, J., Mikolov, T., et al. (2013). Devise: A deep visual-semantic embedding model. In Advances in Neural Information Processing Systems, pages 2121–2129.
  4. Glorot, X., Bordes, A., and Bengio, Y. (2011). Deep sparse rectifier neural networks. In International Conference on Artificial Intelligence and Statistics, pages 315–323.
  5. Goodfellow, I., Mirza, M., Courville, A., and Bengio, Y. (2013a). Multi-prediction deep Boltzmann machines. In Advances in Neural Information Processing Systems, pages 548–556.
  6. Goodfellow, I. J., Warde-Farley, D., Mirza, M., Courville, A., and Bengio, Y. (2013b). Maxout networks. In ICML’2013.
  7. Goodfellow, I. J., Warde-Farley, D., Lamblin, P., Dumoulin, V., Mirza, M., Pascanu, R., Bergstra, J., Bastien, F., and Bengio, Y. (2013c). Pylearn2: a machine learning research library. arXiv preprint arXiv:1308.4214.
  8. Goodfellow, I. J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., and Bengio, Y. (2014). Generative adversarial nets. In NIPS’2014.
  9. Hinton, G. E., Srivastava, N., Krizhevsky, A., Sutskever, I., and Salakhutdinov, R. (2012). Improving neural networks by preventing co-adaptation of feature detectors. Technical report, arXiv:1207.0580.
  10. Huiskes, M. J. and Lew, M. S. (2008). The mir flickr retrieval evaluation. In MIR ’08: Proceedings of the 2008 ACM International Conference on Multimedia Information Retrieval, New York, NY, USA. ACM.
  11. Jarrett, K., Kavukcuoglu, K., Ranzato, M., and LeCun, Y. (2009). What is the best multi-stage architecture for object recognition? In ICCV’09.
  12. Kiros, R., Zemel, R., and Salakhutdinov, R. (2013). Multimodal neural language models. In Proc. NIPS Deep Learning Workshop.
  13. Krizhevsky, A., Sutskever, I., and Hinton, G. (2012). ImageNet classification with deep convolutional neural networks. In Advances in Neural Information Processing Systems 25 (NIPS’2012).
  14. Mikolov, T., Chen, K., Corrado, G., and Dean, J. (2013). Efficient estimation of word representations in vector space. In International Conference on Learning Representations: Workshops Track.
  15. Russakovsky, O. and Fei-Fei, L. (2010). Attribute learning in large-scale datasets. In European Conference of Computer Vision (ECCV), International Workshop on Parts and Attributes, Crete, Greece.
  16. Srivastava, N. and Salakhutdinov, R. (2012). Multimodal learning with deep Boltzmann machines. In NIPS’2012.
    Vision (ECCV), International Workshop on Parts and Attributes, Crete, Greece.
  17. Srivastava, N. and Salakhutdinov, R. (2012). Multimodal learning with deep Boltzmann machines. In NIPS’2012.
  18. Szegedy, C., Liu, W., Jia, Y., Sermanet, P., Reed, S., Anguelov, D., Erhan, D., Vanhoucke, V., and Rabiovich, A. (2014). Going deeper with convolutions. arXiv preprint arXiv:1409.4842.

  1. 目前,我們簡單地將條件輸入和先驗噪聲作為MLP的單個隱藏層的輸入,但人們可以想象使用更高階的交互作用,允許復雜的生成機制,這在傳統的生成框架中將非常難以處理。 ??

  2. Yahoo Flickr Creative Common 100M 數據集:http://webscope.sandbox.yahoo.com/catalog.php?datatype=i&did=67。 ??

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/38055.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/38055.shtml
英文地址,請注明出處:http://en.pswp.cn/news/38055.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

Windows 11 家庭中文版找不到組策略文件gpedit.msc

最近因為調整日期問題需要用到組策略文件gpedit.msc,但是發現找不到文件 在按鍵盤 winR 打開運行界面輸入 gpedit.msc 回車 Windows找不到文件’gpedit.msc’。請確定文件名是否正確后,再試-次。 檢查電腦Windows系統版本 是 Windows 11 家庭中文版 果斷早網上搜…

C++模板元編程入門案例

C++模板元編程(Template Metaprogramming)是一種在編譯時進行計算和代碼生成的技術,它使用C++的模板機制來實現。 下面是一個簡單的C++模板元編程的示例,展示了如何在編譯時計算一個數的階乘。 #include <iostream> template <int N> struct Factorial { …

docker 學習--02 常用命令

docker 學習–02 常用命令 文章目錄 docker 學習--02 常用命令1. 幫助啟動類命令1.1啟動docker1.2 停止docker1.3 重啟docker1.4 查看docker1.5 設置開機自啟1.6 查看docker概要信息1.7 查看docker總體幫助文檔1.8 查看docker命令幫助文檔 2. 鏡像命令2.1 列出本地主機上有的鏡…

Jmeter 參數化的幾種方法

目錄 配置元件-用戶自定義變量 前置處理器-用戶參數 配置元件-CSV Data Set Config Tools-函數助手 配置元件-用戶自定義變量 可在測試計劃、線程組、HTTP請求下創建用戶定義的變量 全局變量&#xff0c;可以跨線程組調用 jmeter執行的時候&#xff0c;只獲取一次&#xff0…

kafka 02——三個重要的kafka客戶端

kafka 02——三個重要的kafka客戶端 1. 前言1.1 關于 Kafka 的安裝1.2 常用客戶端簡介1.3 依賴 2. AdminClient2.1 Admin Configs2.2 AdminClient API2.2.1 設置 AdminClient 對象2.2.2 創建 topic 獲取 topic 列表2.2.3 刪除topic2.2.4 查看 topic 的描述信息2.2.5 查看 topi…

【復習8-13天】每天40min,我們一起用70天穩扎穩打學完《JavaEE初階》——14/70 第十四天

專注 效率 記憶 預習 筆記 復習 做題 歡迎觀看我的博客,如有問題交流,歡迎評論區留言,一定盡快回復!(大家可以去看我的專欄,是所有文章的目錄)   文章字體風格: 紅色文字表示:重難點★? 藍色文字表示:思路以及想法★?   如果大家覺得有幫助的話,感謝大家幫忙 點…

【騰訊云 TDSQL-C Serverless 產品體驗】基于TDSQL-C 存儲爬取的QQ音樂歌單數據

【騰訊云 TDSQL-C Serverless 產品體驗】基于TDSQL-C 存儲爬取的QQ音樂歌單數據 文章目錄 【騰訊云 TDSQL-C Serverless 產品體驗】基于TDSQL-C 存儲爬取的QQ音樂歌單數據前言出現的背景一、TDSQL-C數據庫是什么&#xff1f;二、TDSQL-C 的特點三、TDSQL-C的應用場景四、基于TD…

測試相關Liunx基礎知識

Linux的歷史和安裝 基本常識 Liunx目錄結果 常見

CTF之逆向之阿里巴巴

題目地址&#xff1a;http://www.shiyanbar.com/ctf/13 題目預覽&#xff1a; 解題過程&#xff1a; 1、下載附件發現是exe文件 2、使用PEid和Detect It Easy查殼 和 開發語言&#xff0c;發現沒有加殼&#xff0c;都是用C#開發的 3、C#和Java Python屬于解釋型語言&#xff…

Win10安裝GPU支持的最新版本的tensorflow

我在安裝好cuda和cudnn后&#xff0c;使用pip install tensorflow安裝的tensorflow都提示不能找到GPU&#xff0c; 為此懷疑默認暗轉的tensorflow是不帶GPU支持的。 在tensorflow官網提供了多個版本的GPU支持的windows的安裝包 https://www.tensorflow.org/install/pip?hlz…

用ChatGPT和六頂帽思考法幫助自己更好地決策和解決問題

當我們在解決復雜問題時&#xff0c;我們常常陷入單一視角的狀態。創造性思維領域的先驅愛德華德博諾&#xff0c;提出了六頂帽思考法[1]&#xff0c;這意味著我們可以從六個不同的視角來思考一個問題&#xff0c;以實現高水平決策和解決問題。 每一頂“帽子”代表不同的視角。…

阿里云國際版CDN使用教程!

當網站流量達到一定值后&#xff0c;勢必會造成網站訪問卡堵&#xff0c;這時候阿里云CDN將會一個很好的選擇&#xff0c;阿里云 CDN 是由全球分布式邊緣節點組成的虛擬網絡。阿里云 CDN 可減少源站負載&#xff0c;防止網絡擁塞&#xff0c;使用阿里云 CDN 加速圖像、小文件、…

SAP ME2L/ME2M/ME3M報表增強添加字段(包含:LMEREPI02、SE18:ES_BADI_ME_REPORTING)

ME2L、ME2M、ME3M這三個報表的字段增強&#xff0c;核心點都在同一個結構里 SE11:MEREP_OUTTAB_PURCHDOC 在這里加字段&#xff0c;如果要加的字段是EKKO、EKPO里的數據&#xff0c;直接加進去&#xff0c;啥都不用做&#xff0c;就完成了 如果要加的字段不在EKKO和EKPO這兩個…

LabVIEW控制通用工作臺

LabVIEW控制通用工作臺 用于教育目的的計算機化實驗室顯著增長&#xff0c;特別是用于運動控制的實驗室。它們代表了各種工業應用中不斷擴大的領域&#xff0c;并成為以安全的方式使用通常昂貴或獨特的實驗室設備進行實時實驗的寶貴工具。NI LabVIEW等軟件應用程序的開發和不斷…

Linux 中復制文件并保持修改時間等屬性

一、遇到的問題 Linux使用cp命令復制文件備份時&#xff0c;發現文件的修改時間變成當前時間了&#xff0c;想要保留備份文件原有的修改時間及其它文件屬性。 二、實現 1、cp命令 在 Linux 中&#xff0c;你可以使用 cp 命令來復制文件&#xff0c;并通過 -p 或 --preserve…

二進制轉字符串(小數)

題目&#xff1a; 給定一個介于0和1之間的實數&#xff08;如0.72&#xff09;&#xff0c;類型為double&#xff0c;打印它的二進制表達式。如果該數字無法精確地用32位以內的二進制表示&#xff0c;則打印“ERROR”。 示例: 輸入&#xff1a;0.625 輸出&#xff1a;"…

智慧工地源碼,互聯網+建筑工地,基于微服務+Java+Spring Cloud +Vue+UniApp開發

基于微服務JavaSpring Cloud VueUniApp MySql開發的智慧工地云平臺源碼 智慧工地概念&#xff1a; 智慧工地就是互聯網建筑工地&#xff0c;是將互聯網的理念和技術引入建筑工地&#xff0c;然后以物聯網、移動互聯網技術為基礎&#xff0c;充分應用BIM、大數據、人工智能、移…

【jvm】類加載器的分類

目錄 一、說明二、示例2.1 代碼2.2 截圖 三、啟動類加載器四、擴展類加載器五、應用程序類加載器 一、說明 1.jvm支持兩種類型的類加載器&#xff0c;分別是引導類加載器&#xff08;bootstrap classloader&#xff09;和自定義類加載器&#xff08;user-defined classloader&a…

【springboot啟動報錯】java: 錯誤: 無效的源發行版:17

報錯截圖 解決方案 第一步&#xff1a;編輯配置&#xff0c;改為想用的jdk版本 第二步&#xff1a;文件--->項目結構&#xff0c;改為對應的SDK 第三步&#xff1a;文件--->設置--->構建、執行、部署--->編譯器--->Java編譯器&#xff0c;修改目標字節碼版本 第…

fiddler抓包工具的用法以及抓取手機報文定位bug

前言&#xff1a; fiddler抓包工具是日常測試中常用的一種bug定位工具 一 抓取https報文步驟 使用方法&#xff1a; 1 首先打開fiddler工具將證書導出 點擊TOOLS------Options------Https-----Actions---選中第二個選項 2 把證書導出到桌面后 打開谷歌瀏覽器 設置---高級…