word2vec中單詞向詞向量的轉換過程詳解

  • 目錄
    • 前言:
    • 1、Word2Vec兩種模型的大致印象
    • 2、CBOW模型流程舉例
    • 3、CBOW模型流程舉例
    • 總結:

目錄

前言:

針對word2vec是如何得到詞向量的?這篇文章肯定能解決你的疑惑。該篇文章主要參考知乎某大神的回答,個人在此基礎上做了一個總結。

word2vec是如何得到詞向量的?這個問題比較大。從頭開始講的話,首先有了文本語料庫,你需要對語料庫進行預處理,這個處理流程與你的語料庫種類以及個人目的有關,比如,如果是英文語料庫你可能需要大小寫轉換檢查拼寫錯誤等操作,如果是中文日語語料庫你需要增加分詞處理。這個過程其他的答案已經梳理過了不再贅述。得到你想要的processed corpus之后,將他們的one-hot向量作為word2vec的輸入,通過word2vec訓練低維詞向量(word embedding)就ok了。不得不說word2vec是個很棒的工具,目前有兩種訓練模型(CBOW和Skip-gram),兩種加速算法(Negative Sample與Hierarchical Softmax)。本文旨在闡述word2vec如何將corpus的one-hot向量(模型的輸入)轉換成低維詞向量(模型的中間產物,更具體來說是輸入權重矩陣),真真切切感受到向量的變化,不涉及加速算法。

1、Word2Vec兩種模型的大致印象

剛才也提到了,Word2Vec包含了兩種詞訓練模型:CBOW模型和Skip-gram模型。
CBOW模型根據中心詞W(t)周圍的詞來預測中心詞。
Skip-gram模型則根據中心詞W(t)來預測周圍詞。

2、CBOW模型流程舉例

其實數學基礎及英文好的同學可以參照斯坦福大學Deep Learning for NLP課堂筆記。
當然,懶省事兒的童鞋們就跟隨我的腳步慢慢來吧。
先來看著這個結構圖,用自然語言描述一下CBOW模型的流程:
這里寫圖片描述

NOTE:花括號內{}為解釋內容.

  1. 輸入層:上下文單詞的onehot. {假設單詞向量空間dim為V,上下文單詞個數為C}
  2. 所有onehot分別乘以共享的輸入權重矩陣W. {V*N矩陣,N為自己設定的數,初始化權重矩陣W}
  3. 所得的向量 {因為是onehot所以為向量} 相加求平均作為隱層向量, size為1*N.
  4. 乘以輸出權重矩陣W’ {N*V}
  5. 得到向量 {1*V} ,激活函數處理得到V-dim概率分布 {PS:因為是onehot嘛,其中的每一維都代表著一個單詞},概率最大的index所指示的單詞為預測出的中間詞(target word)
  6. 與true label的onehot做比較,誤差越小越好

所以,需要定義loss function(一般為交叉熵代價函數),采用梯度下降算法更新W和W’。訓練完畢后,輸入層的每個單詞與矩陣W相乘得到的向量的就是我們想要的詞向量(word embedding),這個矩陣(所有單詞的word embedding)也叫做look up table(其實聰明的你已經看出來了,其實這個look up table就是矩陣W自身),也就是說,任何一個單詞的onehot乘以這個矩陣都將得到自己的詞向量。有了look up table就可以免去訓練過程直接查表得到單詞的詞向量了。
這回就能解釋題主的疑問了!如果還是覺得我木有說明白,別著急!跟我來隨著栗子走一趟CBOW模型的流程!

3、CBOW模型流程舉例

假設我們現在的Corpus是這一個簡單的只有四個單詞的document:
{I drink coffee everyday}
我們選coffee作為中心詞,window size設為2
也就是說,我們要根據單詞”I”,”drink”和”everyday”來預測一個單詞,并且我們希望這個單詞是coffee。

第一步:先確定輸入和輸出單詞的one-hot向量
這里寫圖片描述
第二步:初始化一個權重矩陣W(自定義),然后分別利用輸入的單詞的onehot向量X和W相乘得到向量V(代表一個單詞)
這里寫圖片描述

第三步:將得到的三個單詞的V向量相加作為隱藏層的矩陣(隱藏層也就代表周圍詞的一個集合(即符合由周圍的詞來預測中心的詞))
這里寫圖片描述

第四步:將隱藏層向量乘以W’
這里寫圖片描述

第五步:激活函數處理得到V-dim概率分布 {PS: 因為是onehot嘛,其中的每一維都代表著一個單詞},概率最大的index所指示的單詞為預測出的中間詞(target word)。與true label的onehot做比較,誤差越小越好
這里寫圖片描述

總結:

目前博主也是剛開始接觸NLP相關的知識,許多東西還處于小白階段,以上的總結如有不足或錯誤希望大家指導批評。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/456574.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/456574.shtml
英文地址,請注明出處:http://en.pswp.cn/news/456574.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

Python把函數作為參數傳入的高階編程方法

map:接受兩個參數(函數,Iterable),map將傳入的函數依次作用于Iterable的每個元素,并且返回新的Iterable def f(x):return x*x r map(f,[1,2,3,4]) #此時的r為惰性求值——可用next()和for...in取值 #通過list()返…

《編程珠璣(第2版?修訂版)》—第2章2.2節無處不在的二分搜索

本節書摘來自異步社區《編程珠璣(第2版?修訂版)》一書中的第2章2.2節無處不在的二分搜索,作者【美】Jon Bentley,更多章節內容可以訪問云棲社區“異步社區”公眾號查看。 2.2 無處不在的二分搜索我想到的一個數在1到100之間&…

JavaScript學習筆記(四)——jQuery插件開發與發布

jQuery插件就是以jQuery庫為基礎衍生出來的庫,jQuery插件的好處是封裝功能,提高了代碼的復用性,加快了開發速度,現在網絡上開源的jQuery插件非常多,隨著版本的不停迭代越來越穩定好用,在jQuery官網有許多插…

AIML元素詳細說明

目錄前言:1、簡介2、詳細說明總結: 目錄 前言: 智能客服客戶咨詢功能的實現主要依靠的就是Python的AIML庫,這里就先介紹下AIML。 詳細的使用教程可參考:https://github.com/andelf/PyAIML 目前大部分AIML只支持Py…

【解決】如何打開.ipynb文件

最近碰到文件名后綴為.ipynb文件,起初沒太在意這種文件格式,用Notepad打開之后看到也是類似于JSON格式的信息,以為也是為其他的一些文件服務的(類似于配置一些HTML文件的配置文件)。但是后來才發現這也是一種文本表示形…

《樹莓派學習指南(基于Linux)》——1.4 將Raspbian燒錄到SD卡

本節書摘來異步社區《樹莓派學習指南(基于Linux)》一書中的第1章,第1.4節,作者:【英】Peter Membrey ,【澳】David Hows ,更多章節內容可以訪問云棲社區“異步社區”公眾號查看 1.4 將Raspbian燒錄到SD卡 …

python單向鏈表和雙向鏈表的圖示代碼說明

圖示說明: 單向鏈表: insert、 remove、 update、pop方法 class Node:def __init__(self, data):self.data dataself.next Nonedef __str__(self):return str(self.data)# 通過單鏈表構建一個list的結構: 添加 刪除 插入 查找 獲取長…

不使用Ajax,如何實現表單提交不刷新頁面

不使用Ajax&#xff0c;如何實現表單提交不刷新頁面&#xff1f; 目前&#xff0c;我想到的是使用<iframe>&#xff0c;如果有其他的方式&#xff0c;后續再補。舉個栗子&#xff1a; 在表單上傳文件的時候必須設置enctype"multipart/form-data"表示表單既有文…

AIML知識庫數據匹配原理解析

目錄&#xff1a;前言&#xff1a;1、AIML系統工作流程2、AIML的核心推理機制3、推理舉例4、匹配規則及實踐中遇到的一些問題的解釋總結&#xff1a; 目錄&#xff1a; 前言&#xff1a; 參考&#xff1a;《Alice機理分析與應用研究》 關于AIML庫這里就不介紹了&#xff0c…

【Python】模擬面試技術面試題答

一、 python語法 1. 請說一下你對迭代器和生成器的區別&#xff1f; 2. 什么是線程安全&#xff1f; 3. 你所遵循的代碼規范是什么&#xff1f;請舉例說明其要求&#xff1f; 4. Python中怎么簡單的實現列表去重&#xff1f; 5. python 中 yield 的用法…

ROS機器人程序設計(原書第2版)2.3 理解ROS開源社區級

2.3 理解ROS開源社區級 ROS開源社區級的概念主要是ROS資源&#xff0c;其能夠通過獨立的網絡社區分享軟件和知識。這些資源包括&#xff1a; 發行版&#xff08;Distribution&#xff09; ROS發行版是可以獨立安裝、帶有版本號的一系列綜合功能包。ROS發行版像Linux發行版一樣…

Win7 U盤安裝Ubuntu16.04 雙系統

Win7系統下安裝Ubuntu系統&#xff0c;主要分為三步&#xff1a; 第1步&#xff1a;制作U盤啟動盤 第2步&#xff1a;安裝Ubuntu系統 第3步&#xff1a;創建啟動系統引導 第1步&#xff1a;制作U盤啟動盤 1.下載Ubuntu16.04安裝鏡像&#xff0c;官網地址&#xff1a;http://www…

Word2VecDoc2Vec總結

轉自&#xff1a;http://www.cnblogs.com/maybe2030/p/5427148.html 目錄&#xff1a;1、詞向量2、Distributed representation詞向量表示3、word2vec算法思想4、doc2vec算法思想5、Doc2Vec主要參數詳解總結&#xff1a; 目錄&#xff1a; 1、詞向量 自然語言理解的問題要轉…

ubantu安裝pycharm破解+Linux基礎簡介

一、課程簡介 linux服務器配置及常用命令 Ubuntu centos 開發軟件配置及服務環境的搭建 軟件的安裝和配置 mysql數據庫使用、monDB使用、redius的使用 git的使用 html/css 課程學習方式 表達訓練 學習方法&#xff1a; linux學習基本上都是命令和配置 命令要多敲多記 …

《游戲視頻主播手冊》——2.2 哪些人適合做游戲主播

本節書摘來自異步社區《游戲視頻主播手冊》一書中的第2章&#xff0c;第2.2節&#xff0c;作者 王巖&#xff0c;更多章節內容可以訪問云棲社區“異步社區”公眾號查看。 2.2 哪些人適合做游戲主播 據不完全統計&#xff0c;目前國內有超過26000名活躍的游戲主播。所謂“活躍的…

Doc2Vec實踐

目錄:前言&#xff1a;第一步&#xff1a;首先我們需要拿到對應的數據&#xff0c;相關的代碼如下&#xff1a;第二步&#xff1a;拿到對應的數據后&#xff0c;就開始訓練數據生成對應的model&#xff0c;對應的代碼如下&#xff1a;第三步&#xff1a;得到生成的model后&…

Linux常用命令全網最全

一、linux文件系統結構 sudo apt-get install treetree --help #查看幫助tree -L 1 #顯示文件目錄 rootubuntu16 /# tree -L 1 . #系統根目錄&#xff0c;有且只有一個根目錄 ├── bin #存放常見的命令 ├── boot #系統啟動文件和核心文件都在這個目錄…

《開源思索集》一Source Code + X

本節書摘來異步社區《開源思索集》一書中的第1章&#xff0c;作者&#xff1a; 莊表偉 責編&#xff1a; 楊海玲, 更多章節內容可以訪問云棲社區“異步社區”公眾號查看。 Source Code X 開源思索集最近&#xff0c;有一位來自學術界朋友&#xff0c;找到了我們這個開源的圈子…

機器學習中目標函數、損失函數以及正則項的通俗解釋

目錄&#xff1a;前言&#xff1a;1、什么是目標函數&#xff1f;2、損失函數3、正則化總結&#xff1a; 目錄&#xff1a; 前言&#xff1a; 今天看到一篇很精簡的文章來說明目標函數、損失函數以及正則項是什么。以下是文章正文。 轉自&#xff1a;https://xiaozhuanlan.…

Linux中的 硬鏈接ln和軟連接ln -s

文件都有文件名與數據&#xff0c;這在 Linux 上被分成兩個部分&#xff1a;用戶數據 (user data) 與元數據 (metadata)。用戶數據&#xff0c;即文件數據塊 (data block)&#xff0c;數據塊是記錄文件真實內容的地方&#xff1b;而元數據則是文件的附加屬性&#xff0c;如文件…