? ?項目中,客戶突然提出需要根據一份企業名單查找對應的內部系統用戶信息,然后根據直接的企業社會統一信用號和企業名稱進行匹配,發現匹配率只有2.86%,低得可憐。所以根據客戶的要求,需要將匹配率提高到70-80%左右,于是開始了折騰之路。
? ? 上網一查,各種相似度的算法供選擇,簡直是眼花繚亂,感嘆現在python發展的強大,需要做什么研究都能快速運用上各種算法庫,找到的算法有:
1、歐幾里得距離(Eucledian Distance)
歐氏距離是最常用的距離計算公式,衡量的是多維空間中各個點之間的絕對距離。
2、曼哈頓距離(Manhattan Distance)
曼哈頓距離依賴坐標系統的轉度,而非系統在坐標軸上的平移或映射,他是使用在幾何度量空間的幾何學用語,用以標明兩個點在標準坐標系上的絕對軸距總和。
3.切比雪夫距離
在數學中,切比雪夫距離(Chebyshev distance)或是L∞度量,是向量空間中的一種度量,二個點之間的距離定義是其各坐標數值差絕對值的最大值。以數學的觀點來看,切比雪夫距離是由一致范數(uniform norm)(或稱為上確界范數)所衍生的度量,也是超凸度量(injective metric space)的一種。?
4、明可夫斯基距離(Minkowski distance)
明氏距離是歐氏距離的推廣。閔氏距離不是一種距離,而是一組距離的定義。閔氏距離的定義:兩個n維變量a(x11,x12,…,x1n)與b(x21,x22,…,x2n)間的閔可夫斯基距離定義為:
其中p是一個變參數。
當p=1時,就是曼哈頓距離
當p=2時,就是歐氏距離
當p→∞時,就是切比雪夫距離
根據變參數的不同,閔氏距離可以表示一類的距離。
5、詞袋模型 6、TF-IDF 7、余弦相似度8、Python自帶比較相似度函數difflib.SequenceMatcher 9、word2vec 10、JS距離 11、simtext?等等... ...
然后最后我們采用的是?Levenshtein,Levenshtein Distance是一個度量兩個字符序列之間差異的字符串度量標準,兩個單詞之間的Levenshtein Distance是將一個單詞轉換為另一個單詞所需的單字符編輯(插入、刪除或替換)的最小數量。Levenshtein Distance是1965年由蘇聯數學家Vladimir Levenshtein發明的。Levenshtein Distance也被稱為編輯距離(Edit Distance)。
?安裝對應的庫
# conda install python-Levenshtein
# pip install python-Levenshtein
計算字符串的相似度
漢明距離,要求str1和str2必須長度一致。是描述兩個等長字串之間對應位置上不同字符的個數。
編輯距離,也稱為Levenshtein距離,描述由一個字串轉化成另一個字串最少的操作次數,在其中的操作包括插入、刪除、替換。
萊文斯坦比,計算公式 r = (sum - ldist) / sum, 其中sum是指str1 和 str2 字串的長度總和,ldist是類編輯距離
注意:這里的類編輯距離不是2中所說的編輯距離,2中三種操作中每個操作+1,而在此處,刪除、插入依然+1,但是替換+2
這樣設計的目的:ratio(‘a’, ‘c’),sum=2,按2中計算為(2-1)/2 = 0.5,’a’,'c’沒有重合,顯然不合算,但是替換操作+2,就可以解決這個問題。
?
在實際操作中,我們應用了萊文斯坦比來給不同的企業名稱打分
第一步:剔除高頻詞,由于通過企業名稱精確匹配發現很難匹配到對應的用戶名稱,那么很有可能這份企業名單中的企業名稱不是那么符合規范也可能更改了其他后綴、前綴,所以通過剔除高頻詞之后,再進行模糊匹配。
#region 第一步excelname = '*******.xlsx'LoadPath = excelname #加載excel路徑(這里為相對路徑,excel表與該程序在同一文件夾下就能識別,所以只用excel文件名即可)#excel表格初始化book=load_workbook(LoadPath, data_only=True)#加載已有Excel文檔sheet_current_week_result=book['sheet1']#加載需要的工作簿(這里為excel表中的sheet工作簿)# 剔除企業高頻詞 w = 1w = w + 1while w <= sheet_current_week_result.max_row:strreplace = sheet_current_week_result['A'+str(w)].valuefor qy_gpc in ['有限公司','**省','科技','供應站','分公司','有限責任','有限','貿易','湖南','公司']: strreplace = strreplace.replace(qy_gpc,'')sheet_current_week_result['E'+str(w)].value = strreplaceprint(w)w = w + 1book.save(LoadPath)
#endregion
第二步:模糊匹配,根據剔除后的企業名稱與內部系統的用戶名進行模糊匹配,可能得到一個企業名稱對應多個用戶名的情況,這樣才需要我們的第三步,用戶名稱相似度排名打分,當然第二步中我們可能獲取到完全匹配的名稱,我們需要另外存放起來。
#region 第二步df = pd.read_excel('***.xlsx', sheet_name='sheet1')df.index = range(1,len(df)+1)df = df[:len(df)+1]df = df.values.tolist()all_zbdc = []zbdc_tup = []for row in df: # 2. 將剔除后的企業名稱、匹配后用戶名稱完全相等的記錄找出來,得到表AllMateqy_nm,qy_area,qy_code,qy_bs_scope,qy_tc_gpc,qy_mate_nm = rowzbdc = row[0]res_zbdc = []flag = Trueif qy_nm == qy_mate_nm:res_row = [qy_nm,qy_area,qy_code,qy_bs_scope,qy_tc_gpc,qy_mate_nm,100,1,Levenshtein.ratio(qy_nm, qy_tc_gpc) * 100]print(res_row)all_zbdc.append(res_row)flag = False if flag:zbdc_tup.append([qy_nm,qy_area,qy_code,qy_bs_scope,qy_tc_gpc,qy_mate_nm])df = pd.DataFrame(all_zbdc)df.to_excel('AllMate.xlsx', sheet_name='mate', index=False)#endregion
第三步:相似度排名打分
#region 第三步print(len(zbdc_tup))res = []for row in zbdc_tup:qy_nm,qy_area,qy_code,qy_bs_scope,qy_tc_gpc,qy_mate_nm = rowres_zbdc = []strreplace = qy_mate_nmfor qy_mate_gpc in ['有限公司','**省','科技','供應站','分公司','有限責任','有限','貿易','**','公司']: strreplace = strreplace.replace(qy_mate_gpc,'')d_n = intersection(strreplace, qy_tc_gpc)sim = max(Levenshtein.ratio(strreplace, d_n),Levenshtein.ratio(qy_tc_gpc, d_n))res_row = [qy_nm,qy_area,qy_code,qy_bs_scope,qy_tc_gpc,qy_mate_nm,strreplace,sim * 100]res_zbdc.append(res_row)res.append(get_top3(res_zbdc))df = pd.concat(res)df.to_excel('SimilarMate.xlsx', sheet_name='mate', index=False)#endregion
涉及到的自定義函數:
def intersection(string1, string2):return [cha for cha in string2 if cha in string1]def get_top3(datas:list):df = pd.DataFrame(datas,columns=["企業名稱","區塊","統一社會信用代碼","經營范圍","企業匹配結果名稱","企業匹配結果名稱剔除高頻","名稱相似度"])df = df.sort_values("名稱相似度",ascending=False)df.index = range(1,len(df)+1)df = df[:3]df['相似度排名'] = df.indexall_sim = []for i in range(len(df)):row = df.iloc[i].to_list()all_sim.append(Levenshtein.ratio(row[0], row[3]) * 100)df['全名相似度'] = all_simprint(df)return df