丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能開發(fā)者 正文
發(fā)私信給汪思穎
發(fā)送

0

北大開源中文分詞工具包 pkuseg

本文作者: 汪思穎 2019-01-10 16:21
導語:這一工具具有如下三個特點:高分詞準確率、多領域分詞、支持用戶自訓練模型。

雷鋒網(wǎng) AI 科技評論消息,日前,北京大學語言計算與機器學習研究組研制推出一套全新中文分詞工具包 pkuseg,這一工具包有如下三個特點:

  • 高分詞準確率。相比于其他的分詞工具包,當使用相同的訓練數(shù)據(jù)和測試數(shù)據(jù),pkuseg 可以取得更高的分詞準確率。

  • 多領域分詞。不同于以往的通用中文分詞工具,此工具包同時致力于為不同領域的數(shù)據(jù)提供個性化的預訓練模型。根據(jù)待分詞文本的領域特點,用戶可以自由地選擇不同的模型。而其他現(xiàn)有分詞工具包,一般僅提供通用領域模型。

  • 支持用戶自訓練模型。支持用戶使用全新的標注數(shù)據(jù)進行訓練。

各項性能對比如下:

與 jieba、THULAC 等國內代表分詞工具包進行性能比較:

考慮到 jieba 分詞和 THULAC 工具包等并沒有提供細領域的預訓練模型,為了便于比較,開發(fā)團隊重新使用它們提供的訓練接口在細領域的數(shù)據(jù)集上進行訓練,用訓練得到的模型進行中文分詞。他們選擇 Linux 作為測試環(huán)境,在新聞數(shù)據(jù)(MSRA)、混合型文本(CTB8)、網(wǎng)絡文本(WEIBO)數(shù)據(jù)上對不同工具包進行了準確率測試。在此過程中,他們使用第二屆國際漢語分詞評測比賽提供的分詞評價腳本,其中 MSRA 與 WEIBO 使用標準訓練集測試集劃分,CTB8 采用隨機劃分。對于不同的分詞工具包,訓練測試數(shù)據(jù)的劃分都是一致的;即所有的分詞工具包都在相同的訓練集上訓練,在相同的測試集上測試。

以下是在不同數(shù)據(jù)集上的對比結果:

北大開源中文分詞工具包 pkuseg 

同時,為了比較細領域分詞的優(yōu)勢,開發(fā)團隊比較了他們的方法和通用分詞模型的效果對比。其中 jieba 和 THULAC 均使用了軟件包提供的、默認的分詞模型:

北大開源中文分詞工具包 pkuseg從結果上來看,當用戶了解待分詞文本的領域時,細領域分詞可以取得更好的效果。然而 jieba 和 THULAC 等分詞工具包僅提供了通用領域模型。

目前,該工具包已經(jīng)在 GitHub 開源,編譯、安裝和使用說明如下。

編譯和安裝

1. 通過 pip 下載(自帶模型文件)

pip install pkuseg
之后通過 import pkuseg 來引用

2. 從 github 下載(需要下載模型文件,見預訓練模型)

將 pkuseg 文件放到目錄下,通過 import pkuseg 使用
模型需要下載或自己訓練。

使用方式

1. 代碼示例

代碼示例1 使用默認模型及默認詞典分詞
import pkuseg
seg = pkuseg.pkuseg() #以默認配置加載模型
text = seg.cut('我愛北京天安門') #進行分詞
print(text)

代碼示例2 設置用戶自定義詞典
import pkuseg
lexicon = ['北京大學', '北京天安門'] #希望分詞時用戶詞典中的詞固定不分開
seg = pkuseg.pkuseg(user_dict=lexicon) #加載模型,給定用戶詞典
text = seg.cut('我愛北京天安門') #進行分詞
print(text)

代碼示例3
import pkuseg
seg = pkuseg.pkuseg(model_name='./ctb8') #假設用戶已經(jīng)下載好了ctb8的模型并放在了'./ctb8'目錄下,通過設置model_name加載該模型
text = seg.cut('我愛北京天安門') #進行分詞
print(text)

代碼示例4
import pkuseg
pkuseg.test('input.txt', 'output.txt', nthread=20) #對input.txt的文件分詞輸出到output.txt中,使用默認模型和詞典,開20個進程

代碼示例5
import pkuseg
pkuseg.train('msr_training.utf8', 'msr_test_gold.utf8', './models', nthread=20) #訓練文件為'msr_training.utf8',測試文件為'msr_test_gold.utf8',模型存到'./models'目錄下,開20個進程訓練模型

2. 參數(shù)說明

pkuseg.pkuseg(model_name='ctb8', user_dict=[])
model_name 模型路徑。默認是'ctb8'表示我們預訓練好的模型(僅對pip下載的用戶)。用戶可以填自己下載或訓練的模型所在的路徑如model_name='./models'。
user_dict 設置用戶詞典。默認不使用詞典。填'safe_lexicon'表示我們提供的一個中文詞典(僅pip)。用戶可以傳入一個包含若干自定義單詞的迭代器。

pkuseg.test(readFile, outputFile, model_name='ctb8', user_dict=[], nthread=10)
readFile 輸入文件路徑
outputFile 輸出文件路徑
model_name 同pkuseg.pkuseg
user_dict 同pkuseg.pkuseg
nthread 測試時開的進程數(shù)

pkuseg.train(trainFile, testFile, savedir, nthread=10)
trainFile 訓練文件路徑
testFile 測試文件路徑
savedir 訓練模型的保存路徑
nthread 訓練時開的進程數(shù)

預訓練模型

分詞模式下,用戶需要加載預訓練好的模型。開發(fā)團隊提供了三種在不同類型數(shù)據(jù)上訓練得到的模型,根據(jù)具體需要,用戶可以選擇不同的預訓練模型。以下是對預訓練模型的說明:

MSRA: 在MSRA(新聞語料)上訓練的模型。新版本代碼采用的是此模型。

下載地址:https://pan.baidu.com/s/1twci0QVBeWXUg06dK47tiA

CTB8: 在CTB8(新聞文本及網(wǎng)絡文本的混合型語料)上訓練的模型。

下載地址:https://pan.baidu.com/s/1DCjDOxB0HD2NmP9w1jm8MA

WEIBO: 在微博(網(wǎng)絡文本語料)上訓練的模型。

下載地址:https://pan.baidu.com/s/1QHoK2ahpZnNmX6X7Y9iCgQ

開發(fā)團隊預訓練好其它分詞軟件的模型可以在如下地址下載:

jieba: 待更新

THULAC: 在 MSRA、CTB8、WEIBO、PKU 語料上的預訓練模型,下載地址:https://pan.baidu.com/s/11L95ZZtRJdpMYEHNUtPWXA,提取碼:iv82

其中 jieba 的默認模型為統(tǒng)計模型,主要基于訓練數(shù)據(jù)上的詞頻信息,開發(fā)團隊在不同訓練集上重新統(tǒng)計了詞頻信息。對于 THULAC,他們使用其提供的接口進行訓練(C++版本),得到了在不同領域的預訓練模型。

來源:GitHub

雷峰網(wǎng)版權文章,未經(jīng)授權禁止轉載。詳情見轉載須知

北大開源中文分詞工具包 pkuseg

分享:
相關文章

編輯

關注AI學術,例如論文
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說