0
本文作者: AI研習(xí)社-譯站 | 2018-09-21 14:43 |
本文為 AI 研習(xí)社編譯的技術(shù)博客,原標題:
Clustering Quora Question Tags with Doc2Vec.
翻譯 | nick李、csnoooong 校對 | 凡江 整理 | 志豪
原文鏈接:https://medium.com/@samriddhisinha/clustering-quora-question-tags-with-doc2vec-d4fb3c5177f7
Quora是一個流行的知識分享平臺,我常常在Quora上分享我的想法。這個平臺是基于問答的形式,它因其簡易的設(shè)計和平滑的用戶體驗而出名。
當新的問題被添加到Quora時,這些問題由機器人自動基于問題的上下文進行標記并稍后由用戶進行編輯。這些標簽反映了問題被歸入的話題類別。如下是一個問題的基本概貌。
最近我在尋找合適的數(shù)據(jù)集,然后我偶然看到了Quora里的一個這個頁面: Programming Challenges。我選擇了這個叫做Answered的二分類問題挑戰(zhàn)。其中,包括了近10000個問題(訓(xùn)練集和測試集總計)。每個問題和其話題標簽以及其他的一些信息被以JSON格式儲存。下圖是一個JSON的示例。
示例問題JSON
第一個任務(wù)就是要從JSON文件中讀取數(shù)據(jù)。訓(xùn)練集總共大約有9000個問題,而測試集總共約1000個問題。
import json f = open("answered_data_10k.in").read().split("\n")train_set = f[1:9001]test_set = f[9002:-1]train = [json.loads(i) for i in train_set]test = [json.loads(i) for i in test_set]questions = train + test
接下來就要提取出所有數(shù)據(jù)集中的主題標簽。在JSON文件中,主題存儲在鍵"key"中。不同的問題有不同數(shù)量的主題標簽。單個問題所允許存在的最大標簽數(shù)為26。同時也存在沒有關(guān)聯(lián)主題標簽的問題。
# Create the list of topics topic_list = []for question in questions:if len(question["topics"]) > 0:for topic in question["topics"]:topic_list = topic_list + [topic["name"]]topic_list = list(set(topic_list))print(len(topic_list))
在這個挑戰(zhàn)所提供的數(shù)據(jù)中,一共有8762個主題標簽。
在提取出主題標簽之后,我們需要將具有相同標簽的問題聚類。在動手之前,我們先對數(shù)據(jù)進行分析,因為如果直接對8762個進行聚類將會很困難而且聚類的質(zhì)量也難以保證。
因此我們限定了每一個主題下的最小問題數(shù)來解決這個問題。擁有多于1個問題的主題有3275個。擁有5個問題的主題恰好有900個,這個數(shù)量相對更適合進行聚類。
最終,我們決定將主題下的最小問題數(shù)規(guī)定為5個,這主要有兩個原因。首先是為了更好地用向量來表示主題,其次因為具有較少問題的主題大多數(shù)情況下是和無關(guān)的問題所關(guān)聯(lián)的。
#Assigning question to topics.question_list = []final_topic_list = []for topic in topic_list:temp = []for question in questions:context = [i["name"] for i in question["topics"]]if topic in context:temp.append(question['question_text']) if len(temp) >= 5:question_list.append(temp)final_topic_list.append(topic)topic_list = final_topic_list
接下來,我們寫一個函數(shù),通過轉(zhuǎn)換為小寫、去除標點符號和停用詞來正則化每個段落。每個話題下有五到多個問題。我們把每個話題下的問題的集合當做一個文檔。
這樣,我們先遍歷話題標簽,然后把問題聚集成段落,再把段落正則化化。然后我們把段落和段落的話題標簽喂給Gensim的TaggedDocument函數(shù),進行進一步的正則化。
from nltk import word_tokenizefrom nltk.corpus import stopwordsfrom gensim import modelsfrom gensim.models.doc2vec import TaggedDocument#Function for normalizing paragraphs.def normalize(string):lst = word_tokenize(string)lst =[word.lower() for word in lst if word.isalpha()]lst = [w for w in lst if not w in stopwords.words('english')]return(lst)# Aggregate questions under each topic tag as a paragraph. # Normalize the paragraph # Feed the normalized paragraph along with the topic tag into Gensim's Tagged Document function. # Append the return value to docs.docs = []for index, item in enumerate(topic_list):question = " ".join(question_list[index])question = normalize(question)docs.append(TaggedDocument(words=question, tags=[item]))
為Gensim的DocVec準備數(shù)據(jù)
接下來我們訓(xùn)練Doc2Vec模型。
應(yīng)該調(diào)整vector_size和window,直到結(jié)果是最優(yōu)的。
import gensimmodel = gensim.models.Doc2Vec(vector_size= 200, window= 3, min_count= 0, workers=4, epochs= 40)model.build_vocab(docs)model.train(docs, total_examples=model.corpus_count, epochs=model.iter)
Doc2Vec Training
Doc2Vec模型訓(xùn)練好后,我們就用KMeans算法聚類了文檔向量。簇的數(shù)量從100到50之間進行了檢查。接近100的簇數(shù)會導(dǎo)致大簇被切分成小簇,而簇數(shù)等于50時會使得沒有相關(guān)性的簇被組合成大簇。在仔細評估聚簇結(jié)果后,最后選擇60作為簇數(shù)。
from sklearn.cluster import KMeansfrom sklearn import metricsimport pylab as plimport matplotlib.pyplot as pltfrom sklearn.decomposition import PCAkmeans_model = KMeans(n_clusters= 60, init='k-means++', max_iter=100) X = kmeans_model.fit(model.docvecs.doctag_syn0)labels= kmeans_model.labels_.tolist()l = kmeans_model.fit_predict(model.docvecs.doctag_syn0)#map each centroid to its topic tagword_centroid_map = dict(zip( model.docvecs.offset2doctag, l))#Print Cluster Listfor cluster in range(0,100): print("\nCluster %d" % cluster)words = []for i in range(0,len(word_centroid_map.values())):if(list(word_centroid_map.values())[i] == cluster ):words.append(list(word_centroid_map.keys())[i])print(words)
擬合KMeans模型并取回簇的列表
......
想要繼續(xù)閱讀文章,并且查看該篇文章更多代碼、鏈接和參考文獻?
戳鏈接:http://www.gair.link/page/TextTranslation/840
AI研習(xí)社每日更新精彩內(nèi)容,點擊文末【閱讀原文】即可觀看更多精彩內(nèi)容:雷鋒網(wǎng)雷鋒網(wǎng)雷雷鋒網(wǎng)
基于 NLTK 和 SpaCy 的命名實體識別功能實現(xiàn)
AI初學(xué)者必須要了解的術(shù)語盤點
從 App 描述介紹文字中發(fā)掘 Python 文本數(shù)據(jù)預(yù)處理實例
通過搖滾樂隊來學(xué)習(xí) TensorFlow,Word2Vec 模型和 TSNE 算法
等你來譯:
如何用Anchors來為你的模型可解釋性立足
如何用機器學(xué)習(xí)來處理假新聞
通過 Spotify 上面的播放列表,我們分析了 50 位音樂家,結(jié)果發(fā)現(xiàn)——
機器學(xué)習(xí)當中的數(shù)學(xué)閃光:如何直觀地理解 LDA
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。