丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能開發(fā)者 正文
發(fā)私信給汪思穎
發(fā)送

0

干貨來襲,谷歌最新機器學習術語表(下)

本文作者: 汪思穎 2018-03-20 14:24
導語:本術語表中列出了一般的機器學習術語和 TensorFlow 專用術語的定義。

雷鋒網(wǎng) AI 研習社按,日前,谷歌發(fā)布機器學習術語表,AI 研習社獲其授權轉(zhuǎn)載。以下術語表中列出了一般的機器學習術語和 TensorFlow 專用術語的定義。本文為 M-W(術語首字母)部分,A-L 部分參見干貨來襲,谷歌最新機器學習術語表(上)。

M

機器學習 (machine learning)

一種程序或系統(tǒng),用于根據(jù)輸入數(shù)據(jù)構(gòu)建(訓練)預測模型。這種系統(tǒng)會利用學到的模型根據(jù)從分布(訓練該模型時使用的同一分布)中提取的新數(shù)據(jù)(以前從未見過的數(shù)據(jù))進行實用的預測。機器學習還指與這些程序或系統(tǒng)相關的研究領域。

均方誤差 (MSE, Mean Squared Error)

每個樣本的平均平方損失。MSE 的計算方法是平方損失除以樣本數(shù)。TensorFlow Playground 顯示的“訓練損失”值和“測試損失”值都是 MSE。

指標 (metric)

您關心的一個數(shù)值??赡芸梢砸部赡懿豢梢灾苯釉跈C器學習系統(tǒng)中得到優(yōu)化。您的系統(tǒng)嘗試優(yōu)化的指標稱為目標。

Metrics API (tf.metrics)

一種用于評估模型的 TensorFlow API。例如,tf.metrics.accuracy 用于確定模型的預測與標簽匹配的頻率。在編寫自定義 Estimator 時,您可以調(diào)用 Metrics API 函數(shù)來指定應如何評估您的模型。

小批次 (mini-batch)

從訓練或推斷過程的一次迭代中一起運行的整批樣本內(nèi)隨機選擇的一小部分。小批次的規(guī)模通常介于 10 到 1000 之間。與基于完整的訓練數(shù)據(jù)計算損失相比,基于小批次數(shù)據(jù)計算損失要高效得多。

小批次隨機梯度下降法 (SGD, mini-batch stochastic gradient descent)

一種采用小批次樣本的梯度下降法。也就是說,小批次 SGD 會根據(jù)一小部分訓練數(shù)據(jù)來估算梯度。Vanilla SGD 使用的小批次的規(guī)模為 1。

ML

機器學習的縮寫。

模型 (model)

機器學習系統(tǒng)從訓練數(shù)據(jù)學到的內(nèi)容的表示形式。多含義術語,可以理解為下列兩種相關含義之一:

  • 一種 TensorFlow 圖,用于表示預測計算結(jié)構(gòu)。

  • 該 TensorFlow 圖的特定權重和偏差,通過訓練決定。

模型訓練 (model training)

確定最佳模型的過程。

動量 (Momentum)

一種先進的梯度下降法,其中學習步長不僅取決于當前步長的導數(shù),還取決于之前一步或多步的步長的導數(shù)。動量涉及計算梯度隨時間而變化的指數(shù)級加權移動平均值,與物理學中的動量類似。動量有時可以防止學習過程被卡在局部最小的情況。

多類別分類 (multi-class classification)

區(qū)分兩種以上類別的分類問題。例如,楓樹大約有 128 種,因此,確定楓樹種類的模型就屬于多類別模型。反之,僅將電子郵件分為兩類(“垃圾郵件”和“非垃圾郵件”)的模型屬于二元分類模型。

多項分類 (multinomial classification)

是多類別分類的同義詞。

N

NaN 陷阱 (NaN trap)

模型中的一個數(shù)字在訓練期間變成 NaN,這會導致模型中的很多或所有其他數(shù)字最終也會變成 NaN。

NaN 是“非數(shù)字”的縮寫。

負類別 (negative class)

在二元分類中,一種類別稱為正類別,另一種類別稱為負類別。正類別是我們要尋找的類別,負類別則是另一種可能性。例如,在醫(yī)學檢查中,負類別可以是“非腫瘤”。在電子郵件分類器中,負類別可以是“非垃圾郵件”。另請參閱正類別。

神經(jīng)網(wǎng)絡 (neural network)

一種模型,靈感來源于腦部結(jié)構(gòu),由多個層構(gòu)成(至少有一個是隱藏層),每個層都包含簡單相連的單元或神經(jīng)元(具有非線性關系)。

神經(jīng)元 (neuron)

神經(jīng)網(wǎng)絡中的節(jié)點,通常是接收多個輸入值并生成一個輸出值。神經(jīng)元通過將激活函數(shù)(非線性轉(zhuǎn)換)應用于輸入值的加權和來計算輸出值。

節(jié)點 (node)

多含義術語,可以理解為下列兩種含義之一:

  • 隱藏層中的神經(jīng)元。

  • TensorFlow 圖中的操作。

標準化 (normalization)

將實際的值區(qū)間轉(zhuǎn)換為標準的值區(qū)間(通常為 -1 到 +1 或 0 到 1)的過程。例如,假設某個特征的自然區(qū)間是 800 到 6000。通過減法和除法運算,您可以將這些值標準化為位于 -1 到 +1 區(qū)間內(nèi)。

另請參閱縮放。

數(shù)值數(shù)據(jù) (numerical data)

用整數(shù)或?qū)崝?shù)表示的特征。例如,在房地產(chǎn)模型中,您可能會用數(shù)值數(shù)據(jù)表示房子大小(以平方英尺或平方米為單位)。如果用數(shù)值數(shù)據(jù)表示特征,則可以表明特征的值相互之間具有數(shù)學關系,并且與標簽可能也有數(shù)學關系。例如,如果用數(shù)值數(shù)據(jù)表示房子大小,則可以表明面積為 200 平方米的房子是面積為 100 平方米的房子的兩倍。此外,房子面積的平方米數(shù)可能與房價存在一定的數(shù)學關系。

并非所有整數(shù)數(shù)據(jù)都應表示成數(shù)值數(shù)據(jù)。例如,世界上某些地區(qū)的郵政編碼是整數(shù),但在模型中,不應將整數(shù)郵政編碼表示成數(shù)值數(shù)據(jù)。這是因為郵政編碼 20000 在效力上并不是郵政編碼 10000 的兩倍(或一半)。此外,雖然不同的郵政編碼確實與不同的房地產(chǎn)價值有關,但我們也不能假設郵政編碼為 20000 的房地產(chǎn)在價值上是郵政編碼為 10000 的房地產(chǎn)的兩倍。郵政編碼應表示成分類數(shù)據(jù)。

數(shù)值特征有時稱為連續(xù)特征。

Numpy

一個開放源代碼數(shù)學庫,在 Python 中提供高效的數(shù)組操作。Pandas 就建立在 Numpy 之上。

O

目標 (objective)

算法嘗試優(yōu)化的指標。

離線推斷 (offline inference)

生成一組預測,存儲這些預測,然后根據(jù)需求檢索這些預測。與在線推斷相對。

one-hot 編碼 (one-hot encoding)

一種稀疏向量,其中:

  • 一個元素設為 1。

  • 所有其他元素均設為 0。

one-hot 編碼常用于表示擁有有限個可能值的字符串或標識符。例如,假設某個指定的植物學數(shù)據(jù)集記錄了 15000 個不同的物種,其中每個物種都用獨一無二的字符串標識符來表示。在特征工程過程中,您可能需要將這些字符串標識符編碼為 one-hot 向量,向量的大小為 15000。

一對多 (one-vs.-all)

假設某個分類問題有 N 種可能的解決方案,一對多解決方案將包含 N 個單獨的二元分類器 - 一個二元分類器對應一種可能的結(jié)果。例如,假設某個模型用于區(qū)分樣本屬于動物、蔬菜還是礦物,一對多解決方案將提供下列三個單獨的二元分類器:

  • 動物和非動物

  • 蔬菜和非蔬菜

  • 礦物和非礦物

在線推斷 (online inference)

根據(jù)需求生成預測。與離線推斷相對。

操作 (op, Operation)

TensorFlow 圖中的節(jié)點。在 TensorFlow 中,任何創(chuàng)建、操縱或銷毀張量的過程都屬于操作。例如,矩陣相乘就是一種操作,該操作以兩個張量作為輸入,并生成一個張量作為輸出。

優(yōu)化器 (optimizer)

梯度下降法的一種具體實現(xiàn)。TensorFlow 的優(yōu)化器基類是 tf.train.Optimizer。不同的優(yōu)化器(tf.train.Optimizer 的子類)會考慮如下概念:

  • 動量 (Momentum)

  • 更新頻率 (AdaGrad = ADAptive GRADient descent; Adam = ADAptive with Momentum;RMSProp)

  • 稀疏性/正則化 (Ftrl)

  • 更復雜的計算方法 (Proximal, 等等)

甚至還包括 NN 驅(qū)動的優(yōu)化器。

離群值 (outlier)

與大多數(shù)其他值差別很大的值。在機器學習中,下列所有值都是離群值。

  • 絕對值很高的權重。

  • 與實際值相差很大的預測值。

  • 值比平均值高大約 3 個標準偏差的輸入數(shù)據(jù)。

離群值常常會導致模型訓練出現(xiàn)問題。

輸出層 (output layer)

神經(jīng)網(wǎng)絡的“最后”一層,也是包含答案的層。

過擬合 (overfitting)

創(chuàng)建的模型與訓練數(shù)據(jù)過于匹配,以致于模型無法根據(jù)新數(shù)據(jù)做出正確的預測。

P

Pandas

面向列的數(shù)據(jù)分析 API。很多機器學習框架(包括 TensorFlow)都支持將 Pandas 數(shù)據(jù)結(jié)構(gòu)作為輸入。請參閱 Pandas 文檔。

參數(shù) (parameter)

機器學習系統(tǒng)自行訓練的模型的變量。例如,權重就是一種參數(shù),它們的值是機器學習系統(tǒng)通過連續(xù)的訓練迭代逐漸學習到的。與超參數(shù)相對。

參數(shù)服務器 (PS, Parameter Server)

一種作業(yè),負責在分布式設置中跟蹤模型參數(shù)。

參數(shù)更新 (parameter update)

在訓練期間(通常是在梯度下降法的單次迭代中)調(diào)整模型參數(shù)的操作。

偏導數(shù) (partial derivative)

一種導數(shù),除一個變量之外的所有變量都被視為常量。例如,f(x, y) 對 x 的偏導數(shù)就是 f(x) 的導數(shù)(即,使 y 保持恒定)。f 對 x 的偏導數(shù)僅關注 x 如何變化,而忽略公式中的所有其他變量。

分區(qū)策略 (partitioning strategy)

參數(shù)服務器中分割變量的算法。

性能 (performance)

多含義術語,具有以下含義:

  • 在軟件工程中的傳統(tǒng)含義。即:相應軟件的運行速度有多快(或有多高效)?

  • 在機器學習中的含義。在機器學習領域,性能旨在回答以下問題:相應模型的準確度有多高?即模型在預測方面的表現(xiàn)有多好?

困惑度 (perplexity)

一種衡量指標,用于衡量模型能夠多好地完成任務。例如,假設任務是讀取用戶使用智能手機鍵盤輸入字詞時輸入的前幾個字母,然后列出一組可能的完整字詞。此任務的困惑度 (P) 是:為了使列出的字詞中包含用戶嘗試輸入的實際字詞,您需要提供的猜測項的個數(shù)。

困惑度與交叉熵的關系如下:

P=2?cross entropy

流水線 (pipeline)

機器學習算法的基礎架構(gòu)。流水線包括收集數(shù)據(jù)、將數(shù)據(jù)放入訓練數(shù)據(jù)文件、訓練一個或多個模型,以及將模型導出到生產(chǎn)環(huán)境。

正類別 (positive class)

在二元分類中,兩種可能的類別分別被標記為正類別和負類別。正類別結(jié)果是我們要測試的對象。(不可否認的是,我們會同時測試這兩種結(jié)果,但只關注正類別結(jié)果。)例如,在醫(yī)學檢查中,正類別可以是“腫瘤”。在電子郵件分類器中,正類別可以是“垃圾郵件”。

與負類別相對。

精確率 (precision)

一種分類模型指標。精確率指模型正確預測正類別的頻率,即:

干貨來襲,谷歌最新機器學習術語表(下)

預測 (prediction)

模型在收到輸入的樣本后的輸出。

預測偏差 (prediction bias)

一個值,用于表明預測平均值與數(shù)據(jù)集中標簽的平均值相差有多大。

預創(chuàng)建的 Estimator (pre-made Estimator)

其他人已建好的 Estimator。TensorFlow 提供了一些預創(chuàng)建的 Estimator,包括 DNNClassifier、DNNRegressor 和 LinearClassifier。您可以按照這些說明構(gòu)建自己預創(chuàng)建的 Estimator。

預訓練模型 (pre-trained model)

已經(jīng)過訓練的模型或模型組件(例如嵌套)。有時,您需要將預訓練的嵌套饋送到神經(jīng)網(wǎng)絡。在其他時候,您的模型將自行訓練嵌套,而不依賴于預訓練的嵌套。

先驗信念 (prior belief)

在開始采用相應數(shù)據(jù)進行訓練之前,您對這些數(shù)據(jù)抱有的信念。例如,L2 正則化依賴的先驗信念是權重應該很小且應以 0 為中心呈正態(tài)分布。

Q

隊列 (queue)

一種 TensorFlow 操作,用于實現(xiàn)隊列數(shù)據(jù)結(jié)構(gòu)。通常用于 I/O 中。

R

等級 (rank)

機器學習中的一個多含義術語,可以理解為下列含義之一:

  • 張量中的維度數(shù)量。例如,標量等級為 0,向量等級為 1,矩陣等級為 2。

  • 在將類別從最高到最低進行排序的機器學習問題中,類別的順序位置。例如,行為排序系統(tǒng)可以將狗狗的獎勵從最高(牛排)到最低(枯萎的羽衣甘藍)進行排序。

評分者 (rater)

為樣本提供標簽的人。有時稱為“注釋者”。

召回率 (recall)

一種分類模型指標,用于回答以下問題:在所有可能的正類別標簽中,模型正確地識別出了多少個?即:

干貨來襲,谷歌最新機器學習術語表(下)

修正線性單元 (ReLU, Rectified Linear Unit)

一種激活函數(shù),其規(guī)則如下:

  • 如果輸入為負數(shù)或 0,則輸出 0。

  • 如果輸入為正數(shù),則輸出等于輸入。

回歸模型 (regression model)

一種模型,能夠輸出連續(xù)的值(通常為浮點值)。請與分類模型進行比較,分類模型輸出離散值,例如“黃花菜”或“虎皮百合”。

正則化 (regularization)

對模型復雜度的懲罰。正則化有助于防止出現(xiàn)過擬合,包含以下類型:

  • L1 正則化

  • L2 正則化

  • 丟棄正則化

  • 早停法(這不是正式的正則化方法,但可以有效限制過擬合)

正則化率 (regularization rate)

一種標量值,以 lambda 表示,用于指定正則化函數(shù)的相對重要性。從下面簡化的損失公式中可以看出正則化率的影響:

minimize(loss function + λ(regularization function))

提高正則化率可以減少過擬合,但可能會使模型的準確率降低。

表示法 (representation)

將數(shù)據(jù)映射到實用特征的過程。

受試者工作特征曲線(receiver operating characteristic, 簡稱 ROC 曲線)

不同分類閾值下的真正例率和假正例率構(gòu)成的曲線。另請參閱曲線下面積。

根目錄 (root directory)

您指定的目錄,用于托管多個模型的 TensorFlow 檢查點和事件文件的子目錄。

均方根誤差 (RMSE, Root Mean Squared Error)

均方誤差的平方根。

S

SavedModel

保存和恢復 TensorFlow 模型時建議使用的格式。SavedModel 是一種獨立于語言且可恢復的序列化格式,使較高級別的系統(tǒng)和工具可以創(chuàng)建、使用和轉(zhuǎn)換 TensorFlow 模型。

如需完整的詳細信息,請參閱《TensorFlow 編程人員指南》中的保存和恢復。

Saver

一種 TensorFlow 對象,負責保存模型檢查點。

縮放 (scaling)

特征工程中的一種常用做法,是對某個特征的值區(qū)間進行調(diào)整,使之與數(shù)據(jù)集中其他特征的值區(qū)間一致。例如,假設您希望數(shù)據(jù)集中所有浮點特征的值都位于 0 到 1 區(qū)間內(nèi),如果某個特征的值位于 0 到 500 區(qū)間內(nèi),您就可以通過將每個值除以 500 來縮放該特征。

另請參閱標準化。

scikit-learn

一個熱門的開放源代碼機器學習平臺。請訪問 www.scikit-learn.org

半監(jiān)督式學習 (semi-supervised learning)

訓練模型時采用的數(shù)據(jù)中,某些訓練樣本有標簽,而其他樣本則沒有標簽。半監(jiān)督式學習采用的一種技術是推斷無標簽樣本的標簽,然后使用推斷出的標簽進行訓練,以創(chuàng)建新模型。如果獲得有標簽樣本需要高昂的成本,而無標簽樣本則有很多,那么半監(jiān)督式學習將非常有用。

序列模型 (sequence model)

一種模型,其輸入具有序列依賴性。例如,根據(jù)之前觀看過的一系列視頻對觀看的下一個視頻進行預測。

會話 (session)

維持 TensorFlow 程序中的狀態(tài)(例如變量)。

S 型函數(shù) (sigmoid function)

一種函數(shù),可將邏輯回歸輸出或多項回歸輸出(對數(shù)幾率)映射到概率,以返回介于 0 到 1 之間的值。S 型函數(shù)的公式如下:

干貨來襲,谷歌最新機器學習術語表(下)

在邏輯回歸問題中,σ 非常簡單:

干貨來襲,谷歌最新機器學習術語表(下)

換句話說,S 型函數(shù)可將 σ 轉(zhuǎn)換為介于 0 到 1 之間的概率。

在某些神經(jīng)網(wǎng)絡中,S 型函數(shù)可作為激活函數(shù)使用。

softmax

一種函數(shù),可提供多類別分類模型中每個可能類別的概率。這些概率的總和正好為 1.0。例如,softmax 可能會得出某個圖像是狗、貓和馬的概率分別是 0.9、0.08 和 0.02。(也稱為完整 softmax。)

與候選采樣相對。

稀疏特征 (sparse feature)

一種特征向量,其中的大多數(shù)值都為 0 或為空。例如,某個向量包含一個為 1 的值和一百萬個為 0 的值,則該向量就屬于稀疏向量。再舉一個例子,搜索查詢中的單詞也可能屬于稀疏特征 - 在某種指定語言中有很多可能的單詞,但在某個指定的查詢中僅包含其中幾個。

與密集特征相對。

平方合頁損失函數(shù) (squared hinge loss)

合頁損失函數(shù)的平方。與常規(guī)合頁損失函數(shù)相比,平方合頁損失函數(shù)對離群值的懲罰更嚴厲。

平方損失函數(shù) (squared loss)

在線性回歸中使用的損失函數(shù)(也稱為 L2 損失函數(shù))。該函數(shù)可計算模型為有標簽樣本預測的值和標簽的實際值之差的平方。由于取平方值,因此該損失函數(shù)會放大不佳預測的影響。也就是說,與 L1 損失函數(shù)相比,平方損失函數(shù)對離群值的反應更強烈。

靜態(tài)模型 (static model)

離線訓練的一種模型。

平穩(wěn)性 (stationarity)

數(shù)據(jù)集中數(shù)據(jù)的一種屬性,表示數(shù)據(jù)分布在一個或多個維度保持不變。這種維度最常見的是時間,即表明平穩(wěn)性的數(shù)據(jù)不隨時間而變化。例如,從 9 月到 12 月,表明平穩(wěn)性的數(shù)據(jù)沒有發(fā)生變化。

步 (step)

對一個批次的向前和向后評估。

步長 (step size)

是學習速率的同義詞。

隨機梯度下降法 (SGD, stochastic gradient descent)

批次規(guī)模為 1 的一種梯度下降法。換句話說,SGD 依賴于從數(shù)據(jù)集中隨機均勻選擇的單個樣本來計算每步的梯度估算值。

結(jié)構(gòu)風險最小化 (SRM, structural risk minimization)

一種算法,用于平衡以下兩個目標:

  • 期望構(gòu)建最具預測性的模型(例如損失最低)。

  • 期望使模型盡可能簡單(例如強大的正則化)。

例如,旨在將基于訓練集的損失和正則化降至最低的模型函數(shù)就是一種結(jié)構(gòu)風險最小化算法。

如需更多信息,請參閱 http://www.svms.org/srm/

與經(jīng)驗風險最小化相對。

總結(jié) (summary)

在 TensorFlow 中的某一步計算出的一個值或一組值,通常用于在訓練期間跟蹤模型指標。

監(jiān)督式機器學習 (supervised machine learning)

根據(jù)輸入數(shù)據(jù)及其對應的標簽來訓練模型。監(jiān)督式機器學習類似于學生通過研究一系列問題及其對應的答案來學習某個主題。在掌握了問題和答案之間的對應關系后,學生便可以回答關于同一主題的新問題(以前從未見過的問題)。請與非監(jiān)督式機器學習進行比較。

合成特征 (synthetic feature)

一種特征,不在輸入特征之列,而是從一個或多個輸入特征衍生而來。合成特征包括以下類型:

  • 將一個特征與其本身或其他特征相乘(稱為特征組合)。

  • 兩個特征相除。

  • 對連續(xù)特征進行分桶,以分為多個區(qū)間分箱。

通過標準化或縮放單獨創(chuàng)建的特征不屬于合成特征。

T

目標 (target)

是標簽的同義詞。

時態(tài)數(shù)據(jù) (temporal data)

在不同時間點記錄的數(shù)據(jù)。例如,記錄的一年中每一天的冬外套銷量就屬于時態(tài)數(shù)據(jù)。

張量 (Tensor)

TensorFlow 程序中的主要數(shù)據(jù)結(jié)構(gòu)。張量是 N 維(其中 N 可能非常大)數(shù)據(jù)結(jié)構(gòu),最常見的是標量、向量或矩陣。張量的元素可以包含整數(shù)值、浮點值或字符串值。

張量處理單元 (TPU, Tensor Processing Unit)

一種 ASIC(應用專用集成電路),用于優(yōu)化 TensorFlow 程序的性能。

張量等級 (Tensor rank)

請參閱等級。

張量形狀 (Tensor shape)

張量在各種維度中包含的元素數(shù)。例如,張量 [5, 10] 在一個維度中的形狀為 5,在另一個維度中的形狀為 10。

張量大小 (Tensor size)

張量包含的標量總數(shù)。例如,張量 [5, 10] 的大小為 50。

TensorBoard

一個信息中心,用于顯示在執(zhí)行一個或多個 TensorFlow 程序期間保存的摘要信息。

TensorFlow

一個大型的分布式機器學習平臺。該術語還指 TensorFlow 堆棧中的基本 API 層,該層支持對數(shù)據(jù)流圖進行一般計算。

雖然 TensorFlow 主要應用于機器學習領域,但也可用于需要使用數(shù)據(jù)流圖進行數(shù)值計算的非機器學習任務。

TensorFlow Playground

一款用于直觀呈現(xiàn)不同的超參數(shù)對模型(主要是神經(jīng)網(wǎng)絡)訓練的影響的程序。要試用 TensorFlow Playground,請前往 http://playground.tensorflow.org。

TensorFlow Serving

一個平臺,用于將訓練過的模型部署到生產(chǎn)環(huán)境。

測試集 (test set)

數(shù)據(jù)集的子集,用于在模型經(jīng)由驗證集的初步驗證之后測試模型。

與訓練集和驗證集相對。

tf.Example

一種標準的 proto buffer,旨在描述用于機器學習模型訓練或推斷的輸入數(shù)據(jù)。

時間序列分析 (time series analysis)

機器學習和統(tǒng)計學的一個子領域,旨在分析時態(tài)數(shù)據(jù)。很多類型的機器學習問題都需要時間序列分析,其中包括分類、聚類、預測和異常檢測。例如,您可以利用時間序列分析根據(jù)歷史銷量數(shù)據(jù)預測未來每月的冬外套銷量。

訓練 (training)

確定構(gòu)成模型的理想?yún)?shù)的過程。

訓練集 (training set)

數(shù)據(jù)集的子集,用于訓練模型。

與驗證集和測試集相對。

轉(zhuǎn)移學習 (transfer learning)

將信息從一個機器學習任務轉(zhuǎn)移到另一個機器學習任務。例如,在多任務學習中,一個模型可以完成多項任務,例如針對不同任務具有不同輸出節(jié)點的深度模型。轉(zhuǎn)移學習可能涉及將知識從較簡單任務的解決方案轉(zhuǎn)移到較復雜的任務,或者將知識從數(shù)據(jù)較多的任務轉(zhuǎn)移到數(shù)據(jù)較少的任務。

大多數(shù)機器學習系統(tǒng)都只能完成一項任務。轉(zhuǎn)移學習是邁向人工智能的一小步;在人工智能中,單個程序可以完成多項任務。

真負例 (TN, true negative)

被模型正確地預測為負類別的樣本。例如,模型推斷出某封電子郵件不是垃圾郵件,而該電子郵件確實不是垃圾郵件。

真正例 (TP, true positive)

被模型正確地預測為正類別的樣本。例如,模型推斷出某封電子郵件是垃圾郵件,而該電子郵件確實是垃圾郵件。

真正例率(true positive rate, 簡稱 TP 率)

是召回率的同義詞,即:

干貨來襲,谷歌最新機器學習術語表(下)

真正例率是 ROC 曲線的 y 軸。

U

無標簽樣本 (unlabeled example)

包含特征但沒有標簽的樣本。無標簽樣本是用于進行推斷的輸入內(nèi)容。在半監(jiān)督式和非監(jiān)督式學習中,無標簽樣本在訓練期間被使用。

非監(jiān)督式機器學習 (unsupervised machine learning)

訓練模型,以找出數(shù)據(jù)集(通常是無標簽數(shù)據(jù)集)中的模式。

非監(jiān)督式機器學習最常見的用途是將數(shù)據(jù)分為不同的聚類,使相似的樣本位于同一組中。例如,非監(jiān)督式機器學習算法可以根據(jù)音樂的各種屬性將歌曲分為不同的聚類。所得聚類可以作為其他機器學習算法(例如音樂推薦服務)的輸入。在很難獲取真標簽的領域,聚類可能會非常有用。例如,在反濫用和反欺詐等領域,聚類有助于人們更好地了解相關數(shù)據(jù)。

非監(jiān)督式機器學習的另一個例子是主成分分析 (PCA)。例如,通過對包含數(shù)百萬購物車中物品的數(shù)據(jù)集進行主成分分析,可能會發(fā)現(xiàn)有檸檬的購物車中往往也有抗酸藥。

請與監(jiān)督式機器學習進行比較。

V

驗證集 (validation set)

數(shù)據(jù)集的一個子集,從訓練集分離而來,用于調(diào)整超參數(shù)。

與訓練集和測試集相對。

W

權重 (weight)

線性模型中特征的系數(shù),或深度網(wǎng)絡中的邊。訓練線性模型的目標是確定每個特征的理想權重。如果權重為 0,則相應的特征對模型來說沒有任何貢獻。

寬度模型 (wide model)

一種線性模型,通常有很多稀疏輸入特征。我們之所以稱之為“寬度模型”,是因為這是一種特殊類型的神經(jīng)網(wǎng)絡,其大量輸入均直接與輸出節(jié)點相連。與深度模型相比,寬度模型通常更易于調(diào)試和檢查。雖然寬度模型無法通過隱藏層來表示非線性關系,但可以利用特征組合、分桶等轉(zhuǎn)換以不同的方式為非線性關系建模。

與深度模型相對。

(完)

雷峰網(wǎng)版權文章,未經(jīng)授權禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

干貨來襲,谷歌最新機器學習術語表(下)

分享:
相關文章

編輯

關注AI學術,例如論文
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說