交叉熵

交叉熵

交叉熵(Cross Entropy)是Shannon資訊理論中一個重要概念,主要用於度量兩個機率分布間的差異性信息。語言模型的性能通常用交叉熵和複雜度(perplexity)來衡量。交叉熵的意義是用該模型對文本識別的難度,或者從壓縮的角度來看,每個詞平均要用幾個位來編碼。複雜度的意義是用該模型表示這一文本平均的分支數,其倒數可視為每個詞的平均機率。平滑是指對沒觀察到的N元組合賦予一個機率值,以保證詞序列總能通過語言模型得到一個機率值。通常使用的平滑技術有圖靈估計、刪除插值平滑、Katz平滑和Kneser-Ney平滑。

基本介紹

  • 中文名:交叉熵
  • 外文名:Cross Entropy
  • 用途:機器學習,語言模型等
  • 類型:計算機語言學
  • 學科:資訊理論
  • 發展實踐:1979
  • 意義:計算語言學消岐的一種有效工具
介紹,套用,

介紹

將交叉熵引入計算語言學消岐領域,採用語句的真實語義作為交叉熵的訓練集的先驗信息,將盛虹妹汽機器翻譯的語義作為測試集後驗信息。計算兩者的交叉熵汽白,並以交叉熵指導對歧義的辨識和消除。實例表明,該方法簡潔有效.易於計算機自適應實現。想烏求交叉熵不失為計算語言學消岐的一種較為有效的工具。
在資訊理論中,交叉熵是表示兩個機率分布p,q,其中p表示真實分布,q表示非真實分布,在相同的一組事件中,其中,用非真實分布q來表示某個事件發生所需要阿棗燥套的平均比特數。從這個定義中,我們很難理解交叉熵的定義。下面舉個例子來描述一下:
假設現在有一個樣本集中兩個機率分布p,q,其中p為真實分布,q為非真實分布。假如,按照真實分布p來衡量識別一個樣本所需要的編碼長度的期望為:
H(p)=
但是,如果採用錯誤的分布q來表示來自真實分布p的平均編碼長度,則應該是:
H(p,q)=
此時就將H(p,q)稱之為交叉熵。交叉熵的計算方式如下:檔蘭櫻
對於離散變數採用以下的方式計算:H(p,q)=
對於連續變數採用以下的方式計算:

套用

交叉熵可在神經網路(機器學習)中作為損失函式,p表示真實標記的分布,q則為訓練後的模型的預測標記分布,交叉熵損失函式可以衡量p與q的相似性。交叉熵作為損失函式還有一個好處是使用sigmoid函式在梯度下降時能避免均方誤差損失函式學習速率降低的問題,因為學習速率可以被輸出的誤差所控制。
在特徵工程中,可以用來衡量兩個隨機變數之間的相似度。
在語言模型中(NLP)中妹晚幾,由於真實的分布p是未知的,在語言模型中,模型是通過訓練集得到的,交叉熵就是衡量這個模型在測試集上的正確率刪地祖。

相關詞條

熱門詞條

聯絡我們