Aritalab:Lecture/Basic/Entropy

From Metabolomics.JP
< Aritalab:Lecture | Basic(Difference between revisions)
Jump to: navigation, search
(New page: ==情報学におけるエントロピー== エントロピーという概念は物理学で提案されました。Claude Shannon が平均情報量を、情報のエントロピーと...)
 
m
 
Line 4: Line 4:
  
 
===シャノン情報量===
 
===シャノン情報量===
ある物事が起きる確率を ''p'' とするとき、その事象が起きたことによって得られる情報量を - log ''p'' と定義します。
+
ある物事が起きる確率を ''p'' とするとき、その事象が起きたことによって得られる情報量を &minus; log ''p'' と定義します。
 
確率は 0 から 1 までの値をとるので情報量は正の値になり、起こりにくい (pが小さい) 事象ほど情報量が多くなります。
 
確率は 0 から 1 までの値をとるので情報量は正の値になり、起こりにくい (pが小さい) 事象ほど情報量が多くなります。
対数をとる理由は確率の桁数を情報量として(大雑把に)把握するためです。
+
対数をとる理由は確率の桁数を(大雑把に)情報量としよう、というだけです。対数の底は何でもよいのですが通常は 2 で考えます。
対数の底は何でもよいのですが通常は 2 で考えます。
+
  
ここでは物事が起きる確率を考えているので、他の事象も起きる可能性があることになります。そこで確率分布 P に対する情報量を以下のように定義します。
+
ここでは物事が起きる確率を考えているので、他の事象も起きる可能性があります。そこで確率分布 P に対する情報量を以下のように定義します。
: H(P) = - &Sigma;<sub>i</sub> P(i) log P(i)
+
: H(P) = &minus; &Sigma;<sub>i</sub> P(i) log P(i)
 
ただし P(''i'') は事象 i が起きる確率です。これを平均情報量、または P のエントロピーと呼びます。
 
ただし P(''i'') は事象 i が起きる確率です。これを平均情報量、または P のエントロピーと呼びます。

Latest revision as of 14:34, 8 November 2010

[edit] 情報学におけるエントロピー

エントロピーという概念は物理学で提案されました。Claude Shannon が平均情報量を、情報のエントロピーとして紹介したために情報学でもよく使われる言葉になりました。(この名前をShannonに提案したのはvon Neumannらしいです。)

[edit] シャノン情報量

ある物事が起きる確率を p とするとき、その事象が起きたことによって得られる情報量を − log p と定義します。 確率は 0 から 1 までの値をとるので情報量は正の値になり、起こりにくい (pが小さい) 事象ほど情報量が多くなります。 対数をとる理由は確率の桁数を(大雑把に)情報量としよう、というだけです。対数の底は何でもよいのですが通常は 2 で考えます。

ここでは物事が起きる確率を考えているので、他の事象も起きる可能性があります。そこで確率分布 P に対する情報量を以下のように定義します。

H(P) = − Σi P(i) log P(i)

ただし P(i) は事象 i が起きる確率です。これを平均情報量、または P のエントロピーと呼びます。

Personal tools
Namespaces

Variants
Actions
Navigation
metabolites
Toolbox