Ugrás a tartalomhoz

Kullback–Leibler divergence

A Wikiszótárból, a nyitott szótárból


Főnév

KullbackLeibler divergence (tsz. Kullback–Leibler divergences)

  1. (informatika) A Kullback–Leibler divergencia (röviden KL divergencia) egy aszimmetrikus mérték két valószínűségi eloszlás között. Azt méri, hogy egy eloszlás mennyi többlet-információt hordoz a másikkal szemben – vagy másképpen: mennyi információveszteség történik, ha a valós eloszlás helyett egy közelítő eloszlást használunk.



🧮 Definíció

Legyen a valódi eloszlás, pedig a közelítő eloszlás. A KL divergencia:

  • Diszkrét esetben:

  • Folytonos esetben:



📌 Tulajdonságok

  • (az egyenlőség csak akkor áll fenn, ha majdnem mindenütt)
  • Nem szimmetrikus:
  • Nem teljesít háromszög-egyenlőtlenséget, tehát nem valódi távolság a matematikai értelemben.



📈 Intuíció

  • Azt mondja meg, hogy mennyi extra bit kell, ha a valós helyett a hibás -t használjuk kódolásra.
  • Ha nagyon rosszul közelíti -t, a divergencia nagy lesz.



💡 Felhasználás

  • Gépi tanulás: valószínűségi modellek tanítása, például variációs autoenkóderekben
  • Információelmélet: tömörítés, kódolás, modellek összehasonlítása
  • Statisztika: eloszlásillesztés, maximum likelihood és Bayes-inferenciában



🧠 Példa (diszkrét)

Legyen ,

A divergencia: