Kullback–Leibler divergence
Megjelenés
Főnév
Kullback–Leibler divergence (tsz. Kullback–Leibler divergences)
- (informatika) A Kullback–Leibler divergencia (röviden KL divergencia) egy aszimmetrikus mérték két valószínűségi eloszlás között. Azt méri, hogy egy eloszlás mennyi többlet-információt hordoz a másikkal szemben – vagy másképpen: mennyi információveszteség történik, ha a valós eloszlás helyett egy közelítő eloszlást használunk.
🧮 Definíció
Legyen a valódi eloszlás, pedig a közelítő eloszlás. A KL divergencia:
Diszkrét esetben:
Folytonos esetben:
📌 Tulajdonságok
- (az egyenlőség csak akkor áll fenn, ha majdnem mindenütt)
- Nem szimmetrikus:
- Nem teljesít háromszög-egyenlőtlenséget, tehát nem valódi távolság a matematikai értelemben.
📈 Intuíció
- Azt mondja meg, hogy mennyi extra bit kell, ha a valós helyett a hibás -t használjuk kódolásra.
- Ha nagyon rosszul közelíti -t, a divergencia nagy lesz.
💡 Felhasználás
- Gépi tanulás: valószínűségi modellek tanítása, például variációs autoenkóderekben
- Információelmélet: tömörítés, kódolás, modellek összehasonlítása
- Statisztika: eloszlásillesztés, maximum likelihood és Bayes-inferenciában
🧠 Példa (diszkrét)
Legyen ,
A divergencia:
- Kullback–Leibler divergence - Szótár.net (en-hu)
- Kullback–Leibler divergence - Sztaki (en-hu)
- Kullback–Leibler divergence - Merriam–Webster
- Kullback–Leibler divergence - Cambridge
- Kullback–Leibler divergence - WordNet
- Kullback–Leibler divergence - Яндекс (en-ru)
- Kullback–Leibler divergence - Google (en-hu)
- Kullback–Leibler divergence - Wikidata
- Kullback–Leibler divergence - Wikipédia (angol)