Wiskundige definitie van entropie en de tweede wet van de thermodynamica

Olivier 06/17/2017. 0 answers, 137 views
thermodynamics statistical-mechanics entropy definition

Hoe definiëren natuurkundigen mathematically entropie (voor de tweede wet van de thermodynamica) en hoe is het gerelateerd aan statistische definities van entropie?

Hoewel er veel vragen op deze site zijn over entropie (zoals deze ), was geen enkele die ik kon vinden wiskundig rigoureus of had een volledig rigoureus antwoord.

Ik ben op zoek naar precieze antwoorden die door wiskundigen kunnen worden begrepen.


In wiskundige statistieken hebben we veel verschillende definities van de entropie van (of tussen) kansverdelingen. Opmerkelijke zijn:

  • De $ \ alpha $ -entropy $ N (\ alpha) $ van een distributie $ \ rho $ op de gehele getallen, die is gedefinieerd als $$ \ log \ sum_ {n \ in \ mathbb {N}} \ rho (n) ^ \ alpha. $$ Het kan worden uitgebreid tot de entropie van een verdeling die is gedefinieerd op een afzonderlijke scheidbare metriek.
  • De Kullback-Leibler-divergentie (of relatieve entropie) $$ D_ {KL} (P, Q) = \ int \ log \ frac {dP} {dQ} dP. $$

Merk op dat transformeert $ T $ van de steekproefruimte de relatieve entropie alleen kan verhogen: $ D_ {KL} (PT ^ {- 1}, QT ^ {- 1}) \ geq D_ {KL} (P, Q) $, met gelijkheid iff $ T $ is een voldoende statistische waarde voor $ \ {P, Q \} $ en waarbij $ PT ^ {- 1} (A) = P (T ^ {- 1} (A)) $. Dat is alles wat ik weet over de toename van entropie en de onmogelijkheid om informatie te creëren.

No Answers Yet

Related questions

Hot questions

Language

Popular Tags