Relatie met de informatietheorie[bewerken]
Entropie in de thermodynamica is equivalent met de entropie zoals die in de informatietheorie wordt gebruikt, de zogenaamde Shannon entropie, wanneer je voor de kansen de kansverdeling over alle mogelijke quantumtoestanden van het systeem neemt. Deze equivalentie is algemeen geldig en kan zelfs worden gebruikt voor systemen die niet in thermodynamisch evenwicht zijn. Wanneer de entropie wordt uitgedrukt in bits, dan komt dit overeen met de hoeveelheid informatie die nodig is om de precieze microtoestand van het systeem te specificeren.
Deze equivalentie maakt het inzichtelijk waarom zelfs Maxwells demon de Tweede Hoofdwet niet kan overtreden. Om bijvoorbeeld een temperatuurverschil te creëren in een gas door iedere keer een luikje open te doen wanneer er een snelle molecule aankomt, lijkt het alsof je de entropie van een gas kunt verlagen. Nu is het inderdaad zo dat de entropie van het gas verlaagd kan worden, maar de demon moet wel iedere keer een beslissing nemen op grond van de snelheid van de molecule die langs komt. De informatie over de vorige molecule zit dan nog in zijn geheugen, dus op een gegeven moment raakt zijn geheugen vol. Bovendien zou de demon zelf snel in temperatuur oplopen.
De daling van de entropie van het gas uitgedrukt in bits die een ideale demon kan bereiken is precies gelijk aan de geheugencapaciteit van de demon. Er is dan dus minder informatie nodig om de microtoestand van het gas te specificeren maar precies zoveel meer informatie is er nodig om de toestand van het geheugen van de demon te specificeren. Wissen van het geheugen is geen optie, want daardoor neemt de entropie van de omgeving toe met ten minste hetzelfde getal.
Geen opmerkingen:
Een reactie posten