Non è facile rimettere il dentifricio nel suo tubetto, così come non ci si può aspettare che le molecole di vapore tornino spontaneamente insieme per formare una sfera d’acqua. Se liberiamo un gruppo di cuccioli in un campo dovremo fare parecchia fatica (lavoro) per rimetterli in un trasportino. Ecco, questi esempi sono semplici esemplificazioni della Seconda Legge della Termodinamica, nota anche come Legge dell’Entropia.
La seconda legge della termodinamica
La termodinamica è importante per varie discipline scientifiche, dall’ingegneria alle scienze naturali alla chimica, alla fisica e persino all’economia. Un sistema termodinamico è uno spazio limitato, che non fa entrare o uscire energia da esso.
La prima legge della termodinamica ha a che fare con la conservazione dell’energia e recita che l’energia in un sistema chiuso rimane costante (“l’energia non può essere né creata né distrutta”), a meno che non venga manomessa dall’esterno. Tuttavia, l’energia cambia costantemente forma: un incendio può trasformare l’energia chimica di una pianta in energia termica ed elettromagnetica. Una batteria trasforma l’energia chimica in energia elettrica. Il mondo gira e l’energia diventa meno organizzata.
La seconda legge della termodinamica si chiama legge dell’entropia, ed è una delle leggi più importanti in natura.
L’entropia è una misura del disturbo in un sistema chiuso. Secondo la seconda legge, l’entropia in un sistema aumenta quasi sempre nel tempo – si può contrastare l’entropia utilizzando energia per creare ordine in un sistema, ma il lavoro necessario per mantenere questo ordine ha come sottoprodotto l’aumento del disordine, perché l’energia si degrada in calore. Poiché la misura dell’entropia si basa sulle probabilità, è ovviamente possibile che l’entropia diminuisca in un sistema in alcune occasioni, ma questo è statisticamente molto improbabile.
La definizione di disturbo
È più difficile di quanto si possa pensare trovare un sistema che non fa uscire o entrare energia; il nostro universo ne è un esempio ma l’entropia descrive come il disordine aumenta in un sistema grande come l’universo come in uno piccolo come un thermos pieno di caffè.
Naturalmente, l’entropia dipende da molti fattori: ad esempio, quante molecole ci sono e quanto è grande il sistema preso in considerazione. Quindi, prendendo in esame due sistemi, uno molto grande con molte molecole ma ordinato ed uno molto piccolo ma con meno molecole ma spazzato da un vento impetuoso, è allettante dire che la stanza più caotica ha più entropia, ma non è necessariamente così. L’entropia si preoccupa più di capire quanti stati diversi sono possibili che quanto sia disordinato il sistema in un dato momento; un sistema, quindi, ha più entropia se ci sono più molecole e atomi e se è più grande. E se ci sono elementi perturbatori.
L’entropia è confusa
L’entropia potrebbe essere un concetto scientifico che poche persone effettivamente comprendono. Il concetto di entropia può essere molto confuso, in parte perché in realtà ci sono tipi diversi di entropia. Il matematico ungherese John von Neumann lamentava così la situazione: “Chiunque usi il termine entropia in una discussione vince sempre poiché nessuno sa cosa sia realmente l’entropia, quindi in un dibattito si ha sempre il vantaggio“.
È un po’ difficile definire l’entropia, forse si può meglio definire come una proprietà termodinamica non negativa, che rappresenta una parte dell’energia di un sistema che non può essere convertita in lavoro utile. Pertanto, qualsiasi aggiunta di energia a un sistema implica che una parte dell’energia verrà trasformata in entropia, aumentando il disordine nel sistema. Pertanto, l’entropia è una misura del disordine di un sistema.
Confuso? Non preoccuparti, la definizione può variare a seconda di quale disciplina la sta esercitando in questo momento:
A metà del XIX secolo, un fisico tedesco di nome Rudolph Clausius, uno dei fondatori del concetto di termodinamica, stava lavorando a un problema relativo all’efficienza dei motori a vapore e inventò il concetto di entropia per aiutare a misurare l’energia inutile che non può essere convertita in lavoro utile. Un paio di decenni dopo, Ludwig Boltzmann (l’altro “fondatore” dell’entropia) usò il concetto per spiegare il comportamento di immensi numeri di atomi: anche se è impossibile descrivere il comportamento di ogni particella in un bicchiere d’acqua, è ancora possibile prevedere il loro comportamento collettivo quando vengono riscaldati usando una formula per l’entropia.
Negli anni ’60, il fisico americano ET Jaynes, interpretò l’entropia come l’informazione che ci manca per specificare il movimento di tutte le particelle in un sistema. Ad esempio, una mole di gas è composta da 6 x 1023 particelle. Data la loro numerosità, per noi è impossibile descrivere il moto di ogni particella, quindi facciamo la cosa migliore successiva, definendo il gas non attraverso il movimento di ogni particella, ma attraverso le proprietà di tutte le particelle combinate: temperatura, pressione, energia totale. Le informazioni che perdiamo quando lo facciamo vengono definite entropia.
E il terrificante concetto di “morte termica dell’universo” non sarebbe possibile senza l’entropia. Poiché il nostro universo molto probabilmente è iniziato come una singolarità – un punto di energia ordinato infinitamente piccolo – che si è gonfiato e continua ad espandersi continuamente, l’entropia è in costante crescita nel nostro universo perché c’è più spazio e quindi più potenziali stati di disordine che gli atomi possono adottare.
Gli scienziati ipotizzano che, un lontanissimo giorno, l’universo raggiungerà un punto di massimo disordine e, a quel punto tutto, la sua temperatura sarà omogenea ovunque e non ci saranno più sacche ordine (molecole aggregate per formare gli atomi, le stelle o gli esseri umani.
E se accadrà, dovremo ringraziare l’entropia per questo.