Informazione vs Entropia

 

All'interno della teoria del caos vari autori hanno evidenziato che l’informazione costituisce una delle caratteristiche fondamentali degli attrattori, e all’informazione molti autori collegano la capacità di ridurre l’entropia. L’esempio classico che descrive la capacità dell’informazione di ridurre l’entropia di un qualsiasi sistema è quello dei computer: il primo computer Eniac realizzava pochi calcoli con consumi paragonabili a quelli di una cittadina media di 30.000 abitanti; oggi, i computer moderni eseguono una mole incredibile di elaborazioni, con consumi paragonabili a quelli di una lampadina da tavolo. Questa drastica riduzione dell’entropia è stata possibile proprio grazie all’aumento di informazione presente nel progetto dei computer moderni.

Possiamo dunque definire con il termine informazione ogni elemento in grado di ridurre l’entropia di un qualsiasi sistema. In base a queste considerazioni, Ludwig von Bertalanffy, padre della teoria generale dei sistemi, evidenzia che l’informazione presente nel progetto, nell’organizzazione e nel sistema, riduce l’entropia. Per questo motivo, Bertalanffy associa l’informazione ad una nuova qualità da lui denominata negh-entropia (cioè entropia con segno negativo).

Ma lo sforzo più sistematico per articolare tra loro entropia e informazione si deve a Léon Brillouin, uno scienziato assai brillante e versatile. La sua profonda competenza nel campo della meccanica statistica e il suo appassionato interesse per le telecomunicazioni gli fecero immediatamente cogliere l’importanza, per la fisica, della nascente teoria dell’informazione (e in particolare degli studi di von Neumann, Shannon e Wiener). In un libro di grande successo, Science and Information Theory, egli codificò appunto, nel 1960, il legame tra entropia e informazione, affermando che esiste una precisa relazione tra la variazione dell’entropia di un sistema e l’acquisizione di informazioni relative al sistema stesso. Si può dunque interpretare l’entropia come mancanza di informazione sul sistema considerato.

«L’entropia è considerata in generale come espressione del disordine di un sistema fisico. Più precisamente, si può dire che l’entropia misura la mancanza di informazione sulla struttura effettiva del sistema. Questa mancanza di informazione implica la possibilità di una grande varietà di strutture microscopiche diverse che sono, in pratica, impossibili da distinguere le une dalle altre. Poiché una qualunque di queste strutture può esistere realmente a un istante dato, la mancanza di informazione corrisponde ad un disordine reale.» (L. Brillouin)

«L’entropia è una misura della mancanza di informazione dettagliata relativamente a un sistema fisico: più grande è l’informazione, più piccola sarà l’entropia. L’informazione rappresenta un termine negativo nell’entropia di un sistema, sicché si può definire l’informazione come entropia negativa.» (L. Brillouin)