Què és l'entropia?

 

Sense entrar en grans detalls, podem dir que l'entropia és la tendència natural a la pèrdua d'ordre en un sistema.

Per contra, sembla que la humanitat, des del seu inici, manté una lluita inacabable i de resultat incert amb la natura i constantment crea sistemes per estructurar l’entorn.

El desenvolupament del cervell i el seu funcionament cognitiu podria estar al darrera d’aquesta pulsió.

Classificació o desordre

L’antropòleg Claude Lévy Strauss (1908-2009) en el seu llibre El pensament salvatge (1962) *) ja planteja l’existència d’una ciència de les comunitats neolítiques basada en la classificació de la realitat natural, com un equivalent a la ciència moderna. Es clar que ell seguia el corrent estructuralista i veia organització per tot arreu, també.

Tornant al desordre, el científic austríac Ludwig Boltzmann (1844-1906) que va defensar l’existència dels àtoms abans que es poguessin veure també es conegut per la fórmula que mostra la relació entre l’entropia i el número de formes en que es poden organitzar els àtoms o molècules d’un sistema termodinàmic.

Per simplificar: si estem jugant al palet i només fem servir una pedra, és més fàcil que al llençar-la vagi a parar a la casella del joc que ens interessa. Si llancem 6 pedres, ja és més difícil que caiguin totes de manera disciplinada en un punt concret. Si volem jugar a científics, podem aplicar la fórmula de Boltzmann per calcular les probabilitats d’ordre del nostre palet.

El caos de les fonts d’informació

Boltzmann també va demostrar que la comunitat científica pot ser un autèntic cau d’escurçons suïcidant-se, suposadament, a causa de les crítiques i el rebuig que va patir la seva teoria sobre l’existència dels àtoms.

Li devem a un altre científic, el matemàtic i enginyer americà Claude Elwood Shannon (1916-2001) la formulació segons la qual la entropia també mesura el grau d’incertesa d’una font d’informació.

Ho podem constatar, per exemple, analitzant la informació de les paraules en un text: les  més utilitzades (el, de, la) solen aportar poca informació, però les menys freqüents (joc, pilota) n’aporten més. Quant tots els símbols del text són rellevants diem que l’entropia és màxima.

Shanon també és conegut per crear una màquina que va anomenar “The Ultimate Machine” que té l’únic objectiu d’apagar-se quan la voleu posar en marxa (ho dic de debò). Si aneu a Youtube podreu veure els diferents models que se’n continuen construint (amb peces de Lego, de fusta,…). Els humans som així.

Gestionar un arxiu a l’estil Marie Kondo

L’aplicació casolana de les teories sobre l’entropia ha arribat al màxim amb els consells de la consultora en organització japonesa Marie Kondo, que ens proposa seleccionar i ordenar en els nostres armaris els objectes que tenen algun significat o utilitat i eliminar la resta. Qui no voldria tenir un arxiu gestionat d’aquesta manera!

No sabem si, per culpa de la nostra naturalesa humana haurem de continuar la lluita constant contra el caos en els nostres sistemes d’informació i documentació o bé podem somiar en un futur de rendició a la natura en què navegarem per un caos d’informació comprensible.

Avís: la “Ultimate Machine” de l’article s’autoapagarà en uns segons.