domingo, 30 de octubre de 2016

Orden en la sala. Física para candidatos a presidente II

En la entrada Física para candidatos a presidente, hicimos una pequeña introducción a la Termodinámica y a su primer principio. Como parece que ya tenemos presidente en España y que estará durante algún tiempo, vamos a continuar para que los candidatos se vayan preparando de cara a las próximas elecciones. 
Continuando con la Termodinámica, hoy vamos a hablar de una magnitud física muy importante pero poco conocida: la entropía. También hablaremos del segundo principio de la Termodinámica.



El Diccionario de la Lengua Española define la entropía como:
1) Magnitud termodinámica que mide la parte de la energía no utilizable para realizar trabajo [...]
2) Medida del desorden de un sistema [...]

De la primera definición podemos deducir que la entropía de los políticos es bastante alta ya que utilizan mucha energía y el resultado (trabajo como algo aprovechable) es muy pobre. Pero nos vamos a centrar en la segunda definición:

La Entropía es una medida del desorden de un sistema

El Segundo Principio de la Termodinámica nos dice que, en un sistema aislado, el cambio de entropía cuando tenga lugar algún proceso será nulo o positivo, es decir, la entropía no cambiará o aumentará.

$$ \Delta S \ge 0 $$

Por eso, el desorden va creciendo en nuestras habitaciones a medida que van pasando los días. Lo siento, pero vuestra habitación no se va a recoger sola.

Vamos a tratar de explicar cómo podemos medir el desorden de un sistema que es lo que necesitamos para calcular la entropía.  Comenzaremos definiendo lo que es un estado macroscópico de un sistema. Ojo, estado en el sentido de "situación en la que se encuentra algo o alguien", no "país". Entenderemos por estado macroscópico o macroestado lo que vemos a "gran" escala.
Ahora bien, sabemos que los sistemas están formados por partículas pequeñas (átomos, moléculas,...) que no podemos "ver" a simple vista. Cómo se encuentran estas partículas que forman nuestro sistema es lo que llamamos estado microscópico del sistema o microestado.
Evidentemente, es posible que microestados diferentes den lugar a un mismo macroestado. Y eso es precisamente lo que utilizaremos para determinar la entropía de un sistema. Cuanto mayor sea el número de microestados posibles para un macroestado, mayor será la entropía de ese macroestado.

Fue Ludwig Boltzmann quien planteó la relación entre la entropía y la estadística. Ello dío lugar a una de las ecuaciones más importantes de la Física:

$$ \Large{ S = k_B \ln \Gamma}$$

en la que $S$ es la entropía, $k_B$ es la constante de Boltzmann ($1,380 648 52(79)\times10^{−23} J K^{−1}$ ) y $\Gamma$ es el número de microestados que dan lugar a un mismo macroestado. $\ln$ hace referencia al logaritmo neperiano.
Así, para calcular la entropía solamente necesitamos calcular cuántos microestados son posibles para un macroestado. Aunque este cálculo puede llegar a ser bastante complejo, vamos a poner un ejemplo sencillo que los políticos puedan entender.

Supondremos que nuestro sistema es un parlamento que tiene 48 escaños. Ya sabemos que son pocos, pero no negaréis que, para lo que hacen, hay de sobra.



Consideraremos que tenemos solo dos partidos: el colorado y el púrpura (el bipartidismo no está de moda, pero recordad que se trata de un ejemplo que puedan entender los políticos por lo que tiene que ser algo simple). Un macroestado estará descrito por el número de escaños de cada partido, por ejemplo, que el partido colorado tenga 30 escaños y el púrpura 18. Ahora bien, hay distintas formas de colocar a los diputados en los escaños para obtener esa suma. Cada una de las formas de colocar a los diputados en los escaños es un microestado.
Supondremos, además, que los diputados de un mismo partido son indistinguibles entre si (todos votan igual, piensan igual...). Sabemos que en la práctica no es así, pero recordad que se trata de un modelo sencillo.

Ya tenemos todo preparado para calcular la entropía. Comenzaremos suponiendo que el Partido Púrpura ha logrado todos los escaños:


¡El CAOS! dirán algunos. Pero tranquilos, calculemos cuál es la entropía en este caso. Nos tenemos que preguntar de cuántas maneras podemos repartir a los 48 diputados del Partido Púrpura para obtener los 48 escaños de ese partido. Si hemos dicho que todos los diputados son indistinguibles, solamente hay una manera de hacerlo: la que se muestra en la figura anterior. Por tanto, $\Gamma = 1$ y 

$$ S = k_B \ln 1 = 0$$

o sea, la entropía del sistema es NULA, el sistema se encuentra en perfecto orden y no en el caos como algunos habrán pensado.

Supongamos ahora que el Partido Colorado ha conseguido uno de los escaños. Nuestro macroestado será: Partido Púrpura, 47 escaños y Partido Colorado, 1 escaño. Un posible microestado sería:


 Aunque también sería posible:


O:



Si contamos todas las posibilidades, vemos que hay 48 combinaciones distintas que dan 47 diputados púrpuras y 1 colorado. La entropía será entonces:

$$ S = k_B \ln 48$$

que, logicamente, es mayor que cero, por lo que la entropía del sistema ha aumentado. Hay más desorden en el sistema.

Si el Partido Colorado tiene dos escaños, una posible combinación sería:


Pero hay muchas más, de hecho, más de 48 (dejamos al lector que calcule cuantas), por lo que la entropía será mayor que en los dos casos anteriores.
Así, cuantos más escaños consiga el Partido Colorado, mayor será la entropía del sistema y el desorden del mismo.

Una situación interesante es cuando ambos partidos tienen el mismo número de escaños:


En esta situación, la entropía es la mayor de todas las situaciones que hemos visto hasta ahora. El desorden es máximo también. Dejamos para nuestros valientes lectores el análisis de la situación en la que el Partido Colorado tiene más escaños que el Partido Púrpura hasta el caso extremo en el que se haga con todos ellos.

En resumen, la entropía es una magnitud que nos mide el desorden de un sistema y que, en un sistema aislado (que no interacciona con nada) solamente puede quedarse igual o aumentar. 
Y aquí lo vamos a dejar por ahora.
¡Hasta la próxima!


Bibliografía:

Sobre Boltzmann y su trabajo en Física Estadística:
-Boltzmann and Statistical Mechanics. E.G.D. Cohen. https://arxiv.org/pdf/cond-mat/9608054v2.pdf 

Sobre Entropía:
-Mecánica Estadística. J.J. Brey Abalo, J. de la Rubia Pacheco y J. de la Rubia Sánchez. 2008. UNED CU 222
-Entropía: La reina del desorden. E. Fernández-Borja (aka @Cuent_Cuanticos) Descubrir la Ciencia nº17. descubrirlaciencia.com

No hay comentarios :

Publicar un comentario