Entropía e información: Dos caras de la misma moneda


Entropía e información: Dos caras de la misma moneda

José Luis Carrillo Aguado*

*Con información del Dr. Arcadio Monroy Ata** y J.C. Peña-Becerril**

  Con toda certeza, usted se ha preguntado alguna vez: ¿De dónde proviene la vida, de dónde provenimos, a dónde vamos? La respuesta que tiene la ciencia a este interrogante, inquietante sin duda, es: La información puede ser la fuerza estimulante de la evolución biológica. La vida, como un estado de cosas, puede ser definida como un sistema relajado que tiene una biomasa estructural, o hardware, y programas genéticos y epigenéticos o software y una interfaz metabólica-ontogénica que regula los flujos de materia, energía e información, con el fin de tener una homeostasis autónoma, conducta  e incrementos en su llenado y funcionalidad. Lo que es más, un sistema viviente es un conjunto único de reservorio de programas que evoluciona de cara al ruido ambiental y en ocasiones, al caos. El Dr. Arcadio Monroy señala en su estudio, recibido el 15 de marzo de 2016 y aceptado el 6 de junio de 2016: “Durante años se han propuesto vínculos entre entropía e información de un sistema, pero sus cambios en tiempo y en sus estados estructurales probabilísticos no han sido probados en un modelo robusto como un proceso único. Este documento, elaborado por el Dr. Monroy Ata y J.C. Peña-Becerril, demuestra que incrementos en entropía e información de un sistema son las dos sendas para cambios en su estado de configuración. También, la evolución biológica tiene una tendencia hacia una acumulación de información y complejidad”. Con este enfoque, aquí se planteó como objetivo contestar la pregunta: ¿Cuál es la fuerza motriz de la evolución biológica? Para esto, se hizo una analogía entre la evolución de un sistema vivo y la transmisión de un mensaje en el tiempo, ambos en medio de estocasticidad (ruido ambiental).  Se empleó un modelo matemático, desarrollado inicialmente por Norberto Wiener, para mostrar la dinámica de la cantidad de información. Tomamos de la teoría de la información el término “entropía negativa” para referirnos al proceso de entropía decreciente en un sistema local (naturalmente, a expensas de un aumento de la entropía en otras partes), proceso al que algunos han identificado con un aumento de la organización en el seno de un sistema. Mientras menos entropía, mayor organización de la información.   EJEMPLOS DE ENTOPÍA E INFORMACIÓN Concebimos al sistema nervioso central como una colección de neuronas que forman una red compleja y en buena parte aleatoria, cuya estructura efectiva puede ser alterada mediante la activación o inactivación de conexiones interiores a la red para producir redes con funciones semipermanentes y  bien definidas, que a los seres humanos les parecerían menos aleatorias. Es posible resumir con mayor claridad el funcionamiento de este modelo en un lenguaje no técnico. Un sistema de un orden dado tiene metas que le son suministradas por sistemas de orden superior. Dichas metas tienen la forma de imágenes perceptuales de experiencias pasadas o de combinaciones de experiencias pasadas. El sistema actúa para hacer que su campo perceptual actual coincida lo más aproximadamente posible con el campo que constituye la meta. No actúa directamente sobre el mundo externo, sino sobre el único entorno con el cual se halla en contacto inmediato, a saber, la serie de sistemas del orden inmediato inferior. Su acción consiste en seleccionar y estimular las metas para los sistemas de orden inferior; es capaz de percibir las señales (ya sea de retroalimentación o de referencia) que resultan de su selección, de modo tal que se pueda especificar una serie de señales de orden inferior que, si se alcanza a emitirlas, serían interpretadas por la función de retroalimentación del propio sistema como la magnitud requerida de la variable perceptual. (Únicamente los sistemas de primer orden actúan directamente sobre el entorno (no-SNC).   DISCUSIÓN En el documento presentado por el Dr. Monroy Ata y su colega se demostró un modelo matemático que correlaciona la acumulación de información con evolución biológica, mediante información aditiva (que puede ser genética y epigenética). Los sistemas biológicos pueden ser asimilados como mensajes transmitidos a la siguiente generación, en medio del ruido ambiental (estocasticidad), biótico y abiótico. ¿Qué tipo de información? Podría ser tan simple como unidades binarias (bits, 0 y 1) que pueden ser colocados en la longitud de onda de un fotón. Por ejemplo, en la tecnología computacional el hardware es el soporte físico de un ensamble de información estructurada (algoritmos organizados jerárquicamente); estos programas informáticos corren en un sistema binario donde un carácter alfa-numérico está formado por una serie de unidades binarias, por ejemplo un byte (un byte equivale a 8 series de bits) y después, pueden formar datos (palabras), conceptos, sentencias, rutinas, algoritmos, programas y conjuntos de programas en el software de las computadoras. El ADN es un código de información genética y debe tener programas genéticos, epigenéticos y autónomos que regulan (por expresión o restricción) su desarrollo. El modelo matemático también señala que cambios en la información y entropía pudieran ser el mismo proceso: un incremento en la entropía normalmente significa una pérdida en la estructura o restricciones de un sistema. Por el contrario, la evolución de un sistema biológico usualmente significa un aumento en el tamaño de su cantidad de información y complejidad que deriva en su llenado y funcionalidad. Los sistemas biológicos son sistemas de construcción de información. Matemáticamente, el origen de la materia en el Universo pudo haber comenzado sobre cero entropía, y la evolución deriva de niveles de formación de organizaciones con el incremento de complejidad e información. La transición entre ambas es llamada la materia abiótica, y los sistemas vivientes deben haber sido trasladados de grados de libertad debidos al producto de la constante de Boltzmann por la temperatura. Los organismos vivientes “comen” fotones de alta energía y la distribuyen entre los fotones de baja energía. La entropía de fotones es proporcional al número de fotones en un sistema y en el balance energético de la Tierra. *Periodista científico independiente **Investigadores de la Facultad de Estudios Superiores Zaragoza de la Universidad Nacional Autónoma de México                    

Ciencia

About Author

Periodistas en línea