El SER Biológico información con entropía.- En nuestra sección de Ciencia vamos a hablar de un artículo reciente que presenta una gran idea: definir formalmente la individualidad , a nivel biológico, en términos de información.
Cuestiones biológicas previas
Para algunos antecedentes, hay dos preguntas abiertas grandes y relacionadas en biología que hemos debatido durante mucho tiempo, y que deberíamos revisar primero. Antes de definir el SER Biológico información con entropía.
el problema de la emergencia
Primero, está el problema de la emergencia. Si comienzas desde la biología, es bastante fácil avanzar hacia atrás reduciendo la biología a sus partes componentes: encontrarás la química y la física como sus componentes subyacentes, sin nada desconocido. Pero es difícil ir para otro lado.
La vida es una cosa complicada, adaptativa y desordenada. Si comienzas con la física y la química, es difícil identificar qué es exactamente lo que aquí da vida. Decimos que la vida es un fenómeno “emergente” , que nos permite evadir la pregunta de “¿a través de qué emerge exactamente?”
El SER Biológico información con entropía
definir qué es exactamente un individuo
La segunda pregunta, que notarás es realmente la misma que la primera pregunta desde otro ángulo, es que nos resulta difícil definir qué es exactamente un individuo.
¿En qué punto una colección de moléculas comprende un “individuo” de algún tipo? ¿Podemos precisarlo con una regla que se defina en términos de las partes componentes, en lugar del comportamiento del producto emergente? Esto ha demostrado ser difícil de hacer.
El SER Biológico información con entropía
la individualidad biológica
Nos hemos inquietado con tres criterios de consenso para la individualidad biológica. Primero, los individuos consumen energía y la usan para persistir y aumentar su frecuencia relativa. En segundo lugar, los individuos se adaptan a sus entornos. Tercero, las partes que componen un individuo tienen relaciones estrechamente coordinadas entre sí.
Todo esto debería parecer bastante sensato. Pero no son 100% satisfactorios. Son observaciones proxy que no producen ninguna conexión profunda con la química y la física subyacentes. (Además, presentan todos estos casos extremos: una hormiga trabajadora no puede reproducirse; ¿eso significa que no es un individuo? ¿Qué pasa con los virus?) ¿Podemos hacerlo mejor?
Este artículo presenta una idea realmente satisfactoria: El SER Biológico información con entropía. La esencia fundamental de la individualidad, y las unidades en las que se debe medir la individualidad, es la información .
la esencia fundamental de la individualidad
Estás tratando con un individuo si estás lidiando con “lo mismo” entre hoy y mañana, y donde esa igualdad no es solo inercia pasiva, sino que se propaga activamente. Las personas propagan al máximo la información de su pasado a su futuro. Esta propagación es medible, al menos en teoría. Por lo tanto, la individualidad también debe ser medible.
Hay algunas buenas propiedades aquí. Esta definición de individualidad es continua y medible, por lo que abarca la idea de que algunas entidades o procesos podrían tener más individualidad que otras. También es independiente de cualquier nivel de organización o abstracción biológica y, además, permite el concepto de individualidad anidada: las bacterias en nuestros estómagos pueden poseer cierto nivel de individualidad mientras siguen siendo parte del sistema de nosotros, con su propia individualidad.
Lo mejor de esta definición es que no solo es rigurosamente cierto a partir de los primeros principios, sino que también establece un vínculo cristalino entre la biología y sus componentes reduccionistas de la química y la física. La información es el vínculo entre estas dos cosas. Necesario para comprerder el SER Biológico información con entropía. Eso puede no parecer obvio para algunas personas, por lo que vamos a pasar por otro concepto importante que probablemente haya escuchado antes, pero que no se sienta totalmente cómodo: la entropía .
La entropía
Probablemente te presentaron la entropía en la química de la escuela secundaria o la universidad, ya sea en términos de Gibbs Free Energy o la teoría cinética de los gases de Boltzmann. Son dos formas de ver lo mismo: “desorden”.
El desorden es una propiedad fundamental del universo. La segunda ley de la termodinámica, que es una de esas leyes blindadas del mundo, estipula que la entropía total en el universo siempre está aumentando. Todos los organismos vivos tienen que quemar calorías continuamente y trabajan para superar el desorden.
El SER Biológico información con entropía
Incluso las reacciones que parecen crear orden (como la congelación de un cubo de hielo) solo pueden ocurrir si hay una liberación correspondiente de calor al mundo exterior, lo que genera un aumento en el desorden. A nivel molecular y de partículas, el número total de “microestados” posibles para cualquier macroestado dado (digamos, agua a 5 grados Celsius) es una manifestación de este trastorno: más trastorno significa más estados potenciales.
Una forma de visualizar la entropía, y comprender el SER Biológico información con entropía, es imaginar un cristal de hielo en el momento anterior y posterior al derretimiento. En su estado congelado, las gotas de agua se fijan en un patrón reticular, donde hay espacios vacíos al lado de las moléculas de agua que previsiblemente están desocupadas. En el instante en que se derrite, esas partículas de agua ahora pueden ocupar cualquiera de esas posiciones. El agua se ha vuelto más desordenada.
El SER Biológico información con entropía
También es posible que haya aprendido sobre el concepto de entropía en otro lugar: si es ingeniero eléctrico o experto en informática, probablemente haya aprendido teoría de la información en algún momento. La teoría de la información se trata de transmitir información a través de un canal ruidoso desde una fuente a un destino. Si recuerdas, la información (que medimos en bits) significó la cantidad de incertidumbre que hay que resolver , y a menudo se le dio otro nombre: entropía. Esto también es aplicable para nuestro trabajo sobre el SER Biológico información con entropía.
La definición de Shannon de entropía
Esto no es una coincidencia. Tanto la entropía de Shannon, que habla de información, como la entropía de Boltzmann, que habla de termodinámica, son lo mismo . Son una medida del desorden.
Si vuelve a nuestro ejemplo de fusión de cristales de hielo: en el momento en que nuestro hielo se derrite, la cantidad de incertidumbre en la posición de las moléculas de agua aumenta en un bit por molécula.
La entropía de información de la posición de la molécula de agua y la entropía termodinámica del proceso de fusión son una y la misma .
El SER Biológico información con entropía
Sorprendentemente, si haces los cálculos en el cubo de hielo derritiéndose como un proceso termodinámico versus como un mensaje comunicado sobre la posición de la molécula de agua, obtienes la misma respuesta. No sé sobre ti, pero creo que esto es genial.
La definición de Shannon de entropía resultó ser mucho más poderosa que la de Boltzmann, porque es muy general. La “comunicación a través de un canal ruidoso”, si la generaliza, es el desafío de lograr que un Estado se propague fielmente de A a B, que no es solo un lugar a otro; También es con el tiempo, o de un proceso a otro.
La teoría de la información podría estar hablando de Alice en un extremo del teléfono y Bob en el otro extremo; o también podría significar que el remitente son tus padres, el destinatario eres tú y el mensaje es el ADN que heredas de ellos. O el remitente podría ser usted hace veinte años, el destinatario es usted hoy, y el mensaje es esa disposición de neuronas y sinapsis en su cerebro que de alguna manera han retenido cada palabra de la canción No Scrubs por TLC, aunque no haya Escuché esa canción en años.
Entonces, ¿qué significa para los individuos y organismos propagar información de su pasado a su futuro?
¡Matemáticas! para comprender la entropía
El experimento mental más simple para comprender la entropía es el lanzamiento de una moneda. Cuando lanzas una moneda justa, hay un poco de entropía en el lanzamiento: puede ser cara o cruz; igual probabilidad Cuando se revela que el flip es colas, resuelve un poco de información.
El SER Biológico información con entropía
Ahora imagine que en lugar de una moneda justa, es una moneda injusta que sabe que siempre caerá en la cola. Si no hay sorpresa cuando aterriza, entonces hay cero bits de entropía en el flip. No hay incertidumbre que resolver. ¿Qué pasa con una moneda un poco injusta? Habrá en algún lugar entre cero bits (cantidad mínima de incertidumbre) y un bit (cantidad máxima de incertidumbre). La equidad de la moneda le dice cuán “desordenada” es la moneda.
Realmente vale la pena pasar por la matemática de un problema de teoría de la información para realmente entender lo que significa hacer que un proceso reduzca la entropía, o que sea “menos desordenado”. Tienes derecho a saltarte la siguiente parte si quieres, ¡pero te prometo que no da miedo! Es elegante y accesible.
El SER Biológico información con entropía
Aquí está la ecuación de Shannon:
La cantidad total de entropía en un Estado H (S) es igual a la suma de:
-La probabilidad de que ocurra cada microestado posible (eso es P (si)) ; (por ejemplo, “cabezas” y “colas” son microestados)
Veces
El SER Biológico información con entropía
-El número de preguntas sí / no que tendría que hacer, en promedio, para deducir ese microestado particular de todos los estados posibles. Esa es la base de registro 2 parte. Si piensas en esto, no da miedo. Imagina que estás jugando un juego de veinte preguntas e intentas adivinar entre 8 posibilidades ponderadas iguales. Si lo haces metódicamente, te llevará 3 conjeturas: 2 a la tercera potencia. -Log base 2 de 1/8 es igual a 3.
En nuestro ejemplo de moneda justa, es trivial: para cada lado, la probabilidad es .5, y te tomaría una pregunta de sí / no para resolverlo. Entonces, la cantidad total de entropía es .5 veces 1 (caras) + .5 veces 1 (colas), o un bit. Lo cual sabías.
Hagamos uno un poco más difícil. En nuestro ejemplo de hielo derretido, digamos que nuestro cristal de hielo tiene doce estados posibles, y que son igualmente probables. En promedio, si estuvieras jugando el juego de preguntas, te tomaría 3.58 preguntas sí / no para adivinar correctamente 1 de 12. (-La base de registro 2 de 1/12 es 3.58.) Entonces, ¿qué tan “desordenado” es el cubo de hielo? ? En este caso, la matemática sigue siendo fácil: es 3.58 * 1/12, multiplicado por doce posibilidades. Entonces, 3.58 bits de entropía.
Ahora cambiemos un poco. Ahora tenemos un nuevo cubo de hielo, todavía con 12 estados, donde hay dos estados especialmente probables (¡50% más probable que la mayoría!) Y dos estados poco probables (50% más probable). Así que vamos a sumarlo:
Dos estados tienen una probabilidad de .125, o 1/8, lo que implica que, en promedio, tomará 3 preguntas sí / no para resolverlo
Ocho estados tienen probabilidad .08333 – en promedio, 3.58 preguntas sí / no, igual que antes
Dos estados tienen probabilidad .041666 – en promedio, 4.58 preguntas sí / no (¡menor probabilidad significa más preguntas!)
Agreguemos eso: 2 * (.125 * 3) + 8 * (.0833 * 3.58) + 2 * (.04166 * 4.58) = 3.51 bits.
¡Ahora, observe que este número es un poco más pequeño! Esto es importante. Nuestro segundo cubo de hielo se parece un poco más a una moneda injusta que el primer cubo de hielo. Es un poco más predecible, porque algunos microestados son más propensos que otros. Una entropía más baja significa que algunos microestados son más probables que otros, por alguna razón predecible.
Quizás se pregunte por qué Log base 2: ¿por qué la entropía está restringida a la incertidumbre entre dos y solo dos opciones?
El documento de Shannon resolvió esto inteligentemente argumentando, mira, cualquier incertidumbre entre más de dos opciones puede desglosarse aún más, como un árbol de decisión, hasta que en algún momento lleguemos a opciones que sean lo suficientemente pequeñas como para que dejemos de preocuparnos más allá de este punto . Esto se llama “grano grueso”. Importará en un segundo.
El SER Biológico información con entropía
Bien, ya terminamos la parte de matemáticas. Puedes volver ahora.
Información mutua y el individuo
Entonces, ¿cómo reducen los individuos la entropía? Si usted es un individuo, un organismo u otro proceso ordenado, su objetivo es controlar el trastorno y luego mantenerlo así.
El último concepto a recorrer es un concepto llamado información mutua . La información mutua es importante siempre que el receptor de un mensaje tenga la oportunidad de adquirir información de otro lugar.
El SER Biológico información con entropía
Si el receptor de un mensaje ya sabe algo sobre el mensaje con anticipación, entonces el mensaje será menos sorprendente para ellos. (Imagínese adivinar la carta superior de un mazo barajado, en lugar de adivinar esa carta superior si ya sabe que todas las espadas se han barajado hacia arriba. Vale la pena reducir la entropía por adelantado).
La información mutua es realmente importante cuando tratamos la cuestión de si la información se propaga de un lugar a otro, o de una vez a otra. Si mi conocimiento sobre algo (como la letra de TLC) se mantiene perfectamente consistente a medida que pasan los años, entonces podríamos decir que hay información mutua total entre mi estado actual y el actual. Por otro lado, las letras que he olvidado totalmente significan una información mutua entre entonces y ahora de cero.
El SER Biológico información con entropía
En una vena más grave, un organismo biológico hace algo similar con respecto a cada célula, cada enzima y cada proceso metabólico del que está hecho.
Ejemplo enzima biolófica y monedas
Tomemos una enzima como ejemplo. Una enzima biológica, que cataliza una reacción química en una dirección particular, es un poco como una moneda injusta. Si una enzima impulsa una reacción química hacia adelante de manera consistente y predecible, es como una versión sofisticada de una moneda injusta. Resuelve la incertidumbre sobre algo. Lo mismo ocurre con el ADN y el ARN, que transmiten información que reduce la incertidumbre sobre una cascada de reacciones químicas a punto de producirse.
Todas las cosas biológicas de las que está hecho existen para disminuir la entropía y luego pasar esa condición hacia adelante en el tiempo. Existe un organismo unicelular simple, incluso uno realmente despojado, para transmitir información en forma de monedas injustas. Cuando un proceso parece estar haciendo un trabajo para perpetuar activamente la cantidad de información que está transmitiendo en el tiempo, y además, si está buscando maximizar la información transmitida, entonces probablemente esté tratando con algo que deberíamos considerar como un individuo .
El SER Biológico información con entropía
En el documento, los autores revisan todas las diversas permutaciones de individuos que perpetúan información mutua en el futuro: tanto información interna como información que existe con respecto al medio ambiente.
El SER Biológico información con entropía
En todos estos casos, ya sea reproducción, adaptación o autorregulación interna y metabolismo, la individualidad es una cuestión de reducción de la incertidumbre temporal. Con esta nueva definición, se extiende suave y fácilmente fuera de la física y la química. Como lo expresaron los autores:
En nuestra opinión, lo fundamental es la idea de que la información puede propagarse a través del tiempo [por parte de los individuos], lo que significa que la incertidumbre se reduce con el tiempo. De esta manera, y volviendo a nuestros comentarios iniciales …, sugerimos que la individualidad es una extensión natural de las ideas de Boltzmann y Von Neumann, y como tal tiene fundamentos en la mecánica estadística y la termodinámica, que consideran las condiciones requeridas para los estados constantemente ordenados.
El SER Biológico información con entropía
¿cómo transmiten los organismos información mutua?
Finalmente, podemos responder: ¿cómo transmiten los organismos información mutua, ya sea información sobre ellos mismos o información sobre sus entornos, información a nivel de colonias o todo lo anterior?
Aquí es donde volvemos a ese concepto de “grano grueso”: hay ciertas unidades de información que están lo suficientemente “agrupadas”, como los nucleótidos de ADN que comprenden un código genético, que colocan un límite inferior sobre cómo se resuelve finamente una información debe ser para que se mantenga su fidelidad. Cuando nuestro ADN se transmite a través de la división celular o de las generaciones, esa información se convierte en grano grueso en A, T, C y Gs.
El grano grueso nos permite transmitir información mutua de hoy en día mañana. Transmitimos esa información en forma de innumerables pedazos de monedas injustas, como enzimas y nucleótidos que componen nuestros procesos metabólicos y códigos genéticos, todo lo cual asegura que la incertidumbre que estamos resolviendo hoy sea la misma que la incertidumbre que tenemos. Estás resolviendo mañana.
La vida está hecha de lanzamientos injustos de monedas, que propagamos hacia el futuro, para asegurarnos de que nuestro yo futuro tenga la misma ventaja sobre la entropía que nosotros. Creo que eso es bastante bueno. ¡Espero que hayas disfrutado esto y hayas aprendido algo de él! Si lo hizo, lo animo nuevamente a leer el documento original .
El SER Biológico información con entropía
Descubre más desde Red Social Colaborativa
Suscríbete y recibe las últimas entradas en tu correo electrónico.