Tuesday, June 27, 2017

Física Cuántica: El Problema de la Medición


Mi carro se rompió el otro día, así pues lo llevé al taller.
El tipo de allí me dijo que él es un mecánico cuántico.
Le pregunté si podía arreglar mi carro o no.
El encogió de hombros y dijo:
"No sé. Primero tengo que mirarlo"


Este esotérico chiste del físico Stephen Hawking se refiere por supuesto a la notoria paradoja física conocida como Problema de la Medida que algunos textos de física explican de una manera simplificada basándose en el fenómeno de la dualidad onda-partícula, como una especie de efecto observador (*) donde los estados cuánticos no pueden ser observados sin ser alterados.

El Problema de la Medición simplificado como Efecto Observador

Otra explicación alternativa se basa en hacer una analogía con las ondas en general y la composición espectral de los paquetes de 'ondas piloto' donde resulta imposible determinar con infinita precisión la posición del paquete y su frecuencia o su longitud de onda (que en mecánica cuántica se relaciona con el momentum de la partícula según la relación de De Broglie λ=h/p) lo cual originaría un nivel de incertidumbre en el resultado de la medición.

Sin embargo, en realidad el problema es más profundo que eso y tiene que ver con la naturaleza aleatoria de los estados cuánticos y la formulación estadística de la mecánica cuántica basada en el concepto de la Función de Onda (**) que representa la amplitud de una onda de probabilidades, tal y como se explica a continuación.

La Teoría Cuántica (la cual nunca ha hecho una predicción errónea) plantea que antes que un observador "mire" o mida algo, el mundo físico solo existe como una superposición de todos sus posibles estados simultáneamente (lo cual conduce a otras famosas paradojas como la del Gato de Schrödinger donde el gato puede estar vivo y muerto al mismo tiempo). Esta superposición de estados se describe matemáticamente con una Función de Onda que se obtiene como la solución de alguna de las ecuaciones fundamentales de la mecánica cuántica (***). Solo después que se "mira" al mundo es que aparecen las partículas reales (llamadas quanta o cuánticas). Los físicos tampoco están seguros qué significa "mirar".

¿Qué es lo que realmente significa hacer una medición cuántica? Ciertamente sabemos como hacer mediciones pero lo que no sabemos es qué aspectos de la medición son necesarios para producir la existencia del mundo físico. Qué es lo que hace falta para convertir las probabilidades cuánticas en hechos reales, es una pregunta abierta en la física.

La física cuántica no nos dice qué existe sino solamente qué se medirá. Aun más, la teoría dice que no es posible medirlo todo, así que tenemos que escoger (según el Principio de Incertidumbre de Heisenberg) qué magnitudes observables vamos a medir. Solo después de escoger qué medir, la teoría nos da predicciones definidas de la probabilidad de observar valores específicos de la magnitud escogida.

El Experimento de la Doble Rendija


Para explicarlo de otra forma, tomemos como ejemplo el experimento clásico de la doble rendija e imaginemos un diálogo sobre un ‘experimento mental’ de difracción de electrones a través de la doble rendija, donde un físico teórico (FT) y un físico experimental (FE) discuten el posible resultado del experimento:

Experimento de la Doble Rendija

FE: ¿Podrías por favor decirme el resultado de mi experimento predicho por la teoría, de forma tal que yo pueda verificar o falsificar la teoría?

FT: Bueno, en realidad solo puedo decirte la distribución de probabilidades predicha por la teoría de encontrar la partícula en un punto de la pantalla, lo cual puedes verificar si haces un experimento con muchos electrones o si repites el experimento muchas veces, pero para eso tengo que calcular la Función de Onda.

FE: De acuerdo. Entonces déjame hacer la pregunta de nuevo. ¿Podrías decirme la distribución de probabilidades que la teoría predice y que yo puedo medir en mi experimento?

FT: Para eso primero tienes que decirme qué vas a medir y cómo vas a medirlo, es decir, qué configuración experimental vas a tener y qué instrumento vas a utilizar.

FE: No entiendo. ¿Por qué tengo yo que decirte eso primero?

FT: Porque mi cálculo depende de eso. Por ejemplo, si las dos rendijas son muy estrechas y están muy cerca una de otra comparadas con la distancia a la pantalla (lo cual permite que los electrones mantengan su estado de coherencia o 'entanglement') y si tus detectores están situados detrás de esa pantalla, entonces los electrones se comportan como ondas y la distribución de probabilidades va a lucir como un patrón de interferencia, similar al que seguro recuerdas del curso de óptica.

FE: Sí, recuerdo muy bien ese patrón de interferencia. ¿Pero qué pasa si entonces yo decido cambiar algo en la configuración de mi experimento, por ejemplo la posición de los detectores?

FT: Pues eso cambiaría la Función de Onda y por tanto la distribución de probabilidades que se podría medir. Para ponerte otro ejemplo opuesto. Si por el contrario tú decides separar las rendijas suficientemente, o hacer las rendijas muy anchas, o acercar tu contador de partículas a una de las rendijas para tratar de detectar un solo electrón, entonces los electrones se comportarán como partículas y la distribución de probabilidades luciría como una secuencia de pulsos muy estrechos; como 'ondas piloto' casi puntuales. Eso es así porque en ese caso tu experimento estaría en lo que llamamos el 'límite clásico' donde la probabilidad calculada a partir de la Función de Onda se reduce prácticamente a la trayectoria clásica de la partícula.

FE: Ya entiendo. Por eso yo tengo que decidir qué voy a medir y cómo medirlo, antes que tú puedas calcular el resultado que la teoría predice que debo obtener.

FT: Así es.

Notas:

* Un ejemplo real del efecto observador en mecánica cuántica es el llamado Zeno Effect (Efecto Zenón) donde experimentalmente se demuestra cómo un sistema cuántico no cambia mientras está siendo observado (como si el sistema se congelara en el tiempo durante la medición).

** En Mecánica Cuántica el estado de una partícula (por ejemplo su posición en el espacio) se describe matemáticamente con una Función de Onda de la siguiente forma:
\Psi (x,t)\,,
Donde x es la posición y t el tiempo. Nótese que esta es una función de valor complejo aunque x y t sean variables reales. Dado que la Función de Onda representa la amplitud de la probailidad, su módulo al cuadrado es un número real positivo que corresponde a la densidad de probailidad que la partícula esté en el punto x en el instante t:
\left|\Psi (x,t)\right|^{2}={\Psi (x,t)}^{*}\Psi (x,t)=\rho (x,t),

*** Las ecuaciones fundamentales de la mecánica cuántica, derivadas a partir de un conjunto de Primeros Principios, incluyen la Ecuación de Schrödinger no-relativista que resuelve el átomo de Hidrógeno y explica la tabla periódica de los elementos químicos, o la correspondiente ecuación relativista dada por la Ecuación de Dirac que explica el spin de las partículas, predice la antimateria, las partículas virtuales generadas por las fluctuaciones del vacio y la energía del punto cero (el vacío físico es visto como un mar de partículas con energía negativa), más las ecuaciones cuánticas de los campos (Quantum Field Theory) que describen tres de los cuatro tipos de campos o interacciones fundamentales que existen (electromagnetismo e interacciones nucleares fuertes y débiles) y constituyen el llamado Modelo Estándar de la física de partcículas elementales. El cuarto campo sería la gravitación que se describe con las ecuaciones del campo de Einstein derivadas de su teoría general de la relatividad.

**** En Filosofía de la Ciencia hay dos clases de aleatoriedad. Una es la aleatoriedad ontológica (teoría del ser) que existe en el mundo natural a nivel fundamental y que en Física Cuántica se describe matemáticamente con una Función de Onda que representa la amplitud de la probabilidad; o para decirlo parafraseando a Einstein, tal parece que a nivel de física fundamental "Dios juega a los dados". La otra es la aleatoriedad epistemológica (teoría del conocimiento) como por ejemplo la aleatoriedad del movimiento de los átomos en un gas, que en la Física Estadística que estudia ensambles de muchas partículas (grandes números) se describe a través de la Densidad de Estados, o a través de valores promedios de la distribución estadística; como por ejemplo la Temperatura definida como el promedio de la energía cinética de los átomos, etc. Nótese que la segunda clase de aleatoriedad no es algo fundamental en la naturaleza, sino que más bien refleja nuestro limitado conocimiento del sistema; es decir, que "Dios NO juega a los dados" a nivel de física clásica, aunque así lo parezca a veces.

El Dilema del Colapso de la Función de Onda

El Problema de la Medición realmente significa que cuando utilizamos un instrumento para medir una magnitud observable, la Naturaleza entonces produce un resultado real a partir de todos los posibles resultados permitidos por la teoría, a lo cual se le llama colapso de la función de onda, donde la distribución de probabilidades se reduce a un único estado llamado eigenstate o estado cuántico puro; que matemáticamente se describe como un vector es el espacio complejo de Hilbert.

El instrumento en principio puede ser cualquier conjunto de objetos 'clásicos' con el cual el sistema cuántico interactúa; ya sean objetos naturales o artificiales, o ambos. Por ejemplo, el instrumento puede ser algo natural como una célula de la retina del ojo, o artificial y tan complejo como el detector de partículas ATLAS del Gran Colisionador de Hadrones (LHC) del CERN mostrado en la foto. Pero si el mundo cuántico es solo un mundo de posibilidades, uno se pregunta de dónde salen tales instrumentos de medición reales. ¿Cómo y cuándo en un mundo puramente cuántico apareció el primer "instrumento" que fue capaz de producir la realidad que conocemos a partir de tantas posibilidades? Esta es una paradoja que recuerda el problema del huevo y la gallina para la cual los físicos no tienen una buena respuesta.

Detector ATLAS del LHC en el CERN

Algunos físicos creen que para poder resolver lógicamente estas paradojas hay que considerar la teoría de los Muchos Mundos o Universos Paralelos que plantea que cuando la función de onda colapsa debido a una medición u observación, y solo una de sus posibilidades se materializa en nuestro universo observable, lo que ocurre es que cada otra posibilidad no materializada se realiza en algún otro universo paralelo.

Sin embargo muchos físicos hoy en día consideran que en realidad este problema está intrínsecamente relacionado con ese otro problema fundamental de la filosofía conocido como Problema de la Consciencia y que no será posible tener una respuesta adecuada a estas preguntas hasta que se considere la naturaleza cuántica de la consciencia; ya que medición es sinónimo de observación, y precisamente eso que llamamos "consciencia" es el observador final que colapsa la función de onda al observar la realidad física.

Max Planck, uno de los fundadores de la Mecánica Cuántica, fue el primero que planteó el carácter fundamental de la consciencia en la física cuando dijo “considero que la consciencia es fundamental y que la materia es derivada de la consciencia”. Incluso algunos físicos como Eugene Wigner, premio Nobel de Física en 1963, han llegado a plantear que la consciencia es condición necesaria para la existencia de la realidad física. Idea que ha sido extrapolada por otros físicos quienes consideran que, como lo ha expresado el profesor Michio Kaku, eventualmente se necesitaría una cadena infinita de observadores, cada uno observando al otro, y como Wigner implica, esta cadena de observadores colapsando la función de onda en un proceso continuo por consenso sería como una Consciencia Cósmica o Dios.

Hay quienes comparan la física cuántica a un enorme edificio donde los físicos, como laboriosos obreros, han ido completando piso por piso mientras que la base se mantiene soportada por un precario andamio que nadie quiere examinar de cerca por temor a que toda la estructura colapse. A pesar de lo cual los logros de la mecánica cuántica son impresionantes, tanto desde el punto de vista teórico como práctico. Podría decirse que los físicos de hoy han logrado domesticar la mecánica cuántica y hasta han enseñado al gato de Schrodinger a maullar, sin embargo para nosotros los neófitos el universo sigue siendo tan misterioso como los átomos siempre han sido.

En fin, que el problema de la medición cuántica no es un chiste.

Friday, May 5, 2017

El Enigma de la Consciencia

El libro "Quantum Enigma: physics encounters consciuosness", de los físicos Bruce Rozenblum y Fred Kuttner, es uno de los mejores libros de física cuántica recientemente publicados que discute el llamado Problema Duro de la Consciencia * (en inglés, the hard problem of consciousness, según fue enunciado por el filósofo David Chalmers) porque tiene un tratamiento serio y riguroso del problema sin requerir conocimientos avanzados de física o matemática, explorando las implicaciones filosóficas de la mecánica cuántica con relación al concepto de la mente cuántica, incluyendo los siguientes temas:

El Problema de la Medida y su relación con los dos enigmas cuánticos:
  1. Si se requiere un observador para crear la realidad física.
  2. Si, parafraseando a Einstein, Dios juega a los dados, o no.
El libro también toca algunos temas relacionados con los prometedores enfoques actuales hacia la Teoría Cuántica de la Consciencia que incluye por ejemplo:
Sinceramente pensamos que este libro debería ser leído por todos los científicos y estudiantes de ciencias; porque nos confronta con varios importantes aspectos filosóficos y metafísicos derivados de la física que normalmente casi nadie quiere asumir. Como físico, este libro es altamente recomendado para todos los estudiantes y colegas que deseen leerlo y discutirlo también.

 

(*) Para los lectores que no estén familiarizados con el Problema de la Consciencia y las investigaciones científicas actuales alrededor de este tema, recomendamos leer la siguiente introducción.

¿Qué es la Consciencia?

Esta pregunta no es nada trivial y posiblemente sea uno de los grandes retos de la ciencia contemporánea. El problema de la consciencia en realidad es una especie de círculo vicioso donde nuestra consciencia está tratando de conocerse a sí misma, lo cual complica el asunto. Como ha dicho un profesor de neurociencias, si el problema de la conciencia fuera tan simple que nosotros pudiéramos entenderlo, entonces nosotros seríamos tan simples que no podríamos.

No obstante, hay algunas cosas que sí podemos entender si al menos comenzamos con una buena definición del problema. Por eso nos parece importante aclarar algunas confusiones que existen sobre el concepto de Consciencia en general, ya que por ejemplo en el idioma español la palabra consciencia tiene varios significados, e incluso se utiliza como sinónimo de conciencia, cuya definición tiende a enfatizar el aspecto moral o de conocimiento del bien y el mal (que no es el tema de este blog). Aparte que estas definiciones de uso común tienden a ser antropocéntricas, es decir, que incorrectamente presuponen que la consciencia es solo un atributo de los seres humanos, ya que como poéticamente dijera un filósofo "si tener consciencia (alma) significa ser capaz de sentir amor, lealtad y gratitud, entonces los animales están mejor que muchos humanos".

O bien porque parte de la confusión tiene una buena razón de ser y se debe a que en la medida que ha avanzado el conocimiento científico, han ido apareciendo nuevas y diversas definiciones en las diferentes ramas del conocimiento donde es aplicable; que van desde la física, la biología, la medicina, la psicología, hasta la filosofía.

De entre las diferentes definiciones de consciencia que existen y puedan existir, nótese que aquí estamos hablando de la Consciencia Autoreflexiva (también a veces llamada meta-consciencia o consciencia de la consciencia) la cual nos da el sentido del Ser (el inefable sentido de que Yo Existo o Yo Soy) y que nos permite reconocer nuestro propio ego, así como la personalidad de nosotros mismos y de de otros (en inglés, consciousness o self-awareness). Sin embargo, en este caso no estamos hablando de la inteligencia ni de otras definiciones de la consciencia normalmente utilizadas en disciplinas científicas como la medicina y la psicología.

Una confusión frecuente que ocurre en medicina es cuando los médicos se refieren al estado de consciencia del paciente, ya sea normal o patológico, pero en realidad se está hablando de los niveles de consciencia (en inglés, Level of Consciousness o LOC) que se definen y estudian en la ciencia médica, y que son claves en las especialidades de neurología, anestesiología, etc., los cuales se pueden medir con el EEG, el Functional MRI u otros métodos experimentales, pero en realidad se trata de conceptos diferentes. Haciendo una analogía dualista con la computación, los niveles de consciencia que se miden en la ciencia médica serían como las señales eléctricas que se pueden medir en los circuitos electrónicos del 'hardware' de la computadora utilizando un osciloscopio u otro instrumento similar, pero eso no es lo mismo que el 'software' de la mente que contiene el 'código fuente' de los programas y aplicaciones que producen dichas señales eléctricas en los circuitos.

Otra fuente de confusión respecto a la definición de consciencia ocurre frecuentemente en psicología con relación a la estructura de la psiquis humana y los conceptos de consciente versus subconsciente o inconsciente. Por lo cual nos parece importante notar que los conceptos de sub-consciencia y supra-consciencia fueron introducidos por Frederic Myers en sus estudios de los fenómenos psíquicos publicados en su libro 'Human Personality and Its Survival of Bodily Death' en 1893, para más tarde ser desarrollados por Sigmund Freud, Carl Jung y los creadores del psicoanálisis. Y aunque hoy en día el psicoanálisis ha dejado de ser una escuela importante en psicología (algunos lo consideran pseudociencia) de todas formas el concepto del subconsciente o inconsciente sigue siendo útil para estudiar y entender los estados de neurosis y psicosis, así como muchos estados y procesos mentales normales que afectan nuestro comportamiento sin darnos cuenta de ellos. No obstante, la división de la psiquis humana en consciente e inconsciente no es el tema de este blog ya que no se relaciona con la definición más general de consciencia autoreflexiva.

La Cuestión de la Inteligencia

Por otra parte el problema de la inteligencia, o sea, la capacidad cognitiva de los organismos y las especies para aprender y resolver problemas prácticos y así ayudar a su propia supervivencia (incluyendo formas de pensamiento abstracto como diseñar, anticipar el futuro y hacer planes a largo plazo, razonar y tomar decisiones, el uso del lenguaje en la comunicación, el desarrollo de tecnología, etc.), es una cuestión diferente que a veces se confunde con el de la consciencia, sobre todo cuando se habla de Inteligencia Artificial (IA) o de las múltiples formas de inteligencia que se estudian en Psicología y que se intentan medir a través del controversial Cociente Intelectual (en inglés, IQ) u otros métodos.

Una forma de entender la diferencia entre inteligencia y consciencia es tratar de imaginar un robot biológico, es decir, un organismo de origen biológico que pudiera ser muy inteligente pero que no tendría consciencia de sí mismo. El 'experimento mental' del robot biológico nos plantea varios problemas. Por ejemplo, cómo saber cuando un organismo biológico inteligente tiene consciencia de sí mismo, para lo cual los científicos han ideado varias pruebas, como el clásico Test de Turing de la Inteligencia Artificial, la Prueba del Espejo de la Biología (en inglés, Mirror Self-Recognition Test o MSR), el argumento filosófico del Molino de Leibniz, el argumento de la Habitación China, el Test de Voight-Kampff de Empatía, etc.; aunque hasta ahora todos esos argumentos filosóficos y pruebas empíricas objetivas adolecen de serias limitaciones al no considerar la naturaleza subjetiva de la consciencia. O el aún más interesante problema filosófico de por qué nosotros los humanos no somos simples 'robots biológicos', lo cual quizás hubiera sido favorecido por la evolución, o al menos así lo creen algunos psicólogos evolucionistas.

Lo cual también se conecta con la factibilidad de que en un futuro se pudieran construir robots biológicos artificiales que pudieran tener alguna forma de 'consciencia', ya sea como los temidos 'cyborgs' de la película Terminator, o los 'replicantes' de Blade Runner, o los androide de la película 'I, Robot' que cumplirían las tres leyes de la robótica de Isaac Asimov --aunque en realidad una discusión seria de la factibilidad de un robot biológico artificial y sus implicaciones filosóficas se saldría por completo del alcance de esta introducción.

Replicantes de Blade Runner: ¿Tendrán Consciencia?

En resumen, que inteligencia y consciencia son cosas diferentes y tener una no implica tener la otra, aunque quizás podría existir una correlación respecto a ciertos atributos comunes en ciertos casos, pero eso aún esta por ver.

El Reto de la Consciencia
(o por qué tengo consciencia de que tengo consciencia)

Sobre la hipótesis del cerebro como el ‘hardware’ de una computadora cuántica, aunque esta idea parece muy promisoria, aún existen algunos problemas que quedarían por resolver. Uno de los retos que enfrentan estas teorías es explicar las Qualia, es decir, el misterio de cómo y dónde está el ‘software’ de la mente que permite la aparición de esas inefables cualidades y experiencias subjetivas a partir de dicho hardware.

Otro reto a considerar es la pregunta de cómo el cerebro logra mantener el estado de coherencia cuántica (en inglés, quantum entanglement) que permite que dicha ‘computadora’ funcione. Y en ese sentido la novedosa teoría de Matthew Fisher podría explicar cómo es posible mantener la coherencia cuántica de los Qubit (bit de computación cuántica) gracias al efecto del spin nuclear en los átomos de fósforo en el cerebro; lo cual es prometedor.

Además de lo anterior, otra cuestión que la teoría debe ser capaz de explicar y predecir es en qué momento de la evolución biológica del cerebro aparece la consciencia autoreflexiva (según el modelo triúnico que va del cerebro reptiliano, al sistema límbico de los mamíferos, hasta el neocórtex de los grandes simios) y que clases de consciencias diferentes pueden ser soportadas por los diferentes niveles de organización del hardware de la biología.

Modelo Triúnico del Cerebro

Regresando al tema que nos ocupa sobre los retos que enfrentan estas teorías y tomando como ejemplo la teoría de Penrose y Hameroff que postula que los microtúbulos celulares (el citoesqueleto de la célula eucariota) es el lugar físico donde la función de onda colapsa debido al efecto de la gravedad cuántica para producir el Qubit en dichas células. Uno se pregunta, acaso cualquier célula puede producir ese efecto (incluyendo posiblemente organismos unicelulares) o quizás el efecto solo ocurre en las neuronas gracias a la complejidad de la anatomía y la fisiología del cerebro; y si así fuera, ¿por qué? Por otro lado, incluso si el efecto solo ocurriera en el cerebro por alguna razón especial (por ejemplo porque solo entre neuronas ocurre la sinapsis y se segregan los neurotransmisores) uno aún se pregunta cuáles son las condiciones necesarias y suficientes para que esto ocurra.

Otro ejemplo. ¿Acaso el carácter bicameral de la anatomía del cerebro, consistente en dos hemisferios cerebrales con funciones psicológicas complementarias, tal y como si un lado estuviera 'observando' al otro, llegando incluso a intercambiar funciones mediante un proceso llamado Plasticidad Cerebral o Neuroplasticidad, es una condición necesaria, pero no suficiente, para que la consciencia de tipo autoreflectiva pueda emerger en una especie biológica específica? Lo cual por cierto es la especulación de algunos filósofos de la consciencia como Julian Jaynes quienes le dan más importancia al factor cultural que al biológico en la aparición de la consciencia autoreflexiva. Estos son algunos ejemplos de fenómenos y observaciones que una buena teoría de la consciencia debería ser capaz de explicar de manera convincente y empíricamente falsificable.

Finalmente, cualquier teoría cuántica que verdaderamente pretenda explicar la ‘consciencia’ tendrá que integrar todo este conocimiento multidisciplinario de la física, la biología, la medicina, la psicología, e incluso la filosofía, y explicar cómo se produce ese flujo continuo de pensamientos que tal parece un monólogo interior con nuestra propia narrativa personal (en inglés, stream of conciousness) el cual nos permite afirmar ese famoso truismo cartesiano que dice ‘pienso, luego existo’ (Cogito ergo sum) y llegar a conocer al Universo que nos ha creado y a nosotros mismos a través de esa omnipresente realidad subjetiva que llamamos Consciencia.


Friday, September 2, 2016

Universos Paralelos y Misterios de la Cosmología

Los físicos hoy en día creen que existe un conjunto infinito de universos paralelos al que llaman Multiverso y que el universo conocido por la física hasta ahora es solo uno de ellos. Estas novedosas ideas se fundamentan en los avances alcanzados por la mecánica cuántica y la física teórica a partir de la llamada Teoría de la Cuerdas (String Theory en inglés) la cual asume que las partículas materiales aparentemente puntuales son en realidad estados vibracionales de un objeto más básico llamado 'cuerda'. Esta teoría que comenzó a desarrollarse en la década de los 80 actualmente ya tiene un grado de madurez tal que muchos físicos la consideran como la Teoría del Todo (Theory of Everything).

La razón por la cual nuestro universo es tan especial entre todos los posibles mundos del multiverso es porque el conjunto de las constantes físicas fundamentales está muy finamente sintonizado para permitir no solo la aparición de nuestro sistema solar y nuestro planeta Tierra con la vida biológica en toda su maravillosa diversidad, impulsada por la explosión cámbrica hace más de 500 millones de años, sino también la existencia de la consciencia de tipo autoreflexiva que nos da el sentido del Ser (el inefable sentido que tenemos de que Yo Existo o Yo Soy) y que, como diría un filósofo, es lo que en fin de cuentas nos permite observar el Universo que nos ha creado y llegar a conocernos a nosotros mismos.

Este conjunto de constantes físicas fundamentales que hasta ahora se cuentan en más de veinte, las cuales funcionan como parámetros de ajuste en las múltiples teorías y modelos matemáticos de la física, incluye por ejemplo: La constante de gravitación universal de Newton, la velocidad de la luz en el vacío derivada de las ecuaciones de Maxwell, la constante termodinámica de Boltzmann, la constante cuántica de Planck, el radio atómico de Bohr, la constante cosmológica de Einstein, la carga eléctrica elemental, la masa en reposo y el spin de las partículas elementales, así como las constantes de acoplamiento de las cuatro fuerzas físicas fundamentales: gravitación, electromagnetismo, e interacciones nucleares fuertes y débiles (incluyendo la constante de estructura fina de Sommerfeld, la relación entre la intensidad de la fuerza gravitacional versus la fuerza electromagnética, la relación entre la masa en reposo del protón sobre la del electrón y los parámetros de acoplamiento de leptones y quarks; ver Modelo Estándar más adelante).

Quizás lo más asombroso de todo esto es que con solo cambiar un poco el valor de cualquiera de estas constantes físicas, nuestro universo resultaría ser muy diferente a lo que conocemos, y quizás ni siquiera podría haber llegado a crearse. Este sorprendente hecho es lo que los científicos llaman Principio Antrópico que algunos interpretan como un argumento de diseño o propósito para la existencia de nuestro Universo como providenciador de la vida biológica inteligente y la consciencia.

Otro muy interesante aspecto de esta teoría es que predice la existencia de un Hiperespacio con un número de dimensiones espaciales mayor que las 3D que experimentamos en nuestra realidad cotidiana. Por ejemplo, la variante llamada Teoría M (o Supercuerdas) propuesta por Edward Witten en 1995, además de unificar las cuatro interacciones físicas fundamentales en una sola teoría matemática a partir de un conjunto de primeros principios y predecir la existencia de todo un conjunto de nuevas partículas llamadas parejas supersimétricas (en inglés, SUSY) también predice la existencia de un total de 11 dimensiones del espacio-tiempo. Estas dimensiones extra del espacio también son llamadas dimensiones ocultas, o 'hidden dimensions' en inglés, porque no se pueden observar directamente ya que se compactan por debajo de la Longitud de Planck de 10−35 m.

Universos conectados por membranas multidimensionales o 'Branas'

La existencia de un universo de muchas dimensiones espaciales podría resultar tan maravilloso para nosotros los seres tridimensionales como lo era la tercera dimensión para los habitantes de la novela Planilandia (Flatland en inglés). Por eso entender la física de un posible universo multidimensional resulta ser tan importante en la actualidad.

Misterios de la Cosmología Física

Precisamente ese caracter multidimensional del universo podría ser la clave para explicar algunos de los misterios de la Cosmología Física, como la llamada materia oscura (dark matter) que mantiene las galaxias cohesionadas en sus formas espirales con igual velocidad de rotación frente a la distancia al centro de la galaxia, lo cual no se puede explicar solo mediante la materia visible. O la energía oscura (dark energy) que causa la expansión acelerada de nuestro universo.

Por otro lado la existencia de parejas supersimétricas predichas por la teoría podría permitirnos avanzar en el descubrimiento de nuevas formas de energía y materia hasta ahora desconocidas por la ciencia, que van más allá del actual Modelo Estándar de la física de partículas elementales, consistente hasta ahora en 16 partículas elementales divididas en 12 ferminones (partículas de materia) y 4 clases de bosones (mediadores de los campos de fuerza) en dependencia del tipo de interacción física fundamental de que se trate, más el Bosón de Higgs (también llamado Partícula de Dios) cuyo campo genera la masa del resto de las partículas, pero que muchos físicos hoy en día consideran incompleto.

Modelo Estándar de las Partículas Elementales

Incluso estas ideas podrían ayudar a resolver algunos problemas no resueltos de la física, como la actual teoría de la Inflación Cósmica propuesta por Alan Guth en 1981, la cual describe los instantes iniciales de la creación del universo y resuelve el Problema del Horizonte o por qué la temperatura del universo resulta ser tan uniforme (homogenea e isótropa) aunque por otro lado se supone una expansión inicial a velocidades superlumínicas, es decir, que la actual velocidad de la luz en el vacío no habría sido un límite en aquel caso (la radiación térmica se propagó más rápido que la gravedad) la cual es una hipótesis que pronto se espera poder probar en los experimentos del LIGO que buscan detectar las ondas gravitacionales y otros experimentos.

Y quizás también confirmar la teoría alternativa llamada Universo Holográfico, la cual es una idea o Principio propuesto por Gerard Hooft, Charles Thorn, Leonard Susskind, Juan Maldacena y otros en los años 90, que establece que la información de nuestra realidad 3D está codificada como si fuera un holograma en una superficie 2D en la frontera, y que además podría resolver el problema de los 'agujeros de gusano' (wormholes) y la paradoja de la información en los 'agujeros negros' a través de la Conjetura ER=EPR; lo cual pronto se espera poder comprobar empíricamente.

Para conocer más sobre estas fascinantes teorías físicas y sobre los científicos que actualmente trabajan en ellas recomendamos el siguiente documental titulado Parallel Universes de BBC Horizon (en inglés) que explica todos estos conceptos en un lenguaje sencillo y fácil de entender.

Si las predicciones de estas novedosas teorías físicas pueden comprobarse empíricamente en observaciones cosmológicas como la radiación de fondo de microondas remanente del Big Bang, o en experimentos de laboratorio como los realizados en el Fermilab o los que se esperan realizar en el Large Hadron Collider (LHC) en el CERN, quizás en verdad, como ha dicho el célebre físico Stephen Hawking, los seres humanos en la tierra pronto llegaremos a conocer "la mente de Dios".


Thursday, May 5, 2016

El Milagro de la Inmunoterapia

La ciencia médica ha avanzado mucho en las últimas décadas y una de la areas donde esos avances son más impresionantes es en la rama de la Inmunología. Mucho se ha aprendido sobre cómo funciona el sistema inmunológico, así como qué pasa cuando por alguna razón el sistema falla, y más importante aún, qué se puede hacer para 're-programarlo' y lograr que vuelva a funcionar normalmente. Y aunque en realidad este es un tema muy complejo y muy especializado, de todas formas hemos querido escribir una introducción al tema, en lenguaje sencillo, dando algunos nombres y referencias que esperamos sean útiles para al menos poder mejor entender las noticias que leemos sobre los 'milagros' de estas nuevas terapias y así poder hacer una mejor valoración del mismo. Pero primero, algunos conceptos básicos.

Por qué tu cuerpo (en su mayoría) no eres tú

Es cierto: Si bien el número de células que componen los órganos y tejidos del cuerpo es asombrosamente grande (1013 , o sea, un 1 seguido de 13 ceros), en realidad hay 1014 células adicionales, desde bacterias hasta parásitos eucariotas, que están con nosotros solo para darse el viaje gratis. Es decir que por cada una de tus células, hay diez minúsculos acompañantes más - y esto sin siquiera contar los huéspedes no celulares como los virus. Por suerte para nosotros, la mayoría de estos co-habitantes del cuerpo no son dañinos, y algunos hasta pueden ser beneficiosos y necesarios para la vida, como la flora microbiana que en forma pacífica cubre áreas como el interior de la vía digestiva y la boca. ¿Cómo es posible entonces que usted y tantos vecinos microscópicos vivan lado a lado? La respuesta está en el sistema inmune innato.

El Sistema Inmune Innato: Cercas y Perros Guardianes

Aunque la piel humana puede parecer frágil, capaz de magullarse o cortarse en actividades cotidianas, esta es una barrera notable contra muchos invasores inadvertidos o intencionales. La capa de células que forman la piel humana es suficiente para evitar muchas plagas, y las inofensivas no suelen causar problemas a menos que logren pasar a través de un orificio en esta pared. Esta es la primera linea de defensa del cuerpo.

Otra de las defensas de primera línea del cuerpo no es tan visible, cubriendo el interior de tu sistema digestivo y respiratorio: la membrana mucosa que segrega el moco. Al revestir estas células, esta sustancia viscosa evita que los invasores se adhieran y crezcan en lugares que de otra manera representan un hogar tentador.

Sin embargo, incluso si un invasor consigue entrar en el cuerpo, hay defensas adicionales. Como ejemplo seguiremos el camino de uno de esos visitantes no deseados, que llamaremos Patógeno X. El Patógeno X no se contenta simplemente con coexistir con las células de la piel y las células musculares: trata de invadir activamente al anfitrión. Moviéndose a lo largo de la superficie del cuerpo (de cualquier manera que lo haga), encuentra una grieta en la piel o en la membrana mucosa que le permite deslizarse más allá de estas primeras líneas de defensa.

Afortunadamente, sin embargo, el sistema inmunológico tiene algunos trucos en su arsenal. Uno de ellos es un conjunto de grandes células llamadas fagocitos, que significa "comedores". Esta es una descripción adecuada de lo que hacen, envolviendo a los intrusos desconocidos en las áreas que patrullan (no son comensales particularmente exigentes). Una clase de estos fagocitos que vamos a encontrar muchas veces son llamados macrófagos - su nombre significa literalmente "grandes comedores". Son como perros guardianes no muy brillantes que devoran a los patógenos invasores, digiriéndolos con moléculas nocivas que ellos producen. Sin embargo, otra clase de fagocitos, llamados células dendríticas (derivados de los monocitos), adopta un enfoque un poco más sofisticado, envolviendo a sus presas pero también manteniendo un registro de lo que han encontrado. Hacen esto exhibiendo un pedazo del Patógeno X en su membrana exterior, y, como un perro guardián bien entrenado, regresan con los otros miembros del sistema inmune para mostrarles su hallazgo.

El Sistema Inmune Adaptativo: Detectores para huellas moleculares

Al replegarse más profundamente dentro del cuerpo, la célula dendrítica muestra el fragmento del Patógeno X que ha adquirido a sus primos celulares, los linfocitos más inteligentes. Estas células no irán tras cualquier presa: se les debe mostrar un objetivo. Este es el propósito del fragmento X del patógeno: actuar como un tipo especial de molécula llamada antígeno. Un antígeno es esencialmente un compuesto generador de anticuerpos (también llamados Inmunoglobulinas), que en la práctica sirven como una especie de "huella digital" molecular para que los linfocitos sepan qué buscar. A partir de aquí, hay dos clases de linfocitos que difieren en cómo reaccionan al conocimiento de que el Patógeno X está invadiendo.

La primera clase de linfocitos se llaman células B (en inglés, B-cells). La letra B viene de 'bone marrow' en inglés, es decir, de la médula ósea, que es donde se forman estas células, pero también se puede pensar en ellas como células anticuerpo, porque su respuesta a la infección es producir anticuerpos para responder a la señal del antígeno.

Un anticuerpo es una molécula en forma de "Y" que funciona como una especie de "detector de metales" para moléculas particulares. Al igual que un extremo de un detector de metales se utiliza para detectar la presencia de metal, el anticuerpo ayuda a conducir a otros miembros del sistema inmune al sitio de la infección por el reconocimiento de la "huella" - el antígeno. Este reconocimiento se produce porque el interior de la "bisagra" del anticuerpo está hecho especialmente para que se adhiera al antígeno más fuertemente que otras moléculas: los aminoácidos que lo componen tienen la forma y el contenido adecuados para que las dos superficies se entrelacen como una llave a una cerradura. Una vez que se adhiere a un antígeno o, más específicamente, a un cierto sitio de reconocimiento en el antígeno denominado epítopo, el anticuerpo neutaliza las toxinas y los virus, y también dirige tanto células T (véase más adelante), así como fagocitos y proteínas destructivas llamadas 'Complemento' hacia las células infectadas con el Patógeno X, que muestran el antígeno del Patógeno X en su superficie o copias flotantes del Patógeno X. El 'Complemento' puede perforar agujeros en la membrana de una bacteria o causar daño a una capa viral y los fagocitos pueden engullir al patógeno.

Por su parte las células T cuando se activan pueden secretar sustancias químicas nocivas llamadas en general citotoxinas (en inglés, cytotoxin) que destruyen las células infectadas con el patógeno o les activan un programa genético de muerte celular controlada llamado apoptosis; el cual es un proceso regulado por una clase de gen llamado proto-oncogén que también es clave durante el crecimiento y división celular.

Cada anticuerpo se une a un antígeno específico de forma similar a una llave en una cerradura

Nótese que cada célula B produce un anticuerpo único, por lo que tu cuerpo está generando constantemente nuevas células B adecuadas para combatir cualquier patógeno que el sistema inmunológico pueda encontrar.

La forma en que las células B utilizan los anticuerpos para responder a una infección depende de cómo se desarrollan. Las células B más jóvenes y menos desarrolladas tienen sus anticuerpos que sobresalen de sus membranas plasmáticas y los utilizan para detectar la presencia de antígenos. Otras, las células B más antiguas, también son llamadas células plasmáticas. Estas son más grandes y segregan grandes cantidades de anticuerpos en el torrente sanguíneo. Las células plasmáticas generalmente sólo se producen después de que el cuerpo ha respondido a un patógeno, ya que deben desarrollarse a partir de la clase más joven de células B.

Sin embargo, algunos linfocitos no utilizan anticuerpos. Estos se llaman células T. Como antes, la T es una indicación del origen de estas células, un órgano llamado el Timo, pero también se puede pensar en ellas como células de seguimiento o células de traducción. El primer tipo, los rastreadores, se llaman células T "asesinas" (en inglés, Killer T-cells) y como buenos vigilantes recorren todo el cuerpo buscando el antígeno para el Patógeno X. Como se mencionó anteriormente, las células infectadas con el Patógeno X mostrarán su antígeno en su superficie y cuando el asesino célula T lo encuentra, se enganchan y secretan sustancias químicas nocivas que destruyen la célula infectada con patógenos. El otro tipo de células T, los traductores, también se llaman células T "auxiliares" (en inglés, Helper T-cells). Aunque ambas clases de células T detectan el antígeno con un receptor en su superficie, los "traductores" auxiliares transmiten el mensaje a las células B utilizando pequeñas proteínas llamadas en general citocinas (cytokines o lymphokines) como si fueran señales químicas especiales; las cuales a su vez pueden tener nombres específicos como interferón, interlukinas, etc. Además, los ayudantes secretan otras sustancias químicas que ayudan a las células B a producir anticuerpos y movilizan a las células T asesinas para destruir más eficazmente el patógeno objetivo.

Células T: Activación y Diversidad (Expansión Clonal)

Una nota que aquí debe hacerse es sobre las llamadas células NK (en inglés, Natural Killer cells) descubiertas hace poco y que también pueden atacar bacterias, virus y células enfermas, por lo cual son muy importantes en la lucha contra el cancer. Las células NK son linfocitos al igual que las células T y se desarrollan a partir del mismo tipo de célula madre (en inglés, stem cell). Sin embargo las células NK o "asesinas naturales" técnicamente se clasifican dentro del sistema inmune innato ya que no son específicas es su respuesta inmune.

La belleza de este sistema es que los linfocitos tienen memoria: una vez que han visto un antígeno particular, nunca lo olvidan. Por lo tanto, en la primera visita del Patógeno X, este será terminado por los linfocitos si los fagocitos no lo destruyen primero por completo. Posteriormente, si el Patógeno X invade el cuerpo de nuevo, ya habrá un grupo de linfocitos esperando que "saben" exactamente cómo matarlo, habiendo ya generado anticuerpos o adquirido otros medios para combatir específicamente a este enemigo. En este punto se dice que tu cuerpo es inmune al patógeno. Así es como funciona la inmunidad natural, la cual es diferente a la inmunidad artificial producida por las vacunas, como se detalla a continuación.

Infecciones Falsas: Cómo funcionan las vacunas

El escenario anterior esencialmente explica cómo funcionan las vacunas contra la gripe u otras vacunas. Estas medidas preventivas contienen un antígeno individual o el antígeno unido a todo el patógeno. Sin embargo, los patógenos completos se debilitan o se desactivan para preparar la vacuna. Por ejemplo, un virus podría replicarse lentamente, o una bacteria podría estar completamente muerta en dicha muestra. Frente a estos antígenos individuales o patógenos lisiados, el sistema inmunológico supera fácilmente a los intrusos, pero no antes de generar un arsenal adaptativo de linfocitos en preparación de futuros ataques. Por lo tanto, cuando el patógeno de fuerza completa invade, ya hay una defensa cuidadosamente desarrollada y específicamente dirigida contra dicho patógeno en el sistema inmunológico.

Las vacunas también son útiles porque cuanto antes se destruye el patógeno, es menos probable que lo pase a los que están cerca de usted. De hecho, si se vacuna a suficientes miembros de una comunidad, la tasa de transmisión de un patógeno se puede hacer lo suficientemente baja como para acabar con ella. Esto se denomina inmunidad de rebaños (en inglés, herd immunity) y es lo que permitió a la Organización Mundial de la Salud (OMS) destruir la viruela a principios de este siglo con reservas de vacunas limitadas: no todos debían ser vacunados para prevenir la propagación del virus, de modo que su tasa de transmisión finalmente se redujo a cero.

Inflamación: La solución a la polución es la dilución

¿Cómo se ve una respuesta inmune a simple vista? Esto es en realidad una pregunta más difícil de lo que uno podría pensar, ya que es fácil confundir un síntoma visible que es causado por un patógeno, o uno que resulta de la reacción inmune en sí. Por ejemplo, considere los dos síntomas siguientes:

A: Después de contraer una bacteria, un paciente desarrolla úlceras.
B: En respuesta a una infección viral, un paciente tiene fiebre.

El primero es un ejemplo de un síntoma causado por el patógeno: la úlcera se debe a la bacteria que destruye el tejido del revestimiento del estómago. Por el contrario, la fiebre es una reacción del sistema inmunológico a la infección viral. El segundo caso es parte de un fenómeno mayor llamado inflamación, de la palabra latina para "llama" o "ardor". Los signos clásicos de una reacción inflamatoria probablemente le son familiares: incluyen 1) aumento de la temperatura corporal, 2) enrojecimiento en el sitio de la infección, 3) aumento de la producción de líquidos o hinchazón en el sitio de la infección (como en una ampolla) y 4) dolor. Por lo tanto, cuando vea la palabra inflamación, debe saber que simplemente significa cualquiera de los cuatro síntomas enumerados anteriormente, causado por el sistema inmunológico que responde a una invasión microbiana.

La respuesta inflamatoria también es mediada por células inmunitarias. En este caso los mediadores son los mastocitos del tejido conectivo (mast cells), en coordinación con la familia de células polimorfonucleares o PMN (basófilos, eosinófilos y neutrófilos) que son otras clases de leucocitos (glóbulos blancos) del sistema inmunológico que producen histaminas y otras sustancias que regulan esta respuesta. Por otra parte, si la inflamación es sistémica y se hace crónica, eso puede traer otros problemas y hasta causar otras enfermedades.

¿Pero por qué la inflamación es la respuesta del cuerpo ante cualquier ataque? La explicación fisiológica sería que la inflamación es un mecanismo homeostático, o de regulación fisiológica, que permite que el sistema de defensa anteriormente descrito pueda funcionar de manera más eficiente. Sin embargo, para decirlo en una forma sencilla, recordemos ese principio de la ingeniería ambiental que dice que 'la solución a la polución es la dilución'. Esa es la estrategia que el cuerpo aplica a través de la inflamación.

Patógenos: Enemigos Externos e Internos

Si bien el sistema inmunológico es asombrósamente eficiente combatiendo patógenos externos, un problema que se puede presentar es cuando el sistema debe detectar y proteger el cuerpo contra posibles enemigos internos, por ejemplo contra células malignas que están fuera de control y pueden causar enfermedades como el cáncer. El problema es bioquímicamente complejo y tiene que ver con la habilidad del sistema inmunológico para distinguir entre células que son propias (en inglés, "self") o foráneas (en inglés, "nonself"), es decir, para saber si una célula es amiga o enemiga. Esto es posible gracias a un conjunto de proteínas que existen en la membrana célular llamado MHC (del inglés, Major Histocompatibility Complex) que determina la compatibilidad de los tejidos a nivel celular y por un subconjunto de células T llamadas "reguladoras" o "supresoras" (en inglés, Tregs) las cuales confieren tolerancia inmunitaria a los antígenos propios.

¿Qué pasa entonces cuando este sistema de identificación falla? Dos cosas pueden pasar. Por un lado si el sistema inmunológico se hace hiperactivo y comienza a detectar 'falsos positivos', es decir células del cuerpo que en realidad son normales, esa hiperactividad puede conducir a enfermedades auto-inmune, como la diabetes tipo 1, la artritis reumatoide, el lupus, la esclerosis múltiple, etc. donde el sistema inmunológico ataca a las propias células del cuerpo. O como en el caso de las alergias donde el cuerpo está reaccionado desproporcionalmente a una sustancia que realmente no debería ser problemática. Por otro lado si el sistema inmunológico falla en detectar células malignas que están creciendo y reproduciėndose fuera de control y creando tumores, eso podría llevar a otras enfermedades como el cáncer; y ahí es donde los recientes descubrimientos en la rama de la Inmunoterapia son tan prometedores.

Nota: El siguiente poster educativo para los más jóvenes muestra la familia completa de las células inmunitarias y los procesos mediados por estas células.

Fuente: http://pipettegirl.com/blog/

Las células T CAR: Una nueva e importante herramienta en la Inmunoterapia

Estos descubrimientos ya están dando frutos. Por ejemplo, las células B desde hace un tiempo se utilizan en un tipo de medicinas llamadas Anticuerpos Monoclonales, diseñados y producidos en laboratorios para sustituir o aumentar los anticuerpos que naturalmente produce el sistema inmunológico, los cuales se utilizan para combatir varias enfermedades incluyendo algunos tipos de cáncer. En este caso "monoclonal" significa que son cultivados a partir de un único clon derivado de una célula B progenitora.

También las células T están siendo utilizadas en una nueva y promisoria terapia llamada CAR T-cells (del inglés, Chimeric Antigen Receptor), la cual se basa en una técnica de Terapia Genética conocida como ACT (en inglés, Adoptive Cell Transfer) aprovechando el poder del sistema inmunológico mediante el reclutamiento de las propias células T del cuerpo - las células inmunes que reconocen y organizan el ataque contra los invasores externos y las células enfermas. Como hemos visto anteriormente, las células T viajan a través del cuerpo, utilizando sus receptores para buscar pequeños fragmentos de proteínas llamadas antígenos en la superficie de células extrañas. Si un antígeno coincide con los receptores, la célula T se activa y lanza un ataque. En teoría, las células malignas deben ser blancos ideales para las células T, pero los tumores tienen formas de protegerse de un ataque inmune. Con ACT, los científicos ajustan las células T para darles una oportunidad de luchar como "medicinas vivas".


Inmunoterapia utilizando CAR T-cells

Por ejemplo, en el caso de leucemias se ha encontrado un marcador que identifica las células enfermas, al cual se le llama CD19, una proteína que todas las células sanguíneas cancerosas brotan en su superficie. La terapia ACT entonces reutiliza las células inmunes para llevar una proteína que se pegaría a CD19, junto con otro marcador que activaría las células inmunitarias para comenzar a atacar el cáncer de manera más agresiva una vez que encontraron sus marcas malignas.

Por otra parte los recientes desarrollos en ingeniería genética han permitido a los investigadores perfeccionar una manera de modificar genéticamente y cultivar estas células de lucha contra el cáncer en abundancia en el laboratorio y probarlas en animales con leucemia. El pelotón inmune resultante de las células T CAR está especialmente equipado para buscar y destruir las células cancerosas. Pero conseguirlos en pacientes es un proceso complejo. Los médicos primero extraen las células inmunitarias de un paciente de su sangre, genéticamente las modifican en el laboratorio y luego infunden las células modificadas de nuevo al paciente por IV.

Debido a que estas células inmunitarias reutilizadas continúan sobreviviendo y dividiéndose, la terapia continúa funcionando durante meses, años y, esperan los médicos, quizás toda la vida. Similar a la forma en que las vacunas impulsan al cuerpo a producir células inmunitarias que pueden proporcionar protección a lo largo de toda la vida contra virus y bacterias, la terapia con células T CAR podría ser una forma de inmunizar contra el cáncer. "La palabra vacunación no sería inapropiada", dice el Dr. Otis Brawley, director médico de la Sociedad Americana del Cáncer.

Resulta sorprendente y esperanzador ver como todo este nuevo conocimiento científico que se ha acumulado en los últimos años ya está dando frutos prácticos en prometedoras curas que algunos llaman 'milagrosas', gracias a los avances en Inmunoterapia combinada con Ingeniería Genética que se basan en la 'programación' de la células T.


Saturday, October 3, 2015

La Nueva Ciencia de la Epigenética

El Dr Bruce Lipton es un biólogo que ha tratado de encontrar la esencia del alma humana más allá de los paradigmas actuales de la ciencia reduccionista, pero siguiendo el mismo riguroso Método Científico que tan exitoso ha sido en la física y en la ciencia en general. Su libro The Biology of Belief (traducido al español como La biologia de la creencia) explora la nueva ciencia de la Epigenética, que literalmente significa sobre la genética (o fuera de ella) y que él ha descrito como "la nueva ciencia del poder personal" que está revolucionando nuestra comprensión del ADN en la relación mente-cuerpo, con profundos efectos sobre nuestras vidas personales y también como especie.

Mecanismos Epigenéticos

Por Qué tus Genes no son tu Destino

Uno de los más sorprendentes descubrimienos de la Epigenética en la Biología Evolutiva del Desarrollo (EVO-DEVO) es que basta que ciertas estructuras moleculares llamadas genes maestros, que regulan la producción de los llamados 'genetic switches' que existen dentro del material genético del ADN Chatarra, se expresen o se silencien, es decir que se "enciendan" o "apaguen" en el momento apropiado, para que entonces se produzca toda una cascada de eventos genéticos sincronizados a nivel celular que determinan desde la morfología de los organismos hasta la aparición de nuevas especies. Es decir, que la cuestión ya no es si uno tiene un gen o no, sino si dicho gen está expresado o silenciado.

Por otra parte además se ha descubierto que el ADN Chatarra (en inglés, Junk DNA) aunque constituye más de 98% del genoma, sin embargo no participa en la codificación de proteínas con las que se construyen los organismos. Es decir, tomando los humanos como ejemplo, los 22,000 genes que se encuentran bien empaquetados en los 23 pares de Cromosomas de cada una de las células del cuerpo (excepto en los glóbulos rojos), los cuales codifican los más de 100,000 diferentes tipos de proteínas que existen en el cuerpo humano, apenas constituyen el 2% del material genético en el núcleo celular (consistente en un total de 3200 millones de nucleótidos); por lo cual el restante 98% es considerado 'chatarra'. Este hecho por si solo presenta sus propios misterios ya que resulta muy extraño que siendo la naturaleza tan eficiente en cuanto a los procesos biológicos, las células mantengan todo este inmenso material genético sin una función o un código aparente.

A diferencia de lo que ocurre con el bien conocido código genético de los codones basado en tripletes de cuatro nucleótidos, o sea, moléculas que son los bloques estructurales de la vida (representadas por las letras A,C,T,G) que permiten un total de 43 = 64 combinaciones y que de manera redundante codifican 20 aminoácidos (*) más los dos códigos especiales de comienzo y parada, con lo cual la fábrica biológica de la célula eucariota sintetiza todas las proteínas que se necesitan para que la vida pueda existir en todas sus complejas y diversas formas; desde organismos unicelulares como los hongos o Fungi, hasta el maravilloso cuerpo humano con sus 1013 células especializadas y organizadas en varias clases de tejidos, órganos y sistemas de control fisiológico (homeostasis) con realimentación negativa o positiva de señales bioquímicas y eléctricas, etc.

* Nota: El organelo de la Mitocondria, donde ocurre buena parte del metabolismo celular y que es responsable por la producción de energía a través de la síntesis del ATP, tiene una pequeña cantidad de ADN circular (similar a las bacterias) que es diferente al ADN nuclear y codifica 13 proteínas, con códigos adicionales que se heredan en forma no-Mendeliana por vía materna solamente.

La Epigenética y el Problema de la Morfogénesis

Otro hecho muy interesante es que se necesitan múltiples genes para codificar una clase de proteína (el cuerpo tiene muchas más clases de proteínas diferentes que genes) y que el código genético nuclear en fin de cuentas solo codifica la secuencia lineal de los aminoácidos, pero no la topología o la forma física tridimensional de la proteína. Las formas de las proteínas (las cuales pueden ser muy complejas, como por ejemplo la hemoglobina, la insulina, los anticuerpos, etc. que consisten en múltiples cadenas de polipéptidos con cientos de aminoácidos) son una cuestión clave en la biología molecular ya que precisamente esa conformación de la proteína es la que le permite hacer su función biológica al actuar sobre los correspondientes receptores que existen en la membrana celular, como si fuera una llave abriendo una cerradura; que de no ser por su forma solo sería una proteína ‘desnaturalizada’ sin función biológica. Y si bien se sabe que las células pueden producir estas complejas formas tridimensionales en los organelos celulares del Ribosoma y el Aparato de Golgi (cuyo mecanismo de transporte es uno de los problemas no resueltos de la biología) tal y como si fueran lineas de ensamblaje donde a través de la acción de enzimas especializadas (que también son proteínas) pueden cortar, doblar y soldar (enlazar químicamente) las cadenas lineales de polipéptidos en los puntos precisos para producir dichas formas tridimensionales, lo que no se conoce es dónde está ese ‘código de las formas tridimensionales’ y cómo es que ese código se activa solo en algunas células según su especialización.

Es decir, el problema de la Morfogénesis, o la cuestión de cómo una célula madre (en inglés, stem cell) según su posición en el organismo o en un embrión puede 'saber' que ella debe diferenciarse en una de los más de 200 tipos de células que existen en el cuerpo, para entonces expresar un grupo de genes y comenzar a producir ciertas proteínas (tal y como si existiera un 'campo morfológico' que define las formas y las funciones biológicas de las células y los organismos) es un misterio en la ciencia en general y en la embriología en particular, que la Epigenética posiblemente ayude a resolver.

Aún más sorprendente para los científicos es que los cambios epigenéticos no parecen ser tan aleatorios o casuales como inicialmente se creía. Entendiendo como aleatorio la suposición de que no hay una relación de causalidad entre las mutaciones genéticas y el resultado de la evolución, o sea, que las mutaciones no implicarían una dirección preferencial de desarrollo; es decir, la creencia de que el proceso no tiene un propósito predefinido (no hay teleología desde el punto de vista filosófico) ni tampoco un agente inteligente que lo dirija. En realidad lo que se ha encontrado es que estos cambios genéticos aparecen como respuesta a estímulos ambientales específicos que además del ambiente físico de la célula, incluyen también actividades mentales relacionadas con la intención y el aprendizaje; lo cual cuestiona el paradigma de que toda la evolución biológica depende solamente de la selección natural de variaciones basadas en mutaciones genéticas aleatorias, tal y como se postula en la actual versión de la teoría de la evolución conocida como síntesis neodarwinista.

Lo cual no niega el papel de la selección natural en la evolución, ya que esto es una verdad autoevidente, sino que le da su lugar apropiado como una fuerza a nivel macro-evolutivo que permite la adaptación de las especies a las condiciones ambientales, ajustando y sintonizando la distribución de genotipos y fenotipos en el tiempo, aunque no necesariamente determinando la especiación, es decir, la aparición de nuevas especies, o la micro-evolución a nivel de biología molecular.

Todo esto sumado a la posibilidad de que algunos caracteres adquiridos a través de experiencias personales y aprendizaje puedan ser heredados hasta la segunda generación (de abuelos a nietos) a través de mecanismos de herencia epigenética que hasta hace poco eran desconocidos y permiten entender otros fenómenos como por ejemplo la evolución de los instintos a través del aprendizaje; lo cual curiosamente hace recordar algo de esa antigua teoría casi olvidada del Lamarckismo.


Aplicaciones en la Ciencia Médica

Estos descubrimientos tienen gran importancia en medicina, ya que desde que Watson, Crick y Wilkins (gracias al trabajo de Rosalind Franklin en cristalografía de rayos X) descubrieron la estructura molecular helicoidal del DNA en 1953 y establecieron el Dogma Central de la Biología Molecular que presuponía que la información genética solo fluye en una dirección (ADN → ARN → Proteína) muchos creyeron que todas las enfermedades debían tener una etiología o causa genética. Sin embargo, luego del descubrimiento de los priones (causantes de la enfermedad de las 'vacas locas'), las ribozimas, la transcripción inversa de los retrovirus (RNA → DNA) y el fenómeno llamado 'RNA Editing' (**), actualmente ya está bastante claro que el "dogma" no siempre se cumple.

** Nota: El ARN (en inglés, RNA) es la copia activa de un gen expresado que pasa a través de los poros de la membrana nuclear para transcribir el código genético en los ribosomas del citoplasma celular donde se sintetizan las proteínas.

Más aún, luego de los recientes descubrimientos en epigenética, los científicos ahora pueden mejor entender por qué las mutaciones genéticas perjudiciales no necesariamente conducen a enfermedades, es decir, por qué los 'genes malos' no siempre causan una enfermedad, ni tampoco predicen cuándo esta ocurre o cuán intensa será si ocurre. Lo cual también explica por qué la influencia de los genes en las enfermedades varía tanto dependiendo de la enfermedad que sea, estimándose que el factor genético en las enfermedades es solamente un 10% como promedio. Por otra parte el conocimiento de los interruptores genéticos que funcionan a nivel epigenético podría ser la clave para la salud y la longevidad. Incluso en la actualidad los investigadores están considerando utilizar técnicas de ingeniería genética, como la revolucionaria herramienta de edición de genes conocida como CRISPR-Cas9 o simplemente CRISPR, para cambiar cuales genes se expresan y cuales no, sin necesidad de alterar el genoma en sí mismo.

El siguiente video es una presentación del Dr. Lipton sobre temas de Biología Celular y Fisiología donde se explica como las creencias personales afectan la salud y por qué realmente, como él dice: "Tú no eres una víctima de tus genes. Tú eres todopoderoso. Nuestras creencias pueden seleccionar cuales genes se encienden o se apagan. Si los genes expresados no son los apropiados, tú puedes cambiar tus creencias y expresar nuevos genes."