Los premios Nobel 2017

por , , , , para Ciencia Hoy el . Publicado en Ciencia en el Mundo, Número 157, Uncategorized.

¿Cuáles son las contribuciones al conocimiento realizadas por los ganadores de premios que, a lo largo de más de un siglo, se convirtieron en uno de los mejores mecanismos del mundo para identificar avances cruciales de las ciencias?

La economía de la conducta

Este año, el premio en ciencias económicas instituido por el Banco de Suecia en memoria de Alfred Nobel fue otorgado al estadounidense Richard Thaler, de la Universidad de Chicago, por sus contribuciones a la economía de la conducta o economía conductual.

Tradicionalmente, el análisis económico recurre a modelos basados en que los actores no enfrentan límites cognitivos. En otras palabras, considera que pueden incorporar la información disponible y realizar los cómputos necesarios para tomar las decisiones que más los acerquen a sus objetivos. Adicionalmente, los modelos postulan comúnmente que la única motivación de los actores es su bienestar individual, lo cual significa que su comportamiento no toma en cuenta consideraciones de justicia o el bienestar de otros agentes. Entre los esquemas que se apoyan en estos supuestos se encuentran los modelos de conducta competitiva, el modelo de la utilidad esperada aplicado a decisiones en contextos de incertidumbre, y los modelos que comparan a valores presentes los costos y beneficios esperados en distintos momentos futuros o modelos de utilidad intertemporal descontada. Adicionalmente, buena parte de la teoría de juegos se apoya en estos supuestos. Entre otros logros, dichos esquemas han permitido comprender el funcionamiento de los mercados con información asimétrica, las dinámicas macroeconómicas y las relaciones contractuales. Si bien los analistas usualmente reconocen que pueden existir límites cognitivos o que los agentes pueden tener motivaciones que exceden su bienestar individual, se argumenta que estas simplificaciones son útiles para mejorar la comprensión de fenómenos sociales complejos.

Richard Thaler

El nombre economía de la conducta se refiere a un conjunto de análisis que evalúan empíricamente la validez de los anteriores supuestos. Abarca, además, nuevos modelos que prescinden de los supuestos simplificadores señalados en procura de mejorar la compresión de los fenómenos económicos. A lo largo de su prolífica carrera, Richard Thaler realizó diversas contribuciones a la economía conductual, entre ellas, el concepto de la contabilidad mental, que comenzó a definir en la década de 1980. Por semejanza con la contabilidad de las empresas, Thaler sugirió que las personas procesan información, categorizan gastos y evalúan resultados. Dado que tienen recursos cognitivos limitados, la contabilidad mental les permite simplificar la tarea y llegar a conclusiones que influyen en su comportamiento. Estas ideas estuvieron inspiradas, en parte, en la teoría de toma de decisiones elaborada por los psicólogos Daniel Kahneman –ganador del Nobel de economía en 2002– y Amos Tversky (1937-1996).

Este nuevo marco conceptual permite explicar numerosas situaciones en que la conducta se desvía de lo esperable cuando es analizada a la luz de los modelos tradicionales. Así, las personas manifiestan importantes diferencias de su valuación de un bien o servicio según consideren comprarlo o venderlo; la frecuencia con la que evalúan pérdidas o ganancias influye sobre sus decisiones de inversión en activos riesgosos; los presupuestos asociados con distintas categorías de bienes modifican las decisiones de gasto; y su propensión a gastar varía según la fuente de ingresos o el tipo de riqueza. Como indica el título de un artículo publicado por Thaler en 1999 (‘Mental accounting matters’, Journal of Behavioural Decision Making, 12, 3: 183-206) estos ejemplos sugieren que la contabilidad mental importa.

Otro conjunto de contribuciones de Thaler se relaciona con el estudio de las decisiones intertemporales, que implican recibir o erogar dinero en momentos distintos. En un artículo publicado de 1981 en coautoría con el economista de origen canadiense Hersh Shefrin (‘An Economic Theory of Self-Control’, Journal of Political Economy, 89, 2: 392-406), describió un modelo en el que hay un conflicto entre dos actores: uno que planea y otro que ejecuta, y en el que el segundo actúa con miopía, es decir, pone su interés de modo preponderante en el corto plazo, mientras el primero, con una visión dirigida a más largo plazo, procura influir sobre el comportamiento del ejecutor. Estos modelos teóricos, que reflejan diferentes circunstancias del mundo real, recibieron apoyo empírico en experimentos realizados por el mismo Thaler.

Hoy, a solo unas décadas de distancia, esta perspectiva también resultó sustentada por estudios que documentaron actividad cerebral cuando la gente toma decisiones. Así experimentos de neurobiología mostraron que algunas regiones evolutivamente antiguas del cerebro se activan al evaluar decisiones que tienen consecuencias inmediatas, pero no se activan al evaluar decisiones cuyas consecuencias están alejadas en el tiempo. De acuerdo con estos análisis, los hogares pueden encontrar dificultades a la hora de cumplir con sus planes de ahorro, pues las inclinaciones cortoplacistas se oponen a los planes de largo plazo. En este contexto, se han imaginado mecanismos que restrinjan el comportamiento cortoplacista. Thaler y el jurista Cass R Sunstein, de la Universidad de Harvard, hablan de paternalismo libertario en su libro Nudge: Improving Decisions about Health, Wealth and Happiness (Yale University Press, 2008) para referirse a pequeños estímulos orientados a producir un mejor balance entre satisfacciones presentes y futuras, por ejemplo, recordatorios o formularios diseñados con ese propósito. Desde una perspectiva más tradicional y paternalista, las decisiones intertemporales que llevan a niveles de ahorro típicamente insuficientes se contrarrestan con reglas que imponen aportes o ahorros obligatorios, y con programas que garantizan ingresos a adultos mayores.

Un tercer grupo de trabajos de Thaler se refiere a circunstancias en las que los agentes están motivados por el bienestar de otros o por creencias acerca de lo que es justo. Como parte de ellos concibió y ejecutó un conjunto de experimentos simples pero informativos en los que los sujetos toman decisiones económicas considerando el bienestar de terceros y sus propios conceptos sobre lo justo. Adicionalmente, llevó a cabo encuestas para descubrir lo que la gente considera justo en mercados no competitivos y en relaciones contractuales. Esas opiniones, argumentó, pueden tener efectos sobre el funcionamiento de los mercados y las estipulaciones de los contratos. Por ejemplo, rigideces en los precios y en los términos de contratos pueden ser una forma de evitar descontentos, o conflictos asociados con percepciones de injusticia.

Thaler también realizó contribuciones en el campo de las finanzas, por ejemplo, en el análisis de sobrerreacciones en mercados financieros o anomalías en el valor de fondos de inversión, emprendidas en colaboración con el economista Shlomo Benartzi, de la Universidad de California en Los Ángeles. En ellas, propuso una explicación al fenómeno observado a lo largo del siglo XX, por el cual el retorno de las acciones resultó mucho mayor que el de los bonos del gobierno, una anomalía conocida como el misterio de la prima de riesgo (equity premium puzzle). Los trabajos de Richard Thaler, en síntesis, documentaron situaciones en múltiples campos de la economía que constituyen anomalías para la teoría económica tradicional. Su manera de ver las decisiones económicas influyó en cómo la disciplina analiza hoy problemas importantes tomando en cuenta la forma en que las personas guían su comportamiento.

Lecturas Sugeridas

REAL ACADEMIA SUECA DE CIENCIAS, 2017, ‘Easy money or a golden pension? Integrating economics with psychology’, accesible en la página https://www.nobelprize.org/ nobel_prizes/ economic-sciences/laureates/2017/popular-economicsciences2017.pdf

J_Daniel_Aromi

J Daniel Aromí

Doctor (PhD) en economía, Universidad de Maryland en College Park.
Investigador en el Instituto Interdisciplinario de Economía Política de Buenos Aires, UBA-Conicet.

 

 

Física

La Real Academia de Ciencias de Suecia otorgó el premio Nobel de física 2017 a tres integrantes de la colaboración científica internacional Ligo-Virgo dedicada a la búsqueda de ondas gravitacionales. La mitad del premio correspondió a Rainer Weiss (nacido en Berlín en 1932), del Instituto de Tecnología de Massachusetts, y la otra mitad se repartió entre Barry Barish (nacido en 1936) y Kip Thorne (nacido en 1940), ambos del Instituto de Tecnología de California (Caltech).

El 11 de febrero de 2016 se anunció la detección de ondas gravitacionales, como lo explica una nota de Carlos Kozameh publicada en Ciencia Hoy en mayo-junio de ese año. Esa primera detección y otras posteriores abrieron una nueva ventana al universo: la astronomía de ondas gravitacionales. Los hallazgos fueron el resultado de un trabajo de equipo que se fue perfeccionando lentamente por los más de veinticinco años transcurridos desde que se construyeron los detectores usados en el descubrimiento. Si contamos desde el momento en que Einstein predijo teóricamente la existencia de esas ondas, su descubrimiento experimental se demoró un siglo.

La historia de la física moderna es en gran medida la de las predicciones teóricas de la existencia de partículas que actúan como mediadoras de interacciones físicas y su posterior descubrimiento experimental. Así, Ernest Rutherford (1871-1937) predijo en 1920 la existencia del neutrón, que James Chadwick (1891-1974) encontró doce años después; Wofgang Pauli (1900-1958) predijo la existencia del neutrino en 1930, el cual fue encontrado en 1956; y el bosón predicho por Peter Higgs (nacido en 1929) tardó unos treinta años en ser encontrado experimentalmente. La historia de las ondas gravitacionales fue una de frustraciones, dudas e incertidumbres. Einstein mismo dudó de su existencia y pensó que podrían ser un artificio matemático de su teoría más que un fenómeno real. Por años el estudio de la física de la radiación gravitacional estuvo reservado a un estrecho grupo de físicos teóricos que discutían sobre sus posibles propiedades y las características que podría tener su emisión. Richard Feynman (1918-1988) criticó con vehemencia ese estudio por la ausencia de experimentos, es decir, por tener muy tenue conexión con la realidad.

Pero en la década de 1960, el físico estadounidense Joseph Weber (1919-2000) comenzó a cambiar la historia con los primeros experimentos orientados a detectarlas. Si bien los aparatos que usó carecían de la sensibilidad necesaria, abrió el camino a las siguientes generaciones de físicos experimentales que dedicarían su ingenio a encontrar técnicas más apropiadas.

Rainer Weiss

Barry Barish

Kip Thorne

El primer golpe de suerte sobrevino en 1974, cuando los también estadounidenses Joseph Taylor (nacido en 1941) y Russell Hulse (nacido en 1950) descubrieron el primer pulsar binario (bautizado PSR B1913+16), un sistema de dos estrellas de neutrones. Recibieron por ello el premio Nobel de física en 1993 y mediante el estudio de su propio descubrimiento a lo largo de diez años ofrecieron la primera prueba clara de la existencia de la radiación gravitacional predicha por las ecuaciones Einstein.

Las estrellas de neutrones, descubiertas unos diez años antes por el radioastrónomo británico Anthony Hewish (nacido en 1924), son objetos compactos que se forman cuando estrellas con masas algo menores que 1,5 veces la masa solar usan todo su combustible nuclear y colapsan en una gran explosión denominada supernova, la cual, debido a la acción de la gravedad, acaba teniendo un radio de menos de 20km. Las que formaron el pulsar descubierto por Hulse y Taylor, según las mediciones de estos, al acercarse sufrieron una reducción de su período orbital de unos 10 microsegundos por año, un valor que concuerda con la teoría de la relatividad general. El descubrimiento de Hulse y Taylor no dejó duda de que existían fuentes de ondas gravitacionales y que se podrían detectar con aparatos apropiados.

Las estrellas de los pulsares como el descubierto por Hulse y Taylor terminan chocando en unos 300 millones de años, y por apenas unos segundos, durante la consecuente explosión, emiten ondas gravitacionales que pueden ser detectadas en la Tierra por aparatos como el que imaginó Weiss con un colega del Caltech, el físico escocés Ronald Drever (1931-2017), capaz de captar el breve pero intenso gorjeo que producen las ondas gravitacionales (gorjeo por su similitud en ciertos aspectos con el breve canto de un pájaro). Se trató de un interferómetro de rayos láser, consistente en espejos colocados a cierta distancia entre ellos que reflejan luz láser. Weiss, Drever y Thorne concibieron uno de una escala mucho mayor que todos los anteriores.

Las pequeñas vibraciones del espacio-tiempo cambian la distancia entre esos espejos en una magnitud extremadamente pequeña, con lo que la luz del láser cambia de intensidad. Para que exista alguna posibilidad de detectar ese pequeñísimo cambio es necesario que la distancia entre los espejos sea de 4km y que el material con que estén hechos amortigüe las vibraciones que experimentan debido al simple ruido atómico. La luz láser debe rebotar varias veces entre los espejos y acumular la potencia luminosa necesaria para provocar variaciones casi imperceptibles de la distancia entre ellos. Los espejos deben estar suspendidos de manera que los aísle al máximo posible del temblor natural del suelo terrestre.

Construir un aparato de este tipo sale cientos de millones de dólares, un gasto que muchos astrónomos y físicos criticaron, pero que la National Science Foundation aceptó financiar luego de que el Congreso aprobara asignarle los recursos. El proyecto resultó el más costoso financiado por la entidad en los últimos tiempos y necesitó de un ejército de ingenieros, científicos y técnicos que trabajaran mancomunados para desarrollar toda la ingeniería de hardware y de software requerida. El complejísimo detector terminaría compuesto, entre otras partes, por miles de sensores ambientales cuyas mediciones deben ser seguidas en tiempo real y de las que resulta necesario extraer señales muy débiles mezcladas con un ruido instrumental más fuerte que ellas.

Si en Weiss se premió una creación tecnológica capaz de detectar las ondas gravitacionales (plasmada con Drever, excluido de la posibilidad de recibir el Nobel por haber muerto unos meses antes), y en Thorne se reconoció su tenacidad por impulsar el proyecto, en Barish se distinguió la capacidad de crear el equipo de más de mil científicos y tecnólogos que lo llevaron a cabo. Pero para la colaboración científica Ligo-Virgo, tal vez el premio que recibió de la naturaleza unas semanas antes que el de la Academia Sueca haya sido infinitamente más gratificante. El 17 de agosto, en efecto, dos detectores de Ligo situados en los Estados Unidos, respectivamente en Livingston, Luisiana, y Hanford, Washington, detectaron ondas gravitacionales provenientes de la fusión de otras dos estrellas de neutrones. Dos segundos después, el satélite Fermi, de la NASA, identificó un estallido de rayos gamma de corta duración (menos de dos segundos), un tipo de fenómeno que por décadas se creía asociado con la fusión de estrellas de neutrones, una hipótesis que las detecciones confirmaron.

Con las coordenadas provistas por Ligo-Virgo y Fermi, en pocas horas varios observatorios alrededor del mundo comenzaron a escanear la región del cielo de la que estimativamente provino la señal y dieron con un nuevo punto de luz semejante a una estrella nueva, hallado primero por telescopios ópticos, en una galaxia distante unos 130 millones de años luz de la Tierra. Luego, cerca de 60 observatorios terrestres y espaciales, entre ellos dos telescopios utilizados por la colaboración Toros (Transient Optical Robotic Observatory of the South), observaron el evento en distintas longitudes de onda. Uno de estos fue el de la estación astrofísica de Bosque Alegre del Observatorio Astronómico de Córdoba (el primero de la Argentina, fundado en 1871); el otro fue el telescopio T80S ubicado en el cerro Tololo, en la región chilena de Coquimbo.

Por mucho tiempo se pensaba que este tipo de hecho astrofísico ocurriría con cierta frecuencia. Sin embargo, esta fue la primera vez en que fue detectado, y por un amplio espectro de observaciones que cubrieron desde las ondas gravitacionales hasta la radiación electromagnética de todas las longitudes de onda. La recién nacida astronomía de ondas gravitacionales acaba de impulsar un nuevo capítulo en la historia de la astronomía: la de mensajeros múltiples.

Lecturas Sugeridas

CASTELVECCHI D & WITZE A, 2016, ‘Einstein’s gravitational waves found at last’, Nature News, doi: 10.1038/nature.2016.19361.

KOZAMEH C, 1916‚ ‘Las ondas gravitacionales. Un triunfo del ingenio humano’, Ciencia Hoy, 25, 149: 7-10.

Mario C Díaz

Mario C Díaz

Doctor en física, Universidad Nacional de Córdoba.
Integrante de la colaboración científica internacional Ligo. Profesor titular UTRGV. Director, Center for Gravitational Wave Astronomy, UTRGV. mario.diaz@utrgv.edu

 

 

Fisiología o Medicina

El premio Nobel de fisiología o medicina de 2017 fue otorgado a los estadounidenses Jeffrey C Hall (nacido en 1945), Michael Rosbash (nacido en 1944) y Michael W Young (nacido en 1949) por experimentos realizados en las décadas de 1980 y de 1990 que permitieron explicar cómo plantas, animales y humanos sincronizan diversas funciones de sus organismos con los cambios de luz y temperatura ocasionados principalmente por la rotación de la Tierra. Los llevaron a cabo utilizando la pequeña mosca de la fruta –a la que se refiere también el artículo ‘Drosophila melanogaster, un versátil organismo modelo’, en las páginas 12-17 de este número de Ciencia Hoy– y descifraron los mecanismos moleculares que controlan los ritmos circadianos (‘aproximadamente diarios’), es decir, los que resultan de un reloj biológico interno de los organismos que regula muchas funciones fisiológicas.

Cada vez es más clara la importancia del reloj biológico para la salud humana, por ejemplo, para el tratamiento de determinadas enfermedades; además, un mal funcionamiento del reloj puede causar nuevas dolencias. Muchas situaciones de nuestras vidas, desde viajes intercontinentales hasta trabajo en turnos nocturnos o simples trasnochadas, pueden causar desarreglos más o menos importantes en nuestro reloj, el cual constantemente trata de mantenerse en fase con el ambiente al que está expuesto.

Se han observado ritmos circadianos en la más amplia gama de seres vivos, desde cianobacterias a primates. Controlan el metabolismo, la estabilidad del medio interno (llamada homeostasis), la alternancia de sueño y vigilia e innumerables otras funciones. Anticipan los cambios de luz y temperatura causados por la sucesión de los días y de las estaciones, algo que, por ejemplo, permite que las plantas florezcan, pierdan sus hojas y las recuperen en los momentos adecuados, o los animales que hibernan ingresen y salgan de ese estado en los tiempos debidos. Disponer de tales capacidades internas confiere a los organismos la capacidad de adaptase al ambiente, es decir, tiene un importantísimo valor adaptativo.

La historia del conocimiento del reloj biológico se remonta a varias décadas atrás, como lo explica el artículo mencionado en el primer párrafo. En 1971, Seymour Benzer y Ron Konopka identificaron en el Caltech el gen asociado con la eclosión de la mencionada mosca (la etapa de su metamorfosis por la que sale del estado de pupa) y lo llamaron gen ‘período’ (period). Varios años después Jeffrey Hall (que había trabajado con Benzer) y Michael Rosbash, de la Universidad de Brandeis, en los suburbios de Boston, se propusieron ser los primeros en secuenciar dicho gen, cosa que lograron en 1984. Lo curioso es que esta colaboracion científica no surgió en el laboratorio sino en el vestuario después de un partido de básquet que solían jugar todas las semanas Hall y Rosbash. Fue en una de esas ocasiones en la que, después de escuchar a Hall quejarse de la dificultad de secuenciar y copiar ese gen, es decir, clonarlo, cuando Rosbash, que contaba con mucha experiencia en el área de biología molecular, se ofreció a ayudarlo. Unos años después, en 1990, ambos demostraron que en el organismo del insecto los niveles de la proteína producida o codificada por el gen período, llamada ‘período’, oscilan a lo largo del día mediante un ciclo llamado de retroalimentación negativa, por el cual el mismo producto del gen –la proteína período– inhibe la acción de este (más precisamente, su transcripción) y disminuye sus propios niveles.

Por otro lado, en la Universidad Rockefeller de Nueva York, Michael Young también secuenció el gen período unos meses después que Hall y Rosbash, y en 1994 descubrió un segundo gen esencial para los ritmos circadianos, al que nombró el gen ‘atemporal’ (timeless). Solamente cuando las proteínas producidas por ambos genes –el período y el atemporal– se adosan o unen entre ellas y actúan unidas tienen lugar las oscilaciones moleculares que constituyen la máquina del reloj biológico.

Las investigaciones de Hall, Rosbash y Young no solo permitieron entender el reloj en la mosca de la fruta: los mismos genes fueron encontrados en mamíferos, en los que realizan funciones muy similares, lo que demuestra una característica importante de muchos rasgos biológicos, entre ellos los del reloj circadiano, a saber, que se conservan a lo largo de la evolución. En todos los organismos en que se los ha buscado, desde plantas y bacterias hasta humanos, se han encontrado evidencias de que estos relojes están presentes y actúan sobre la base de los mismos principios.

La presencia del reloj biológico interno permite a los distintos tejidos del organismo estar más o menos activos en los momentos apropiados. La situación es diferente en el cerebro de los animales. Tanto en las moscas como en los mamíferos, solo se activan o expresan los genes del reloj en una pequeña parte de las neuronas cerebrales, las cuales tienen, en consecuencia, la capacidad de medir el tiempo. En las moscas, ese reloj central se encuentra en alrededor de 150 neuronas distribuidas en su cerebro, aunque también se advierte que existen relojes en tejidos periféricos. En mamíferos, los relojes centrales se encuentran en unas 20.000 neuronas ubicadas en el núcleo supraquiasmático del hipotálamo. En otros animales están en la glándula pineal o en los ojos. ¿Cómo funciona el reloj molecular? El ciclo empieza con la activación de los genes período y atemporal mediada por otras dos proteínas, también del reloj, llamadas respectivamente ‘reloj’ y ‘ciclo’ (clock y cycle). Como resultado de dicha activación, al final del día se advierte un pico en la abundancia de sus productos, las proteínas período y atemporal. Estas se acumulan en el medio interno de las neuronas o citoplasma y, hacia el final de la noche, se unen entre ellas e ingresan unidas al núcleo celular, donde a su vez se adosan a las proteínas reloj y ciclo, que ya están allí. Esta unión causa que el conjunto de proteínas reloj y ciclo no pueda seguir actuando como activador de los genes período y atemporal. Asimismo, existe un mecanismo que impone un retardo entre el momento de activación de los genes período y atemporal y la explicada represión de su expresión mediada por sus propios productos, las proteínas período y atemporal. Ese retardo temporal es clave para las oscilaciones diarias de los genes circadianos, al punto que, para algunos investigadores, es el principal factor que permite al reloj interno medir el tiempo.

Jeffrey C Hall

Michael Rosbash

Michael W Young

En la actualidad no causa sorpresa la noticia de que un gen de Drosophila haya sido clonado, pero en la década de 1980, cuando se realizaron los innovadores experimentos relatados, las técnicas de estudio de la biología molecular eran incipientes, por lo que las investigaciones que los llevaron a cabo fueron claves para el nacimiento de la cronobiología. Más aún, los avances de esta durante los últimos veinte años consiguieron integrar campos tan disímiles como la biología molecular, la fisiología y las neurociencias. El trío de investigadores hoy galardonado había recibido muchos de los premios que por lo común anteceden al Nobel y todo parecía indicar que este pronto les llegaría, pero pasaban los años y ello no ocurría, lo que hacía pensar que quizá nunca arribaría. Ahora sonaron las campanas del reloj de la ciencia y Hall, Rosbash y Young vieron sus esfuerzos recompensados.

Por otra parte, con su elección de los ganadores de este año, la Real Academia Sueca recuerda sabiamente la importancia de la ciencia básica, que trata simplemente de entender el funcionamiento de la naturaleza, y equilibra así otras decisiones que tomó orientadas a premiar investigaciones motivadas por la búsqueda de curas para enfermedades, como el premio de 2008 por el descubrimiento del VIH. El premio da una buena respuesta a las persistentes preguntas de para qué sirve, en este caso, estudiar el cerebro de una minúscula mosca.

Lecturas Sugeridas

CARDINALI D, 1989, ‘Los relojes biológicos’, Ciencia Hoy, 1, 1: 11-19.

CARDINALI D, GOLOMBEK D y BONANI REY R, 1991, ‘La desincronización de los relojes biológicos’, Ciencia Hoy, 3, 16: 6-10.

FRENKEL L, 2017, “La sinfonía diaria del reloj neuronal’, Ciencia Hoy, 26, 155: 9.

GOLOMBEK D, 1995, ‘La quimera del tiempo. Comunicación entre relojes biológicos’, Ciencia Hoy, 5, 306: 10-15.

Nicolás Pírez

Nicolás Pírez

Doctor (PhD) en biología, Universidad de Boston..
Investigador asistente en el IFIBYNE, UBA-Conicet.
Sebastián Kadener

Sebastián Kadener

Doctor en ciencias biológicas, FCEYN, UBA.
Profesor asociado, Universidad de Brandeis.

 

 

Química

El premio Nobel de química de 2017 fue compartido en partes iguales por tres biofísicos: Jacques Dubochet (nacido en 1942) de la Universidad de Lausana, Joachim Frank (nacido en Alemania en 1940) de la Universidad de Columbia y Richard Henderson (nacido en 1945) del Medical Research Council del Reino Unido. La Academia Real Sueca los reconoció por ‘desarrollar la microscopía electrónica criogénica para la alta resolución de estructuras de biomoléculas en solución’. El galardón pone de manifiesto las hoy cada vez más borrosas fronteras entre la química, la biología y la física.

Un microscopio óptico estándar utiliza dos lentes que nos permiten observar detalles que escapan a nuestro ojo. La primera lente, el objetivo, recibe la luz que refleja el objeto observado y genera una imagen intermedia que luego magnifica la segunda lente, el ocular. Así se logra ampliar hasta mil veces un objeto, pero por este camino no se puede aumentarlo indefinidamente.

Esa limitación se conocía desde el siglo XIX, a partir de los trabajos del británico John William Strutt, barón de Rayleigh (1842-1919), premio Nobel de física en 1904, y de los alemanes Ernst Abbe (1840-1905) y Hermann von Helmholtz (1821-1894), que llevaron a definir la resolución de un microscopio, es decir, la mínima distancia entre dos objetos que permite distinguirlos separados. Para un microscopio óptico convencional ese límite es aproximadamente 200 nanómetros (nm) o millonésimas de milímetro, si los objetos se iluminan con luz visible, cuya longitud de onda es del orden de los 500nm.

Una forma de mejorar la resolución es disminuir la longitud de onda de iluminación y, en vez de dirigir un haz de luz visible sobre el objeto, iluminarlo con un haz de electrones, los que tienen una longitud de onda asociada miles de veces menor, del orden de los 0,001nm, una dimensión comparable a la separación de los átomos. Así, el físico alemán Ernst Ruska (1906-1988) construyó entre 1931 y 1933 el primer microscopio electrónico, conocido por microscopio de transmisión electrónica, que poseía una resolución cercana a los 50nm. Ello le valió a su constructor el premio Nobel de física de 1986, compartido con Gerd Binnig (nacido en 1947) y Heinrich Rohrer (1933-2013), estos por desarrollar un microscopio de otro tipo llamado microscopio de efecto túnel.

A pesar de revolucionar la microscopía, estos instrumentos tuvieron un uso limitado en las ciencias biológicas, pues el flujo de electrones daña las muestras. Además, es necesario que en el interior de los microscopios electrónicos exista un intenso vacío, para evitar que los electrones choquen con las moléculas de los gases atmosféricos y se dispersen. En adición, como los tejidos biológicos están compuestos por una cantidad para nada desdeñable de agua líquida, que se evapora en forma muy eficiente en ese medio, las moléculas que componen dichos tejidos se desnaturalizan y colapsan, lo cual produce imágenes borrosas o de mala calidad, que no representan de manera fiel la estructura real de la muestra. Se agrega, por último, que el haz de electrones es capaz de aumentar la temperatura de lo que ilumina hasta unos 150oC, algo que también altera estructuras biológicas delicadas. En 1970, Henderson reemplazó el agua de tejidos biológicos por glucosa y otros azúcares, que tienen propiedades físicas y químicas parecidas a aquella pero no son volátiles. Si bien las moléculas de glucosa no son moléculas de agua, demostraron ser un buen sucedáneo. Así, en 1975 el laboratorio de Henderson obtuvo imágenes de la proteína bacteriorodopsina con una resolución de 0,7nm. Posteriormente logró mejorar la resolución a 0,35nm recurriendo a nitrógeno líquido, que está a -196oC, para enfriar las muestras, con notable disminución del daño causado por el haz de electrones. Quedó entonces planteada la pregunta de si podría extenderse el procedimiento a otras proteínas. En 1975 Frank publicó un artículo en el que estableció en forma puramente teórica que, a partir de un conjunto de datos obtenidos de imágenes bidimensionales de un objeto tomadas con distintas orientaciones es posible generar una imagen tridimensional de alta resolución. Las imágenes producidas por los microscopios electrónicos son proyecciones bidimensionales de objetos de tres dimensiones, por lo que poder apreciarlos en sus tres dimensiones significa una sensible mejora. El método cobró impulso considerable con la aparición de computadoras capaces de procesar la gran cantidad de datos que se requiere manejar para cumplir la operación. Esto, no obstante, no hacía desaparecer el problema del agua, que solo se había resuelto momentáneamente cambiándola por una solución de glucosa.

Jacques Dubochet

Joachim Frank

Richard Henderson

Si se intenta bajar la temperatura a la cual se toman las imágenes, la formación de cristales de hielo compromete la integridad de las muestras y produce la difracción de los electrones usados para iluminarlas, lo cual enmascara las imágenes. Dubochet se preguntó qué sucedería si se enfriara rápidamente el agua desde temperatura ambiente a niveles cercanos a los del nitrógeno líquido. Tal congelamiento de la estructura líquida del agua significa que esta no estaría en estado sólido ni en estado líquido, sino que sería algo parecido a un sólido que fluye muy lentamente, como el vidrio.

En la década del 1980 se consideraba que la velocidad de enfriamiento necesaria para lograr lo anterior era prácticamente imposible de alcanzar. Sin embargo, en 1980, los austríacos Peter Brüggeller y Erwin Mayer, de la Universidad de Innsbruck, habían logrado dicha vitrificación completa de gotas de agua y de soluciones acuosas de tamaño micrométrico, justamente las cantidades de agua que se hallan típicamente presentes en las muestras biológicas. Para realizarlo, debieron enfriar el agua extremadamente rápido, a una velocidad del orden de los 100.000°C por segundo.

Avanzando por ese camino, Dubochet y Alasdair McDowall, del Caltech, pusieron a punto en 1981 un método que permitía formar una película de agua sólida no cristalina de 1 micrómetro (μm) de espesor sobre las muestras colocadas en el microscopio de transmisión electrónica. Esa delgada capa de agua ocasiona una baja y uniforme absorción de electrones y no los difracta, lo que significa ausencia de cristales de hielo. Además, se puede mantener por bastante tiempo si la temperatura del ambiente del microscopio no supera los 160°C. En 1984, el laboratorio de Dubochet difundió imágenes de microscopía de transmisión electrónica de distintos virus en una capa de agua vitrificada. El método resultó extremadamente útil para obtener imágenes de varios tipos de macromoléculas, entre ellas ribosomas, que Frank obtuvo en 1991 con una resolución de 0,4nm. Cuando se desató la epidemia de zika en Brasil hacia fin de 2015, el método anterior permitió obtener imágenes del virus con resolución de escala atómica en menos de cuatro meses, lo cual facilitó los esfuerzos por diseñar un fármaco a medida. Vienen al caso unas proféticas palabras pronunciadas en 1959 por el físico norteamericano Richard Feynmann en el encuentro anual de la American Physical Society: ‘Es muy fácil responder muchas de las preguntas fundamentales de la biología: solamente hay que mirar la cosa […] Infortunadamente, los microscopios actuales trabajan en escalas que no son apropiadas. Fabriquen un microscopio

Lecturas Sugeridas

CORTI H, 2008, Una mirada fisicoquímica a través del vidrio, Eudeba, Buenos Aires.

REAL ACADEMIA SUECA DE CIENCIAS, 2017, ‘They captured life in atomic detail’, accesible en https://www.nobelprize.org/nobel_prizes/chemistry/ laureates/2017/popular-chemistryprize2017.pdf

Alejandro Wolosiuk

Alejandro Wolosiuk

Doctor en ciencias químicas, FCEYN, UBA.
Investigador independiente del Conicet en el Centro Atómico Constituyentes, CNEA. wolosiuk@cnea.gov.ar