Inicio Volumen 28 Número 167 Los premios Nobel 2019

Los premios Nobel 2019

Versión disponible en PDF.

¿Cuáles son las contribuciones al conocimiento realizadas por los ganadores de premios que, a lo largo de más de un siglo, se convirtieron en uno de los mejores mecanismos del mundo para identificar avances cruciales de las ciencias?

FISIOLOGÍA O MEDICINA

El premio Nobel de medicina ha sido otorgado en su edición 2019 al británico Peter J Ratcliffe y a los norteamericanos Gregg L Semenza y William G Kaelin Jr por sus contribuciones en el campo de la adaptación celular a la hipoxia.
Todos los animales tienen la capacidad de adaptarse a condiciones de escasez de oxígeno o hipoxia. Cuando subimos a 4000 metros sobre el nivel del mar o nuestro miocardio recibe poca irrigación sanguínea a través de las arterias coronarias, algunas (o todas) las células de nuestro organismo enfrentan situaciones de hipoxia (oxígeno por debajo de los niveles normales observados en la normoxia). Se sabe ya desde la década de 1980 que, en respuesta a la hipoxia, se altera el perfil de expresión génica y se activa la transcripción de centenares de genes que permiten a las células adaptarse al bajo oxígeno. Uno de los genes que median la adaptación a hipoxia es el gen de la eritropoyetina (Epo), una hormona sintetizada en el riñón que estimula la producción de glóbulos rojos por la médula ósea. Cuando la presión parcial de oxígeno desciende por debajo de niveles críticos, se dispara la expresión del gen Epo, aumentan los niveles circulantes de esta hormona, lo cual provoca que se incremente la cantidad de glóbulos rojos circulantes. De esta manera se mejora sustancialmente la eficiencia del transporte de oxígeno desde los pulmones hasta los tejidos, y se mitiga el efecto de la hipoxia.
A comienzos de la década de 1990, el joven médico nefrólogo Peter Ratcliffe atendía por la mañana a sus pacientes en el hospital John Radcliffe de Oxford, y por la tarde investigaba en su laboratorio junto a dos colaboradores, algo más jóvenes que él y nefrólogos también, sobre los mecanismos moleculares mediante los cuales la expresión del gen Epo se regula en condiciones de hipoxia. Así, Ratcliffe y sus colaboradores identificaron las secuencias regulatorias del gen Epo responsables de su inducción por hipoxia. Al poco tiempo, descubrieron que secuencias regulatorias muy similares a las del gen Epo están presentes en decenas (luego se vio que en centenares) de otros genes inducibles por hipoxia y que dicha regulación se verifica en un gran número de tipos celulares. Surgía así la primera evidencia de que existe un mecanismo de regulación concertado de todos los genes que median la adaptación celular a la hipoxia.
En simultáneo, el grupo de Gregg Semenza de la Universidad Johns Hopkins, en la costa este de los Estados Unidos, identificó y purificó a homogeneidad el factor de transcripción responsable de la inducción por hipoxia de Epo y otros genes, al que denominaron HIF (por Hypoxia Inducible Factor). Los laboratorios de Ratcliffe en Inglaterra y de Semenza en los Estados Unidos llegaban entonces por distintos caminos a la conclusión de que un mismo factor de transcripción, HIF (luego se vio que en realidad son varios HIF y no solo uno), controla de manera concertada la expresión de una gran cantidad de genes que median la adaptación celular a la hipoxia.

Nobel 2019
Peter J Ratcliffe, Gregg L Semenza, William G Kaelin Jr

A comienzos de la década de 1990, el joven médico nefrólogo Peter Ratcliffe atendía por la mañana a sus pacientes en el hospital John Radcliffe de Oxford, y por la tarde investigaba en su laboratorio junto a dos colaboradores, algo más jóvenes que él y nefrólogos también, sobre los mecanismos moleculares mediante los cuales la expresión del gen Epo se regula en condiciones de hipoxia. Así, Ratcliffe y sus colaboradores identificaron las secuencias regulatorias del gen Epo responsables de su inducción por hipoxia. Al poco tiempo, descubrieron que secuencias regulatorias muy similares a las del gen Epo están presentes en decenas (luego se vio que en centenares) de otros genes inducibles por hipoxia y que dicha regulación se verifica en un gran número de tipos celulares. Surgía así la primera evidencia de que existe un mecanismo de regulación concertado de todos los genes que median la adaptación celular a la hipoxia.
En simultáneo, el grupo de Gregg Semenza de la Universidad Johns Hopkins, en la costa este de los Estados Unidos, identificó y purificó a homogeneidad el factor de transcripción responsable de la inducción por hipoxia de Epo y otros genes, al que denominaron HIF (por Hypoxia Inducible Factor). Los laboratorios de Ratcliffe en Inglaterra y de Semenza en los Estados Unidos llegaban entonces por distintos caminos a la conclusión de que un mismo factor de transcripción, HIF (luego se vio que en realidad son varios HIF y no solo uno), controla de manera concertada la expresión de una gran cantidad de genes que median la adaptación celular a la hipoxia.
Estudios llevados a cabo durante la década de 1990 por varios laboratorios en distintos continentes permitieron demostrar que, si bien HIF se sintetiza de manera constitutiva, el factor de transcripción se destruye rápidamente en presencia de oxígeno y deja de destruirse en condiciones de hipoxia. Como resultante de este proceso, los niveles intracelulares de HIF son siempre bajos en normoxia y se incrementan dramáticamente en condiciones de hipoxia. ¿Qué mecanismos determinan que la destrucción de HIF dependa del oxígeno? ¿Cuál es la tijera molecular que lo destruye? La respuesta a estas preguntas provino de estudios de un campo de investigación diferente. Trabajos en el área de la biología del cáncer, y en particular del estudio del síndrome de Von Hippel Lindau (VHL), una grave enfermedad genética en la que los pacientes con mutaciones en el gen VHL sufren a temprana edad la aparición de múltiples tumores en diversos órganos del cuerpo. El grupo de Kaelin de la Universidad de Harvard era, en la década de 1990, uno de los principales referentes en el estudio del síndrome VHL. Hacia finales de esa década, dicho grupo descubrió que la proteína VHL forma parte de un tipo especial de complejos enzimáticos que se denominan E3 y que son fundamentales para la destrucción regulada de proteínas específicas dentro de la célula. ¿Qué proteína es destruida como consecuencia de la acción de VHL? El grupo de Ratcliffe en Oxford demostró casi simultáneamente, en 1999, que el propio HIF se destruye por la acción de VHL, y que dicha destrucción ocurre solamente en normoxia. Por lo tanto, el trabajo de los grupos de Kaelin y Ratcliffe aportaban, por distintos caminos, información fundamental para comprender la maquinaria de respuesta a hipoxia: VHL es la tijera molecular que destruye a HIF en normoxia.
La siguiente pregunta era, entonces, por qué razón HIF se destruye por acción de VHL solamente en normoxia y no en hipoxia. La respuesta fue provista por el grupo de Ratcliffe en un artículo histórico publicado en 2001. Encontraron que solamente cuando hay oxígeno disponible en el entorno celular (normoxia) HIF sufre una modificación en uno de sus aminoácidos: la hidroxilación de un residuo de prolina. Más aún, encontraron que solo cuando dicha prolina de HIF está hidroxilada HIF se destruye por acción de VHL. En un segundo trabajo, también de importancia histórica publicado el mismo año, el grupo de Ratcliffe reveló la identidad de la enzima que cataliza la hidroxilación de la prolina clave de HIF. Esta enzima, a la que denominaron PHD, se encuentra conservada en todos los animales y opera como el sensor molecular de oxígeno de las células. Cuando hay oxígeno disponible, PHD es capaz de hidroxilar a la prolina de HIF, y sentenciar su destrucción mediada por VHL. Dado que el oxígeno es sustrato de la reacción que PHD cataliza, en hipoxia PHD no se encuentra activa y la prolina clave de HIF queda sin hidroxilarse. De este modo, en hipoxia HIF queda protegido de la destrucción, y se acumula en niveles suficientes para estimular la expresión de los centenares de genes que nos permiten adaptarnos a hipoxia.
¿Y qué pasó desde 2001 a esta parte? ¿Cómo evolucionó el campo de la adaptación celular a hipoxia? Los descubrimientos fundacionales de los que fuimos testigos durante la década de 1990 y comienzos de la de 2000 culminaron con el del sensor molecular de oxígeno y suscitaron un interés enorme entre biólogos moleculares, biólogos celulares, biólogos del cáncer, bioquímicos, médicos y muchos otros. Se verificó desde comienzos de dicha década de 2000 una expansión geométrica de este campo de trabajo, al cual se sumaron miles de laboratorios de todo el mundo. El esfuerzo se centró a partir de entonces en desentrañar detalles de cada uno de los mecanismos de la respuesta a hipoxia. Un número considerable de laboratorios, que incluyeron a los grupos de Ratcliffe, Semenza y Kaelin, mientras seguían con sus estudios sobre la biología básica de la adaptación a hipoxia, se volcaron también a la búsqueda de inhibidores y de activadores farmacológicos de PHD, VHL o HIF. Estos moduladores podrían servir como nuevos fármacos para prevenir o combatir diferentes condiciones patológicas, como cáncer, enfermedades isquémicas del sistema cardiovascular, accidentes cerebrovasculares y anemia, entre otras. Se concretaron acuerdos de cooperación multimillonarios entre la industria farmacéutica y los principales grupos de investigación del campo de la hipoxia. Luego de aproximadamente dos décadas de trabajo cooperativo entre los laboratorios de investigación básica y la industria, varios fármacos se están probando en pacientes, en ensayos clínicos que se encuentran en diferentes fases de desarrollo.
La historia de Ratcliffe, Semenza y Kaelin, y del campo de la hipoxia en general, constituye un ejemplo paradigmático de cómo la investigación básica –guiada por la simple curiosidad y llevada a cabo con altísimos niveles de creatividad y excelencia– unos veinte o treinta años más tarde condujo al desarrollo de productos que podrán tal vez mejorar la calidad de vida de millones de personas.

Pablo Wappner
pwappner@leloir.org.ar

Lecturas sugeridas
EPSTEIN AC et al., 2001, ‘C. elegans EGL-9 and mammalian homologs define a family of dioxygenases that regulate HIF by prolyl hydroxylation’, Cell, 107: 43.
HUANG LE, GU J, SCHAU M & BUNN HF, 1998, ‘Regulation of hypoxia-inducible factor 1alpha is mediated by an O2-dependent degradation domain via the ubiquitin-proteasome pathway’, Proceedings of the National Academy of Sciences of the United States of America, 95: 7987.
JAAKKOLA P et al., 2001, ‘Targeting of HIF-alpha to the von Hippel-Lindau ubiquitylation complex by O2-regulated prolyl hydroxylation’, Science, 292: 468.
MAXWELL PH et al., 1999, ‘The tumour suppressor protein VHL targets hypoxia-inducible factors for oxygen-dependent proteolysis’, Nature, 399: 271.
MAXWELL PH, PUGH CW & RATCLIFFE PJ, 1993, ‘Inducible operation of the erythropoietin 3’ enhancer in multiple cell lines: evidence for a widespread oxygen-sensing mechanism’,
Proceedings of the National Academy of Sciences of the United States of America, 90: 2423.
PUGH CW, TAN CC, JONES RW & RATCLIFFE PJ, 1991, ‘Functional analysis of an oxygen-regulated transcriptional enhancer lying 3’ to the mouse erythropoietin gene’, Proceedings of the National Academy of Sciences of the United States of America, 88: 10553.
SEMENZA GL, NEJFELT MK, CHI SM & ANTONARAKIS SE, 1991, ‘Hypoxia-inducible nuclear factors bind to an enhancer element located 3’ to the human erythropoietin gene’, Proceedings of the National Academy of Sciences of the United States of America, 88:5680.
STEBBINS CE, KAELIN JR. WG & PAVLETICH NP, 1999, ‘Structure of the VHL-ElonginC-ElonginB complex: Implications for VHL tumor suppressor function’, Science, 284: 455.

FÍSICA

El premio Nobel de física 2019 fue otorgado, por un lado, a James Peebles ‘por descubrimientos teóricos en cosmología física’, y, por otro, a Michel Mayor y Didier Queloz ‘por el descubrimiento de un exoplaneta orbitando una estrella similar al Sol’. Ambas menciones difieren en su temática y naturaleza (trabajo teórico en el caso de Peebles, observacional en el caso de Mayor y Queloz). También se diferencian porque en el caso de Mayor y Queloz se está premiando un logro concreto, en el espíritu del legado original de Alfred Nobel, mientras que en el de Peebles se premian más de cincuenta años en la vanguardia del área de conocimiento, sobre la cual ejerció una enorme influencia tanto por sus trabajos originales como por sus libros. En esta nota vamos a ofrecer una breve puesta en contexto de los logros que motivaron este reconocimiento.
El contexto de los aportes de Peebles es la transición de la cosmología científica a la cosmología de precisión, cuyo nacimiento (arbitrariamente, como siempre en estos casos) podemos asociar a la demostración de la existencia de anisotropías (diferencias de temperatura dependientes de la dirección) en la radiación cósmica de fondo. Por este logro se otorgó el premio Nobel 2006 a George Smoot y John Mather. James Peebles fue parte del grupo, liderado por Robert Dicke, que en 1965 había interpretado correctamente que el ruido de microondas detectado por Arnold Penzias y Robert Wilson (premios Nobel 1978) era efectivamente el fondo cósmico de radiación predicho en 1948 por George Gamow junto con sus colaboradores Ralph Alpher y Robert Herman. A partir de ese momento Peebles fue protagonista de cada uno de los avances en el área, tanto respecto de la distribución de materia en gran escala como de la radiación de fondo.
La cosmología de precisión consiste en realizar observaciones sobre nuestro universo con precisión de varias cifras significativas, explotando, fundamentalmente, la posibilidad de medir con semejante nivel de detalle las anisotropías en intensidad y polarización de la radiación cósmica de fondo. De esa manera podemos obtener una imagen detallada de cómo era el universo 400.000 años después de la Gran Explosión. Otra ventana al cosmos es el efecto de lente gravitatoria, que permite mapear directamente la distribución de materia, sea que esté asociada o no con fuentes de luz. Nuevas formas observacionales, como la astronomía de ondas gravitacionales, también comienzan a realizar aportes significativos.

Premios Nobel
James Peebles, Michel Mayor, Didier Queloz

Además de su contribución fundacional de 1965, Peebles fue uno de los pioneros en predecir que en el mapa de la radiación cósmica de fondo debía ser posible distinguir señales que se repetían periódicamente, en función del ángulo de mira, y que la intensidad y el período de estas señales se podían correlacionar con los distintos tipos de materia en el universo. Combinando el análisis de la radiación cósmica de fondo con el de formación de galaxias, Peebles mostró que el espectro de la radiación de fondo confirmaba que el universo debía contener un componente de materia oscura. Esta es una forma hipotética de materia que interactúa gravitacionalmente de la misma manera que la bariónica (materia ordinaria compuesta por protones y neutrones), pero es completamente inerte frente a la interacción electromagnética. Su presencia ha sido conjeturada, desde la década de 1930 en adelante, para explicar las velocidades de rotación de estrellas alrededor de galaxias, y de galaxias alrededor de cúmulos galácticos. Su importancia cosmológica es que, mientras que la materia ordinaria, es decir, aquella de la que se ocupa nuestra física de partículas, no puede colapsar para formar galaxias hasta que la presión de la radiación se vuelve despreciable, la materia oscura, que no ‘ve’ la radiación, colapsa mucho antes. De esa manera el proceso de formación de galaxias, cuando finalmente comienza, se hace sobre un molde de materia oscura, lo cual es mucho más rápido y eficiente.
Continuando con el análisis de la radiación de fondo en relación con la formación de estructuras, Peebles introdujo en 1984 el concepto de energía oscura. La energía oscura es una sustancia inherentemente inestable, cuyo efecto gravitacional es acelerar la expansión del universo; recientemente (en términos cosmológicos) se ha vuelto la forma dominante de masa-energía. Peebles apeló a la presencia de energía oscura como una manera de hacer compatibles la predicción de la densidad media del universo que surge de la radiación de fondo (equivalente a veinte protones por metro cúbico, aproximadamente) con las cotas sobre materia oscura y materia ordinaria que surgen del proceso de formación de estructuras (alrededor de la quinta parte de esa cantidad). La hipótesis de Peebles se ha visto confirmada por la observación directa de la aceleración cósmica en 1998, logro por el cual se otorgó el premio Nobel 2011 a Saul Perlmutter, Brian Schmidt y Adam Riess.
James Peebles también ejerció gran infuencia con sus libros, principalmente Physical Cosmology (Princeton University Press, 1971), The Large-Scale Structure of the Universe (PUP, 1981), y Principles of Physical Cosmology (PUP, 1993). Estos libros ayudaron a sistematizar los esfuerzos en el área, a desarrollar un lenguaje común entre investigadores y a motivar a un sinnúmero de jóvenes a dedicarse a ella. Una contribución más reciente –PJE Peebles, LA Page y RB Partridge (eds.), Finding the Big Bang (Cambridge University Press, 2009)– reúne una serie de reminiscencias sobre el desarrollo de la cosmología de precisión desde sus orígenes.
En resumen, James Peebles ha sido un pionero y un protagonista de una gesta científica que ha revolucionado nuestras ideas sobre el origen y la estructura del cosmos.
Para poner en perspectiva los aportes de Mayor y Queloz, debemos notar que identificar un planeta a varios años luz de distancia (la estrella más cercana al Sol se encuentra a cuatro años luz) es extraordinariamente difícil porque son diminutos, no emiten luz propia y están inmersos en la luz emitida por la estrella alrededor de la cual orbitan. Por eso, la forma habitual de buscarlos no es intentar verlos directamente, sino deducir su presencia a partir de alguna anomalía en la luz de la estrella madre.
Por ejemplo, cuando decimos que la Tierra orbita alrededor del Sol, nos referimos a que en realidad la Tierra y el Sol orbitan alrededor del centro de masa común. Como el Sol está un millón de veces más cerca del centro de masa que la Tierra (de hecho, el centro de masa del sistema Sol-Tierra se encuentra dentro del Sol), el desplazamiento del Sol en su órbita es muy pequeño. Pero observado con suficiente precisión se puede percibir.
En el caso de un exoplaneta y su estrella madre, al orbitar el centro de masa común, esta adquiere periódicamente una velocidad en dirección hacia nosotros o en dirección contraria. Esa velocidad variable a su vez induciría una variación periódica en el espectro de la estrella, por el efecto Doppler. La búsqueda del exoplaneta se reduce a la detección de esa variación. Como el efecto es diminuto, y podría ser enmascarado por otras fuentes de variabilidad, conviene descomponer la emisión de la estrella en varias bandas según frecuencia, y analizar cada banda por separado.
El problema es el umbral a partir del cual la luz de la estrella es demasiado débil para permitir un análisis de este tipo. Las primeras búsquedas de exoplanetas estaban limitadas a estrellas muy brillantes y próximas al Sol. Mayor y Queloz introdujeron una serie de mejoras en la instrumentación, que les permitieron bajar ese umbral y finalmente lograron, en 1995, una detección positiva de un planeta con una masa similar a Júpiter orbitando una estrella a 50 años luz del Sol. Michel Mayor y Pierre-Yves Frei cuentan en detalle la historia de este logro en el libro Los nuevos mundos del cosmos (Seuil, 2001; traducción al castellano, Akal, 2006).
En la actualidad llevamos descubiertos más de 4000 exoplanetas. Las técnicas de detección se han diversificado y perfeccionado al punto de que podemos detectar planetas que están a una distancia de su estrella similar a la que existe entre la Tierra y el Sol (la distancia de 51 Pegasi b, el planeta de Mayor y Queloz, a su estrella, es la vigésima parte de la distancia de la Tierra al Sol). En algunos casos se ha logrado una imagen directa del planeta. Existen formas de discriminar la luz que nos llega de un planeta de la de su estrella madre, ya que, por ejemplo, la luz reflejada por el planeta está generalmente polarizada, mientras que la luz que nos llega directamente de la estrella madre no lo está. Esto permite discriminar entre ambas y determinar no solo la presencia de un planeta, sino también características de su atmósfera. Recientemente se ha anunciado la detección de vapor de agua en un planeta a 110 años luz del Sol.
No es exagerado decir que Mayor y Queloz nos han acercado un paso a lo que bien podría ser el descubrimiento científico más importante en la historia de la humanidad, el descubrimiento de planetas habitables y vida fuera del sistema solar.
Cabe destacar que, al momento de su logro, Didier Queloz era estudiante de doctorado. Como en el caso del premio Nobel 1999 a Gerardus ‘t Hooft y su director de tesis Martinus Veltman, se trata de un oportuno reconocimiento a la importancia del aporte de estudiantes y becarios al avance de la ciencia.

El autor agradece a Rodrigo Díaz por sus comentarios sobre los aportes de Mayor y Queloz a la búsqueda de exoplanetas, y a María Isabel Zuleta por sus comentarios sobre el texto.

Esteban Calzetta
Departamento de fisica, FCEN-UBA

DÍAZ RF, 2019, ‘Gliese 411b. Encuentro cercano con un nuevo exoplaneta’, Ciencia Hoy, 28, 166: 27-32.
PEEBLES PJE, 1982, ‘Large-scale background temperature and mass fluctuations due to scale-invariant primeval perturbations’, Astrophysical Journal, 263, L1.
PEEBLES PJE, 1984, ‘Tests of cosmological models constrained by inflation’, Astrophysical Journal, 284, 439.
PEEBLES PJE & YU JT, 1970, ‘Primeval adiabatic perturbation in an expanding Universe’, Astrophysical Journal, 162, 815.
TSIARAS A, WALDMANN, IP, TINETTI G, TENNYSON J &
YURCHENKO SN, 2019, ‘Water vapour in the atmosphere of the habitable-zone eight-Earth-mass planet K2-18 b’, Nature Astronomy, accesible en https://doi.org/10.1038/s41550-019-0878-9.

ECONOMÍA

Este año, el premio en ciencias económicas instituido por el Banco de Suecia fue conferido a Abhijit Banerjee, Esther Duflo –ambos investigadores del Massachusetts Institute of Technology– y Michael Kremer –de la Universidad de Harvard– por la aplicación del método experimental en la búsqueda de cómo aliviar la pobreza.
Ni dicho método ni los deseos de aliviar la pobreza son objetivos que han estado ausentes de la agenda de las ciencias. Este mismo premio fue recibido por Angus Deaton en 2015 por su contribución al desarrollo económico y sus estudios sobre la medición de consumo y bienestar, especialmente de las personas pobres. Por otra parte, la utilización de experimentos comenzó hace ya casi un siglo, y fue formalizada por el estadístico Ronald A Fisher en 1935. Los primeros experimentos fueron realizados en el contexto de la investigación agrícola, al tiempo que su utilización en las ciencias médicas fue muy anterior a su uso en ciencias sociales.
Resulta particularmente innovador que la contribución de estos tres investigadores transformara la disciplina del desarrollo económico. Sus experimentos permitieron identificar efectos causales de los programas para paliar la pobreza. Mediante este método, se establece un grupo de beneficiarios de la intervención o el tratamiento y se mantiene y monitorea otro grupo llamado de control, que no recibe la intervención en el mismo momento que el primero. Así, es posible estimar el efecto causal de una intervención en algún resultado de interés y evitar los sesgos muchas veces presentes cuando se trabaja con datos de carácter observacional.

Premios Nobel
Abhijit Banerjee, Esther Duflo, Michael Kremer

La concesión del premio Nobel a Duflo, Banerjee y Kremer es por diversos motivos un aliciente para quienes trabajan en áreas vinculadas con el desarrollo económico.
En primer lugar, las investigaciones resultantes de los experimentos de este trío han tenido efectos medibles y cuantificables sobre poblaciones en contextos muy vulnerables. A modo de ejemplo, Edward Miguel y Michael Kremer mostraron que los beneficios de los programas de desparasitación generalizada de niños en escuelas rurales de Kenia –donde la prevalencia de enfermedades es altísima– van más allá de evitar el crecimiento en las tasas de infecciones e incrementar la asistencia escolar, pues también mejoraron los rendimientos en los exámenes de graduación de la escuela primaria, especialmente para las mujeres. Este descubrimiento hizo que la intervención se implementara en varios países de África, así como en la India y Vietnam.
Lo mismo se verificó en otro experimento que buscaba determinar cuál es la forma más conveniente para que comunidades sin acceso a agua potable purifiquen la que consumen regularmente. La instalación de dispensadores de cloro cerca de la fuente de agua resultó en un uso más generalizado que otras formas alternativas. El programa se implementó en Kenia, Malawi y Uganda, y trajo como resultado una reducción de enfermedades transmitidas por el consumo de agua no potable.
Casos similares pueden encontrarse en el campo de la educación, por ejemplo, con un programa de tutorías para mejorar los aprendizajes de los niños en la India.
Para el caso específico de América Latina, pionera en el uso de experimentos (incluso antes de que lo hicieran los galardonados), puede señalarse la evaluación del programa Progresa de México, realizada por Santiago Levy. Dicho experimento dio credibilidad al uso de las transferencias monetarias condicionadas, no solo para aliviar la pobreza sino también para incrementar la asistencia a la escuela de parte de niños y jóvenes. Gracias a sus aspectos positivos, el programa se extendió a muchos países en desarrollo, que lo mantuvieron incluso cuando hubo cambios de gobierno. La Asignación Universal por Hijo, un programa argentino, basa su diseño en el Progresa mexicano.
Una segunda virtud es que los profesionales que trabajan en este tipo de experimentos también adquieren ‘otras herramientas que permiten un mejor vínculo entre teoría económica, resultados empíricos y el mundo real’, como dice John List en el artículo sugerido como lectura. Esto puede facilitar que los resultados de las investigaciones sean utilizados por gobiernos y hacedores de política.
Por último, los resultados obtenidos son fácilmente interpretables y comunicables, lo que es importante para su difusión y adopción por parte de organizaciones y gobiernos.
Los experimentos no están libres de críticas, sean o no fundadas. Conviene detenerse en cuatro de ellas. La primera argumenta que la exclusión de un grupo de los beneficios para constituir un grupo de control supone una falta ética. Se trata, sin embargo, de una crítica algo superficial. Los experimentos –en especial los que han conducido los ganadores del premio Nobel– son sometidos a la evaluación de comités de ética, atentos a determinar posibles violaciones de los principios que deben guiar la investigación. Además, muchas veces estos experimentos buscan medir el impacto de una intervención cuyas consecuencias no se conoce de antemano, o que pueden tener efectos contraproducentes, por lo que la ampliación del universo de potenciales beneficios no conocidos puede resultar problemática.
La segunda crítica tiene que ver con el criterio de validez externa, que sostiene que los resultados de un experimento solo tienen validez para el caso específico en cuestión. Se trata de una crítica válida, pero que no es específica de estos experimentos. La objeción puede ser válida para cualquier estudio empírico en el que la muestra no sea adecuadamente representativa del grupo al que se extrapolan las conclusiones.
La tercera objeción hace referencia al hecho de que los experimentos de estos investigadores se refieren a problemas pequeños, supuestamente enfocados en la incapacidad de los individuos pobres de decidir de manera racional. En este sentido, diversos estudios ya han mostrado que los individuos no suelen ajustar su comportamiento al modelo de elección racional. No hay motivos para pensar que los individuos pobres deban ser una excepción a esta regla.
La última crítica se refiere a que la mayor parte de los experimentos arrojan resultados de equilibrio parcial. Estos resultados pueden ser distintos de los que se obtienen al momento de aplicar un programa a una escala mayor que la del experimento. Esta limitación no quita mérito a los experimentos: en todo caso, pone de manifiesto la necesidad de emplear otro tipo de herramientas que complementen el análisis basado en experimentos.
El uso sistemático de experimentos en temas de desarrollo económico probablemente no dé respuesta a todos los problemas de los países en desarrollo. Sin embargo, su reconocimiento con el galardón más alto que se otorga en la disciplina es muy bienvenido. El desarrollo económico y la erradicación de la pobreza son demasiado complejos para pretender que una sola innovación metodológica permita resolverlos.

María Laura Alzúa
Centro de Estudios Distributivos, Laborales y Sociales (CEDLAS)/UNLP

Lecturas sugeridas
List J, 2011, ‘Why economists should conduct field experiments and 14 tips for pulling one off’, Journal of Economic Perspectives, 25, 3: 3-16.

QUÍMICA

El premio de este año se otorgó a John B Goodenough, de la Universidad de Texas en Austin, M Stanley Whittingham, de la Universidad Binghamton (parte de la Universidad Estatal de Nueva York) y Akira Yoshino, de la firma Asahi Kasei de Tokio y profesor de la Universidad Meijo en Nagoya. Con noventa y siete años, Goodenough es el galardonado de mayor edad en la historia del Nobel.
El premio reconoció el desarrollo de las baterías livianas recargables de ion-litio, que fue posible por los aportes científicos de los tres premiados. Sus estudios sobre cuestiones fundamentales de la química de sólidos y de la electroquímica tuvieron enormes consecuencias tecnológicas: sin ellos no hubiese ocurrido la revolución de los teléfonos celulares y, por ende, no existiría la ubicua conectividad inalámbrica de hoy.
Desde la invención de la pila por Alessandro Volta (1745-1827), hacia 1800, las baterías primarias, que se usan solo una vez, y las secundarias o recargables experimentaron un extraordinario desarrollo, motivado por el propósito de disponer de energía eléctrica portátil.
Con el telégrafo, la linterna, el encendido electrónico del automóvil, las herramientas eléctricas y los juguetes eléctricos, aparecieron también, a lo largo de los años, diversos tipos de baterías. La electrónica móvil en satélites, las computadoras portátiles, los usos militares y más recientemente los vehículos eléctricos plantearon nuevos desafíos para lograr el almacenamiento de gran volumen de energía eléctrica. La generación de electricidad aprovechando fuentes renovables intermitentes, como el viento o el sol, igualmente requiere almacenarla en forma química en baterías.
Las baterías de ion-litio comercializadas por la empresa Sony desde 1991 y ubicuas en los teléfonos celulares cambiaron radicalmente la forma de comunicarnos. Gracias a ellas, los teléfonos experimentaron una drástica reducción de peso y tamaño, a la vez que se convirtieron en pequeñas computadoras de mano.
En la década de 1970, la química fue el centro de esta revolución, producida mediante el aprovechamiento de la intercalación de iones en sólidos, es decir, insertar átomos con carga eléctrica en la estructura de materiales sólidos cristalinos, cuyos átomos, moléculas e iones están dispuestos en forma de una red microscópica que se extiende con el mismo orden en todas las direcciones. Por su pequeño tamaño, el ion-litio puede acomodarse en ese tipo de estructuras sólidas en una amplia variedad de disposiciones con poca distorsión de la red cristalina, en un esquema de huésped (litio)-anfitrión (red cristalina). Es decir, la estructura del sólido permite la entrada y la salida de iones litio acumulando cargas negativas (electrones) que circulan por un circuito externo. Esto requiere que los materiales posean estados electrónicos accesibles, los cuales dependen de la estructura y el tipo de átomos que forman el material. Además, los materiales de los electrodos deben poseer buena conductividad electrónica y el proceso de intercalación debe ser altamente reversible para permitir almacenar energía eléctrica en forma de energía química durante muchos ciclos sucesivos de carga y descarga.

John B Goodenough, M Stanley Whittingham, Akira Yoshino

Impulsado por la crisis del petróleo de 1971, en 1976 Whittingham fabricó en Exxon Research and Engineering Company una batería con ánodo (electrodo negativo) de litio metálico y cátodo (electrodo positivo) de sulfuro de titanio (TiS2) con estructura laminar que permitía la intercalación de litio. Esa batería suministraba más de 2,5 voltios de tensión eléctrica. El crecimiento de dendritas o agujas de litio metálico condujo a un cortocircuito y a la explosión de la batería, que contenía solventes inflamables, por lo que se desestimó el proyecto.
Si bien el litio metálico del ánodo permitía almacenar una gran cantidad de energía en muy poca masa (el litio es el metal más liviano y es muy electropositivo) y permitía crear la batería ideal para la electrónica portátil, como es extremadamente reactivo, ella resultó explosiva e inadecuada para fines prácticos.
Yoshino resolvió este problema en 1985 reemplazando el litio por coque de petróleo, que tiene gran capacidad de intercalar iones litio. Esa capacidad se debe a la existencia en el coque de una de las varias formas de carbono, el grafito. El ánodo así fabricado da a la batería un potencial eléctrico cercano al provisto por el ánodo de litio metálico.
En paralelo, hacia 1980 Goodenough, que trabajaba en la Universidad de Oxford, propuso usar un óxido de cobalto (LixCoO2) como cátodo, lo que logra baterías de más de 4 voltios. Antes había alcanzado gran reputación por sus estudios de las propiedades electrónicas de óxidos metálicos de diversas estructuras cristalinas. Sobre la base de ellos y utilizando la mecánica cuántica pudo predecir las propiedades eléctricas y magnéticas de un gran número de óxidos metálicos de diversa estructura, entre ellos, el mencionado óxido de cobalto, que se sigue usando para el cátodo de las baterías de los teléfonos celulares.
La batería comercializada con éxito por Sony en 1991 tenía un ánodo grafítico, un cátodo de óxido de cobalto y, entre ellos, un electrolito de fluorfosfato de litio (LiPF6) disuelto en carbonato de propileno líquido. Su potencial eléctrico era de 4,1 voltios y una densidad de energía de 80 vatios-hora por kilogramo (o 200 por litro). Al evitar el uso de litio metálico, resultó segura. Alcanzaba un gran número de ciclos de carga y descarga con mínima pérdida de capacidad.
En 1997 Goodenough propuso emplear otro material para el cátodo, el fosfato de hierro y litio (LiFePO4) llamado LiPO en la jerga de baterías. Resulta más seguro y utiliza un elemento más abundante que el cobalto en la corteza terrestre, y más barato: el hierro. En 2005 se consiguió fabricar nanopartículas de ese material y lograr así un notable aumento de la velocidad de carga de la batería.
La gran ventaja de las baterías de ion-litio es que no usan litio metálico, que las haría peligrosas. A diferencia de las baterías que las precedieron, funcionan por un mecanismo de intercalación iónica en los materiales del ánodo y del cátodo conocido como sillón-hamaca (rocking chair): los iones litio con carga positiva fluyen en el electrolito desde el ánodo hacia el cátodo, mientras que los electrones con carga negativa fluyen del ánodo al cátodo por el circuito externo durante la descarga y en sentido inverso durante la carga. Los materiales del ánodo y del cátodo constituyen reservorios de los iones litio; y el exceso de carga en el ánodo, igual que el defecto de carga en el cátodo, es decir, exceso y defecto de electrones, resultan de las reacciones electroquímicas en cada electrodo.
En las baterías actuales, la capacidad de almacenamiento de carga del grafito del ánodo (unos 300 mAh/g) aproximadamente duplica la de los materiales de cátodo (140-160 mAh/g). Esto limita el rendimiento de las baterías de ion-litio. Por eso se estudian alternativas con ánodos de silicio (con capacidad de 3000 mAh/g) y cátodos de un óxido de litio, níquel, manganeso y cobalto (LiNiMnCoO2). También se encuentran en desarrollo baterías avanzadas llamadas Li-aire y Li-azufre, con densidades de energía comparables a la de los combustibles fósiles. Ellas garantizarían mayor autonomía a vehículos eléctricos pero, dada la complejidad de la química de tales baterías, aún no han llegado a la etapa comercial.
Debe señalarse que todos estos desarrollos que buscan satisfacer demandas tecnológicas de la sociedad parten del estudio de la química de diversos materiales y están basados en la comprensión del comportamiento de los componentes fundamentales de la materia. Cabe comparar el aporte actual de la ciencia a la tecnología con la invención del acumulador de plomo, ampliamente usado en automóviles, realizada por el físico francés Gaston Planté (1834-1889) en 1859. Ella se anticipó en treinta años al descubrimiento de la unidad de carga eléctrica, el electrón.
Según la Academia Sueca, los premiados de este año ‘crearon el mundo recargable’ a partir de conceptos de química que datan de hace no más de cuarenta años.

Ernesto J Calvo
Instituto de Química Física de los Materiales, Medioambiente y Energía (INQUIMAE), UBA-Conicet

Pablo Wappner
Doctor en ciencias químicas, UBA. Investigador superior del Conicet. Profesor, FCEN-UBA. Director del Laboratorio de Genética y Fisiología Molecular de Fundación Instituto Leloir.
Esteban Calzetta
Doctor (PhD) en física, Universidad de Wisconsin-Milwaukee. Profesor titular, FCEN-UBA. Investigador principal del Conicet.
Maria Laura Alzua
Doctora (PhD) en economía, Universidad de Boston. Docente en la UNLP y la UBA. Investigadora adjunta del Conicet. Subdirectora del CEDLAS, Facultad de Ciencias Económicas, UNLP.
Ernesto J Calvo
Doctor en ciencias químicas, UNLP. Investigador superior del Conicet. Profesor titular, FCEN, UBA. Director del INQUIMAE, UBA-Conicet.