Los premios Nobel 2018

Versión disponible en PDF.

¿Cuáles son las contribuciones al conocimiento realizadas por los ganadores de premios que, a lo largo de más de un siglo, se convirtieron en uno de los mejores mecanismos del mundo para identificar avances cruciales de las ciencias?

Economía

El premio en ciencias económicas instituido por el Banco de Suecia en memoria de Alfred Nobel fue otorgado ex aequo a los estadounidenses Paul Romer, de la Stern School of Business, New York University, ‘por integrar la innovación tecnológica en el análisis macroeconómico de largo plazo’, y a William Nordhaus, de la Universidad de Yale, ‘por integrar el cambio climático en el análisis macroeconómico de largo plazo’. El premio de este año reconoce la importancia de comprender qué factores generan el crecimiento (y la contracción) de las economías. Para valorar las contribuciones de los galardonados en el contexto en que las hicieron es importante revisar cómo evolucionó la teoría del crecimiento económico durante las décadas de 1980 y 1990 en que ambos estuvieron más productivos.

La visión comúnmente aceptada del crecimiento del producto bruto interno quedó plasmada en una familia de modelos construidos a partir de las contribuciones de otro ganador estadounidense del mismo premio, Robert Solow, del Instituto de Tecnología de Massachusetts, quien lo recibió en 1987. En esa visión, el crecimiento del producto por habitante depende de los factores primarios de producción, esto es, la mano de obra (que en promedio refleja el de la población), el capital productivo y los recursos naturales. Sin embargo, la teoría de Solow no logró explicar cómo algunas economías hacen crecer su producto y su capital físico por encima del crecimiento de la población. Atribuyó el fenómeno a un conjunto de otros factores no especificados y clasificados de manera genérica como progreso tecnológico, cuyo origen no forma parte de lo que su teoría puede explicar.

Las contribuciones de Romer: externalidades de la inversión y la innovación

En ese marco, especialmente en publicaciones que datan de entre 1985 y 1995, Romer fue el primero en proponer explicaciones alternativas del crecimiento del producto por habitante. Lo hizo en varios casos sobre la base de alguna de las versiones de los modelos matemáticos de Solow.
Una primera causa que señaló es el efecto externo positivo o externalidad positiva de la inversión de las empresas sobre la productividad de los factores de producción. Externalidad es un efecto de una acción que no recae en quien la lleva a cabo. Así, la inversión realizada por una empresa puede también beneficiar a otras, o a trabajadores que no sean o dejen de ser propios. Se habla así de efectos de derrame entre empresas o sectores. Robert Lucas, de la Universidad de Chicago, ganador del mismo premio en 1995, extendió esta idea de efecto de derrame al capital humano, y destacó las mejoras en educación y en salud como posibles motores del crecimiento en el largo plazo.

Una segunda causa destacada por Romer para explicar el crecimiento es la innovación, la cual puede ser de dos tipos: de productos de consumo o de tecnología de producción. En el primer caso, partió de que una importante parte de los consumidores valora la variedad de bienes y servicios. Si para producir esa variedad se utiliza el mismo tipo de factores de producción, lo que sostiene el crecimiento es poder incrementar permanentemente la oferta mediante variantes no producidas hasta ese momento, o sea, la innovación en productos de consumo.

Una forma más precisa de la explicación de Romer del crecimiento del producto por habitante por la innovación reside en los efectos de invertir en investigación y desarrollo (I+D). Esa inversión permite expandir la diversidad efectiva de productos ofrecidos, y esto, nuevamente, garantiza el crecimiento del producto por habitante. Romer también destaca que un incentivo para seguir invirtiendo en I+D es la posibilidad de apropiarse de las rentas monopólicas generadas por la variedad de bienes y servicios permitida por dicha inversión.

La influencia de las ideas de Romer se advierte en literatura más reciente. Además de la mencionada extensión de Lucas al capital humano, otras investigaciones destacaron la inversión en infraestructura, habitualmente realizada por el Estado, como fuente de externalidades que incrementan la productividad de los factores de producción utilizados por el sector privado. Algunas investigaciones recientes analizaron cómo la institucionalidad política puede afectar, por ejemplo, esa inversión, e influir directamente en el crecimiento de largo plazo.

La contribución de Romer acerca de la I+D tuvo también una sucesión importante de extensiones que adaptaron la vieja idea de Joseph Schumpeter (1883-1950) sobre la destrucción creativa como motor de la innovación. Otras extensiones más recientes destacan que la innovación tiende a favorecer más a trabajadores calificados que a los carentes de calificación. Esta es una distinción clave no solo para entender la relación entre innovación y crecimiento sino, también, para considerar la desigualdad social, la que constituye uno de los núcleos centrales de las discusiones políticas de desarrollo socioeconómico en los diversos ámbitos en que estas tienen lugar.

Las contribuciones de Nordhaus: cambio climático y su efecto negativo en el crecimiento

Las contribuciones de Nordhaus constituyen de algún modo una contracara de las de Romer, en el sentido de que su principal interés radicó en los efectos negativos del cambio climático sobre la actividad productiva y su tasa de crecimiento. Si bien sus primeros trabajos sobre el tema datan de la década de 1970, antes de la producción académica de Romer, solo en la de 1990 produjo los modelos matemáticos que relacionan cambio climático y crecimiento económico.

Nordhaus desarrolló una ampliación o modificación del modelo de crecimiento de Solow que describe cómo la productividad de los factores de producción se ve afectada negativamente por el calentamiento global. Intuitivamente se pueden imaginar distintas formas de esos efectos, como daños a la salud humana, alteraciones de la diversidad biológica, extinción de especies y otros, los que resulta viable cuantificar en forma estimativa. Nordhaus agregó al modelo estándar de Solow la posibilidad de medir la pérdida de productividad por esos efectos del cambio climático. Lo hizo incorporando a sus variables el uso de combustibles fósiles, causantes de emisiones de CO2, para satisfacer las necesidades de energía. Ello también está ausente de los modelos de Romer y sus extensiones.

El trabajo de Nordhaus y sus colaboradores permite no solo estimar la posible disminución del crecimiento del producto bruto a causa del calentamiento global sino, también, explorar de manera cuantitativa las consecuencias sobre ese crecimiento y sobre la productividad de diferentes intensidades de dicho calentamiento. Asimismo, posibilita estimar de los impuestos socialmente óptimos a la emisión de CO2, que es una de las políticas que aplican los gobiernos de diversos países para cumplir con las metas internacionalmente acordadas de reducción del crecimiento de las emisiones.

Contribuciones más recientes agregaron al modelo las energías que no recurren a los hidrocarburos fósiles, de suerte que también se pueda estimar el monto socialmente óptimo del subsidio que muchos países les otorgan. Por último, en años recientes se ha intentado una nueva ampliación del modelo para tomar en cuenta dimensiones del tipo de la calidad de las instituciones políticas y administrativas, la seguridad jurídica, los acuerdos internacionales, la dinámica electoral y otras. Este tipo de extensiones no ha pasado aún de las primeras etapas de desarrollo.

Lecturas Sugeridas

AAVV, 2018, Integrating Nature and Knowledge into Economics, Real Academia Sueca de Ciencias, Estocolmo, accesible en www.kva.se, and at http://nobelprize.org.

Autor: Enrique Kawamura

Física

Con el premio Nobel de física de este año, la Real Academia Sueca de Ciencias ha reconocido inventos innovadores del campo de la física del láser. La mitad del galardón fue para el estadounidense Arthur Ashkin, por las pinzas ópticas y sus aplicaciones a sistemas biológicos. Con sus noventa y seis años, es el premiado de mayor edad en toda la historia. La otra mitad fue compartida entre el francés Gérard Mourou y la canadiense Donna Strickland, por sus métodos de generación de pulsos láser ultracortos de alta intensidad. Strickland es la tercera mujer laureada con el premio de física, después de Maria Sklodowska Curie (1903) y Maria Goeppert-Mayer (1963).

Sería redundante tratar de convencer al lector de la importancia del láser en la ciencia, la tecnología, el arte y la vida cotidiana cuando estamos rodeados de láseres por todos lados: en nuestras computadoras, teléfonos, escáneres y muchísimos etcéteras. La historia del láser se remonta a un artículo de Albert Einstein (1879-1955) titulado ‘Sobre la teoría cuántica de la radiación’ (Physikalische Zeitschrift, 18, 121, 1917). Allí formuló la teoría matemática no solo de la absorción y emisión espontáneas como mecanismos de interacción entre la radiación y la materia sino, también y lo más importante a mi entender, la de la emisión estimulada. Esta se produce cuando, por ejemplo, un átomo o una molécula que se encuentran inicialmente en un estado de energía alta o excitados emiten un fotón de las mismas características y en la misma dirección que un fotón incidente en ellos.

Tuvo que transcurrir casi medio siglo (1960), para que un ingeniero y físico californiano, Theodore Maiman (1927-2007), contase con la tecnología necesaria para construir el primer láser, que fue de rubí. En un efecto de reacción en cadena la emisión estimulada genera un chorro de luz muy especial que casi no se dispersa, llamada coherente. A partir de ese momento, se construyó una miríada de láseres de distinto tipo: sólidos, líquidos, gaseosos, de plasma y otros.

Ashkin nació en 1922 en Nueva York y se doctoró en física en 1952 en la Universidad de Cornell. Su principal interés ha sido la presión de radiación, es decir, cómo la luz puede empujar objetos. Esta idea se definió a partir de la formulación teórica de la electrodinámica clásica por James Clerk Maxwell (1831-1879), y luego fue corroborada en experimentos de laboratorio.

Solo pocos años después del primer láser, Ashkin iluminó pequeñas esferas transparentes con luz láser, cuyas propiedades únicas la hacen idealmente adecuada para empujar partículas. Advirtió no solo que la luz empujaba las esferitas en la dirección de la que provenía sino, también, que ellas se movían hacia el centro del rayo (imaginado este como un tubo). Este efecto inesperado se debe a la llamada fuerza de gradiente, pues la intensidad del láser decrece hacia afuera de la sección del tubo del rayo y empuja las partículas hacia su eje. Ashkin también hizo levitar a las esferitas contrarrestando la fuerza de gravedad. Y lo más interesante sucedió cuando enfocó el rayo láser con una lente: la luz captura las partículas en su foco en una especie de trampa que se denomina pinza óptica (optical tweezer).

Pronto las pinzas ópticas se utilizaron en física para la manipulación de átomos y moléculas, pero Ashkin se interesó en objetos más grandes, como virus y células. A título de ejemplo del uso de pinzas ópticas se puede mencionar que con ellas se midieron fuerzas moleculares y su movimiento, y se estudiaron moléculas simples atrapándolas con dichas pinzas. Luego les tocó el turno a moléculas más complejas: se estudiaron, entre otras cosas, propiedades físicas como la elasticidad del ADN, el desdoblamiento del ARN por fuerzas mecánicas, la cinemática y dinámica del mecanismo llamado motor molecular, la resolución de los pasos a lo largo del ADN por el motor ARN polimerasa, y la síntesis de proteínas sobre la transcripción del ARN mensajero. En definitiva, las pinzas ópticas escaparon de la física para usarse en química y biología, donde contribuyen ampliamente a investigar la maquinaria de la vida.

Donna Strickland nació en 1959 en Guelph, a unos 100km de Toronto, y se doctoró en la Universidad de Rochester, en el estado de Nueva York sobre la frontera canadiense, bajo la dirección de Gérard Mourou, quien nació en 1944 en Albertville, en la Saboya francesa. Ambos trabajaron con láseres pulsados, en contraposición a los láseres continuos de Ashkin. La duración de los pulsos ha ido disminuyendo desde los milisegundos en los comienzos del láser hasta los femtosegundos (milésimas de billonésimas –10-15– de segundo), o aun hasta los attosegundos (trillonésimas –10-18– de segundo). ¿Por qué usar pulsos tan cortos? Por dos razones: (i) al ser más cortos se vuelven más intensos ya que se puede concentrar la misma energía en menor tiempo y espacio, y (ii) permiten observar transiciones moleculares y atómicas que son brevísimas (un electrón tarda 150 attosegundos en su revolución al protón en un átomo de hidrógeno).

La intensidad de los láseres había crecido sustancialmente desde unos pocos megavatios a su creación en 1960, hasta llegar a las decenas o las centenas de teravatios (un teravatio equivale a un billón –1012– de vatios) por centímetro cuadrado tan solo cinco años después. Pero se había llegado a un límite tecnológico: a esa intensidad se destruye el material amplificador del láser.

Strickland, en su primer artículo como estudiante de doctorado de Mourou, describió un diseño experimental revolucionario: estirar el pulso láser con una fibra óptica para disminuir su intensidad, luego amplificarlo sin dañar el material y finalmente volver a comprimirlo. Los nombrados llamaron a esta técnica amplificación del pulso gorjeado (chirp pulse amplification). La fibra óptica está hecha de un material transparente con un índice de refracción que depende del color del láser. Como el pulso láser es corto, no es monocromático: tiene un espectro amplio de colores, muchos invisibles al ojo humano. Los distintos colores del pulso viajan por la fibra óptica a distintas velocidades, lo que resulta en un estiramiento del pulso y, por ende, en una disminución de su intensidad.

De esta manera, Mourou y Strickland amplificaron un láser desde los nanojoules de energía (milésimas de millonésimas –10-9– de joule) a los milijoules (milésimas –10-3– de joule), es decir, lo amplificaron un millón de veces. Luego, perfeccionaron el diseño para el estiramiento del pulso reemplazando la fibra óptica por un par de redes de difracción, con lo cual hicieron óptima la calidad del pulso amplificado y mejoraron la eficiencia de la amplificación hasta mil millones –109– de veces. Se basaron para ello en una idea de Oscar Martínez, físico de la Facultad de Ingeniería de la UBA.

Hoy, la técnica de Mourou y Strickland se usa en todos los laboratorios de óptica del mundo. Esos láseres intensos han servido tanto para la investigación como para la industria y la medicina. Han dado origen a la física de campo fuerte y la ciencia del attosegundo, y ayudado a otros físicos que se ocupan de óptica, como el canadiense Paul Corkum y el húngaro Ferenc Krausz, a explicar, por ejemplo, la física de la generación de armónicos de orden alto. Han permitido observar en tiempo real procesos físicos y químicos brevísimos cuyas duraciones no había sido posible medir antes.

Los láseres ultracortos intensos permitieron la aceleración láser-plasma de partículas hasta los gigaelectronvoltios (mil millones –109– de electronvoltios); también son utilizados para el almacenamiento de datos, pues no dañan la superficie de un material, y con ellos se manufacturan cánulas quirúrgicas implantables o estents (stents), que son cilindros micrométricos de metal elongado colocados en el organismo para ensanchar y reforzar vasos sanguíneos, la uretra, etcétera. También, con láseres que usan la amplificación del pulso gorjeado se realizan procedimientos de cirugía oftalmológica.

En síntesis, los inventos premiados este año han revolucionado la física del láser. Han permitido ver bajo nueva luz objetos extremadamente pequeños y procesos increíblemente rápidos. Todavía no se han explorado completamente las innumerables áreas de aplicación de las pinzas ópticas de Ashkin ni de los pulsos láser ultracortos e intensos que usan Mourou y Strickland, pero ya abrieron la puerta para controlar la materia en el micromundo, como lo expresó la Real Academia Sueca, ‘en el mejor espíritu de Alfred Nobel: para el mayor beneficio de la humanidad’.

Un comentario

El premio por la amplificación de pulsos cortos, como bien marca el autor de la nota principal usando las palabras de la Real Academia Sueca, ha hecho grandes contribuciones al bienestar de mucha gente. Pero ¿cómo se cuantifica el aporte al bienestar? Si bienestar es enriquecimiento, conozco varios que se han hecho millonarios gracias a los inventos premiados.

A estos avances ha contribuido un sinnúmero de investigadores, entre ellos, y solo como una parte de una larga lista de contribuyentes, EB Treacy, en United Technologies, quien inventó en 1969 el compresor de redes usado para recuperar el pulso luego de amplificarlo. También Daniel Grischkowsky, quien, trabajando en el Thomas J Watson Research Center de IBM, ideó en 1983 el esquema de fibras y compresor usado por Strickland y Mourou en 1985. Incorporar las fibras fue una sugerencia que le hiciera CV Shank (Bell Laboratories) durante una Gordon Conference en 1982. Igualmente se pueden citar los aportes de EP Ippen (MIT), JR Taylor (Imperial College) y el mismo Schank en generar pulsos cortos que se pudieran amplificar. Y por qué no señalar que el autor de esta nota contribuyó al esfuerzo con un compresor, publicado en 1984, que se acopla a la perfección con el de Treacy para que la recompresión del pulso sea casi perfecta.

¿Qué define a los ganadores del premio Nobel? Esto no importa demasiado mientras la comunidad científica siga creyendo que el premio es válido. Buscamos al Messi de la ciencia, pero ni siquiera en fútbol un jugador saca a un equipo campeón. La ciencia no es tenis, ni pintura, ni escultura. Se parece más al teatro o el cine (aunque es aún más colectiva), y en estas actividades tan obviamente colectivas se siguen dando premios individuales.

En una sociedad exitista se necesitan esos premios para mantener trabajando más de doce horas diarias, incluso los sábados y domingos, a mucha gente con destacada capacidad de generar conocimiento. Ese conocimiento da a los países centrales ventajas comparativas que les permiten ejercer y mantener un liderazgo. A esto también aportan las pequeñas contribuciones –como la que me tocó hacer a mí mientras trabajaba en el Instituto de Investigaciones Científicas y Técnicas para la Defensa (CITEFA)– realizadas en países periféricos a los que no les interesa demasiado la ciencia.

Como la ciencia es una construcción colectiva, muchos investigadores proporcionan lo suyo y colaboran para que se logre un progreso lento y permanente. Algunos toman los avances y se los apropian en el juego de exitismos, egos y riqueza que caracteriza a nuestra sociedad. En ese juego, se premia a algunos para mantener la máquina funcionando, y de paso para que esos conocimientos generen riquezas y poder. Esto abre otra pregunta: ¿riqueza y poder para quién?

Autor: Oscar E Martínez

Lecturas Sugeridas

REAL ACADEMIA SUECA DE CIENCIAS, 2018, ‘Tools made of light’, accesible en www.nobelprize.org/uploads/2018/10/popular-physicsprize2018.pdf.

Autor: Diego Arbó

Química

El control de la diversidad molecular

La Real Academia de Ciencias de Suecia otorgó este año el premio Nobel de química a dos investigadores estadounidenses –Frances H Arnold, del Instituto de Tecnología de California, y George P Smith, de la Universidad de Misuri– y uno británico –Gregory P Winter, del Consejo de Investigaciones Médicas del Reino Unido–. La mitad de la recompensa correspondió a la primera, en palabras de dicha academia, por la ‘evolución dirigida de enzimas’; los otros dos galardonados compartieron en partes iguales la otra mitad por el desarrollo de técnicas de ‘despliegue de péptidos y anticuerpos en fagos’.

El trabajo de los tres nombrados tiene como común denominador haber definido conceptos y técnicas que permiten controlar la enorme diversidad de proteínas, las moléculas centrales de la vida. Prácticamente todas las actividades de los seres vivos se deben a la acción de una o varias proteínas, por ejemplo, procesar los alimentos y convertirlos en energía, percibir señales del ambiente, generar movimiento, duplicar células, etcétera. Por hacerlo, los organismos (incluido el nuestro) tienen la capacidad de fabricar miles de proteínas distintas a partir de la información contenida en el ADN de sus células.

Las proteínas están formadas por la unión química o secuencia de moléculas más pequeñas llamadas aminoácidos. Algunas proteínas pequeñas, llamadas péptidos, tienen secuencias relativamente cortas, mientras que otras están formadas por cientos e incluso miles de aminoácidos. Cada proteína, sin embargo, presenta una secuencia particular de aminoácidos que le permite adquirir la estructura tridimensional necesaria para cumplir con su función.

La cantidad de proteínas que podrían existir formando distintas secuencias de aminoácidos es literalmente astronómica: toda la materia de la Vía Láctea no alcanzaría para hacer, por ejemplo, un ejemplar de las aproximadamente 6,34 x 1028 maneras diferentes de producir una proteína compuesta por 100 aminoácidos.

A lo largo de la historia de la vida en la Tierra, la evolución natural dio lugar a aquellas secuencias que cumplieron alguna función biológica. Si bien el número de ellas es enorme, resulta minúsculo comparado con el número de secuencias posibles.

El trabajo de la premiada Arnold aprovechó los principios básicos de la evolución para alterar en algún sentido deseable proteínas existentes en los seres vivos o para generar otras proteínas con funciones que no existen en la naturaleza. Esto le permitió comprender mejor algunos de dichos principios básicos de la evolución natural y abrió la posibilidad de fabricar proteínas por encargo, si cabe la expresión.

¿Cómo opera la evolución? Las secuencias de bases del ADN sufren constantes cambios debido al propio metabolismo celular o por influencia del entorno. Las células poseen complejos mecanismos que detectan esos cambios y, de resultarles posible, los reparan. El premio Nobel de química de 2015 fue otorgado a Tomas Lindhal, Paul Modrich y Aziz Sancar por descubrir algunos de esos mecanismos de reparación. Los cambios que no pueden ser reparados a tiempo perduran en el ADN en forma de mutaciones. A su vez, la misma duplicación del ADN también puede causar mutaciones, aunque ello sucede usualmente en un porcentaje muy bajo de casos. Justamente, la misma evolución lleva a que perduren aquellos organismos que duplican su material genético en forma fiel. Cuando las mutaciones suceden en las células germinales (óvulo y espermatozoides en los animales), ellas son heredadas por la descendencia.

Normalmente es más fácil empeorar algo que mejorarlo, sobre todo en sistemas complejos como las proteínas. Por esto, la mayoría de las mutaciones o no tienen consecuencias o afectan negativamente la actividad biológica de las proteínas, lo cual puede disminuir o anular las posibilidades de supervivencia del organismo que las padece. Mucho más raras son las mutaciones que mejoran la función de una proteína, algo que puede conferir al organismo una ventaja adaptativa por la cual producirá descendencia más numerosa que sus pares sin ella, ventaja que facilita la transmisión de la mutación a las próximas generaciones. Usualmente, el tiempo necesario para que el cambio se generalice de forma natural en una población es del orden de los miles o millones de años. Sin embargo, existen casos de cambios notables que se generalizaron en décadas, como la propagación de malezas resistentes a herbicidas, o de bacterias resistentes a antibióticos.

El trabajo de Arnold apuntó a acelerar millones de veces el proceso que ponen en marcha las mutaciones naturales, o sea, inducir una selección artificial semejante a la natural pero enormemente más rápida. Partió de la idea de copiar un gen pero, a diferencia de lo que usualmente sucede en los seres vivos, hacerlo en forma poco fiel, es decir, causar mutagénesis. Luego seleccionó aquellas variantes mutadas del gen que mejorasen alguna característica valiosa, para lo cual analizó proteínas con alguna actividad química fácil de seguir, por ejemplo, las enzimas.

Luego de la mutagénesis, sus procedimientos llevan a analizar en paralelo la actividad de miles de variantes mutadas de la proteína, y a seleccionar las que presenten alguna potencial mejora, las que son aisladas y sometidas a nuevos ciclos de mutagénesis y selección. El resultado final de las iteraciones es una proteína con una actividad cientos o miles de veces mayor a la de su ancestro natural.

Llamativamente, las proteínas mejoradas generalmente presentan un número bastante acotado de mutaciones. El punto central de esta tecnología es la capacidad de analizar miles de mutaciones en paralelo, lo que permite que la evolución artificial sea notablemente eficiente. Cabe señalar que la característica buscada no necesariamente es buena para el organismo del cual se tomó el gen original. Por ejemplo, podemos buscar una enzima activa a altísimas temperaturas, algo en principio poco útil para un organismo que vive a 20C. Un primer ejemplo de resultado útil fue obtener enzimas que funcionen en solventes orgánicos, las que tienen numerosas aplicaciones industriales pues disminuyen notablemente los requerimientos energéticos y la generación de residuos tóxicos.

¿Qué sucede cuando la proteína a mejorar no es una enzima sino, por ejemplo, un anticuerpo? Los organismos producen anticuerpos como reacción ante la presencia de agentes infecciosos. Los otros dos ganadores del Nobel estudiaron esa situación. Para ello se valieron de fagos, uno de los organismos más simples que existen. Los fagos o bacteriófagos son virus que infectan bacterias y tienen en su superficie algunas pocas proteínas que les permiten ingresar en las bacterias que infectan. Smith y Winter lograron obtener fagos en los que esas proteínas de su superficie están unidas a otras o a péptidos que no son propios del fago. Se habla así de proteínas de fusión, puesto que vienen de la unión de dos genes, uno original del fago y otro agregado en el laboratorio.

Mediante técnicas de ingeniería genética se pueden fusionar miles o millones de variantes de una proteína, sin necesidad de conocer la secuencia exacta del ADN de cada variante. Haciendo ensayos sucesivos se puede enriquecer millones de veces a aquellos fagos que reconozcan con alta afinidad a alguna molécula sobre la que se procura actuar. Luego se aísla y amplifica estos fagos, y se secuencia su material genético, con lo cual se logra conocer el detalle exacto de las moléculas que mostraron alta afinidad. Lo anterior resulta muy adecuado cuando la proteína a mejorar es un anticuerpo, pues permite incrementar notablemente la capacidad de este de reconocer alguna toxina o alguna proteína relacionada con patologías como el cáncer u otras. La técnica está revolucionando varias ramas de la medicina y produciendo anticuerpos del tipo del adalimumab, que se emplea para el tratamiento, entre otras dolencias, de la artritis reumatoide y la soriasis.

En resumen, la gran creatividad de los investigadores galardonados les permitió manejar las casi infinitas posibilidades que presentan las proteínas, y abrir el camino para hacer notables mejoras en la calidad de vida de las personas.

Lecturas Sugeridas

Real Academia de Ciencias de Suecia, ‘A (r)evolution in chemistry’, accesible en https://www.nobelprize.org/uploads/2018/10/popular-chemistryprize2018.pdf.

Autor: Julio J Caramelo

Medicina

Nuevos horizontes de la inmunoterapia ante el cáncer

Este año, el premio Nobel de fisiología o medicina fue otorgado por partes iguales al estadounidense James P Allison, de la Universidad de Texas, y al japonés Tasuku Honjo, de la Universidad de Kyoto, por sus revolucionarios descubrimientos en el campo de la inmunoterapia antitumoral. Procuraremos aquí explicar el significado de lo anterior.

Según la Organización Mundial de la Salud, en el transcurso del presente año más de 9 millones de personas morirán de cáncer y otros 18 millones serán diagnosticados con diferentes tipos de la enfermedad. Pese a los avances en el diagnóstico y tratamiento, la incidencia de cáncer continúa creciendo en el mundo, en gran medida, acompañando la mayor expectativa de vida y el envejecimiento de la población. El tratamiento clásico de los enfermos se asienta en tres pilares: radioterapia, quimioterapia y cirugía. Los progresos logrados en cada una de estas terapias han sido notables y permitieron prolongar la sobrevida de los pacientes e incrementar la proporción de los que experimentan remisión completa. Sin embargo, la naturaleza de ciertos tumores y su diagnóstico tardío hacen fracasar estos tratamientos y explican los millones de muertes señaladas.

Como telón de fondo de los descubrimientos de Allison y Honjo encontramos la siguiente pregunta: ¿puede el sistema inmune atacar a las células cancerosas? Sabemos que esto, efectivamente, ocurre, pero también sabemos que el crecimiento descontrolado de células malignas propias, que caracteriza al cáncer, escapa a los mecanismos de vigilancia de dicho sistema. Normalmente, las células del sistema inmune patrullan los tejidos en busca de células infectadas, microorganismos y células tumorales que, de ser encontradas, son eliminadas para mantener el estado de salud. Este proceso se conoce como inmunovigilancia.

La teoría de las tres E imaginada por Robert Schreiber, de la Washington University, St. Louis, define tres etapas en la interacción entre tumores y sistema inmune: eliminación, equilibrio y escape. En la etapa de eliminación, el sistema inmune identifica y destruye las células tumorales y evita el crecimiento del tumor. Eventualmente, como si se tratase de un proceso evolutivo darwiniano en pequeña escala, aparecen clones de esas células, capaces de escapar o silenciar la vigilancia del sistema inmune: es la etapa de equilibrio, en la cual la eliminación de las células tumorales se contrarresta por la proliferación de otras que lograron escapar de la respuesta inmunológica. Por último, en la etapa de escape, el tumor evade eficientemente la respuesta inmune, crece y se manifiesta clínicamente.

¿Es posible evitar que el tumor escape de la respuesta inmune? En otras palabras, ¿podríamos estimular las células inmunes del paciente para que destruyan el tumor? Esta idea, en realidad, no es novedosa. En 1891, el cirujano e investigador estadounidense William Coley (1862-1936) advirtió que algunos pacientes con cáncer mostraban mejoras sustanciales luego de sufrir erisipela, una infección bacteriana de la piel. Decidió entonces tratar a un grupo de pacientes con cáncer inyectándoles bacterias, lo que causó una franca mejoría en algunos. La ausencia en la época de protocolos rigurosos para el seguimiento de esos pacientes y el advenimiento de la radioterapia y la quimioterapia relegaron sus observaciones a un segundo plano.

De todas formas, la idea de usar bacterias para generar una respuesta inmune capaz de promover la destrucción de las células tumorales perduró hasta nuestros días. De hecho, a pacientes con ciertos tipos de cáncer de vejiga hoy se les administra localmente el bacilo de Calmette-Guérin (la vacuna BCG) a efectos de provocar una respuesta inflamatoria capaz de destruir las células tumorales.

Con el mismo objetivo se ha empleado interleucina 2 (IL-2) para el tratamiento de melanomas y tumores renales. La IL-2 indujo una respuesta antitumoral en una fracción de los pacientes tratados, pero su empleo encontró un límite en la abundancia de sus efectos adversos.
Estos antecedentes sugieren que el sistema inmune del paciente portador de un tumor puede revelarse contra este y destruirlo. Sin embargo, en muchos casos parece requerir cierta ayuda externa.

En 1990, trabajando entonces en la Universidad de California en Berkeley, Allison concentró sus estudios en una proteína de función desconocida, llamada CTLA-4 (cytotoxic T-lymphocyte–associated antigen 4). Demostró, junto con otros científicos, que ella pone un formidable freno a la actividad de las células T, que constituyen un componente central del sistema inmune y desempeñan un papel crítico en la respuesta inmune a tumores. Cabe preguntarse, entonces, cómo la evolución llevó al sistema inmune a generar moléculas como CTLA-4 capaces de inhibirlo. La respuesta es que, al ser la respuesta inmune realmente muy potente, pone en marcha mecanismos capaces no solo de destruir agentes infecciosos y células tumorales sino, también, de dañar tejidos del propio organismo. De ahí que la aparición de estas moléculas inhibitorias morigere el daño que causaría una reacción inmune exacerbada.

El descubrimiento de la función del CTLA-4 condujo a Allison a producir un anticuerpo capaz de bloquear su acción e investigó si ese anticuerpo reactivaba la respuesta inmune antitumoral. Realizó las primeras experiencias hacia fines de 1994 con ratones y obtuvo resultados realmente sorprendentes. El solo empleo del anticuerpo revivió en los roedores la respuesta inmune antitumoral y les curó el cáncer. Pese a que la industria farmacéutica no mostró mayor interés inicialmente en sus descubrimientos, Allison profundizó sus investigaciones y, muy pronto, otros científicos reprodujeron sus observaciones.

En 2010, una importante serie de pruebas realizadas en varios centros oncológicos con pacientes que padecían melanoma avanzado reveló efectos importantes. Si bien solo un porcentaje limitado de ellos respondió a la terapia, el 22% se mantuvo libre de enfermedad por diez años, un resultado sorprendente si tenemos en cuenta el estado avanzado de la enfermedad al momento de iniciar el tratamiento, y el hecho de que los pacientes habían sido refractarios a los tratamientos convencionales, basados en quimioterapia y radioterapia. Estas experiencias pioneras de Allison marcaron un antes y un después en el tratamiento de enfermos con cáncer.

Por su lado, en 1992, trabajando en la Universidad de Kyoto, Honjo descubrió una molécula desconocida en la superficie de los linfocitos T, que denominó PD-1 (por programmed death), la cual mostró, igual que CTLA-4, inhibir marcadamente la capacidad antitumoral de las células T. Es decir, Honjo encontró un segundo freno del sistema inmune. La pregunta que surgió entonces fue, nuevamente: ¿se lograría reactivar la respuesta inmune antitumoral bloqueando PD-1, como se había logrado bloqueando CTLA-4? Los resultados obtenidos en ensayos realizados, primero, in vitro con células aisladas, luego, en animales, y finalmente en pacientes con cáncer tratados en múltiples establecimientos oncológicos, arrojaron resultados espectaculares. Demostraron fehacientemente que anticuerpos bloqueantes de PD-1 lograban remisiones de la enfermedad o cura en una fracción significativa de los enfermos.

Hoy, a pocos años de los descubrimientos de Allison y Honjo, se han desarrollado y aprobado para el tratamiento de diferentes tipos de cáncer diversos anticuerpos capaces de bloquear tanto a PD-1 (entre ellos pembrolizumab y nivolumab) como a CTLA-4 (por ejemplo, ipilimumab). Por otra parte, se ha observado que el tratamiento combinado con anticuerpos dirigidos contra PD-1 y CTLA-4 tiene efectos superiores a aquellos logrados por la terapia con uno solo de los anticuerpos. Pero también tienen mayor severidad los efectos adversos asociados con el tratamiento combinado. Esos efectos adversos, particularmente en la piel, el tracto gastrointestinal, el hígado y el sistema endócrino, ocurren en el 90% de los pacientes tratados con anticuerpos dirigidos contra CTLA-4 y en el 70% de aquellos tratados con anticuerpos capaces de bloquear el PD-1. El uso de drogas inmunosupresoras, como prednisolona, resultó particularmente efectivo para tratar estas manifestaciones de toxicidad.

La respuesta terapéutica obtenida en pacientes con cáncer por los inhibidores de CTLA-4 y PD-1 planteó la posibilidad de usar el mismo camino para tratar infecciones crónicas. Numerosos laboratorios se hallan actualmente abocados a estudiar la efectividad de los anticuerpos en cuestión sobre el curso de infecciones crónicas como las debidas a los virus de la inmunodeficiencia humana o de la hepatitis B, o a microorganismos como el causante de la malaria.

Como todo gran descubrimiento, los realizados por Allison y Honjo plantean nuevos interrogantes y desafíos, entre ellos, comprender por qué solo una fracción de los pacientes con cáncer responde efectivamente al tratamiento con anticuerpos bloqueantes de CTLA-4 o PD-1. En los últimos años se han descubierto nuevas moléculas capaces también de silenciar la respuesta inmune. Quizá ellas proporcionen nuevos caminos para profundizar la revolución iniciada en materia de inmunoterapia antitumoral.

Nota técnica

Los lectores interesados en conocer una explicación más técnica de lo anterior pueden leer los párrafos que siguen, además de consultar el escrito citado como lectura sugerida, que proporciona una amplia bibliografía especializada.

Las células T integran dos grandes poblaciones celulares: las células T CD4+ y las células T CD8+. Mientras que estas últimas median potentes respuestas citotóxicas capaces de destruir células tumorales, las células T CD4+ pueden asumir diferentes perfiles funcionales, algunos francamente inflamatorios, como los perfiles TH1 y TH17. Más allá de esta diversidad de perfiles propios a los linfocitos T, la molécula CTLA-4 mostró mediar siempre una función supresora sobre la respuesta inmune. ¿Cómo lo hace? Al interactuar con sus ligandos expresados por los macrófagos y las células dendríticas (moléculas CD80 y CD86), la molécula CTLA-4 transduce señales que conducen a la parálisis de la célula T, ya sea esta un linfocito T CD4+ o T CD8+.

En 1999 se logró identificar al ligando de PD-1, denominado PD-L1. Este descubrimiento cobró particular relevancia ya que se encontró que PD-L1 se expresa notoriamente en diferentes tipos de tumores, y permite por lo tanto a los tumores interactuar y paralizar la función de las células T. Anticuerpos dirigidos contra PD-1 (pembrolizumab, nivolumab), CTLA-4 (ipilimumab) y PD-L1 (atezolizumab, avelumab) ya fueron licenciados y aprobados para el tratamiento de diferentes tipos de cáncer.

En los últimos años se han descripto nuevas moléculas capaces también de silenciar la respuesta inmune. Ellas representan potenciales blancos de anticuerpos a emplear en la inmunoterapia antitumoral. Entre estas moléculas están la galectina-1 (Gal-1), el gen 3 de activación linfocitaria (LAG3), el receptor inmune T con dominios tipo inmunoglobulina e ITIM (TIGIT), CD96 y la proteína relacionada al receptor del factor de necrosis tumoral alfa inducida por glucocorticoides (GITR). Diferentes estudios se hallan abocados a demostrar la potencial acción antitumoral de monoterapias dirigidas contra cada una de estas moléculas, como también de terapias combinadas. A la luz de las diferentes respuestas observadas en distintos pacientes, cabe formular el siguiente interrogante: ¿cómo definir la mejor terapia para cada paciente? ¿Qué biomarcadores deberíamos emplear a tal efecto? Nuevamente, es en el campo de la investigación básica en el cual este interrogante encontrará una respuesta.

Lecturas Sugeridas

SMITH CIE et al., 2018, Discovery of cancer therapy by inhibition of negative immune regulation, Real Academia Sueca de Ciencias, Estocolmo.

Autor: Ezequiel Dantas

Autor: Jorge Geffner

Autor: Gabriel Rabinovich

Doctor (PhD) en economía, Universidad de Cornell. Profesor asociado y director de la maestría en economía, UdeSA

Doctor en bioquímica, UBA. Investigador superior en el INBIRS, UBA-Conicet. Profesor titular, Facultad de Medicina, UBA.

Doctor en ciencias químicas, Universidad Nacional de Córdoba. Investigador superior en el IByME, UBAConicet. Profesor titular, Facultad de Medicina, UBA

Artículos relacionados