Inicio Volumen 24 Número 141 Los premios Nobel 2014

Los premios Nobel 2014

Versión disponible en PDF.

¿Cuáles son las contribuciones al conocimiento realizadas por los ganadores de premios que, a lo largo de más de un siglo, se convirtieron en uno de los mejores mecanismos del mundo para identificar avances cruciales de las ciencias?

Economía

El funcionamiento y la regulación de los mercados en competencia imperfecta

El premio del Banco de Suecia en Ciencias Económicas en Memoria de Alfred Nobel fue otorgado este año al francés Jean Tirole, de la Universidad de Toulouse y de la Escuela de Economía de Toulouse, por sus contribuciones al estudio del funcionamiento de la economía en contextos de competencia imperfecta, en los que las empresas tienen poder de mercado, así como sus estudios de las formas y consecuencias de la intervención pública en dichos mercados, particularmente, la regulación.

Durante mucho tiempo, una porción sustancial de la teoría económica fue exitosa en explicar el funcionamiento de mercados suficientemente competitivos, es decir aquellos que se acercan a la competencia perfecta, en que ningún participante en el mercado, oferente o demandante, tiene la posibilidad de influir por sí solo y de modo relevante en los precios. Pero muchos mercados no operan de tal forma. En ellos algunas empresas tienen poder de mercado, entendido como la capacidad de afectar con su comportamiento los precios a los que venden sus productos o servicios. Dicho poder se vuelve extremo si –por razones tecnológicas o por la dificultad de que entren competidores– el mercado es monopólico. Existen, sin embargo, múltiples posibilidades intermedias entre el monopolio y la competencia perfecta.

Las autoridades públicas se proponen, en muchos casos, influir en tales mercados para evitar que las empresas abusen de ese poder. La intervención pública suele tomar, en la mayoría de las economías, dos formas: la defensa de la competencia y la regulación. La primera se aplica cuando las autoridades fijan un marco legal orientado a impedir que la competencia en mercados concentrados se vea limitada por una o varias empresas. Se trata de una intervención indirecta: se fijan normas que se aplican de manera general a todos los mercados. Por ejemplo, se penaliza a las empresas que acuerdan entre sí precios o cuotas de mercado. La regulación, por el contrario, es una forma directa de intervención. En ella, se fijan precios, cantidades o estándares de calidad de los bienes o servicios que se proveen, de una forma que, por su naturaleza, es específica a cada mercado que se regula.

Es usual que los mercados regulados operen en condiciones de monopolio o de oligopolio con muy pocos competidores, en especial en los servicios públicos, para los que, si se atiende a la eficiencia, en muchos casos sería deseable que actúe una única firma, pues se trata de situaciones llamadas de monopolio natural.

Para que la intervención estatal genere los resultados deseados, es esencial comprender el funcionamiento de los mercados monopólicos y oligopólicos, también llamados mercados concentrados, pues normas inadecuadas de defensa de la competencia pueden restar incentivos a innovar a las empresas. Por otra parte, en mercados regulados las empresas tienen ventajas sobre las autoridades, en particular ventajas informativas, dado que conocen mucho mejor las condiciones del mercado, especialmente su estructura de costos.

La teoría se había ocupado con cierto detalle del monopolio y de su regulación, y había elaborado una serie de modelos para los casos oligopólicos. Es una rama de la economía muchas veces llamada organización industrial. En 1982 George Stigler recibió el premio Nobel por su trabajo sobre estructuras industriales, el funcionamiento de los mercados y los efectos de la regulación. Pero se carecía entonces de herramientas que permitieran (i) analizar de forma unificada los mercados imperfectamente competitivos o concentrados, y (ii) reconocer y prever las consecuencias de la intervención pública, especialmente la regulatoria, teniendo en cuenta dicho contexto de asimetría informativa. Hacia fines de la década de 1970 y comienzos de la de 1980 comenzó a estar disponible el marco conceptual necesario para encarar ambos problemas, elaborado a partir de avances en la teoría de juegos y en el diseño de mecanismos. Los premios Nobel de economía correspondientes a 1994, 2005 y 2007 fueron otorgados, justamente, por contribuciones a desarrollar dichas herramientas sobre la base de ese marco conceptual. Los aportes de Jean Tirole fueron cruciales para poder aplicar las mencionadas herramientas al análisis de los mercados concentrados y de la intervención pública en ellos.

La literatura económica sobre regulación solía aconsejar recurrir a alguna variante de dos mecanismos principales. El primero consiste en fijar un tope al precio que la empresa puede cobrar. Su ventaja central es que incentiva a la firma a reducir costos, puesto que cada ahorro que realiza redunda en su beneficio. El segundo mecanismo consiste en permitir precios que aseguren a la empresa un retorno establecido de antemano por encima de los costos que tenga. En ese caso los incentivos a reducir costos son escasos: más bien operan en el sentido de inflarlos.

Por otra parte, las dificultades de ambos esquemas se agravan si la empresa dispone de ventajas informativas sobre el regulador. Con precios máximos, dado que la firma conoce sus costos y su capacidad para reducirlos mejor que el regulador, puede apropiarse de ganancias exageradas, que además generan ineficiencias en la asignación de recursos. Con un margen sobre costos asegurado, la empresa tiende a inflar real o ficticiamente sus costos a fin de incrementar su beneficio. En ambos casos, la compensación que la firma recibe es demasiado alta.

En una serie de estudios realizados en colaboración con Jean-Jacques Laffont –que murió en 2004– Tirole examinó el diseño de los mecanismos comentados y concluyó que se podrían obtener mejores resultados si las autoridades brindaran a las empresas la posibilidad de elegir de un menú de esquemas alternativos. Una firma con costos altos relativamente difíciles de bajar elegiría una opción de costo más margen garantido (cost plus en la literatura en inglés). Si es más eficiente o piensa que puede reducir costos en forma significativa, elegiría un esquema de precios máximos (price cap en la misma literatura). Si el menú se diseña de modo apropiado, al lograr que la empresa condicione su decisión a su estructura de costos, generará una reducción del exceso de beneficios y la incentivará a ser más eficiente, en provecho del conjunto de la economía.

Este esquema básico fue aplicado por Laffont y Tirole a un importante número de facetas de los mercados regulados. Por ejemplo, extendieron el marco básico expuesto en el párrafo anterior, que es estático, a un contexto dinámico. Una firma regulada se resistirá a revelar información sobre sus costos si el marco regulatorio puede modificarse de forma que la perjudique; por ejemplo, si revela que opera con costos bajos, el regulador buscará reducir sus beneficios en el futuro. En tal caso, el regulador deberá ofrecer un menú que lo lleve a conocer gradualmente esos costos. Asimismo, el trabajo de ambos economistas generó ideas para, entre otras cosas, la regulación óptima de la calidad, para empresas con productos múltiples y para diseñar institucionalmente el marco regulatorio –por ejemplo, para impedir que las autoridades regulatorias pierdan su independencia ante la firma, es decir, terminen capturadas por ella–.

En adición a sus estudios sobre regulación, junto con Drew Fudenberg, Tirole planteó un modelo conceptual simple de entender las formas en las que las firmas pueden adquirir compromisos de comportamiento competitivo mediante decisiones de inversión, y para evaluar su conveniencia. Un caso particular está dado por la inversión en procesos para reducir costos. Dicha inversión facilitaría que la empresa reduzca sus precios o provea mayor cantidad de su producto, pero esto no necesariamente sería beneficioso para ella, pues depende de la forma exacta de competencia en el mercado. Existen casos en los que las reacciones de los pocos rivales en el mercado volverían a dicha inversión menos rentable. Fudenberg y Tirole proveyeron un marco conceptual para identificar casos en los que tales inversiones son convenientes. Paralelamente, su esquema permite analizar las decisiones de inversión como un instrumento para reducir el número de rivales por la vía de disuadir a competidores potenciales de ingresar en el mercado, o de generar condiciones que lleven a competidores reales a retirarse de él.

Un segundo aporte de Tirole surge de su análisis de mercados vinculados verticalmente, como ocurre con los de insumos y productos finales, o los que relacionan a industriales y comerciantes. Un productor monopólico puede convertir a un comerciante potencialmente competitivo en monopólico si le concede exclusividad para la venta de su producto. Antes ese tipo de comportamiento se atribuía a razones de eficiencia: por ejemplo, se pensaba que el productor provee incentivos al comerciante para que promocione adecuadamente su producto, pues lo hará en mayor medida si enfrenta menos competencia para venderlo. En un trabajo realizado en colaboración con Patrick Rey, Tirole comprobó que si el comerciante conoce mejor la demanda que el productor, puede fijar precios de venta que extraigan mayores beneficios para toda la cadena. Tales beneficios, sin embargo, resultan de precios más elevados que benefician a productor y comerciante, pero perjudican a los consumidores.

De igual modo, la exclusividad puede resolver otra cuestión analizada por Tirole y Oliver Hart. Si el productor firma con un comerciante un contrato que establece determinadas condiciones de retribución, automáticamente tiene el incentivo para negociar condiciones más ventajosas con otro comerciante. El primer comerciante, desde ya, anticipa esto, y es renuente a comprometerse contractualmente en primera instancia. Una cláusula de exclusividad, en cambio, asegura a productor y comerciante que no habrá una segunda negociación.

Estos trabajos de Tirole modificaron la percepción de las restricciones verticales en mercados vinculados y demostraron que no es posible establecer su efecto sin conocer los detalles específicos del mercado en que operan. En muchos casos, ello llevó a las autoridades de defensa de la competencia a cambiar su postura ante la admisibilidad de determinadas restricciones.

Un número importante de contribuciones de Tirole se refieren a mercados con condiciones técnicas que generan contextos especiales. Esto ocurre, por ejemplo, en el caso –estudiado por Tirole en colaboración con Jean-Charles Rochet– de la competencia entre plataformas con dos grupos diferentes de usuarios: las tarjetas de crédito venden su servicio a comerciantes y consumidores, los sistemas operativos y las consolas de juegos vinculan a programadores con quienes juegan, los diarios y las revistas obtienen ingresos de lectores y anunciantes, etcétera. También examinó en detalle con Jean-Jacques Laffont el mercado de telecomunicaciones y su regulación.

El gran mérito de las contribuciones de Tirole fue el enfoque unificador que incorporó al estudio de los mercados concentrados. Su énfasis en la interacción estratégica entre firmas, en los problemas de información y en la capacidad de compromiso ha permeado a toda la disciplina. De hecho, su Teoría de la organización industrial, publicado en inglés en 1988 sobre la base de una versión francesa de 1985, es todavía hoy una referencia crucial en el área. Muchos de sus trabajos tuvieron consecuencias prácticas inmediatas, tanto en la regulación y la defensa de la competencia, como en políticas públicas y diseños institucionales. Jean Tirole, en suma, tuvo y tiene una monumental influencia sobre el análisis económico, tanto en materia conceptual como en su aplicación. Su premio era largamente esperado por sus colegas.

Autores

Física

Una nueva fuente de luz para iluminar el mundo

El premio Nobel de física fue concedido a los científicos japoneses Isamu Akasaki, Hiroshi Amano y Shuji Nakamura por haber inventado una nueva fuente de luz energéticamente eficiente y respetuosa del ambiente –el diodo emisor de luz azul (o LED azul)–. Este premio junto con el Nobel de química, otorgado por el desarrollo de la microscopia fluorescente de alta resolución, reflejan el impacto que la fotónica, campo de conocimientos asociado con la generación y manipulación de la luz, está produciendo desde hace años en la ciencia y la tecnología, y en forma directa en la vida cotidiana de nuestras sociedades.

Los LED azules y el camino hacia una nueva forma de iluminación

Los diodos emisores de luz son dispositivos compuestos por una estructura de capas de materiales semiconductores en las que la electricidad se convierte en luz. Este fenómeno, llamado electroluminiscencia, fue observado por primera vez en carburo de silicio en 1907 por el británico Henry J Round (1881-1966) y estudiado entre 1920 y 1930 por Oleg V Losev (1903-1942) en la Unión Soviética. Entre 1950 y 1970 se crearon LED que emitían en distintas longitudes de onda del espectro, del infrarrojo al verde, y empezaron a comercializarse a muy bajo costo en la década de 1970. Se hicieron muy populares como indicadores de encendido de aparatos electrónicos y en muchas otras aplicaciones.

Su uso como fuente de iluminación, sin embargo, se enfrentó con dos serios problemas: tenían muy baja eficiencia lumínica, y, para producir luz blanca, se requería emisión en la región azul del espectro, de modo que, combinando colores o haciendo interactuar luz azul con otros materiales, se obtuviera luz blanca.

A pesar del esfuerzo realizado por muchos laboratorios, resolver esos problemas no fue tarea sencilla por diversos motivos. Como la longitud de onda de emisión depende del material semiconductor empleado, solo algunos materiales parecían candidatos posibles. Desde un principio se consideró al nitruro de galio (GaN) como uno de los más apropiados, pero no se lograba producir cristales de la calidad y las propiedades ópticas requeridas. Tampoco se tenía una base teórica adecuada para comprender el fenómeno de la electroluminiscencia en semiconductores, a lo que se llegó en un par de décadas. Por estas razones, la mayoría de los laboratorios del mundo abandonaron el desafío.

Akasaki y Amano, en la Universidad de Nagoya, y Nakamura en una pequeña empresa (Nichia Químicos) ubicada en Tokushima, isla de Shikoku, fueron la excepción. Continuaron trabajando en el tema con perseverancia, idearon nuevos enfoques, construyeron sistemas y equipos que no existían, desarrollaron tecnologías nuevas y llevaron a cabo cientos de experimentos.

En 1986, Akasaki y Amano tuvieron éxito en obtener un cristal de GaN de alta calidad haciendo crecer una capa de nitruro de galio sobre otra de nitruro de aluminio depositada sobre un sustrato de zafiro. En 1992 inventaron el primer diodo emisor de luz azul de alto brillo. Por su parte, Nakamura comenzó a desarrollar un LED azul en 1988. Dos años más tarde también tuvo éxito en la fabricación de GaN de alta calidad mediante un camino distinto: un ingenioso procedimiento que combinaba el crecimiento de una capa delgada de nitruro de galio a baja temperatura, con el crecimiento de capas siguientes a mayor temperatura.

Durante la década de 1990, los dos grupos de investigación lograron mejorar sus desarrollos y hacerlos más eficientes. Para ello crearon diferentes aleaciones de GaN con aluminio o indio y desarrollaron estructuras basadas en heterojunturas y pozos cuánticos. En estas, la recombinación de agujeros y electrones en pequeños volúmenes ocurre muy eficientemente y con mínimas pérdidas. En 1996 Nakamura inventó un láser azul, que permitió aumentar la capacidad de almacenamiento de información en DVD y dio lugar a la invención de los Blu-ray y otros dispositivos de registro e impresión. Los LED azules actuales basados en GaN son el resultado de una larga serie de desarrollos experimentales y teóricos en el campo de la fotónica y de la ciencia de materiales. Desde un punto de vista tecnológico, implicó el desarrollo de técnicas para el crecimiento de cristales de alta calidad, la capacidad de controlar el dopaje de semiconductores, la fabricación de aleaciones basadas en GaN y su integración en estructuras multicapas.

Las lámparas iluminaron el siglo XX, los LED iluminarán el siglo XXI

La invención del LED azul hizo posible fabricar fuentes de luz blanca eficientes para iluminación mediante dos tipos de tecnologia. Por un lado, excitando fósforo con un LED azul se produce emisión en el rango espectral del verde y el rojo, que combinada con el azul el ojo humano percibe como luz blanca. Por el otro lado, se puede lograr luz blanca combinando LED de colores complementarios (rojo, verde y azul).

En las fuentes de luz tradicionales, la mayor parte de la electricidad se convierte en calor y solo una pequeña cantidad en luz. En las lámparas incandescentes y en las halógenas, la corriente eléctrica se utiliza para calentar un filamento de alambre que adquiere brillo. Estas lámparas tienen una baja eficiencia, del orden de 16lm/W. El lumen (lm) es la unidad que se utiliza para caracterizar el flujo luminoso de una fuente. En las lámparas fluorescentes, que iluminan por una descarga eléctrica en un gas, la eficiencia es del orden de 70lm/W. Con los LED blancos se han logrado eficiencias del orden de los 300lm/W, lo que representa más del 50% de eficiencia de conversión de energía eléctrica en luz. Dado que entre el 20% y 30% de la electricidad consumida en el mundo se utiliza para la iluminación y que estas nuevas fuentes de luz requieren mucho menos energía que las lámparas y los tubos fluorescentes, su empleo puede dar lugar a un importante ahorro energético y a una reducción drástica del consumo de electricidad.

Los LED son, además, más robustos y duraderos que las fuentes de luz tradicionales, aunque en este aspecto podría intervenir, como en las lámparas y en los tubos fluorescentes, la obsolescencia programada, dependiente de razones exclusivamente económicas. Además, como los LED requieren baja potencia de alimentación, funcionan muy eficientemente con paneles solares y baterías, y carecen de elementos contaminantes como el mercurio de los tubos fluorescentes.

Los LED blancos ya están reemplazando todas las formas tradicionales de iluminación y siendo aprovechados en nuevas aplicaciones, como la retroiluminación de las pantallas de cristal líquido de televisores, monitores, teléfonos móviles y tabletas. Actualmente se están explorando aplicaciones de LED azul y violeta en la purificación del agua, ya que esa radiación afecta el ADN de microorganismos.

Fotónica y el Año Internacional de la Luz

Los LED son un producto más de la fotónica, un campo de conocimientos cuyo impacto, tanto científico-tecnológico como en la vida cotidiana es tan grande que ha cambiado y sigue cambiando muchos aspectos del mundo en que vivimos.

Internet, los sistemas multimedia, la telefonía y las PC actuales no serían posibles sin los láseres y las fibras ópticas, producto de la fotónica. El aumento en la expectativa de vida de las personas y el cuidado de la salud cuentan con nuevos instrumentos para diagnóstico y tratamiento basados en técnicas láser, procesamiento de imágenes, microscopias de muy alta resolución y endoscopios que usan sistemas de iluminación con LED. El control de productos y procesos en la industria emplea cada vez más sensores ópticos, que combinan láseres, LED, fibras y procedimientos automáticos basados en técnicas fotónicas. La fotografía y las técnicas de filmación y video se han revolucionado con las cámaras y filmadoras digitales, que utilizan pantallas de cristal líquido, LED y detección de luz con dispositivos CCD.

Hay más: materiales que podrían producir invisibilidad, celdas fotovoltaicas que podrían permitir que la energía solar proporcionara hasta la mitad de la necesaria en el mundo, impresoras y fotocopiadoras láser, escáneres ópticos, lectores de códigos de barras, hologramas y métodos ópticos de encriptación para seguridad, como los de las tarjetas de crédito y, lamentablemente, el condenable uso para la guerra, ya que la tecnología militar sin la fotónica no podría haber alcanzado la capacidad de destrucción que hoy tiene. La fotónica es un campo en el que la investigación científica y el desarrollo tecnológico están en permanente interacción.

Los premios Nobel de física y química de este año anticipan la celebración del Año Internacional de la Luz, proclamado para 2015 por la Asamblea General de las Naciones Unidas como reconocimiento a la importancia de la luz y las tecnologías basadas en la luz en la vida de los ciudadanos del mundo y para el futuro del desarrollo de nuestras sociedades.

Autores

Química

El futuro de la microscopia de fluorescencia

La era de los pioneros

A mediados del siglo XVII, a menos de un siglo de que fabricantes holandeses de lentes diseñaran los primeros microscopios, Antonie van Leeuwenhoek (1622-1723), también holandés, se convirtió en el primero en ver bacterias y otros microorganismos. Por esto se lo considera el padre de la microbiología. A pesar de la simplicidad del microscopio que empleó, que consistía en un pequeño marco metálico con unas pocas lentes finamente pulidas a mano, su valioso trabajo como pionero inspiró a otros, incluso a Galileo, quien fabricó su propio microscopio.

Los microscopios no evolucionaron mucho por dos siglos, hasta que Carl Zeiss (1816-1888), un ingeniero y constructor de lentes alemán, les hizo mejoras considerables, sobre todo en la calidad de la óptica y en el proceso de fabricación. En lo primero lo ayudó Otto Schott (1851-1935), uno de los mejores fabricantes de lentes de entonces, y en lo segundo, Ernst Abbe (1840-1905), profesor de física en la Universidad de Jena. Así, a finales del siglo XIX Zeiss, Schott y Abbe iniciaron la microscopia óptica moderna. Muchas de sus innovaciones aún sobreviven, como los objetivos de inmersión.

El poder de resolución de un microscopio

Los microscopios permiten obtener imágenes magnificadas de un objeto y así revelan detalles invisibles a simple vista. Pero existe un límite para el tamaño del menor detalle visible con un microscopio, que se llama límite de resolución. Los fundamentos físicos de lo anterior están relacionados con la naturaleza ondulatoria de la luz, según esclareció Abbe. En líneas generales, no se pueden distinguir detalles menores que alrededor de media longitud de onda de la luz utilizada. El límite de resolución se conoce también como la barrera de difracción o barrera de Abbe.

En el siglo XX tuvieron lugar numerosos avances en microscopia óptica, como el microscopio confocal y los láseres, que permitieron mejorar el poder de resolución de los microscopios ópticos, pero siempre por encima de la barrera de Abbe. Tres siglos después de haberse logrado ver por vez primera un microorganismo y una célula, todo indicaba que se seguiría sin poder ver lo que ocurre en su interior, pues su tamaño está por debajo del límite de resolución.

La ruptura de la barrera de difracción

El premio Nobel de química de 2014 fue otorgado en partes iguales a tres científicos que contribuyeron a romper la barrera de difracción mediante las denominadas microscopias de fluorescencia de superresolución o nanoscopias de fluorescencia. Son ellos Stefan Hell, del Instituto de Química Biofísica de la Sociedad Max Planck, en Gotinga; Eric Betzig, del Instituto Médico Howard Hughes, en Ashburn, Virginia, y William E Moerner, de la Universidad de Stanford, en California.

La fluorescencia es un proceso por el cual una molécula absorbe luz y luego la irradia con menor energía, es decir, con diferente color. Mediante moléculas fluorescentes llamadas marcadores fluorescentes, que se adhieren a determinados sitios de una muestra, se logra obtener imágenes de partes específicas de la muestra, como la membrana, el núcleo o el citoesqueleto de una célula. El proceso de fluorescencia posibilita, además, sobrepasar la barrera de difracción mediante un ingenioso recurso: controlar los marcadores fluorescentes e intercambiarlos entre estados moleculares alternativos que emitan y que no emitan luz de fluorescencia. En la práctica, así como el microscopio de van Leeuwenhoek abrió una ventana al mundo de los microorganismos, los nanoscopios de fluorescencia abrieron una ventana al interior de esos microorganismos. Estructuras y procesos en la escala de nanómetros (millonésimas de milímetro), por ejemplo los detalles y cambios estructurales de un poro nuclear, una mitocondria o una sinapsis neuronal, que quedaban fuera del alcance de los microscopios convencionales, se pueden ver ahora mediante nanoscopia de fluorescencia.

Quién es quién

Hell y Betzig trabajaron de manera independiente y cada uno encontró un camino diferente para eludir el límite de Abbe. Moerner contribuyó con un descubrimiento clave para el método de Betzig, mientras Hell fue el primero en idear, en 1994, un procedimiento para romper la barrera de difracción, llamado de supresión por emisión estimulada (stimulated emission depletion). En 2000 lo llevó a la práctica y produjo las primeras imágenes de objetos más pequeños que el límite de Abbe. Su idea fue simple y elegante: valerse de dos haces de luz, uno para excitar fluorescencia y otro para suprimirla mediante emisión estimulada. Pudo así suprimir la fluorescencia en toda la muestra menos en una región tan pequeña como decidiera, lo que le permitió superar la barrera de difracción.

Betzig tomó en 1995 un camino alternativo al de Hell para evadir el límite de difracción. Se basó en localizar moléculas fluorescentes individuales, que tienen un tamaño de alrededor de 1-2 nanómetros y a los fines prácticos actúan como una fuente puntual de luz. La imagen de una molécula individual que se logra ver con un microscopio, restringida por el límite de difracción, no es del tamaño de la molécula sino del tamaño impuesto por tal límite. Sin embargo, el centro de esa imagen, que corresponde a la posición de la molécula, puede determinarse con gran precisión. El recurso ideado por Betzig consiste en apagar todos los marcadores de una muestra, excepto unos pocos, bien separados entre ellos. De este modo, su ubicación puede obtenerse con precisión nanométrica determinando el centro de sus respectivas señales. Si se repite el proceso numerosas veces, siempre intentando dejar prendidos distintos marcadores, se logra reconstruir una imagen de la muestra con resolución nanométrica.

Por su lado, en 1989 Moerner fue el primero en observar la absorción de una sola molécula de un cristal. Muy pronto llegó más allá y logró observar la fluorescencia de una única molécula de proteína fluorescente verde, y en particular demostró que se podía controlar la emisión de una mutante de esa proteína, es decir encenderla y apagarla a voluntad, utilizando dos haces de luz de distinto color. Este último descubrimiento resultó inspirador para quienes estudiaban el movimiento y la agrupación de proteínas dentro de células vivas. Por ejemplo, la investigadora Jennifer Lippincott-Schwartz, de los National Institutes of Health de los Estados Unidos, desarrolló una serie de nuevas variantes de proteína fluorescente verde, una de las cuales, apagada en su estado natural, se vuelve fluorescente por acción de la luz. Betzig advirtió que esa era la molécula ideal para demostrar experimentalmente su forma de quebrar la barrera de difracción, y en un trabajo realizado en 2006 en colaboración con dicha investigadora demostró experimentalmente la técnica ideada por Betzig, llamada microscopia de localización por fotoactivación (photoactivation localization microscopy o PALM).

El área común de los tres premiados es el control de los estados moleculares de los compuestos fluorescentes, utilizados como sondas y como interruptores moleculares fotónicos, es decir, usando luz como comando para encender y apagar su emisión luminosa. El camino tomado por Hell es determinístico: los procesos ocurren en el área que se ilumina. Betzig, en cambio, procedió por una vía estocástica: se iluminó toda la muestra y las moléculas fluorescentes se encienden en lugares al azar, los que después se determinan con alta precisión. Los descubrimientos de Moerner, por su lado, han sido importantes para aplicar esas técnicas estocásticas, que serían imposibles sin poder observar moléculas individuales.

Una mirada al futuro

El aporte fundamental de las nanoscopias de fluorescencia es haber encontrado la manera de eludir los efectos de una ley física que la comunidad científica estaba resignada a aceptar. Las consecuencias más importantes ya se advierten, y se espera que su presencia aumente en el futuro, en particular en la biología celular y molecular, y la neurobiología. De hecho, los nanoscopios ya han permitido observar en tiempo real sinapsis de neuronas, modificación de la estructura de espinas dendríticas en el cerebro de un ratón vivo, la formación y reestructuración de complejos biomoleculares nanoscópicos en la membrana celular, la nanoestructura de poros nucleares y la formación de agregados proteicos en las enfermedades de Parkinson y Huntington. Estos son algunos ejemplos de los avances permitidos en la última década por las técnicas de superresolución.

Los Nobel –como cualquier premio– tienen su dimensión de arbitrariedad, y a pesar de su larga tradición y de su prestigio siempre despiertan controversias. Se plantea, por ejemplo, la pregunta de por qué este premio fue en química y no, por ejemplo, en física. La respuesta se dificulta por la cercanía cada vez mayor de la química, la física y la biología, especialmente en las dimensiones moleculares. O se podría argumentar que, a diferencia de anteriores avances en microscopia óptica, no se trató en este caso de una mejora en el diseño del microscopio o en la calidad de las lentes: en el corazón de las microscopias de superresolución encontramos ese juego de encendido y apagado de una sola especie química, la sonda fluorescente, y la manipulación de sus estados de manera precisa y racional.

De cualquier modo, no queda duda de que los métodos de superresolución constituyen el futuro de la microscopia por fluorescencia, por una simple razón: permiten ver más. Nadie quiere un televisor de rayos catódicos luego de tener un LED con alta definición. Si bien todavía hay algunas complicaciones tecnológicas que limitan en cierto modo el uso estándar de estos métodos, es solo una cuestión de tiempo conseguir que se superen.

Autores

Fisiología o Medicina

Los mecanismos cerebrales de la orientación espacial

El premio de este año de fisiología o medicina se dividió en dos mitades: la primera para John O’Keefe, nacido en los Estados Unidos y profesor del University College de Londres, y la segunda compartida por igual por los noruegos May-Britt Moser y Edvard Moser, de la Universidad Noruega de Ciencia y Tecnología, en Trondheim. Premió sus descubrimientos de las células que constituyen un sistema de posicionamiento espacial en el cerebro.

Los animales evolucionaron a partir de ancestros que, como las esponjas y los corales, vivían anclados en el fondo del mar. Adquirir movilidad les confirió una obvia ventaja adaptativa, pues les dio la posibilidad de decidir adónde dirigirse, qué lugares evitar y de cuáles huir. Esa capacidad de moverse en el espacio y tomar decisiones en la materia se conoce como navegación espacial, y en los distintos grupos de animales la evolución desembocó en diferentes formas de representar el ambiente, establecer su ubicación, poder recordar y reconocer lugares, y decidir en consecuencia.

En los estudios pioneros que realizó a comienzos de la década de 1970, O’Keefe descubrió que los mamíferos poseen un grupo de neuronas capaces de generar mapas mentales del espacio. Se las conoce como células de lugar (del inglés place cells) y se encuentran en la región cerebral del hipocampo. Están inactivas la mayor parte del tiempo, pero cada una se activa en respuesta a una localización particular. Esa fue la primera evidencia fisiológica concreta de que existía una representación de la configuración espacial del mundo exterior en el cerebro de un animal.

Estos experimentos se realizaron en ratas, a las que se le aplicó electrodos para medir su actividad neuronal mientras caminaban libremente por un área restringida. Al analizar una zona del hipocampo conocida como CA1 se registraron resultados sorprendentes e inesperados ya que la activación de estas neuronas ocurría de una manera distinta de todo lo observado anteriormente. Células individuales se activaban solo cuando la rata estaba en una posición particular del espacio de trabajo.

Mediante un estudio sistemático en el que analizó distintos ambientes y contextos, O’Keefe demostró que las neuronas en cuestión no solo responden a estímulos provenientes de lugares particulares, sino que también crean una compleja representación del ambiente, es decir, construyen mapas mentales de referencia espacial y confieren al animal un sentido de los lugares y del espacio físico. En experimentos posteriores se demostró que las células de lugar tienen funciones de memoria espacial y que su actividad permite al animal recordar distintos ambientes.

Por su lado, los esposos May-Britt y Edvard Moser, que trabajaron un tiempo como jóvenes investigadores en el laboratorio de O’Keefe, estudiaron una región conectada al hipocampo conocida por corteza entorrinal, en la que encontraron un sistema de localización más complejo, conocido por células de retícula (en inglés grid cells). Su nombre deriva del hecho de que están ordenadas en el cerebro en forma de una retícula de triángulos equiláteros, a diferencia de las células de lugar, que no guardan una disposición geométrica, sino que parecen dispuestas al azar. La retícula no crea un mapa del mundo exterior, pues proporciona al animal un sistema interno de coordenadas independiente del ambiente, que le resulta esencial para la navegación espacial.

Los Moser demostraron, por medio del registro de la actividad de las neuronas, que experiencias espaciales similares se almacenan en forma de recuerdos y permiten explicar la manera en que los mamíferos calculamos y recordamos posiciones relativas en el espacio.

Las células de lugar y las de retícula forman una red neuronal interconectada capaz de computar la información espacial y generar mapas mentales de navegación. Los hallazgos de los premiados permitieron entender cómo los circuitos neuronales ejercen funciones cognitivas fundamentales, y cómo se almacena y procesa la memoria espacial. Además, dieron lugar a un cambio de concepción en nuestro entendimiento de los mecanismos por los que distintas poblaciones de neuronas especializadas forman redes y ejecutan funciones cognitivas complejas. Los estudios de navegación espacial, en síntesis, abrieron nuevos caminos para estudiar cómo se computan los procesos cognitivos en el cerebro.

Ciencia Hoy
Ciencia Hoy