Los Premios Nobel 2016

por , , , para Ciencia Hoy el . Publicado en Número 152.

¿Cuáles son las contribuciones al conocimiento realizadas por los ganadores de premios que, a lo largo de más de un siglo, se convirtieron en uno de los mejores mecanismos del mundo para identificar avances cruciales de las ciencias?

ECONOMÍA

La teoría de los contratos

Se dice que un contrato es completo si puede prever todas las contingencias futuras y establecer cómo resolverlas de manera preacordada. Como dicha previsión es materialmente imposible, se afirma que, en términos generales, los contratos son incompletos. El premio Nobel en economía de este año (en realidad premio Banco de Suecia en ciencias económicas en memoria de Alfred Nobel) recayó sobre dos académicos que dedicaron su carrera profesional a estudiar el diseño de los contratos incompletos, el británico Oliver Hart, nacido en Londres en 1974, profesor de la Universidad de Harvard, y el finlandés Bengt Holmström, nacido en Helsinki en 1978, profesor del MIT. Ambos se establecieron tempranamente en los Estados Unidos e hicieron destacados aportes a la teoría de los contratos. Sus contribuciones exploran sus distintas limitaciones y, a partir de ello, permiten entender cómo distribuir de manera más eficiente beneficios y responsabilidades, así como asignar riesgos y alinear de manera positiva los incentivos e intereses de los contratantes.

Las sociedades humanas, como muchas de animales, están estructuradas sobre la base de vínculos de cooperación entre sus integrantes. La economía concibe esa cooperación entre los humanos como un conjunto de acuerdos que establecen las partes de cada transacción, por los cuales la situación de cada uno termina siendo mejor que la que hubiese sido si hubiese actuado en forma autárquica, es decir, autoabasteciéndose.

Las transacciones pueden ser de cumplimiento inmediato (entrega de un bien o servicio a cambio de otro) o de cumplimiento diferido (entrega de un bien o servicio a cambio de recibir otro en el futuro). En todos los casos la relación de intercambio es contractual, implícita o explícita, ya que crea derechos y obligaciones de características preestablecidas.

En la sociedad moderna, la economía funciona sobre la base de contratos: desde el seguro hasta el empleo, pasando por el crédito, el consumo o la inversión. Incluso, muchas instituciones como el matrimonio o el derecho de propiedad tienen una base contractual. De acuerdo con la teoría económica, los intercambios y sus respectivos contratos son eficientes si cumplen ciertos requisitos, entre otros, que haya simetría o igualdad de información entre las partes y que los contratantes no actúen en situación de conflictos de interés (técnicamente, que no existan ocultos problemas de agencia). Las obligaciones y los derechos se adquieren con el deber genérico de actuar de forma leal y de buena fe.

Los estudios de Hart y Holmström se encadenan con enfoques teóricos anteriores precisamente sobre información asimétrica y problemas de agencia. Por los primeros, Michael Spence, George Akerloff y Joseph Stiglitz recibieron el mismo premio en 2001. Los segundos fueron analizados, por ejemplo, por Michael Jensen y William Meckling en ‘Theory of the firm: Managerial behaviour, agency costs and ownership structure’, Journal of Financial Economics, 3: 305-360, 1976.

Existe información asimétrica cuando una de las partes de la transacción tiene mayor o mejor conocimiento que la otra sobre una situación particular, lo cual le da una ventaja y ocasiona una posible asignación deficiente o excesiva de recursos. Por ejemplo, un banco que no puede descubrir si sus prestatarios son buenos o malos pagadores cobrará una tasa de interés más alta que si lo supiera, para compensar unos con otros. Ello podría alejar a los buenos prestatarios que se sienten tratados de manera injusta.

La teoría económica de los contratos estudia cómo desenvolverse en situaciones de información asimétrica. Lo suele hacer en el contexto de la teoría de la agencia, que analiza las relaciones entre un principal que delega una tarea y un agente a quien es delegada y la ejecuta en representación del primero a cambio de una compensación. En una relación de agencia los intereses del principal y los del agente pueden (y suelen) no estar perfectamente alineados. Así, por ejemplo, el gerente de una empresa (agente) procurará viajar en primera clase mientras que los accionistas (principal) intentarán que lo haga en clase económica. Solo el gerente sabrá hasta qué punto el mayor gasto en que hace incurrir a la firma redundará en un mejor desempeño de su labor, sin que los accionistas estén en condiciones de verificarlo: de ahí la información asimétrica. Por ello, los problemas de agencia surgen cuando una de las partes recibe los mayores beneficios de un determinado arreglo, mientras la otra paga todos los costos. La industria del seguro opera de manera similar: los automovilistas son mucho más cuidadosos si ellos pagan una reparación que si la paga la empresa aseguradora. Este tipo de enfoques sugieren que si el deseo del principal es cerciorarse de que un agente actúe de manera eficiente, es necesario que se lo recompense mediante incentivos que lo induzcan a actuar así.

Los aportes de Hart y Holmström

Las contribuciones de los galardonados este año enfocaron la distribución eficiente de los riesgos, el proceso decisorio y la imposibilidad de prever todas las contingencias futuras (o el carácter incompleto de los contratos). Trataron la última en una ponencia presentada en 1985 con la firma de ambos a un congreso de la Sociedad Econométrica (‘The theory of contracts’, accesible en https://dspace.mit.edu/bitstream/handle/ 1721.1/64265/theoryofcontract00hart.pdf?sequence=1). En esa ponencia analizaron las consecuencias de que ocurra algo inesperado, no previsto en el acuerdo, durante la vigencia del contrato, y la importancia que cobra en ese momento la asignación de derechos de decisión y su distribución entre las partes acordadas al celebrar el contrato.

Holmström estudió el caso de la distribución de los riesgos en una relación laboral firma-empleado, en la cual la firma fija el pago y el empleado decide qué esfuerzo hará. Su investigación contribuye a explicar los motivos por los que los trabajadores prefieren evitar una compensación totalmente variable, que implicaría exponerse a los riesgos de negocios que enfrenta la firma, mientras que esta busca alinear los intereses de los empleados con los de los accionistas mediante una retribución variable. En el fondo, la cuestión económica en juego es si el trabajo del empleado equivale para la firma a un aporte de capital (en el caso del pago variable) o a un crédito o alquiler (si fuese un sueldo fijo). Para la empresa, una retribución variable es un instrumento para hacer converger los intereses de empleador y empleado. Holmström concluyó que una retribución variable vinculada con los resultados del trabajo del empleado solo resulta eficiente si esos resultados son medibles y se aplica proporcionalmente a la capacidad de medición.

Hart también se sirve de la comparación de retribución variable con aporte de capital y sueldo fijo con endeudamiento en sus análisis de la estructura óptima de financiamiento, ya que en la elección entre aportes de accionistas y deuda pone a la empresa y a la gerencia en distinta situación: una deuda financiera obliga a hacer pagos periódicos y restringe la discrecionalidad de la gerencia en el uso de dinero para gastos, lo cual crea una disciplina benéfica para los accionistas, es decir, tiende a alinear los intereses de ambas partes.

La contribución de Hart se centra en la mencionada imposibilidad de prever todas las contingencias que puedan aparecer durante la ejecución de un contrato, y la consecuente necesidad de definir reglas que dejen claro los derechos de las partes de decidir ante eventualidades. Hart postuló que ello se puede hacer definiendo derechos de control o, lo que es lo mismo, estableciendo cuál parte tiene derecho a tomar qué decisiones en qué circunstancias.

Sus estudios proporcionan herramientas teóricas para analizar cuestiones como en qué circunstancias las empresas que deberían fusionarse o endeudarse, o cuál es el tamaño óptimo de una empresa. También ayudan a analizar la conveniencia de que instituciones como las escuelas o las prisiones tengan un régimen de gestión privado o estatal.

omo un ilustración de la importancia de los contratos incompletos, al final en su ponencia de 1985 Hart y Holmström escribieron: ‘Consideren la siguiente pregunta: ¿por qué las partes firman con frecuencia contratos por períodos limitados, con la intención de renegociarlos a su término, en lugar de contratos que valgan por toda la duración de su vínculo? En un marco de contratos completos, esa conducta no ofrecería ventajas, ya que todos los posibles desenlaces y contingencias podrían incluirse en el primer contrato’. Y habían apuntado unas líneas antes: ‘Mientras la importancia de los contratos incompletos es bien reconocida por abogados y por quienes se ocupan de economía y derecho, recién comienza a ser apreciada por los economistas teóricos’.

Los contratos ayudan a actuar en forma cooperativa y a tenerse confianza. En este aspecto, vale la pena señalar los puntos de contacto entre la contribución de Hart y Holmström y la de Douglass North, que recibió el premio de economía en 1993 por sus estudios de la influencia en el largo plazo de las instituciones en el desarrollo económico. (En este contexto, el concepto de instituciones incluye las normas y las convenciones de una sociedad, entre ellas las leyes, los derechos de propiedad, los seguros, la política y las costumbres.) En síntesis, sus líneas de razonamiento llevan a comprender mejor cómo funcionan los contratos de la vida real y a evitar las trampas potenciales que acechan a las partes cuando se abocan al diseño de dichos contratos.

Bengt Holmström | Oliver Hart Bengt Holmström | Oliver Hart

Lecturas Sugeridas

HART O.,1995, Firms, Contracts and Financial Structure, Clarendon Lectures in Economics, Oxford University Press.

REAL ACADEMIA SUECA DE CIENCIAS,2016, ‘Contract theory’, accesible en https://www.nobelprize.org/nobel_prizes/economic-sciences/laureates/2016/popular-economicsciences2016.pdf

Javier F Botto

José P Dapena

Doctor en economía, Universidad del Cema.
Doctor en economía, Universidad del Cema. MSc, London School of Economics. Director del departamento de Finanzas y de su maestría, Universidad del Cema. jd@cema.edu.ar

FÍSICA

Tres científicos británicos que trabajan en los Estados Unidos fueron galardonados con el premio Nobel de física: David J Thouless, nacido en 1934, profesor de la Universidad de Washington en Seattle, que recibió el 50%; F Duncan M Haldane, nacido en 1951, profesor de la Universidad de Princeton, que recibió el 25%, y J Michael Kosterlitz, nacido en 1942, profesor de la Universidad de Brown, que recibió el restante 25%. El premio reconoció sus por sus descubrimientos teóricos de las transiciones de fase topológicas y de las fases topológicas de la materia.

Los tres fueron pioneros en el uso de conceptos topológicos para estudiar la materia, un enfoque que dio lugar a nuevas formas de interpretar sus propiedades físicas. A lo largo de las últimas décadas, sus ideas generaron una enorme actividad de investigación, que arrojó descubrimientos diversos y alentó especulaciones sobre posibles nuevas tecnologías.

La topología es una rama de la matemática que estudia las propiedades de cuerpos geométricos. Se dice que dos cuerpos son topológicamente diferentes si transformando en forma continua uno de ellos no se puede lograr que adopte la forma del otro. Así, deformando una bola de plastilina se puede llegar a un disco, pero no a un anillo, pues para lograrlo habría que hacer un agujero, o formar un cilindro y pegar sus extremos. En la conferencia de prensa en la que anunció el premio, el secretario general de la Real Academia Sueca de Ciencias, Göran K Hansson, ilustró lo anterior con un toque de humor usando una rosquilla y una galleta.

El estudio de las propiedades topológicas de cuerpos geométricos se remonta a Carl Friedrich Gauss (1777-1855), pero los trabajos de Thauless, Haldane y Kosterlitz no se refieren a la forma geométrica del material sino a sus propiedades físicas, porque, de acuerdo con la teoría de la mecánica cuántica, los electrones que circulan por el interior de cuerpos, sean conductores de electricidad o aislantes, lo hacen dando lugar a una distribución (o un campo) de velocidades cuya estructura matemática, en algunos casos, puede adoptar formas complejas, es decir, en términos técnicos, puede ser una estructura topológicamente no trivial.

En materiales magnéticos en los que cada átomo tiene un pequeño imán cuántico llamado su espín, la configuración que adoptan esos espines en el interior del material podría también dar lugar a estructuras topológicas no triviales (y dichos átomos se denominan átomos magnéticos). En definitiva, la topología a la que se refieren los trabajos premiados está asociada con la estructura cuántica de la materia.

Hoy, transcurridos más de veinte años desde la formulación de esas ideas, podemos afirmar que los trabajos de Thouless, Haldane y Kosterlitz han mostrado que la mecánica cuántica, o más precisamente las soluciones que ella ofrece, esconde conceptos esenciales para comprender e interpretar algunos fenómenos físicos. Se trata de ideas que afectan a todas las áreas de la física y que no habían sido consideradas en toda su dimensión.

Las propiedades topológicas de la materia se ponen de manifiesto con más claridad en sistemas materiales llamados de baja dimensión, es decir, de una o dos dimensiones, como láminas extremadamente delgadas o cadenas de átomos o moléculas.

La física de sistemas de baja dimensión tiene características distintas de la de sistemas de tres dimensiones. Las transiciones de fase (o cambios de estado) proporcionan un ejemplo de esas diferencias. Hasta principios de la década de 1970 se pensaba que en dos dimensiones no podía existir superconductividad a ninguna temperatura (conductividad eléctrica sin resistencia). Pero David Thouless y su estudiante de entonces, Michel Kosterlitz, dieron por tierra con esa idea. Mostraron que en condiciones ideales, a temperatura de cero absoluto (-273°C), un material bidimensional puede ser superconductor, pero al aumentar la temperatura se generan defectos llamados vórtices o antivórtices. Estos son defectos topológicos en los que los electrones del material forman corrientes circulares como las del centro de un tornado. A medida que aumenta la temperatura se produce una erupción de esos defectos que termina por destruir el orden superconductor, lo cual constituye una verdadera transición de fase, aunque no cuadre en la clasificación usual de transiciones de fase. Hoy se denomina la transición de Kosterlitz-Thauless y se la reconoce como una transición topológica. Esta predicción teórica fue observada no solo en superconductores laminares, sino también en otros sistemas, como láminas delgadas magnéticas y en átomos confinados en redes ópticas.

En la década de 1980 Thouless con otros colaboradores hicieron contribuciones importantes para comprender el fenómeno conocido como efecto Hall cuántico. El efecto Hall, conocido desde el siglo XIX, se refiere a lo que sucede en una cinta metálica por la que circula una corriente eléctrica en presencia de un campo magnético transversal: la corriente que circula por la cinta genera un voltaje transversal a esta. Se llama resistencia Hall a una cantidad que mide la magnitud de ese voltaje y que resulta útil para describir el fenómeno. Fijada una temperatura, la resistencia Hall aumenta al aumentar el campo magnético.

En 1980, el físico alemán Klaus von Klitzing y sus colaboradores mostraron que, en gases de electrones confinados en dos dimensiones y a temperaturas bajas, la resistencia Hall aumenta con el campo magnético en forma de escalera. En cada escalón, la resistencia Hall adquiere valores universales caracterizados con toda precisión por un número entero. Por lo anterior, Klitzing recibió el Nobel de física en 1985. Por su lado, Thauless y su equipo mostraron que la interpretación de este fenómeno estaba incompleta y que el origen de esos escalones o terrazas está asociado con la estructura topológica de los estados electrónicos inducida por el campo magnético. En cada terraza la estructura topológica es distinta y está caracterizada por un número conocido por número de Chern.

En forma paralela Haldane estudió cadenas de átomos magnéticos y descubrió que en ellas la topología también desempeña un papel importante. Llegó a un resultado inesperado en un área en la que todo parecía estar comprendido: que existen dos tipos de cadenas topológicamente diferentes según el espín (entero o semientero) de los átomos que las componen. La topología no se manifiesta con claridad observando solo una parte del sistema, quizá esta sea la razón por la cual las observaciones de Haldane habían pasado inadvertidas, aunque en las puntas de la cadena aparecen estructuras que distinguen con claridad las distintas topologías.

Haldane también mostró que, en ciertas condiciones, en materiales bidimensionales podría observarse el efecto Hall cuántico aun en ausencia de un campo magnético externo. Esto, junto con los trabajos de Thouless, dio lugar a una nueva y más general interpretación del fenómeno.

Durante la última década, los conceptos definidos por los tres premiados fueron extendidos a sistemas de tres dimensiones y llevaron al descubrimiento de los aislantes topológicos, materiales aislantes en su interior pero conductores en su superficie. Otros fenómenos como el efecto Hall cuántico de espín o los superconductores topológicos tienen origen en las ideas fundacionales de los galardonados. Hoy se reconoce que la topología ocupa un lugar central en la comprensión de la estructura cuántica de la materia.

 David  J Thouless | F Duncan M Haldane | J Michael Kosterlitz David J Thouless | F Duncan M Haldane | J Michael Kosterlitz

Lecturas Sugeridas

REAL ACADEMIA SUECA DE CIENCIAS,2016, ‘Strange phenomena in matter’s flatlands’, accesible en https://www.nobelprize.org/nobel_prizes/physics/laureates/2016/popular-physicsprize2016.pdf..

Javier F Botto

Carlos Balseiro

Doctor en física, Universidad Nacional de Cuyo.
Investigador superior del Conicet en el Centro Atómico Bariloche. Profesor titular de la Universidad Nacional de Cuyo.
cabalseiro@gmail.com

MEDICINA O FISIOLOGÍA

El premio Nobel de fisiología o medicina recayó este año en el japonés Yoshinori Ohsumi, nacido en 1945, por sus contribuciones al conocimiento de los mecanismos moleculares que gobiernan la autofagia. El término significa, por su etimología griega, comerse a sí mismo, y fue acuñado por el ganador del Nobel de medicina de 1974, el belga Christian de Duve (1917-2013), quien en la década de 1950 descubrió unas organelas (compartimentos internos especializados de las células) llamadas lisosomas, que contienen enzimas digestivas. Advirtió que son capaces de digerir proteínas, azúcares y lípidos dentro de la célula. Tiempo después encontró evidencia de que mucho material celular llegado a los lisosomas les era llevado por unas estructuras o vesículas de doble membrana que fueron denominadas autofagosomas, que se fusionan con los lisosomas, y estos degradan ese material en sus componentes.

La autofagia es así un proceso fisiológico de degradación y reciclaje de componentes celulares que ocurre en todas las células, por el cual fragmentos de su citoplasma y sus organelas envejecidas quedan encerrados en los autofagosomas y resultan después digeridos por los lisosomas. Dicha digestión proporciona en forma rápida energía y moléculas clave que permiten a la célula sobrevivir ante la falta de nutrientes o ante otras situaciones de estrés, y mantener sus funciones metabólicas básicas. La autofagia actúa además como sistema de control de calidad, pues degrada proteínas defectuosas u organelas dañadas, que, si se acumularan, llevarían a un funcionamiento defectuoso de la célula.

Desde el descubrimiento de los lisosomas y la descripción de los autofagosomas realizados por Duve, el estudio de este proceso no avanzó demasiado hasta que, en la década de 1990, Ohsumi se puso a estudiar los genes que regían la autofagia en la levadura del pan (Saccharomyces cerevisiae), que es un organismo eucariota unicelular en el que la organela equivalente a los lisosomas se llama vacuola. Observó que cuando la autofagia era defectuosa se acumulaban materiales en ella, o bien no le llegaban.

Mediante experimentos realmente innovadores Oshumi logró identificar varios genes que gobiernan la formación de los autofagosomas y regulan el proceso de autofagia en la levadura, genes que son similares o tienen equivalentes en organismos eucariotas superiores, incluso en los humanos. No solo identificó los genes esenciales para la autofagia, también caracterizó a las proteínas de cuya producción son responsables muchos de esos genes, demostró cómo funcionan y en qué etapa del proceso intervienen. El descubrimiento de esos genes abrió un abanico de posibilidades para el estudio de la autofagia, al que se abocaron numerosos laboratorios en muchos países.

Las investigaciones de los últimos veinte años demostraron que no hay un único tipo de autofagia sino tres fundamentales: la macroautofagia, la microautofagia y la autofagia mediada por chaperonas. Lo descripto hasta acá corresponde a la macroautofagia; la microautofagia se diferencia de ella en que la membrana del propio lisosoma forma compartimentos que pueden albergar pequeñas porciones del citoplasma que termina degradado. En la autofagia mediada por chaperonas, determinadas proteínas presentes en el citoplasma atraviesan la membrana del lisosoma ayudadas por otras proteínas llamadas chaperonas. Los tres tipos de autofagia contribuyen a la renovación y el rejuvenecimiento de las células.

Estos estudios revelaron que la autofagia no solo está relacionada con procesos fisiológicos normales de la célula sino, también, con numerosas enfermedades. Una de las primeras que se relacionó con una autofagia deficiente fue el cáncer, pues se demostró que en ciertos pacientes con tumores de mama, ovario o próstata falta una de las variantes (o alelos) del gen que regula (o codifica) la proteína beclina 1, crítica para las etapas iniciales de la formación del autofagosoma. Dicho gen actúa junto con otros como supresor de tumores, por lo que su ausencia o mutación podría coadyuvar en el proceso que conduce al cáncer. Sin embargo, como por otro lado las células de muchos tumores padecen de falta de nutrientes, lo que obstaculiza su crecimiento, la activación de la autofagia como respuesta ante esa situación podría contribuir a su supervivencia. Por lo tanto, ese carácter dual del efecto de la autofagia hace que deba analizarse su acción en cada tipo de cáncer y en cada etapa de la enfermedad.

Con la edad de los organismos la autofagia disminuye, lo que significa que desempeña un papel de alguna especie en el envejecimiento. De hecho, estudios en ratones y moscas han demostrado que la autofagia contribuye de manera notable a la longevidad. También está relacionada con enfermedades neurodegenerativas, como el mal de Alzheimer o el de Parkinson, ya que una autofagia deficiente conduce a la acumulación de proteínas defectuosas en el cerebro.

Otra función clave de la autofagia es actuar como mecanismo de defensa contra las infecciones por bacterias, parásitos y virus. En los últimos años numerosos estudios, incluidos los realizados en nuestro laboratorio, han demostrado la importancia de la autofagia en la eliminación de patógenos que invaden las células y se multiplican en ellas. Bacterias como Mycobacterium tuberculosis o algunas del género Streptococcus resultan en parte destruidas por las células si se activa la autofagia. Pero, por otro lado, muchos microrganismos patógenos han adquirido la capacidad de evitar la acción de la autofagia. De hecho la activación de la autofagia puede hasta beneficiar a ciertas bacterias o parásitos, lo cual también revela su carácter dual ante varios procesos patológicos.

 

Yoshinori Ohsumi

Si bien mucho se ha avanzado en tiempos recientes para identificar cómo los mecanismos de la autofagia identifican las bacterias que dañan las membranas de las vesículas que las contienen y escapan al citoplasma celular, aún queda mucho por entender acerca de los aspectos moleculares de estos procesos. La autofagia no solo participaría en los procesos de la inmunidad innata sino, también, en los de la inmunidad adquirida y en la acción de los linfocitos que actúan como células de defensa.

Los estudios de Oshumi despertaron gran interés en numerosos grupos de investigación que analizan la autofagia desde distintos puntos de vista y estudian los diversos procesos celulares en los cuales participa. Esas investigaciones constituyen hoy uno de los campos de la medicina más intensamente cultivados con el propósito de encontrar nuevos tratamientos para diversas enfermedades.

Lecturas Sugeridas

NOBELPRIZE.ORG,,2016, ‘The 2016 Nobel Prize in Physiology or Medicine’, accesible en http://www.nobelprize.org/nobel_prizes/medicine/laureates/2016/press.html.

Javier F Botto

María Isabel Colombo

Doctora en bioquímica, Universidad Juan Agustín Maza, Mendoza.
Investigadora superior del Conicet. Profesora titular, Universidad Nacional de Cuyo. Directora del IHEM.
mcolombo@fcm.uncu.edu.ar

QUÍMICA

En esta ocasión, el premio Nobel de química resultó dividido en tres partes iguales entre el francés Jean-Pierre Sauvage (nacido en 1944), de la Universidad de Estrasburgo, el escocés y ciudadano estadounidense J Fraser Stoddart (nacido en 1942), de la Northwestern University en Illinois, y el holandés Bernard L Feringa (nacido en 1951), de la Universidad de Groningen, por el diseño y la síntesis de máquinas moleculares. Si bien la prensa lo presentó como un premio a la nanotecnología, la Academia Sueca, en realidad, volvió a las fuentes de la química y distinguió a quienes usaron todas las herramientas de la disciplina para construir sistemas espacialmente organizados de átomos y moléculas, crearon y aplicaron una variedad de nuevas técnicas para controlar la materia en la escala molecular y supramolecular (la de estructuras de moléculas), y obtuvieron construcciones de tamaño nanométrico (millonésimas de milímetro) de una complejidad nunca vista antes.

Una máquina nanométrica puede definirse como un conjunto de componentes moleculares diseñado para realizar ciertos movimientos como consecuencia de un estímulo externo, la cual, además, requiere energía para funcionar. Richard Feynman (1918-1988), premio Nobel de física en 1965, en una charla sobre la posibilidad de manipular átomos que dio en 1959 en una reunión de la Asociación Física Estadounidense con el título ‘There’s Plenty of Room at the Bottom’ (‘Hay bastante lugar allí abajo’), avizoró las posibilidades y las limitaciones de esas máquinas de tamaño nanométrico, en las cuales la estructura atómica y molecular y las fuerzas intermoleculares desempeñan un cometido esencial. Son máquinas que no necesariamente reflejan las de nuestro mundo macroscópico, pues intrincados grupos de moléculas y cadenas de átomos reemplazan a engranajes, poleas y calderas.

Para construir una máquina de relativa complejidad, es necesario fabricar y ensamblar cuidadosamente sus piezas. Su funcionamiento, es decir los movimientos que pueda realizar, dependerán del tipo de piezas utilizadas y de su ubicación relativa en el espacio. Es necesario definir esas piezas, y también un conjunto de reglas sobre cómo combinarlas para que queden en el orden correcto y el sistema funcione. Al mismo tiempo, es necesario que las partes puedan rotar o trasladarse al absorber energía del ambiente, y que actúen con una cierta dirección. Lo último, que parece natural en máquinas de nuestra escala, no lo es tanto ‘allí abajo’, porque el movimiento browniano, aleatorio y producido por fluctuaciones térmicas, típico de la escala microscópica, conspira contra esas direccionalidad e intencionalidad.

Los galardonados usaron una compleja batería de técnicas de síntesis química para generar las piezas, y un cuidadoso manejo de la química supramolecular para ensamblarlas y hacerlas funcionar. Esto se puede ilustrar con tres ejemplos.

La formación científica de Sauvage incluyó su doctorado en la Universidad de Estrasburgo con Jean-Marie Lehn (nacido en 1939), premio Nobel de química en 1987 y pionero de la química supramolecular, y su perfeccionamiento en química organometálica con Malcolm Green (nacido en 1936), en Oxford. Dio los primeros pasos hacia una máquina molecular en 1983, cuando creó una molécula formada por dos cadenas entrelazadas en forma de anillo, como si se tratara de dos eslabones, llamada catenano. El enlace entre ambas cadenas (del tipo no covalente) les daba flexibilidad y que las piezas pudieran moverse entre ellas permitía que realizaran una tarea. La posibilidad de producir estas moléculas complejas con nuevas topologías y enlaces hizo crecer el campo a una notable velocidad. En un catenano, las diferentes regiones de los dos eslabones están en contacto, unidas por fuerzas intermoleculares. Por otra parte, estas moléculas pueden cambiar su forma en presencia de iones (átomos o moléculas con carga eléctrica por no tener el mismo número de protones que electrones), lo que les confiere cierta capacidad de respuesta.

El segundo paso fue dado por Stoddart, quien acredita una larga trayectoria tanto en el mundo académico como en la industria, cuando en 1991 desarrolló los rotaxanos. Estos son moléculas ensambladas en forma de un anillo que envuelve un eje en cuyos extremos hay grupos moleculares voluminosos, también llamados tapones. A lo largo de este eje se localizan ciertos fragmentos moleculares, llamados estaciones. Stoddart diseñó el conjunto eje-anillos de manera tal de poder controlar la carga eléctrica de cada una de estas diferentes estaciones mediante un proceso simple como un cambio de pH, o del potencial de oxidación-reducción del entorno. Estos procesos cambian la carga de las regiones moleculares, lo que altera las interacciones del anillo con los grupos del eje, y por lo tanto el anillo molecular puede desplazarse y localizarse selectivamente sobre cada estación.

Esta plataforma de movimiento de moléculas en las distintas posiciones permitió crear novedosos desarrollos de escala nanométrica, como los que podríamos llamar un ascensor molecular, o músculos moleculares artificiales, capaces de ejercer fuerzas de unos 200pN (pico Newtons). Y la posibilidad de mantener un fragmento molecular sobre una u otra estación permitió crear conmutadores que indiquen 0 o 1 según la posición del anillo, lo que llevó al diseño de memorias de alta densidad (100Gbit/cm2) basadas en conmutadores moleculares.

En paralelo con estos avances, Feringa diseñó y construyó moléculas con enlaces carbono-carbono múltiples, que pudieran reorganizarse al interactuar con radiación visible para resolver un problema muy relevante: el de la rotación unidireccional controlada. En el caso de motores moleculares, era central poder aprovechar el ingreso de energía y dirigirlo a la realización de un movimiento controlado. Los primeros esfuerzos se habían dirigido a producir moléculas en forma de hélice que rotaran alrededor de un enlace simple. En 1999 se desarrollaron moléculas con cierta asimetría que lleva a una rotación unidireccional mediante ciclos de irradiación y relajación térmica. Los diseños moleculares fueron mejorándose, se llegó a incrementar significativamente la frecuencia de rotación y, fijando estos dispositivos que podemos asimilar a motores sobre superficies, se logró hacer rotar objetos microscópicos. La combinación de varios de tales rotores fijados sobre lo que se podría considerar un chasis molecular permitió diseñar moléculas en forma de vehículo con ruedas moleculares, que pueden recorrer cierta distancia. Incluso está planeada una carrera de esos ‘nanoautos’ en un futuro próximo (http://nanocar-race.cnrs.fr/indexEnglish.php).

Lo anterior significa que Sauvage, Stoddart y Feringa sentaron las bases de futuras máquinas moleculares, que seguramente cambiarán nuestra manera de hacer mecánica y química en escala nanométrica y permitirán un acercamiento de nuestros sistemas sintéticos a la biología. Pero, además, el premio reconoce un avance enorme en química básica, en el arte de unir átomos y moléculas, y de colocarlos con maestría en el espacio, un arte que los químicos aprendemos desde nuestros inicios en la disciplina. Los nombrados practicaron ese arte con minuciosidad mediante complejas y creativas técnicas que llevan a fondo, con sutileza de pensamiento, el concepto de enlace químico y de interacciones espaciales.

Desde los tiempos de los alquimistas, los químicos trataron de controlar la materia átomo por átomo. Sauvage, Stoddart y Feringa lo hicieron a la perfección y sobrepasaron el concepto de síntesis química entendida como el control del enlace entre átomos para crear una estructura molecular. Combinaron todos los tipos de interacciones y de enlaces conocidos, y los usaron como elementos de construcción para crear nuevas arquitecturas moleculares y supramoleculares. Lograron que sus complejas construcciones químicas respondan a estímulos externos, como la luz, el calor o la presencia de otras moléculas o iones. Los trabajos de los tres abrieron las puertas a la creación de sistemas moleculares inteligentes e hicieron posible construir pequeños ascensores, músculos artificiales, nanoescotillas y minúsculos motores. La química sintética se une de esta forma a la biología sintética para llevarnos a un nuevo manejo de la materia solo limitado por la imaginación.

Según la Academia Sueca: ‘En términos de desarrollo, el motor molecular está en el mismo escenario en el que el motor eléctrico estaba en la década de 1830, cuando los científicos mostraban manivelas y ruedas que giraban, sin darse cuenta de que esos elementos darían lugar a lavadoras, ventiladores y procesadores de alimentos. Es muy probable que las máquinas moleculares se utilicen en el desarrollo de cosas como nuevos materiales, sensores y sistemas de almacenamiento de energía’. Estamos ante el inicio de una nueva era, y de nuevos horizontes tecnológicos a explorar y aprovechar.

Marcellin Berthelot (1827-1907), padre de la química sintética, escribió en 1876: ‘Podemos pretender formar nuevamente todas las sustancias que se han desarrollado desde el origen de las cosas, formarlas en las mismas condiciones, mediante las mismas leyes y por las mismas fuerzas que la naturaleza pone a disposición para su formación’. A 140 años de distancia, estaría feliz de ver que sus descendientes científicos superaron sus expectativas.

 Jean-Pierre Sauvage | J Fraser Stoddart | Bernard L Feringa Jean-Pierre Sauvage | J Fraser Stoddart | Bernard L Feringa

Lecturas Sugeridas

AAVV, 2004-2005, ‘Nanotecnología o las técnicas de lo pequeño’, Ciencia Hoy, 14, 84: 14-39, diciembre-enero..

HOPPE CE y WILLIAMS FJ, 2011, ‘Nanomateriales creados en la Argentina’, Ciencia Hoy, 21, 124: 27-32, agosto-septiembre.

REAL ACADEMIA SUECA DE CIENCIAS, ‘Molecular machines’, accesible en https://www.nobelprize.org/nobel_prizes/chemistry/laureates/2016/advanced-chemistryprize2016.pdf.

SILBER J y ALDABE BILMES S, 2011, ‘Más allá de la molécula’, Ciencia Hoy, 21, 124: 33-38, agosto-septiembre.

SOLER ILLIA G, 2015, ¿Qué es la nanotecnología?, Paidós, Buenos Aires.

SOLER ILLIA G, 2010, Nanotecnología: el desafío del siglo XXI, Eudeba, Buenos Aires.

Javier F Botto

Galo Soler Illia

Doctor en ciencias químicas, UBA.
Investigador principal de Conicet en el Instituto de Nanosistemas, Unsam. Profesor asociado, FCEN, UBA. Miembro de la Academia Nacional de Ciencias Exactas, Físicas y Naturales. galo.soler.illia@gmail.com