Virasoro

Una discusión entre físicos sobre la evolución de la disciplina en los últimos treinta años, a la luz de la experiencia de uno de los importantes científicos argentinos expatriados.

ENTREVISTA

Miguel Angel Virasoro se formó como físico en lo que para muchos fue la edad de oro de la facultad de Ciencias Exactas y Naturales de la UBA, los ocho años que corrieron entre 1958 y 1966, esto es, entre la normalización universitaria acaecida después del derrocamiento del primer peronismo y la traumática noche de los bastones largos, que marcó el retorno del autoritarismo a la universidad pública. Su carrera científica tuvo lugar casi exclusivamente en el extranjero, en Wisconsin, Berkeley, Princeton, París, Roma y, ahora, en el International Centre for Theoretical Physics, el ICTP, de Trieste, donde sucedió como director a Abdus Salam, el premio Nobel de física de 1979.

En 1973, en un breve período de regreso a la Argentina, fue decano de la su nombre y avances en la teoría de cuerdas. La presente entrevista, realizada por físicos, está principalmente dirigida a estos y seguramente resultará poco accesible a lectores ajenos a la disciplina. mencionada facultad. Entre sus contribuciones a la física teórica se cuentan las álgebras que llevan.

Quisiéramos empezar por preguntarle cómo ve las direcciones actuales de la física teórica, comparadas con las vigentes hace unos veinte años, cuando éramos estudiantes. Nos gustaría su opinión acerca de cómo han cambiado, si es que lo han hecho.

En las historias individuales interviene mucho la casualidad, que, por supuesto, uno puede aprovechar. No hay ejemplaridad ni finalidad. Yo empecé con física de partículas elementales por casualidad. Había dos o tres posibilidades en ese momento y el grupo que me pareció más atractivo, por factores humanos, era el de partículas, compuesto entonces en la facultad de Exactas por Giambiaggi, Bollini, Pignotti, Bali y Mignaco, entre otros. Me sentía muy cómodo trabajando en ese grupo y ello me decidió por partículas elementales. Antes había tenido un momento de duda entre lógica simbólica, matemática pura y física. Entré en la física de partículas elementales en un momento muy particular, que después vi repetirse continuamente: el creer que se había llegado al final. Era la época culminante de las teorías bootstrap. Se pensaba que ya no había más que buscar, que se había arribado a la teoría fundamental, que todo estaba conectado con todo y que había una sola teoría coherente con el todo. A mí me gustaron esas ideas englobantes, universales, y me metí de lleno en ellas. Empecé a trabajar acá y después me fui a Israel, donde entré en un grupo bastante lindo y activo, en el que estaban Héctor Rubinstein, Veneziano y Abemolo. Abordamos las ideas de bootstrap y, luego de año y medio, por una de esas casualidades extraordinarias, estudiamos el caso muy particular de una reacción que debía satisfacer ciertas ecuaciones; vimos que satisfacía las del primer nivel; fuimos, entonces, al segundo nivel, porque no teníamos otra idea, y vimos que también las satisfacía; y después al tercer nivel y así sucesivamente. Yo me fui de Israel y Veneziano descubrió la fórmula que explicaba el asunto. Esto fue por 1968 y me irrité mucho, como es de imaginar, pues era un muchacho joven que perdió la ocasión de participar en algo importante, porque había regresado a la Argentina. Empecé a trabajar inmediatamente sobre las mismas ideas y, poco después, viajé a Wisconsin, donde me empeñé por dos años en seguirlas, lo que fue a terminar en un concepto muy amplio, que era la teoría de campos de cuerdas, una manera de hacer teoría de campos con objetos fundamentales que no eran puntiformes sino del tipo de una cuerda. Ello quedó claro en dos años; después me fui a Berkeley para seguir trabajando en los mismos temas antes de volver a la Argentina.

¿Qué es la Teoría Bootstrap?

En inglés, to pull oneself by the bootstraps es un giro idiomático conocido. Proviene de que las botas suelen tener unos bucles o tiras en su parte superior – llamados bootstraps – por los que se las levanta para calzarlas. Significa, entonces, levantarse por los tiros de las botas, algo absurdamente imposible. En el lenguaje cotidiano, la expresión perdió su sentido literal y significa, más bien, arreglarse solo. Aplicada a la física de partículas, es un ejemplo de la capacidad de algunos físicos de burlarse de si mismos. La idea provino del libro Los aventuras del barón de Münchhousen, una abra con fantásticos relatos de viaje. caza y guerra escrita en alemán en el siglo XVlll por Karl Friedrich Hieronymus Freiherr von Münchhausen, traducida en la época al inglés por E.R. Raspe, idioma en el que el giro se hizo conocido, ya que en alemán no significa nada. En uno de los episodios del libro, el valiente protagonista consigue evitar caerse a un río por el procedimiento de sostenerse en el aire por sus bootstraps.

¿Cuál es la relación de esta imagen fantasiosa con la teoría de partículas que estuvo en boga en la década de los sesenta Se trata, simplemente, de que en esta, a diferencia de lo que ocurría con teorías anteriores (y siguió ocurriendo con alguna posterior), no se requiere de entes externos elementales en los que apoyarla. Hasta ese momento, la descripción de la materia se había basado siempre en elementos externos: la química postula la existencia de elementos químicos y describe las moléculas como átomos de estos ligados entre ellas; la física atómica describe un átomo como un núcleo que mantiene ligados a su alrededor uno o más electrones. Para la física nuclear, un núcleo consiste en das o más nucleones (protones o neutrones), consideradas, hasta el advenimiento de la teoría bootstrap, partículas elementales. En la actualidad prevalece la teoría de que los nucleones, al igual que muchas otras partículas más exóticas que se han ido descubriendo, denominadas genéricamente hodrones, se componen de otra familia de partículas, llamadas quarks. Se mantiene así una estructura de partículas, o una jerarquía de niveles de complejidad.

El concepto bootstrap, en cambio, pretendió proporcionar una teoría eminentemente democrática. en la cual todos los hadrones jugaran papeles cualitativamente iguales, y estuvieran compuestos unos por otras. Así, el protón sería un estado ligado de un neutrón con un mesón Pi cargado positivamente (Pi+), o de un protón y un Pi0, o de otra combinación de hadrones caracterizada por tener ciertas propiedades iguales a las del protón (carga eléctrica, momento angular, carga bacinica, etc.). A su vez un Pi+ es un estado ligado de un protón, y un antineutrón y tres mesones Pi, etc. Esto tiene su correlato experimental en el hecho de que, si se transfiere suficiente energía a un protón, se lo puede fragmentar en dos partes: un neutrón y un Pi+, o cualquier otra de infinitas posibilidades.

Lo dicho no es suficiente para merecer el nombre de teoría. Para ello es necesario realizar una formulación matemática con posibilidad de ser verificada en forma cuantitativa. Los intentos de formular una teoría de estas características usando propiedades matemáticas de analiticidad y conservación de la probabilidad no lograron reproducir las resultados experimentales (por ejemplo, los cocientes de masas de diversas partículas). Por esa razón, y por los crecientes indicios de la existencia de quarks, la teoría bootstrap fue dejada de lado, a pesar de sus rasgos atractivos.

ANGEL PIGNOTTI

-Su nombre está asociado con álgebras. ¿Son las que se generaron en ese momento?

Exactamente. Era un tema que nacía. Cualquier cosa que uno tocaba era importante. Lo impresionante, diría yo, fue ver cómo aparecieron antes, en Israel, si bien lo hicieron de manera algo tonta: por la elección de una reacción muy particular y para estudiar cómo se satisfacen ciertas relaciones de autoconsistencia en ella. Una vez que uno se da cuenta de que hay una fórmula cerrada, ¡listo! En realidad, fue cuestión de explotar todo lo que venía de allí. Precisamente para eso, Veneziano hizo su teoría de las cuerdas abiertas. Yo encontré otra teoría, la de las cuerdas cerradas. Todavía en ese momento estaba dominado por la idea del bootstrap. En Wisconsin, con Sakita y Kikaua, empezamos a estudiar procesos en los cuales las cuerdas aparecían como estados virtuales, con lo cual toda la ideología del bootstrap se vino abajo. Sakita lo hacia porque era un campista declarado, antibootstrap; yo, porque era el paso lógico a dar. Chew, que por ese entonces era el padre del concepto bootstrap, me consideró un traidor.

-¿Cómo fue ese antagonismo?

Como dato histórico, en ese momento se contraponía la idea de que hubiese una teoría de campos subyacente, que explicase las interacciones fuertes, a la teoría de Chew, que era mucho más global. Incluso algunos de los discípulos de Chew se volvieron después discípulos de Capra, quien también lo fue de aquel, además de autor de libros que comparan el zen con la física. En cierta manera, la disyuntiva era o la continuación del pensamiento analítico tradicional, que comenzaba por la teoría de campos, o la idea englobante, basada en que, en última instancia, como todas las partículas estaban compuestas por todas las demás, se podía empezar por cualquier lado y encontrar relaciones de autoconsistencia en todo. Era una idea muy vaga, presentada vagamente y con un enorme trasfondo filosófico; sobre todo, más que en forma positiva, fue definida contra la teoría de campos. En cierta manera, con el trabajo en Israel, nosotros le dimos cierto contenido, porque encontramos cómo hacer satisfacer ciertas relaciones de autoconsistencia en la ecuación. Por ello, nuestros primeros trabajos se llamaron relaciones de bootstrap, reglas de bootstrap, etc. Luego de que Veneziano escribiera su fórmula, quedó claro que se parecía más a una aproximación de Born que a una teoría completa. Pero si era eso, -por qué no agregar diagramas en los cuales las cuerdas aparezcan como estados virtuales? El problema es que así se genera una teoría de campos y todo se derrumba. Nos encontramos en una disyuntiva y claramente elegimos la teoría de campos. Veneziano se definía mucho más ambiguamente. ¿Qué pasaba en la teoría de campos? En primer lugar estaba el programa de ’unitarización’, algo que propusimos en Wisconsin. Luego, a partir de la idea de unitarización aparecieron otras teorías, como la de cuerdas cerradas, y también la famosa álgebra.

-¿Y qué pasó después?

Me fui a Berkeley. Se produjo otra de las casualidades: había venido a la Argentina por un período corto y regresé a los EE.UU. convencido de que todo se derrumbaba, porque Giambiaggi no había logrado arreglar nada para mí. En cambio, se llamó a un concurso en el que nos presentamos con Alberto Pignotti. Era el año 71. Durante 1972, 73 y 74 prácticamente no pude hacer nada de lo que quería en los EE.UU., excepto por un alumno que tuve. En grupo, nos preguntamos qué se podía hacer de interesante en la Argentina: se nos ocurrió que la oceanografía sería un tema atractivo, algo factible y adecuado a la Argentina, no sólo en el sentido de que era útil para el país sino, también, porque podría tener cierta estabilidad, pues habría muchos organismos estatales independientes interesados en el asunto, desde las administraciones provinciales, las de los puertos, las nacionales, etc. Parecía un tema que daba para mucho y, de hecho, varios de los que entraron en él conmigo no salieron: por ejemplo, Silvia Garzoli, Zulema Garrafo y Pedro Ripa; otros, en cambio, cambiaron y yo mismo lo hice, cuando volví a los EE.UU., en 1975.

Era la segunda vez que me iba de la universidad. Primero lo hice en 1966, cuando renunciamos todos: presenté la tesis en l967 y me fui. En l975, cuando pensé que sólo partía por un año, acepté un puesto en el que se aprovechaban mis antecedentes en el campo de las partículas, pero con la posibilidad de hacer cualquier cosa. Tulio Regge me invitó al Instituto de Estudios Avanzados de Princeton y me dediqué a la oceanografía en el Physical Fluid Dynamic Laboratory. Entonces vino el golpe y quedó claro que no era cuestión de un año. Volví a las partículas elementales con la cola entre las piernas, buscando trabajo. Regge decidió volver a Turín y me invitó a acompañarlo. Pasé, sin embargo, un año en París ocupándome de partículas elementales.

En ese momento trabajé sobre monopolos magnéticos y variables colectivas. Durante el período, era espectador de lo que pasaba. Seguí trabajando un poco sobre cuerdas, que no eran para nada populares, y después terminé en Roma. Lo que me quedó claro, entonces, era la idea de que diversas teorías se pueden presentar de maneras completamente distintas según cómo se las mire. Por ejemplo, una teoría de cuerdas puede aparecer como una de campos puntuales si se opta por un vacío y por las excitaciones de manera particular; una de campos puntuales puede aparecer como de cuerdas si se selecciona el vacío de forma particular, etc. Había, sin embargo, un problema muy grave, el de elegir las variables colectivas relevantes.

Mi historia más reciente comenzó en Roma, donde volví a encontrar a Giorgio Parisi, a quien había conocido en París, pero, por esas cosas raras de la gente, interactuábamos muy poco. En un viaje a esta ciudad descubrí que mis colegas de la École Normale Supérieure leían con entusiasmo uno de sus trabajos. Enfrentado con la vergüenza de saberme compañero de él y no haberme interesado por su obra, también me puse a hacerlo. Parisi daba una interpretación de su solución de los vidrios de espín. Con mis colegas nos pusimos a trabajar en ejemplos.

En un caso está apuntando a problemas fundamentales de la físico, pero en el de los vidrios de espín está abordando algo que, si bien es altamente interesante y muy complejo, quizá no sea igualmente fundamental, por no decir trascendente. Aunque use los mismos técnicas, advierto un cambio de mentalidad: paso de problemas fundamentales a otros que no lo son. ¿Es cierto eso?

En ese momento yo estaba en París por dos o tres meses, me gustó el problema, que era concreto, conocía el método para encararlo y no me puse a pensar en su relevancia. Por un lado, tuvimos suerte, porque cuando uno se larga a estudiar un trabajo de otro no siempre encuentra cosas muy interesantes. Nosotros hallamos esa estructura ultramétrica y el hecho de que no se promedian las cosas. Por otro lado, a partir de allí nos vino la idea de que, en realidad, los vidrios de espín son un prototipo, un arquetipo como dice Gérard Tolouse, que tuvo mucha influencia en mí en ese momento. Justamente, en eso consistía la nueva manera de ver las cosas: no ponerse a estudiar un modelo porque sea una teoría de la realidad, sino por ser un buen modelo. Uno estudia en profundidad un modelo porque cree que es la teoría, aun cuando las ecuaciones se vuelvan complicadas, o piensa que es un arquetipo. De no ser así, si uno lo viera como un simple modelo, al aparecer dificultades, se preguntaría por qué no cambiar las ecuaciones. En cambio, si piensa que es un arquetipo, la reacción, más bien, es no querer perder su complejidad. Por esa época, Tolouse viajó a los EE.UU. y se enteró de los modelos de cerebro. A partir de entonces me atrajo mucho la idea de tomar preguntas mal definidas pero interesantes y tratar de cumplir el difícil proceso de definirlas y, al mismo tiempo, encontrar la respuesta. Es la cosa realmente más estimulante, muchísimo más riesgosa que abordar un tema en el cual la pregunta está bien definida, en el que sabemos que se trata de algo relevante y en el que se puede aplicar determinado modelo. Así, por un lado, se aprenden temas nuevos y, por otro, se enfrentan desafíos muy importantes.

Usted ha descripto el conjunto de sus temas de estudio, que empieza con los partículas elementales y, en cierto manera, las interacciones fundamentales que explican todo el universo; después paso por los vidrios de espín, que se podrían llamar un sistema artificial, pero con propiedades interesantes; luego sigue con el cerebro, y creo que en este momento enfoca modelos económicos. Si ve lo anterior como uno trayectoria en la física teórica, le llama la atención que abarque cosas tan diferentes. Sin embargo, usted ha participado de los cambios de la físico de este siglo. ¿Cómo se los podría explicar a, por ejemplo, un joven que acaba de recibirse?

Hablaría de dos cuestiones. Por una parte, de mi desencanto con las teorías fundamentales, algo que puede haber sido un problema personal, aunque, en el fondo, no se puede dejar de reconocer que las teorías fundamentales, desde el tomo de hidrógeno hasta ahora, sistemáticamente han corroborado el llamado modelo de la cebolla: se estudia un asunto y, cuando se lo comprende y se puede remover una capa de la cebolla, queda algo que parece tan complejo como lo anterior; uno supone, entonces, que debe tratarse de lo fundamental, saca otra capa de la cebolla y se repite el episodio. Así hemos pasado del tomo de hidrógeno a la física nuclear y de esta a las interacciones fuertes. Permanentemente se encuentra uno con teorías que no tienen el aspecto de ser las últimas, porque cada vez tienen más parámetros y son cada vez más artificiales. Los físicos siempre encuentran que deben continuar con la siguiente capa de la cebolla, si bien en cada generación hay un momento en el que piensan que han llegado a la teoría última. Chew así lo había creído y se equivocó. Hawking tiene un trabajo, titulado The end of theorethical physics, en el que dice que hemos arribado a esa última teoría con la supergravedad en once dimensiones, cosa que, según todos los indicios, no es lo que sucede. Por otro lado, todo el mundo sabe que, al pasar de una capa de la cebolla a la otra, los tiempos se alargan, simplemente por las dificultades experimentales. Ahora se vive una situación particular en la física teórica, porque se trabaja en problemas cuya verificación experimental no se producirá hasta dentro de ocho, nueve o diez anos; y si esa verificación no proporcionara la respuesta, habrá que esperar cuarenta anos. Quien quiera seguir por ese camino, que siga; yo prefiero desentenderme de una situación de pasar de capa en capa y no encontrar el núcleo fundamental. Por último, está lo que llamo el dilema sociológico de la física teórica: la relación entre el espacio de fases de los problemas y el número de las personas. El primero es pequeñísimo – hay en todo caso cuatro o cinco problemas fundamentales –, pero el segundo es enorme, con la consiguiente congestión, por no llamarla amontonamiento. Cuando me pregunto cuánto habré ayudado a la física teórica a avanzar, mi respuesta es que logré llevarla un trecho muy pequeño (a pesar de las álgebras de Virasoro y de la teoría de las cuerdas cerradas), y, de todos modos, si no lo recorría yo lo habría hecho otro. Tal es la presión. Estoy convencido de que en la teoría de partículas elementales pasa lo mismo, y como, además, los experimentos se han alejado, hubo una matematización increíble, que no sabemos si será relevante.

Algo muy importante es el desarrollo de las computadoras, que están revolucionando la física, pues permiten definir una realidad virtual. Entre estudiar la realidad en un nivel microscópico, con sus infinitas complicaciones, y la teoría fundamental, en la que uno define lo que parece esencial, hay un abismo. En este momento, la posibilidad de hacer modelos que se quedan a mitad de camino y se pueden verificar con la computadora está cambiando la manera de ver las cosas. Uno hace un modelo en el cual no incluye todos los fenómenos sino una parte, que analiza en profundidad y con todo detalle; por ese camino encuentra nuevos fenómenos cualitativos que generan nuevos problemas. Un modelo, por ser tal, no es realista y, por consiguiente, si uno no es muy honesto, puede quedar en el vacío; supone que el modelo representa más o menos la realidad pero, cuando encuentra que una parte no lo hace, le resta importancia porque se trata de un modelo aproximado y, al final, termina con un juego en el que no sabe qué está poniendo a prueba. Se trata de un desafío conceptual del que no se puede saber adónde llegará. Lo que se ha hecho en torno del cerebro es el problema conceptual número uno, porque no se sabe con qué compararlo.

En la física de partículas, el modelo estándar explico todos los resultados experimentales conocidos o que se van o conocer dentro de poco tiempo. No se espero nada nuevo. Sin embargo, hay muchas teorías que tratan de seguir avanzando en la misma dirección, es decir, en unificar la escala de longitud aumentando lo de energía. ¿Tienen bases sólidas?

Hay dos razones para seguir adelante. Una es que la teoría estándar es feísima. Tiene tantos parámetros, algunos chicos y otros grandes, que realmente no da la impresión de que pueda ser la teoría última del universo. Tiene problemas técnicos relacionados con lo que llaman la naturalidad. Tendría que venir de otras teorías válidas para distancias más pequeñas, cosa que resulta arbitraria. Es la misma idea por la cual los físicos siempre han buscado teorías renormalizables, es decir, aquellas cuyos efectos se pueden conocer en su escala, sin ir a calcularlos en otras más pequeñas. Para poder predecir, una teoría no renormalizable obliga a conocer todos los efectos en escalas menores. Siempre se ha sostenido que las teorías no renormalizables son poco naturales, no porque haya una razón fundamental para pensarlo, sino por la creencia de que el mundo es inteligible y claro. La otra razón para avanzar el modelo estándar es la gravitación, que nadie sabe cómo incluir en otra teoría. Ambos fundamentos son distintos. Si se encontrara una posible solución a cómo tratar la gravitación, para verificar si es verdadera, habría que esperar uno o dos milenios. La cuestión de la naturalidad es un poco distinta, aunque las escalas de tiempo también se están alargando. Seguramente tiene que haber partículas supersimétricas, lo mismo que otras nuevas con propiedades distintas -axiones o lo que fuese-, cosas que, si existieran, podrían (con suerte) verse en las próximas generaciones de experimentos; pero no hay seguridad de que así suceda y, si es en la próxima generación, la otra va a tener que esperar treinta o cuarenta años. El modelo estándar todavía tiene un punto débil: no es calculable.

¿Se pueden explicar o la sociedad los temas que estudia un físico teórico? CIENCIA Hoy quisiera hacerlo. ¿Cómo exponer a un lector culto los conceptos y teorías de la física actual? ¿Qué significa el enorme éxito de librería de la Breve historia del tiempo de Hawking, que nadie entiende pero todos compran?

Lo que sucede con el libro de Hawking es que cuando lo lee un físico busca entenderlo usando los modos de razonar propios de la disciplina, para los cuales el concepto fundamental es el isomorfismo, la idea de que una explicación es equivalente a otra si da los mismos resultados. En cambio, alguien que no es físico que lea el libro de Hawking lo entenderá en términos metafóricos, para los que la palabra tiene un gran valor. Si Hawking en vez hablar de agujeros negros hubiese empleado la expresión singularidades compuestas, para un físico no habría cambiado nada, pero para el lego se habría modificado todo. El color negro seguramente ilustra bien al lector de Hawking, y si este hubiese dicho agujero chupante, hubiese resultado aún más claro. Una persona ajena a la física se explica y razona con palabras. Mi experiencia proviene de hablar sobre modelos de cerebro, tema que atrae a audiencias con esas características. Uno tiende a usar una palabra si la ha definido antes y a atenerse a los términos de esa definición, pero el no físico, en cambio, la entiende y usa en su sentido metafórico, de la misma manera, en realidad, como nosotros empleamos y entendemos el lenguaje cuando leemos una novela o una poesía.

¿Qué le parece que busca el lector de Ciencia Hoy?

Seguramente, que le expliquen la verdad mediante la metáfora, cosa bastante difícil, pues se necesita usarla muy bien. Creo que los científicos tienen miedo de lo que digan sus colegas y por eso no usan ni ven con simpatía el método de Hawking, que consideran la peor manera de transmitir algo. Poquísimos físicos se han interesado por el libro de este, porque lo juzgan ininteligible, lleno de confusiones y de puntos poco claros. Para el lego, esa confusión da lugar a que deje volar su imaginación y se imagine las cosas. Lo único que se puede hacer es emplear la metáfora de la manera más evocativa posible, para que se transmita la forma de pensar de quien escribe. Yo no soy capaz de transmitir la excitación y la imaginación en vez del rigor científico, por lo que no sería un buen autor de obras de divulgación, ni podría tener el éxito editorial de Hawking.

Autores: MARCOS SARACENO, HERNAN BONADEO y MARTIN KRUCXENSKI

Artículos relacionados