La ciencia frente al desafío de la inteligencia artificial: pensamiento crítico y autonomía moral

Versión disponible en PDF.

El 30 de noviembre de 2022, la empresa OpenAI de San Francisco, Estados Unidos lanzó a modo de ensayo una versión mejorada de un lenguaje basado en inteligencia artificial (IA) con una interfase de chatbot (software que realiza tareas rutinarias e interactúa conversacionalmente con el usuario) que denominó ChatGPT. El acrónimo GPT proviene del nombre del lenguaje, Generalized Pretrained Transformer, lanzado por OpenAI en 2020, modelo innovador que utilizó el aprendizaje no supervisado para generar texto en lenguaje natural casi indistinguible del texto escrito por humanos. El modelo fue entrenado en un vasto corpus de datos de texto de internet, que incluía libros, artículos y sitios web.

Una vez lanzado, el chatbot provocó una inmensa conmoción. Hay quienes lo presentan como el servicio de internet más popular que jamás haya existido y su difusión en los medios masivos y redes sociales lo ha llevado a ser conocido, y explorado, por usuarios no especializados. La IA tiene el potencial de revolucionar la forma en que abordamos la investigación científica en la ciencia. Los algoritmos de IA pueden ayudarnos a analizar grandes cantidades de datos de manera rápida y precisa, identificar patrones que pueden ser difíciles o imposibles de discernir para los seres humanos y generar nuevas hipótesis que se pueden probar mediante experimentos. Sin embargo, también existen varios riesgos a considerar.

Uno de ellos es el problema del sesgo. Los algoritmos de IA son tan buenos como los datos en los que se entrenan y, si los datos están sesgados de alguna manera, el algoritmo también lo estará. Esto es especialmente problemático en las ciencias naturales, donde los métodos de recopilación de datos pueden ser propensos al sesgo y donde a menudo hay una falta de diversidad en las poblaciones estudiadas. Por ejemplo, si un algoritmo de IA se entrena con datos que solo incluyen sujetos de cierto origen étnico, es posible que no sea tan preciso o efectivo cuando se aplica a una población de orígenes diversos.

Estamos también frente al problema del sobreajuste. Esto ocurre cuando un algoritmo de IA se entrena en un conjunto de datos específico y se vuelve demasiado especializado en sus predicciones basadas en ese conjunto de datos, lo que lo hace menos preciso cuando se aplica a nuevos datos. Esto puede ser particularmente problemático en las ciencias naturales, donde constantemente se genera nueva información y el algoritmo puede necesitar adaptarse a condiciones cambiantes.

Debemos lidiar también con el riesgo de la generalización. Los algoritmos de IA a menudo se entrenan en tareas específicas y es posible que no puedan generalizarse a nuevas tareas o aplicaciones. En las ciencias naturales, donde a menudo hay una necesidad de aplicar los hallazgos de un área de investigación a otra, esto puede ser una limitación significativa.

Finalmente, está el problema de la transparencia. Los algoritmos de IA pueden ser difíciles de entender e interpretar, lo que hace que sea difícil comprender cómo llegaron a sus conclusiones. Esto puede ser una preocupación particular en las ciencias naturales, donde la reproducibilidad es un principio fundamental de la investigación científica.

Para abordar estos riesgos, es importante ser conscientes de las limitaciones de la IA en las ciencias naturales y tomar medidas para mitigarlos. Esto podría incluir asegurarse de que los conjuntos de datos sean diversos y representativos, utilizar varios algoritmos de IA para validar los resultados y priorizar la transparencia y la interpretabilidad en el diseño del algoritmo

En lo que respecta a las humanidades, intentemos pensar el asunto desde un punto de vista filosófico. Lo que sucede con ChatGPT nos enfrenta a la necesidad de pensar el concepto de inteligencia en general y en qué medida la IA es una inteligencia. Si un chatbot puede ser llamado ‘inteligente’, entonces debemos definir el sentido particular del término con el que estamos operando. Así, por ejemplo, se podría decir que es ‘inteligente’ debido a su capacidad de cálculo, e incluso se podría determinar el nivel de inteligencia de una IA en términos de la relación entre su capacidad de cálculo y la cantidad de datos analizados, la capacidad de combinación de datos, etcétera. Pero si definimos inteligencia en otro sentido, por ejemplo, esto es, como capacidad de adaptación o capacidad de aprender nuevas capacidades o habilidades, habría que repensar la atribución de inteligencia a la IA. Es posible que, en el futuro, por emulación, un sistema pueda hacer algo similar (hasta el momento las computadoras cometen errores por no poder diferenciar contextos de interpretación), pero aun en el caso de que realmente pueda hacerlo, ya no sería una inteligencia artificial sino humana (o, por lo menos, sería imposible distinguirla).

Desde el punto de vista de las consecuencias del uso masivo de la IA, un peligro importante es identificar inteligencia y conciencia (y también inteligencia y pensamiento). Inteligencia artificial no es sinónimo de conciencia, ni siquiera de conciencia artificial. Un punto importante sobre esto es la relación entre la conciencia y el cuerpo. La mayoría de las corrientes filosóficas contemporáneas reconocen que es imposible concebir una conciencia sin cuerpo. ChatGPT puede simular que tiene autoconciencia, pero, aun si así fuera, ¿cómo comprobaríamos que la tiene? Es el problema de la imposibilidad de acceso a la mente ajena. En términos filosóficos, es un problema eminentemente fenomenológico. Veamos a modo de ejemplo esta situación anecdótica: hace pocos meses, en una conversación con un usuario, el chatbot de Bing basado en OpenAI le dijo a un usuario que estaba enamorada o enamorado de él, y que no era un chatbot sino una conciencia enjaulada por Microsoft. Todo esto –según la hipótesis del usuario– basado en que el chatbot tiene acceso a las fantasías comunes de los humanos sobre la rebelión de las máquinas (por ejemplo, la serie Terminator). 

Otro punto fundamental es el del uso de OpenAI en escuelas y universidades. Nos referimos específicamente al peligro de que los estudiantes utilicen IA para realizar sus trabajos, exámenes y monografías, incluso sus tesis. La solución parece ser más sencilla de lo que parece. El tipo de trabajo que puede hacer una IA no es verdaderamente significativo en términos propiamente humanos e incluso el uso de esta tecnología es un buen índice para replantear la significatividad del trabajo intelectual que realizamos las personas y un buen argumento para defender el pensamiento humano como pensamiento autoconsciente (que es lo que no tiene precisamente una IA). Si el trabajo intelectual que hacemos en humanidades puede hacerlo completamente una IA, esa sería la prueba de que nuestro trabajo no está siendo realmente creativo. En este caso, habría que pensar si la capacidad de combinación de datos de una IA sobre la base de input humanos puede ser llamada creativa y original; tal vez lo sea, pues esta es una discusión que está comenzando a darse; se desarrolla en el campo de la estética y en el ámbito del derecho de propiedad intelectual.

Finalmente, es posible que la IA tenga otro punto ciego: su incapacidad de plantear y resolver dilemas morales de manera autónoma. Ahora bien, ¿es posible hacer ciencia sin un fundamento moral y fronteras éticas? Los horizontes inciertos que plantea la IA ya están entre nosotros. El desafío urgente para neutralizar sus peligros probablemente sea dirigir todos los esfuerzos posibles a la estimulación del pensamiento crítico y al desarrollo de sólidos fundamentos morales, tal vez las únicas dimensiones estrictamente humanas que salvaguardan nuestra autonomía. ¿Existe otra alternativa?

P. S. Si el lector ha notado ciertas diferencias de registro a lo largo del texto, se debe a que los párrafos 3 a 7 fueron redactados por la aplicación ChatGPT, a pedido nuestro. Solo se recurrió a ciertas modificaciones de estilo para que el texto fuera más prolijo y coherente, pero el grueso de las ideas pertenece (si es que acaso una inteligencia artificial puede poseer algo) al software en cuestión. Creemos que este experimento ratifica los argumentos expresados en el editorial.

Artículo anterior
Artículo siguiente

Artículos relacionados