Por qué es importante recordar que la IA no es humana

Millière, Raphaël, y Charles Rathkopf. «Why It’s Important to Remember That AI Isn’t Human.» Vox, 23 de noviembre de 2023. https://www.vox.com/future-perfect/23971093/artificial-intelligence-chatgpt-language-mind-understanding.

Desde su lanzamiento, ChatGPT ha suscitado opiniones polarizadas en la comunidad científica. Algunos expertos consideran que representa un avance hacia una superinteligencia que podría transformar o incluso amenazar la civilización. Otros, sin embargo, lo ven como un desarrollo técnico que, aunque impresionante, no va más allá de la capacidad de completar textos de manera avanzada. Esta disparidad de opiniones refleja una falta de consenso sobre cómo entender realmente estas tecnologías.

Tradicionalmente, la competencia lingüística ha sido vista como un signo de una mente racional. Los modelos de lenguaje, al mostrar habilidades que superan incluso las de los humanos en algunos aspectos, han desafiado esta noción. Millière y Rathkopf sugieren que al interactuar con estos modelos, la impresión de que están “pensando” o “comprendiendo” puede ser engañosa. Esto plantea un dilema filosófico: ¿hemos perdido el vínculo entre el lenguaje y la mente, o han surgido nuevas formas de cognición?

El artículo también destaca cómo los humanos manejamos la ambigüedad en la conversación, algo que los modelos de lenguaje aún no pueden replicar completamente. Cuando interactuamos con un chatbot, nuestra mente intenta adivinar las intenciones del «hablante», pero esto puede llevarnos a errores si asumimos que el modelo tiene deseos o motivaciones humanas. Este aspecto revela la complejidad del lenguaje humano y la forma en que nuestros cerebros interpretan significados en contextos específicos.

Los autores advierten sobre los peligros de la antropomorfización, es decir, atribuir características humanas a las máquinas. Un ejemplo citado es el caso de LaMDA, donde un ingeniero tomó en serio la afirmación del modelo de que deseaba libertad. Esto ilustra cómo las expectativas erróneas sobre la naturaleza de los modelos de lenguaje pueden inducir a la confusión y a una comprensión incorrecta de sus capacidades. La antropomorfización puede llevar a malentendidos que obstaculizan un debate informativo sobre la ética y la regulación de la IA.

El antropocentrismo también se critica en el artículo, ya que implica que solo las capacidades humanas son dignas de reconocimiento. Este punto de vista puede limitar la comprensión de lo que los modelos de lenguaje pueden hacer. Por ejemplo, la habilidad de un modelo para resumir textos no debe ser descalificada como un simple truco, sino que debe ser considerada como un logro en su propia forma de procesamiento de información. Rechazar este enfoque puede llevar a un subestimación del potencial de la inteligencia artificial.

Millière y Rathkopf sugieren adoptar un enfoque de “dividir y conquistar”, similar al utilizado en la psicología comparativa. En lugar de clasificar a los modelos de lenguaje como simplemente «humanos» o «no humanos», se debe investigar cómo operan y cuáles son sus capacidades específicas. Este enfoque podría abrir nuevas vías para entender la inteligencia artificial y evitar las limitaciones de las comparaciones directas con la mente humana.

En última instancia, el artículo aboga por una comprensión más matizada de los modelos de lenguaje, reconociendo sus capacidades sin caer en la trampa de pensar que tienen una mente en el sentido humano. La investigación futura debería centrarse en desentrañar los mecanismos internos que permiten el funcionamiento de estos modelos, adoptando una perspectiva científica que no dependa de los estándares humanos. Este análisis no solo es importante para la regulación y la ética en torno a la IA, sino también para la forma en que interactuamos con estas tecnologías en nuestra vida cotidiana. La aceptación de que no existe un «hecho profundo» sobre si estos modelos tienen o no mente puede ayudarnos a utilizar mejor sus capacidades sin las confusiones que surgen de su similitud en la comunicación.