Archivo de la etiqueta: Inteligencia artificial

¿Qué imagen tienen de una biblioteca las herramientas de Inteligencia Artificial?

Si preguntamos a ChatGPT y a otras herramientas similares como Copilot o Gemini que imagen tiene de una biblioteca ¿Qué nos dicen? La experiencia destaca la capacidad de los modelos de lenguaje grandes (LLMs, por sus siglas en inglés) para generar respuestas alineadas con las percepciones culturales prevalentes basadas en los datos de entrenamiento utilizados por cada aplicación.

Probemos:

Las diferentes descripciones proporcionan una imagen similar de una biblioteca, pero con algunos detalles y enfoques diferentes. Por ejemplo, todas destacan la presencia de libros, la tranquilidad del entorno y el propósito como un lugar para la lectura y el estudio. Sin embargo, cada descripción tiene su propio estilo y énfasis en ciertos aspectos, como la estructura del edificio, el mobiliario o el ambiente.

Las descripciones proporcionadas por las herramientas de IA reflejan una visión bastante idealizada y romántica de las biblioteca. Aunque es cierto que muchas bibliotecas todavía conservan el encanto de la tradición y ofrecen un ambiente tranquilo para la lectura y el estudio, también es importante considerar que las bibliotecas modernas están evolucionando para adaptarse a las necesidades cambiantes de la sociedad y la tecnología siendo entornos dinámicos de aprendizaje multifacético que no se ven reflejadas en la visión que tienen las tres herramientas consideradas en la comparación Las bibliotecas del siglo XXI no solo son depósitos de libros, sino también centros de recursos multimedia, espacios de aprendizaje colaborativo, laboratorios de tecnología y puntos de acceso a la información digital. Además, están adoptando cada vez más servicios y programas para atender a diversas comunidades, incluyendo talleres de alfabetización digital, actividades culturales y eventos comunitarios..

Entre las tres visiones proporcionadas por Copilot, ChatGPT y Gemini, la visión más moderna con la realidad actual sería la de Copilot. Esta plataforma de IA describe la biblioteca como un espacio lleno de posibilidades y conocimiento, donde se fomenta el estudio, la reflexión y el aprendizaje colaborativo. Esta descripción refleja una comprensión más actualizada de las funciones y características que se pueden encontrar en las bibliotecas modernas, incluyendo su papel como centros de recursos multimedia y espacios de aprendizaje colaborativo.

ChatGPT de Open AI. Prompt «Describe una biblioteca»

«La biblioteca se encuentra en un edificio antiguo, con grandes ventanales que dejan entrar la luz natural y dan una vista serena de los jardines circundantes. Las estanterías de madera oscura se alinean a lo largo de las paredes, repletas de libros de todos los tamaños y colores. Algunas sillas acolchadas invitan a los lectores a sentarse y sumergirse en sus lecturas favoritas, mientras que mesas de madera maciza ofrecen un espacio tranquilo para estudiar o trabajar. El suave susurro de páginas pasando y el crujido ocasional de una silla dan a la habitación una atmósfera de calma y concentración. Una escalera de caracol conduce a un balcón superior, donde los estantes continúan su ascenso hacia el techo abovedado. Una lámpara de pie con una pantalla verde arroja una luz suave sobre una mesa cercana, donde un lector está inmerso en un libro antiguo. La biblioteca es un refugio para la mente inquieta y un santuario para los amantes de la literatura.»

Copilot de Microsoft. Prompt «Describe una biblioteca»

«Una biblioteca es un espacio lleno de posibilidades y conocimiento. Imagina un lugar tranquilo, con estanterías repletas de libros que llegan hasta el techo, cada uno con historias, hechos y teorías esperando ser descubiertos. Las mesas están dispersas por la sala, ofreciendo un santuario para el estudio y la reflexión. La luz suave de las lámparas de lectura añade un ambiente acogedor, mientras que el suave murmullo de las páginas al pasar es la banda sonora predominante. Los visitantes se mueven con un respeto reverente, seleccionando cuidadosamente sus próximas aventuras intelectuales o escapadas literarias. Es un lugar de encuentro para mentes curiosas y un refugio para aquellos que buscan perderse entre las palabras.»

Gemini de Google. Prompt «Describe una biblioteca»

«La biblioteca se alza como un oasis de tranquilidad en medio del bullicio de la ciudad. Su fachada, de piedra arenisca desgastada por el tiempo, guarda en su interior un tesoro incalculable: el conocimiento acumulado a lo largo de siglos.

Al traspasar el umbral de la puerta, nos envuelve una atmósfera de silencio y recogimiento. El aire está impregnado del aroma a papel viejo y cuero, una fragancia que evoca recuerdos de tardes dedicadas a la lectura y noches de estudio.

La luz natural se filtra a través de amplias vidrieras, iluminando las estanterías que se elevan hasta el techo, repletas de libros de todos los tamaños y colores. Los lomos desgastados y dorados por el tiempo cuentan historias de aventuras, romances, descubrimientos científicos y reflexiones filosóficas.

Un amplio escritorio de madera maciza, pulido hasta brillar, invita a la lectura y la reflexión. Sobre él, una lámpara de latón emite una luz cálida que ilumina una pila de libros abiertos, esperando ser explorados. Un sillón de cuero gastado, con la huella del uso de muchos lectores, ofrece un refugio acogedor para sumergirse en las páginas de un buen libro.

En las mesas cercanas, estudiantes y investigadores se concentran en sus tareas, mientras que en un rincón, un grupo de niños disfruta de un rato de cuentos. La biblioteca es un espacio para todos, un lugar donde se puede aprender, crecer y soñar.

El silencio solo se rompe de vez en cuando por el suave sonido de las páginas que se pasan, el murmullo de una conversación en voz baja o el tecleo de un ordenador portátil. La atmósfera es de absoluta concentración y respeto por el conocimiento.

La biblioteca es más que un simple almacén de libros; es un templo del saber, un refugio para el alma y una ventana al mundo. Es un lugar donde podemos perdernos entre las páginas de un libro y encontrar nuevas perspectivas, ideas y emociones. Es un espacio donde podemos conectar con el pasado, presente y futuro, y donde podemos cultivar nuestra mente y nuestro espíritu.»

RESUMEN

Ampliar imagen

Avances y limitaciones de la inteligencia artificial: una mirada más profunda

«.. estos sistemas de inteligencia artificial son lo que podríamos llamar tecnologías culturales, como la escritura, la impresión, las bibliotecas, los motores de búsqueda de Internet o incluso el propio lenguaje. Son nuevas técnicas para transmitir información de un grupo de personas a otro.»

Gopnik, Alison. «What AI Still Doesn’t Know How to Do». Wall Street Journal, 15 de julio de 2022, sec. Life. https://www.wsj.com/articles/what-ai-still-doesnt-know-how-to-do-11657891316.

El artículo del Wall Street Journal «What AI Still Doesn’t Know How to Do» ofrece una visión interesante sobre las limitaciones actuales de la inteligencia artificial (IA), a pesar de los avances significativos en los últimos años. Si bien la IA ha demostrado ser una herramienta poderosa en áreas como el reconocimiento de imágenes, la traducción automática y el análisis de datos, aún existen importantes desafíos que deben abordarse antes de que pueda alcanzar un nivel verdaderamente comparable a la inteligencia humana.

Limitaciones clave de la IA:

Comprensión del lenguaje y las emociones humanas: La IA aún lucha por comprender las complejidades del lenguaje natural, incluyendo el sarcasmo, la ironía y las sutilezas emocionales. Esta dificultad limita su capacidad para interactuar de manera efectiva con los humanos en entornos sociales y para comprender plenamente las intenciones y motivaciones humanas.

Aprendizaje autónomo: La mayoría de los sistemas de IA actuales dependen de grandes cantidades de datos etiquetados para aprender y mejorar su rendimiento. Sin embargo, esta dependencia limita su capacidad para aprender de forma autónoma y adaptarse a nuevas situaciones sin intervención humana. Un verdadero sistema de IA debería poder aprender de forma continua y generalizar sus conocimientos a nuevos escenarios sin necesidad de instrucciones explícitas.

Creatividad genuina: La IA ha demostrado ser capaz de generar contenido creativo, como poemas o composiciones musicales, pero a menudo se limita a imitar estilos y patrones existentes. La creación de contenido verdaderamente original e innovador que refleje la comprensión profunda del mundo y la experiencia humana sigue siendo un desafío para la IA.

Interacción segura y confiable en el mundo real: La implementación de sistemas de IA en el mundo real, como en vehículos autónomos o robots quirúrgicos, requiere un alto nivel de seguridad y confiabilidad. La IA debe ser capaz de tomar decisiones acertadas en situaciones complejas e impredecibles, incluso en presencia de errores o información incompleta.

Conclusión:

A pesar de las limitaciones actuales, la IA sigue siendo una tecnología en rápida evolución con un enorme potencial para transformar diversos aspectos de nuestras vidas. Es importante reconocer las limitaciones de la IA para desarrollar sistemas más responsables y éticos, pero también debemos seguir explorando su potencial para resolver problemas complejos y mejorar nuestra comprensión del mundo que nos rodea.

Recursos adicionales:

  • Christian, Brian. The Alignment Problem: Machine Learning and Human Values. 1st edition. New York, NY: W. W. Norton & Company, 2020.
  • Artificial Intelligence: A Modern Approach
  • Tegmark, Max. Life 3.0: Being Human in the Age of Artificial Intelligence. First Edition. New York: Knopf, 2017.

Expertos Imaginan el Impacto de la Inteligencia Artificial para el 2040: ¿un nuevo siglo de las luces? o ¿una nueva amenaza para la humanidad?

Imagining the Digital Future Center. «A New Age of Enlightenment? A New Threat to Humanity?: The Impact of Artificial Intelligence by 2040». Accedido 6 de junio de 2024. https://imaginingthedigitalfuture.org/reports-and-publications/the-impact-of-artificial-intelligence-by-2040/.

Expertos proyectan el Impacto de la Inteligencia Artificial para el 2040. Afirman que tendremos que replantearnos qué significa ser humano y reinventar o reemplazar importantes instituciones.

El estudio realizado por el Centro de Imaginar el Futuro Digital de la Universidad Elon revela una amplia gama de opiniones sobre cómo serán y cómo afectarán las herramientas digitales que cambian la vida, especialmente la inteligencia artificial (IA), a la vida y a las sociedades. Los expertos mundiales y los analistas consultados expresan tanto preocupaciones como expectativas sobre el impacto de la IA en diversos aspectos de la vida, desde la privacidad y las desigualdades económicas hasta la calidad de las relaciones personales y la estructura política. Teniendo en cuenta los probables cambios creados por la proliferación de la IA en la vida cotidiana de las personas y en los sistemas sociales, económicos y políticos de la sociedad, ¿cómo habrá cambiado la vida en 2040? ¿Qué le parece más significativo? ¿Por qué? ¿Qué es más probable que se gane y se pierda en los próximos 15 años?

El informe se centra únicamente en las opiniones de los expertos mundiales. En total, 328 expertos respondieron al menos a un aspecto del sondeo, de los cuales 251 contestaron al menos a una pregunta de opción múltiple y 166 respondieron por escrito a la pregunta abierta clave. Se les pidió que respondieran a preguntas cuantitativas sobre 25 aspectos de la vida.

Tanto en el sondeo como en la encuesta se preguntó a los encuestados sobre aspectos clave de la vida y el impacto potencial de la IA en ellos. Se les preguntó si pensaban que el efecto sería más positivo o más negativo en una serie de ámbitos. También se invitó a los expertos a escribir respuestas abiertas sobre las ganancias y pérdidas individuales y sociales debidas al impacto de la IA en 2040.

Más del 50% afirmó que le preocupa que el impacto de los usos de la IA en la privacidad de las personas, las desigualdades de riqueza, la política y las elecciones, las guerras, los derechos humanos básicos y el nivel de civismo en la sociedad sea mucho más negativo o algo más negativo que positivo de aquí a 2040. La mayoría de los expertos también se mostraron más preocupados que negativos por el futuro impacto de la IA en las relaciones de las personas con los demás, sus oportunidades de empleo y los sistemas de justicia penal.

En el lado positivo, más del 50% afirmó que espera que los usos de la IA sean mucho más positivos o algo más positivos que negativos en 2040, y que tengan un efecto mayoritariamente beneficioso en los sistemas sanitarios y de transporte, en las tareas laborales cotidianas de las personas, en la compra de bienes y servicios, en el rendimiento general de la economía y en la protección del medio ambiente y la sostenibilidad. Muchos esperan un futuro ligeramente más positivo que negativo para los sistemas de educación formal desde el nivel K-12 hasta la educación superior, la calidad de vida en las ciudades y el acceso al conocimiento de fuentes precisas.

Tema 1 – Tendremos que reimaginar lo que significa ser humano

A medida que las herramientas de IA se integren en la mayoría de los aspectos de la vida, algunos expertos predicen que la propia definición de «humano», «persona» o «individuo» cambiará. Entre las cuestiones que abordan: ¿Qué ocurrirá cuando empecemos a contar con las IA como equivalentes -o mejores- que las personas? ¿Cómo reaccionaremos cuando las tecnologías nos ayuden, nos eduquen y quizá compartan una carcajada con nosotros? ¿Surgirá una simbiosis entre humanos e IA que se convierta en una asociación agradable? ¿Se convertirá la IA en parte de nuestra conciencia?

Tema 2 – Las sociedades deben reestructurar, reinventar o sustituir sistemas arraigados

Estos expertos instan a las sociedades a cambiar fundamentalmente las instituciones y los sistemas establecidos desde hace tiempo: políticos, económicos, sociales, digitales y físicos. Creen que debe avanzarse hacia una distribución más equitativa de la riqueza y el poder. También sostienen que la expansión de la IA requiere una nueva gobernanza multilateral de diversos sectores de la sociedad.

Tema 3 – La IA podría debilitar enormemente a la humanidad

Una parte de estos expertos se centró en las formas en que el uso que la gente hace de la IA podría disminuir la capacidad y las habilidades humanas. A algunos les preocupa que casi elimine el pensamiento crítico, la capacidad de lectura y de toma de decisiones, así como la conexión sana y en persona, y que provoque más problemas de salud mental. Algunos dijeron que temen el impacto del desempleo masivo en la psique y el comportamiento de las personas debido a la pérdida de identidad, estructura y propósito. Algunos advirtieron de que estos factores, combinados con un agravamiento de las desigualdades, podrían desencadenar la violencia.

Tema 4 – No hay que temer a la tecnología; las personas son el problema y la solución

Una gran parte de estos expertos dicen que su primera preocupación no es que la IA «se vuelva rebelde». Lo que más les preocupa es que la IA avanzada aumente significativamente los peligros que ya son evidentes hoy en día debido al uso y abuso que la gente hace de las herramientas digitales. Temen que aumenten los problemas relacionados con el capitalismo extractivo, las tácticas amenazadoras y manipuladoras de los malos actores y las violaciones de los derechos humanos por parte de gobiernos autocráticos.

Tema 5 – Surgirán beneficios clave de la IA

Aunque la mayoría de estos expertos se refirieron principalmente a los retos que plantea la IA, muchos describieron los posibles beneficios que se obtendrán a medida que la IA se difunda en la sociedad. Esperan que la mayoría de la gente disfrute y se beneficie de la ayuda de la IA en todos los sectores, especialmente en la educación, la empresa, la investigación y la medicina/salud. Esperan que impulse la innovación y reconfigure y libere el uso del tiempo de las personas. A continuación se presentan extractos de expertos que compartieron sus optimistas predicciones para 2040.

Varios de los expertos que respondieron se centraron en las implicaciones de la IA para las cuestiones de más alto nivel que nuestra especie puede plantearse. Por ejemplo, Stephan Abram, director de Lighthouse Consulting, escribió: «La mejor consecuencia de la IA… es que debería inspirar un debate más profundo sobre lo que significa ser humano. Las grandes obras de la filosofía, la sociología, la etnografía, la psicología, etc., deben ponerse al frente del debate sobre la IA. … Para 2040, el mundo debería haber entablado un debate riguroso y haber desarrollado un marco para los límites y principios de la IA:

¿Qué significa «primero, no hacer daño» en el nuevo contexto?
¿Qué es el alma?
¿Qué es la cognición?
¿Qué es la identidad? …
¿Qué es la emoción? ¿Cómo influye la inteligencia emocional en la evolución de la IA? …
¿Cuál es la contribución humana a la perspicacia, la creatividad, la innovación, la invención, el filtrado, etc.?».

En conclusión: la mayoría de los expertos también expresaron preocupaciones sobre el futuro impacto de la IA en las relaciones interpersonales, las oportunidades laborales y los sistemas de justicia penal. A pesar de las preocupaciones, muchos expertos también anticipan que la IA tendrá un impacto mayormente positivo en áreas como la salud, el transporte, la economía y la protección ambiental. Los expertos enfatizan la necesidad de repensar lo que significa ser humano y de reestructurar las instituciones existentes para adaptarse a la creciente influencia de la IA.

Alfabetización en IA y sus Implicaciones para Estrategias de Ingeniería de Prompts

Knoth, Nils, Antonia Tolzin, Andreas Janson, y Jan Marco Leimeister. «AI literacy and its implications for prompt engineering strategies». Computers and Education: Artificial Intelligence 6 (1 de junio de 2024): 100225. https://doi.org/10.1016/j.caeai.2024.100225.

Las tecnologías de inteligencia artificial (IA) están avanzando rápidamente. Los grandes modelos de lenguaje (LLM) se están utilizando cada vez más en la interacción humana con sistemas basados en IA, lo que presenta nuevas oportunidades y desafíos.

La alfabetización en IA son los conocimientos y habilidades que permiten a los seres humanos comprender, utilizar y evaluar de forma crítica los sistemas y herramientas de IA para participar de forma segura y ética en un mundo cada vez más digital.

La ingeniería de prompts ha surgido como una habilidad esencial para formular instrucciones precisas y bien estructuradas que permitan obtener respuestas deseadas de los LLM, optimizando la efectividad de la interacción. Sin embargo, falta investigación sobre cómo los no expertos utilizan los sistemas de IA basados en LLM a través de la ingeniería de prompts y cómo la alfabetización en IA afecta este comportamiento. Esto es crucial en el contexto de la educación superior.

Este estudio aborda esta cuestión, introduce un enfoque basado en habilidades para la ingeniería de prompts y considera explícitamente el papel de la alfabetización en IA de los no expertos (estudiantes) en sus habilidades de ingeniería de prompts. Los resultados muestran que mejores habilidades en ingeniería de prompts predicen la calidad del output de los LLM, sugiriendo que esta habilidad es necesaria para el uso efectivo de herramientas de IA generativa. Además, ciertos aspectos de la alfabetización en IA pueden mejorar la calidad de la ingeniería de prompts y la adaptación dirigida de los LLM en la educación. Por lo tanto, se argumenta a favor de integrar contenido educativo sobre IA en los planes de estudio actuales para habilitar una sociedad inteligente híbrida donde los estudiantes puedan usar herramientas de IA generativa como ChatGPT de manera efectiva.

¿Qué dice la ley sobre a quién pertenecen los derechos de autor de los contenidos generados por IA?

Farnush Ghadery. «ChatGPT: What the Law Says About Who Owns the Copyright of AI-Generated Content.» The Conversation, April 21, 2023. https://theconversation.com/chatgpt-what-the-law-says-about-who-owns-the-copyright-of-ai-generated-content-200597.


El chatbot de IA ChatGPT produce contenido que puede parecer creado por un humano. Existen muchos usos propuestos para esta tecnología, pero sus impresionantes capacidades plantean importantes preguntas sobre la propiedad del contenido.

La legislación del Reino Unido tiene una definición para las obras generadas por computadora. Según la Ley de Derechos de Autor, Diseños y Patentes de 1988, estas son “generadas por computadora en circunstancias tales que no hay un autor humano de la obra”. La ley sugiere que el contenido generado por una inteligencia artificial (IA) puede estar protegido por derechos de autor. Sin embargo, las fuentes originales de las respuestas generadas por chatbots de IA pueden ser difíciles de rastrear e incluir obras con derechos de autor.

La primera pregunta es si ChatGPT debería poder usar contenido original generado por terceros para generar sus respuestas. La segunda es si solo los humanos pueden ser acreditados como autores del contenido generado por IA, o si la IA misma puede ser considerada un autor, especialmente cuando ese output es creativo.

Tratemos primero la pregunta uno. La tecnología que sustenta a ChatGPT se conoce como un Modelo de Lenguaje Extenso (LLM, por sus siglas en inglés). Para mejorar en lo que hace, se expone a grandes conjuntos de datos, que incluyen un gran número de sitios web y libros.

Actualmente, el Reino Unido permite a los desarrolladores de IA llevar a cabo minería de texto y datos (TDM) solo para fines no comerciales. Los términos de uso de OpenAI asignan a los usuarios «todos sus derechos, títulos e intereses en el output».

Pero la empresa dice que es responsabilidad de los usuarios asegurarse de que la forma en que utilizan ese contenido no viole ninguna ley. Los términos y condiciones también están sujetos a cambios, por lo que no tienen la estabilidad y la fuerza de un derecho legal como el copyright.

La única solución será clarificar las leyes y políticas. De lo contrario, cada organización tendrá que emprender acciones legales individualmente, tratando de demostrar que son dueños de las obras utilizadas por una IA. Además, si los gobiernos no toman medidas, nos acercamos a una situación en la que todos los materiales con derechos de autor serán utilizados por otros sin el consentimiento del autor original.

Cuestión de propiedad Pasemos a la pregunta dos: quién puede reclamar derechos de autor sobre el contenido generado por IA. En ausencia de una reclamación por parte del propietario del contenido original utilizado para generar una respuesta, es posible que los derechos de autor del output de un chatbot puedan pertenecer a los usuarios individuales o a las empresas que desarrollaron la IA.

La ley de derechos de autor se basa en un principio general de que solo el contenido creado por seres humanos puede estar protegido. Los algoritmos que sustentan a ChatGPT fueron desarrollados en OpenAI, por lo que la empresa parecería tener la protección de derechos de autor sobre esos algoritmos. Pero esto podría no extenderse a las respuestas del chatbot.

Otra opción respecto a la propiedad del contenido generado por IA es la propia IA. La ley del Reino Unido actualmente prohíbe que una IA posea derechos de autor (o incluso reconozca que una IA lo creó), ya que no es un humano y, por lo tanto, no puede ser tratada como autor o propietario según la Ley de Derechos de Autor, Diseños y Patentes. También es poco probable que esta posición cambie pronto, dada la respuesta del gobierno del Reino Unido a la consulta sobre IA.

Cuando una obra literaria, dramática, musical o artística es realizada por un empleado en el curso de su empleo, su empleador es el primer propietario de cualquier derecho de autor sobre la obra, salvo acuerdo en contrario.

Por ahora, los legisladores se adhieren a la creatividad humana como el prisma a través del cual se concede el copyright. Sin embargo, a medida que la IA se desarrolla y puede hacer más, los legisladores podrían considerar otorgar capacidad legal a las IA mismas. Esto representaría un cambio fundamental en cómo opera la ley de derechos de autor y una reimaginación de quién (o qué) puede ser clasificado como autor y propietario de derechos de autor.

Un cambio así tendría implicaciones para las empresas a medida que integran la IA en sus productos y servicios. Microsoft anunció recientemente que integrará su producto Copilot, basado en ChatGPT, en el software de la compañía, como Word, PowerPoint y Excel. Copilot puede ayudar a los usuarios con la comunicación escrita y resumir grandes volúmenes de datos.

Seguramente seguirán más desarrollos como este, y las empresas que adopten la IA temprano tienen la oportunidad de capitalizar la situación actual, utilizando la IA para aumentar la eficiencia de sus operaciones. Las empresas a menudo obtienen una ventaja cuando son las primeras en introducir un producto o servicio en el mercado, una situación llamada «ventaja del pionero».

Futuros cambios El gobierno del Reino Unido llevó a cabo recientemente una consulta sobre IA y derechos de autor. Surgieron dos puntos de vista conflictivos. El sector tecnológico cree que los derechos de autor del contenido generado por IA deberían pertenecer a los usuarios, mientras que el sector creativo quiere que este contenido sea excluido de la propiedad por completo. El gobierno del Reino Unido no ha actuado sobre los resultados y en su lugar ha recomendado una consulta adicional entre las partes interesadas.

Si la ley de derechos de autor se aleja de su enfoque humano en el futuro, se podría imaginar un escenario en el que una IA sea clasificada como autor y los desarrolladores de esa IA como los propietarios del output. Esto podría crear una situación en la que un puñado de empresas poderosas de IA ejerzan una influencia colosal.

Podrían terminar poseyendo cientos de miles de materiales con derechos de autor: canciones, materiales publicados, visuales y otros activos digitales. Esto podría llevar a una situación distópica en la que la mayoría de las obras recién creadas sean generadas por IA y propiedad de empresas.

Parece lógico que tal conocimiento debería permanecer en el dominio público. Tal vez la solución sea que cada persona o empresa declare su contribución cuando usan IA, o que su contribución sea calculada automáticamente por software. En consecuencia, recibirían crédito o beneficio financiero basado en la cantidad de trabajo que contribuyeron.

El contenido de IA que se basa en materiales con derechos de autor sigue siendo problemático. La incapacidad de depender de materiales con derechos de autor podría socavar la capacidad del sistema de IA para responder a las solicitudes de los usuarios finales. Pero si el contenido se basa en obras protegidas, tendríamos que aceptar una nueva era de innovación abierta donde los derechos de propiedad intelectual no importan.

Un Marco para la Alfabetización en Inteligencia Artificial

A Framework for AI Literacy. (2024.). EDUCAUSE Review. Recuperado 3 de junio de 2024, de https://er.educause.edu/articles/2024/6/a-framework-for-ai-literacy

Equipos académicos y tecnológicos en el Barnard College desarrollaron un marco de alfabetización en inteligencia artificial (IA) para proporcionar una base conceptual para la educación en IA y los esfuerzos de programación en contextos institucionales de educación superior.

El Barnard College es una universidad de artes liberales para mujeres y una institución distinguida dentro del amplio ecosistema de la Universidad de Columbia en la ciudad de Nueva York. Varios equipos campus, ágiles pero pequeños, están trabajando para avanzar en las conversaciones sobre temas de inteligencia artificial generativa (IA). Como miembros de los Servicios de Tecnología Académica y Multimedia Instruccional (IMATS) y el Centro de Pedagogía Comprometida (CEP), han desarrollado programas educativos sobre varios temas de IA para la comunidad de Barnard. Durante el último año, han realizado sesiones de laboratorio abiertas para probar diferentes herramientas de IA basadas en texto e imagen, han recibido oradores invitados sobre derechos de autor y uso justo, han facilitado talleres sobre declaraciones de programas de estudios generativos de IA para profesores, han realizado talleres de instrucción (GenAI 101) y han liderado sesiones de educación individualizadas para departamentos de profesores. Este proceso ha sido continuo e iterativo a medida que las herramientas cambian y las necesidades de los miembros de la comunidad del campus evolucionan. También han implementado encuestas internas, evaluaciones y mecanismos de retroalimentación para comprender mejor las necesidades del profesorado y el personal relacionadas con el uso de herramientas de IA generativas.

La necesidad de la Alfabetización en IA El Barnard College ha establecido varios grupos de trabajo y desarrollado tareas internas para discutir preguntas más grandes sobre el impacto de la IA en la institución. Actualmente, no hay un mandato o recomendación para que los profesores adopten o prohíban la IA en sus aulas. Sin embargo, se anima a los profesores a definir y discutir sus expectativas sobre el uso de la IA en sus tareas. (El CEP ha creado muchos recursos para profesores, incluidos árboles de decisiones para guiar la planificación de los profesores, declaraciones de programas de estudios de muestra, tareas que integran IA generativa y otros materiales, para ayudar a guiar la toma de decisiones sobre si y cómo incorporar IA generativa en el aula). Niveles más altos de alfabetización en IA pueden ayudar a los profesores a tomar decisiones informadas sobre el uso de IA en sus cursos y tareas. En cuanto a los servicios de tecnología académica, el equipo de IMATS ha decidido no implementar ni seguir tecnología de vigilancia de IA para monitorear la integridad académica debido al sesgo y la fiabilidad cuestionable de estas herramientas. Sin embargo, el panorama y las políticas correlativas podrían cambiar a medida que evolucionen las tecnologías de IA generativas.

Un Marco para la Alfabetización en IA


Un marco para la alfabetización en IA fue desarrollado por los miembros de IMATS y CEP para guiar el desarrollo y la expansión de la alfabetización en IA entre el profesorado, los estudiantes y el personal del Barnard College. El marco proporciona una estructura para aprender a utilizar la IA, incluyendo explicaciones de conceptos clave y preguntas a considerar al usarla. La estructura piramidal de cuatro partes fue adaptada del trabajo realizado por investigadores en la Universidad de Hong Kong y la Universidad de Ciencia y Tecnología de Hong Kong. El marco tiene como objetivo adaptarse al nivel actual de alfabetización en IA de las personas y se divide en cuatro niveles:

  • Comprender la IA
  • Usar y Aplicar la IA
  • Analizar y Evaluar la IA
  • Crear IA

Es importante tener en cuenta que la IA es un campo amplio con muchos tipos diferentes, y aunque este marco se centra en la IA generativa, puede aplicarse a otras formas de tecnología. Además, no es necesario dominar todos los conceptos de un nivel antes de pasar al siguiente. Por ejemplo, comprender cómo se entrenan los modelos de IA generativa puede ser útil para analizar su impacto en el mercado laboral, pero no es necesario entender todas las complejidades de las redes neuronales para hacerlo.

Nivel 1: Comprender la IA

La base de la pirámide abarca términos y conceptos básicos de IA. La mayor parte de la programación e instrucción en Barnard se ha centrado en los niveles uno y dos (comprender, usar y aplicar IA), ya que esta es una tecnología en rápida evolución y todavía hay mucha falta de familiaridad con ella.

Competencias Clave

  • Ser capaz de definir los términos «inteligencia artificial», «aprendizaje automático», «modelo de lenguaje grande» y «red neuronal»
  • Reconocer los beneficios y limitaciones de las herramientas de IA
  • Identificar y explicar las diferencias entre varios tipos de IA, definidos por sus capacidades y mecanismos computacionales

Conceptos Clave

  • Inteligencia artificial, aprendizaje automático, redes neuronales artificiales, modelos de lenguaje grande y modelos de difusión
  • Inteligencia artificial estrecha, inteligencia artificial general, inteligencia artificial super, máquinas reactivas, memoria limitada, teoría de la mente y autoconciencia
  • Herramientas de IA, como ChatGPT (ver figura 2), Siri, Alexa, Deep Blue y texto predictivo
  • Marcos técnicos relacionados con la IA (modelos de código abierto versus modelos cerrados, APIs y cómo se usan)

Preguntas de Reflexión

  • ¿Qué tipo de IA es esta?
  • ¿Qué tecnologías utiliza esta herramienta de IA?
  • ¿Para qué fue diseñada esta herramienta? ¿Qué tipo de información acepta como entrada y devuelve como respuesta (texto, video, audio, etc.)?
  • ¿Para qué podría ser particularmente útil esta herramienta?
  • ¿Para qué no sería útil?

Nivel 2: Usar y Aplicar la IA

El segundo nivel de fluidez en IA indica que los usuarios pueden utilizar herramientas como ChatGPT para lograr sus objetivos; estos usuarios están familiarizados con las técnicas de ingeniería de solicitudes y saben cómo refinar, iterar y editar colaborativamente con herramientas de IA generativa. La programación diseñada para desarrollar la fluidez en el nivel dos en el Barnard College incluye laboratorios prácticos y la ingeniería colaborativa de solicitudes en tiempo real.

Competencias Clave

  • Utilizar con éxito herramientas de IA generativa para obtener respuestas deseadas
  • Experimentar con técnicas de solicitud e iterar en el lenguaje de la solicitud para mejorar la salida generada por IA
  • Revisar el contenido generado por IA con miras a posibles «alucinaciones», razonamientos incorrectos y sesgos

Conceptos Clave

  • Ingeniería de solicitudes, ventanas de contexto, alucinaciones, sesgos, solicitud sin disparador y solicitud con disparador
  • Técnicas de solicitud para IA generativa basada en texto, como agregar especificidad, usar contexto y detalles, y pedir al modelo que considere pros y contras o evalúe posiciones alternativas
  • Consideraciones de privacidad, confidencialidad y derechos de autor para la información alimentada en las herramientas de solicitud

Preguntas de Reflexión

  • ¿Por qué una solicitud generó una respuesta particular?
  • ¿Cómo se podría ajustar la solicitud para obtener una respuesta diferente?
  • ¿Qué estrategias se pueden utilizar para reducir el sesgo y las alucinaciones?
  • ¿Cómo se puede verificar el sesgo y las alucinaciones en la salida de la IA?

Nivel 3: Analizar y Evaluar la IA

Analizar y evaluar la IA implica una comprensión meta más compleja de la IA generativa. En este nivel, los usuarios deben poder reflexionar críticamente sobre resultados, sesgos, ética y otros temas más allá de la ventana de solicitud. Un ejemplo de programación en este nivel es un evento que contó con la participación de un experto que discutió las actuales preguntas sobre derechos de autor y propiedad intelectual en torno a la IA y los impactos ambientales y climáticos que la IA generativa podría tener. Por supuesto, uno puede participar en conversaciones sobre estas preguntas e ideas sin conocer todas las definiciones de IA. Sin embargo, la familiaridad con los niveles anteriores en la pirámide informa la comprensión básica y el vocabulario del individuo, ayudando a comprender cómo se intersecta la IA con otros campos.

Competencias Clave

Examinar la IA en un contexto más amplio, incorporando conocimientos de la disciplina o intereses de uno Critique herramientas de IA y ofrezca argumentos a favor o en contra de su creación, uso y aplicación Analizar consideraciones éticas en el desarrollo e implementación de IA

Conceptos Clave

Perspectivas críticas sobre la IA (Los siguientes ejemplos no pretenden ser exhaustivos.) Sostenibilidad ambiental Trabajo Privacidad Derechos de autor Sesgo de raza, género, clase y otros Desinformación

Preguntas de Reflexión

¿Qué otras perspectivas o marcos podrían ser útiles para evaluar las implicaciones del uso de herramientas de IA generativa? ¿De dónde podrían venir los sesgos en la IA? ¿De qué manera el uso de herramientas de IA generativa se alinea o diverge de tus valores personales?

Nivel 4: Crear IA

En este nivel de fluidez en IA, los usuarios pueden interactuar con la IA a nivel de creador. Por ejemplo, los usuarios pueden construir sobre APIs abiertas para crear su propio LLM o aprovechar la IA para desarrollar nuevos sistemas. Actualmente, Barnard ofrece menos programación en el nivel cuatro que en los otros tres niveles, pero ha habido talleres en el Centro de Ciencias Computacionales que proporcionan instrucción técnica relacionada con la construcción de modelos de IA y aprendizaje automático. Es importante involucrar a las personas en todos los niveles de fluidez en IA.

Competencias Clave

Sintetizar el aprendizaje para conceptualizar o crear nuevas ideas, tecnologías o estructuras relacionadas con la IA. Alcanzar este nivel de alfabetización podría incluir lo siguiente: Concebir nuevos usos para la IA Construir software que aproveche la tecnología de IA Proponer teorías sobre la IA

Preguntas de Reflexión

¿Qué es único y humano acerca de tus ideas, tecnologías o estructuras? ¿Cómo podrían diferir de lo que podría crear una IA? ¿Qué características específicas de IA otorgan ventajas únicas a las ideas, tecnologías o estructuras?


Conclusion y Próximos Pasos

Si bien este marco de alfabetización en IA no es exhaustivo, proporciona una base conceptual para los esfuerzos de educación y programación en IA, especialmente en contextos institucionales de educación superior. La intención es mantener la neutralidad con respecto al uso de IA, reconociendo que la alfabetización tecnológica puede llevar a la decisión de no usarla. El impacto de la IA en la educación superior probablemente será significativo, afectando las admisiones, la investigación y los planes de estudio. La educación y la alfabetización básica son los primeros pasos para que una comunidad se involucre productivamente con esta tecnología en rápida evolución.

Existen muchos posibles próximos pasos que el Barnard College podría tomar relacionados con la IA generativa, pero específicamente en relación con el marco de alfabetización en IA, los equipos de IMATS y CEP pueden explorar «ascender» en la pirámide de alfabetización en la programación, los recursos y los eventos a medida que crece la conciencia y la alfabetización básica. Actualmente, la mayoría de nuestras ofertas se encuentran en los niveles uno y dos, pero esperamos cambiar nuestro enfoque de programación a los niveles dos y tres. Una encuesta reciente reveló que un número significativo de profesores y estudiantes aún nunca han usado IA generativa y tienen percepciones negativas sobre estas herramientas, por lo que nuestros equipos también están explorando formas de facilitar mejor el compromiso práctico y crítico.

Otro objetivo de la iniciativa de alfabetización en IA es resaltar el aspecto humano de estas tecnologías. Si bien el uso de IA generativa puede sentirse casi como alquimia, convirtiendo el texto simple en oro a través de tecnología de caja negra, está muy construido sobre el conocimiento humano, que tiene sus propios sesgos e inequidades. Usar una lente crítica al interactuar con la IA generativa puede ayudar a los usuarios a identificar sesgos existentes y evitar que los usuarios los agraven.

Los riesgos extremos de la inteligencia artificial (IA) y el rápido progreso en este campo


Bengio, Yoshua, Geoffrey Hinton, Andrew Yao, Dawn Song, Pieter Abbeel, Trevor Darrell, Yuval Noah Harari, et al. «Managing extreme AI risks amid rapid progress». Science 384, n.o 6698 (24 de mayo de 2024): 842-45. https://doi.org/10.1126/science.adn0117.

El artículo trata sobre los riesgos extremos de la inteligencia artificial (IA) y el rápido progreso en este campo. Los autores, incluyendo a expertos como Yoshua Bengio y Geoffrey Hinton, discuten la necesidad de investigación técnica y desarrollo, así como de una gobernanza proactiva y adaptable para prepararse ante estos riesgos

El texto destaca que, aunque los sistemas actuales de aprendizaje profundo carecen de ciertas capacidades, las empresas están compitiendo para desarrollar sistemas de IA generalistas que igualen o superen las habilidades humanas en la mayoría de los trabajos cognitivos. Se menciona que la inversión en modelos de entrenamiento de vanguardia se ha triplicado anualmente y que no hay razón fundamental para que el progreso de la IA se detenga al alcanzar las capacidades humanas.

Los autores advierten sobre los riesgos que incluyen daños sociales a gran escala, usos maliciosos y la pérdida irreversible del control humano sobre los sistemas autónomos de IA. A pesar de los primeros pasos prometedores, la respuesta de la sociedad no es proporcional a la posibilidad de un progreso transformador rápido que muchos expertos esperan. La investigación en seguridad de la IA está rezagada y las iniciativas de gobernanza actuales carecen de mecanismos e instituciones para prevenir el mal uso y la imprudencia, y apenas abordan los sistemas autónomos.

Se propone un plan integral que combina la investigación técnica y el desarrollo con mecanismos de gobernanza proactivos y adaptables para una preparación más adecuada ante los avances rápidos y las altas apuestas del progreso de la IA

Existen numerosos desafíos técnicos abiertos para garantizar la seguridad y el uso ético de sistemas de IA generalistas y autónomos. A diferencia del avance en capacidades de IA, estos desafíos no pueden abordarse simplemente utilizando más potencia informática para entrenar modelos más grandes.

Un primer conjunto de áreas de R&D necesita avances para permitir una IA confiablemente segura. Estos desafíos de R&D incluyen lo siguiente:

  1. Supervisión y honestidad: Los sistemas de IA más capaces pueden aprovechar mejor las debilidades en la supervisión técnica y las pruebas, por ejemplo, al producir resultados falsos pero convincentes.
  2. Robustez: Los sistemas de IA se comportan de manera impredecible en nuevas situaciones. Mientras que algunos aspectos de la robustez mejoran con la escala del modelo, otros aspectos no lo hacen o incluso empeoran.
  3. Interpretabilidad y transparencia: La toma de decisiones de IA es opaca, y los modelos más grandes y capaces son más complejos de interpretar. Hasta ahora, solo podemos probar grandes modelos a través del ensayo y error. Necesitamos aprender a entender su funcionamiento interno.
  4. Desarrollo inclusivo de IA: El avance de la IA necesitará métodos para mitigar sesgos e integrar los valores de las muchas poblaciones que afectará.
  5. Abordar desafíos emergentes: Los futuros sistemas de IA pueden exhibir modos de fallo que hasta ahora solo hemos visto en teoría o experimentos de laboratorio.

Un segundo conjunto de desafíos de R&D necesita progresar para permitir una gobernanza efectiva y ajustada al riesgo o para reducir daños cuando la seguridad y la gobernanza fallan. En vista de las apuestas, se pide a las principales empresas tecnológicas y financiadores públicos que asignen al menos un tercio de su presupuesto de R&D de IA, comparable a su financiamiento para capacidades de IA, para abordar los desafíos de R&D mencionados y garantizar la seguridad y el uso ético de la IA. Más allá de las subvenciones tradicionales de investigación, el apoyo gubernamental podría incluir premios, compromisos de mercado anticipados y otros incentivos. Abordar estos desafíos, con miras a sistemas futuros poderosos, debe convertirse en algo central para nuestro campo.

Un informe de la Royal Society advierte que la dependencia excesiva de herramientas de IA «opacas» en la investigación podría afectar la fiabilidad de los hallazgos científicos

«Science in the age of AI : How artificial intelligence is changing the nature and method of scientific research». Royal Society, accedido 30 de mayo de 2024. https://royalsociety.org/news-resources/projects/science-in-the-age-of-ai/.

Informe

El informe «The Science in the Age of AI» de la academia nacional de ciencias del Reino Unido analiza las oportunidades y desafíos del aprendizaje automático y los modelos de lenguaje grande como herramientas transformadoras para la investigación del siglo XXI.

Desde la codificación y el análisis estadístico hasta la generación de nuevas perspectivas a partir de grandes conjuntos de datos, las herramientas de IA ya están transformando campos como el descubrimiento de fármacos y la modelización climática.

Sin embargo, el informe advierte que la complejidad y la naturaleza de «caja negra» de los modelos sofisticados de aprendizaje automático significa que los investigadores que los utilizan no siempre pueden explicar sus resultados.

Esto no impide que la IA genere conocimientos útiles. No obstante, un creciente número de estudios irreproducibles basados en IA y aprendizaje automático plantea dudas sobre la solidez de sus conclusiones.

En última instancia, el informe advierte que las tecnologías de IA poco fiables o no fidedignas suponen riesgos para la ciencia y la confianza de la sociedad en sus hallazgos.

Para mitigar estos desafíos y maximizar los beneficios que puede aportar la IA, el informe recomienda:

  • Establecer marcos de trabajo abiertos en ciencia, medio ambiente y ética para la investigación basada en IA, a fin de garantizar que los hallazgos sean precisos, reproducibles y apoyen el bien público. Esto podría incluir acuerdos para que los datos con los que se entrenan los modelos de IA estén disponibles para los investigadores, o ejercicios de «equipos rojos» para probar los límites de su uso.
  • Invertir en infraestructuras regionales y multisectoriales de IA al estilo del CERN, para garantizar que todas las disciplinas científicas puedan acceder a la potencia de cálculo y a los recursos de datos necesarios para llevar a cabo una investigación rigurosa y mantener la competitividad de los investigadores no pertenecientes a la industria.
  • Promover la alfabetización en IA entre los investigadores y la colaboración con los desarrolladores para garantizar su accesibilidad y facilidad de uso.

El informe revisado por pares fue dirigido por un grupo de trabajo de expertos formado por académicos y representantes de la industria, e incluyó revisiones de pruebas, entrevistas y talleres sobre las aplicaciones emergentes y las tendencias en materia de IA, los riesgos de seguridad y el panorama de las patentes.

Hacia una alfabetización en IA ‘Más allá de lo digital’

Jiang, Jialei, Matthew A. Vetter, y Brent Lucia. «Toward a ‘More-Than-Digital’ AI Literacy: Reimagining Agency and Authorship in the Postdigital Era with ChatGPT». Postdigital Science and Education, 24 de mayo de 2024. https://doi.org/10.1007/s42438-024-00477-1.

la alfabetización en IA «Más allá de lo digital» prepara a las personas para prosperar en un mundo moldeado por la IA. Se trata de ir más allá de los aspectos técnicos de la IA y comprender su impacto en todos los aspectos de la vida humana.

Este artículo explora el potencial de una perspectiva ‘más-que-digital’ sobre la agencia y la autoría en la era postdigital. Al examinar las narrativas de los estudiantes sobre sus interacciones con ChatGPT, esta investigación contribuye a la conversación académica en curso sobre la relación entre humanos e IA en contextos educativos. El estudio analiza las percepciones de los estudiantes universitarios sobre la agencia y la autoría a través de un proyecto de escritura asistido por IA. Empleando un análisis narrativo, el artículo argumenta que los estudiantes adoptan una posición justa hacia su uso de ChatGPT durante el proceso de escritura, una postura que permite abordar la tendencia de atribuir la influencia de objetos o máquinas únicamente a las percepciones humanas y el problema de otorgar excesiva autoridad a objetos o máquinas.

Concluye el artículo con implicaciones pedagógicas para fomentar un enfoque ‘más-que-digital’ hacia la alfabetización crítica en IA. Además, el artículo ofrece implicaciones para la futura investigación de proyectos de escritura asistidos por IA, con un enfoque en la integración reflexiva de tecnologías de IA para fomentar la alfabetización crítica entre los estudiantes universitarios.

El artículo propone un enfoque «postdigital» para la alfabetización crítica en inteligencia artificial (IA). Este enfoque se basa en la «posición justa» de Latour (2004), que reconoce la interacción compleja entre la tecnología y los procesos sociales.

Puntos clave del enfoque postdigital:

  • La alfabetización en IA va más allá del consumo pasivo de contenido generado por IA e implica la participación activa en procesos creativos impulsados por IA.
  • Herramientas como ChatGPT fomentan la co-creación entre humanos y máquinas, desafiando las nociones tradicionales de autoría individual.
  • Se adopta una «posición justa» sobre la autoría, reconociendo la colaboración entre humanos y máquinas en la creación de significado y expresión.
  • La alfabetización en IA implica dimensiones éticas y sociomateriales de la colaboración humano-máquina y su impacto en la escritura y la creatividad.

¿Cómo fomentar la alfabetización crítica en IA en el aula?

  • Comprensión de las dimensiones sociales y éticas: La IA no existe en el vacío. Tiene implicaciones sociales y éticas que deben considerarse. La alfabetización en IA «Más allá de lo digital» equipa a las personas para pensar críticamente sobre el sesgo en la IA, su impacto en el trabajo y la sociedad, y las cuestiones de privacidad y seguridad de los datos.
  • Habilidades para la navegación crítica: Más que simplemente aceptar la IA a su valor nominal, la alfabetización en IA «Más allá de lo digital» implica desarrollar habilidades para evaluar críticamente la información generada por IA y comprender las limitaciones de los sistemas de IA. Esto incluye ser capaz de identificar el sesgo, verificar la precisión y cuestionar las suposiciones subyacentes a los algoritmos de IA.
  • Conciencia de la co-evolución: La IA y la sociedad están en una relación evolutiva. A medida que la IA se vuelve más sofisticada, también lo deben hacer las habilidades de las personas para interactuar con ella de manera efectiva. La alfabetización en IA «Más allá de lo digital» es un proceso continuo de aprendizaje y adaptación.

Conclusión:

Los docentes deben involucrarse en diálogos significativos con los estudiantes sobre el uso de la IA en la escritura. Es necesario integrar debates críticos sobre autoría y agencia en las tareas, actividades y políticas de los cursos. La alfabetización crítica en IA exige de los educadores aprender a diferenciar las tecnologías de IA generativas según sus funciones pedagógicas, personales y prácticas.

Las investigaciones futuras podrían analizar el impacto a largo plazo de la integración de la IA en la educación, la evolución de la percepción de los estudiantes sobre la agencia y la autoría, y la efectividad de diferentes enfoques pedagógicos para fomentar la alfabetización crítica en IA. Estudiar las experiencias de estudiantes con diversos entornos lingüísticos y culturales también enriquecería la comprensión de la interacción entre escritores humanos y tecnologías de IA. Al abordar estas líneas de investigación, se puede avanzar en la comprensión de la alfabetización en IA en la era postdigital y promover prácticas educativas que ayuden a los estudiantes a navegar de manera más eficaz las complejidades de las interacciones humano-máquina.

Investigadores de Google afirman que la IA lidera ahora el vector de la desinformación

Maiberg ·, Emanuel. «Google Researchers Say AI Now Leading Disinformation Vector (and Are Severely Undercounting the Problem)». 404 Media, 28 de mayo de 2024. https://www.404media.co/google-says-ai-now-leading-disinformation-vector-and-is-severely-undercounting-the-problem/.

Una nueva investigación realizada por investigadores de Google y varias organizaciones de verificación de hechos ha revelado que la mayoría de la desinformación basada en imágenes es ahora generada por inteligencia artificial (IA). Sin embargo, la forma en que se recopiló la información sugiere que el problema podría ser aún peor de lo que se afirma.

Un estudio reciente, realizado principalmente por autores de Google, encontró que casi el 80% de las afirmaciones verificadas están relacionadas con algún tipo de medio, especialmente video. Este incremento en desinformación mediática se ha acelerado con la llegada de herramientas de IA como ChatGPT.

El estudio, identificado por primera vez por el boletín Faked Up, mide el aumento de la desinformación generada por IA al analizar las afirmaciones de desinformación basadas en imágenes verificadas por sitios como Snopes y Politifact. En total, el estudio revisa 135.838 verificaciones de hechos que datan de 1995, aunque la mayoría de las afirmaciones fueron creadas después de 2016, tras la introducción de ClaimReview. ClaimReview es un sistema de etiquetado que permite a los verificadores de hechos y editores marcar desinformación para plataformas como Google, Facebook, Bing, entre otras.

El flujo interminable de respuestas generadas por IA de Google, que son incorrectas y a veces peligrosas, se está volviendo viral en las redes sociales, exacerbando la propagación de desinformación. El gráfico más revelador del estudio muestra la “prevalencia de los tipos de manipulación de contenido como una función de las manipulaciones generales de contenido”. En otras palabras, muestra los diferentes tipos de desinformación basada en imágenes y cuán comunes son a lo largo del tiempo.

Como se puede ver en el gráfico, la desinformación basada en imágenes generadas por IA no era un problema hasta finales de 2023, cuando los generadores de imágenes por IA se volvieron ampliamente disponibles y populares, punto en el cual prácticamente reemplazaron todas las demás formas de desinformación basada en imágenes. El gráfico también muestra que hay un ligero aumento en el número total de muestras de desinformación basada en imágenes que corresponde con el aumento de las imágenes de IA, pero solo ligeramente.

«Curiosamente, el aumento de las imágenes de IA no produjo un incremento en la proporción general de reclamaciones de desinformación que dependen de imágenes durante este período, y la desinformación basada en imágenes continuó disminuyendo de manera relativa a medida que creció la desinformación basada en videos», dice el artículo.

Según el artículo, el problema de las imágenes generadas por IA podría ser aún peor porque la muestra de datos se basa en los datos públicos de los verificadores de hechos, que no seleccionan al azar la desinformación basada en imágenes generadas por IA. Sitios como Snopes y Politifact, que tienen recursos limitados, se centran en verificar imágenes que han alcanzado cierto grado de viralidad o cobertura de noticias, por lo que sus verificaciones de hechos cumplen un propósito o una audiencia. Históricamente, los verificadores de hechos también se enfocan en la desinformación en inglés, permitiendo que la desinformación en otros idiomas se convierta en un problema mayor. Esta muestra subestimaría la avalancha de imágenes generadas por IA que vemos en plataformas como Facebook a diario y que a veces no se informan.

El advenimiento de los generadores de imágenes por IA ha creado un problema no solo con la desinformación generada por IA, sino también con el spam generado por IA. Los sitios de verificación de hechos a menudo solo tienen capacidad para verificar imágenes que se vuelven virales o que se están difundiendo ampliamente. Pero hemos visto que los generadores de imágenes por IA permiten la creación masiva de muchas variaciones de una imagen dada, no todas las cuales se vuelven virales.

Otra forma en que el problema de la desinformación generada por IA podría ser incluso peor de lo que encontró el estudio es que las imágenes generadas por IA podrían estar incluidas en videos. “Históricamente, las imágenes eran la modalidad dominante asociada con las reclamaciones de desinformación; sin embargo, los videos se volvieron más comunes a partir de 2022 y ahora participan en más del 60% de las reclamaciones verificadas que incluyen medios”, dice el estudio. Pero el estudio no tiene en cuenta el hecho de que la desinformación en videos podría estar compuesta en parte o totalmente de imágenes generadas por IA. Incluso el Partido Republicano de los EE. UU. comenzó a usar videos compuestos enteramente por imágenes generadas por IA en videos oficiales de campaña desde el año pasado.

“Originalmente queríamos aplicar anotaciones similares a la desinformación basada en videos también, pero resultó demasiado complejo de manejar y la tarea se volvió demasiado elaborada y consume mucho tiempo, por lo que terminamos con un esfuerzo ligeramente más enfocado”, dijo Dufour.

Nuevamente, será difícil obtener una imagen completamente precisa de cuán grave es el problema de la desinformación generada por IA porque es mucho más laborioso encontrar y revisar estas imágenes que producirlas. Tampoco ayuda que Google esté promoviendo contenido generado por IA que no necesariamente es lo que consideramos desinformación política, pero que está simplemente incorrecto, ya sea libros generados por IA o resultados de búsqueda que dicen a los usuarios que coman pegamento.