Desde que ChatGPT introdujo la IA generativa en 2022, ha quedado claro que ya no se puede confiar en que todo lo que lees fue escrito por un humano. La IA puede generar textos de manera rápida y convincente, pero ¿cómo puedes estar seguro de que no proviene de un algoritmo?
Aunque algunos han adoptado esta tecnología, otros la rechazan. Incluso medios como CNET y G/O Media han enfrentado críticas por publicar contenido generado por IA debido a su calidad deficiente.
Los modelos de lenguaje, como GPT, no son conscientes ni inteligentes; simplemente predicen secuencias de palabras basadas en grandes conjuntos de datos. No obstante, existen señales que pueden delatar un texto generado por IA.
Uso de palabras y frases comunes: Las IA suelen repetir ciertas palabras como «explorar», «destacar» o «testimonio». Aunque son válidas, el uso frecuente de estas puede ser una señal de texto generado por IA.
Estilo de escritura: La IA tiende a usar un lenguaje grandilocuente y repetitivo, con descripciones floridas que no suelen aportar profundidad a los argumentos.
Verificación de hechos y corrección: La IA puede cometer errores al «alucinar» hechos, generando información incorrecta. Además, los textos de IA suelen ser perfectos en cuanto a gramática, lo cual puede ser otra señal.
Aunque existen detectores de textos generados por IA, no siempre son confiables. La mejor manera de identificar un texto escrito por IA sigue siendo el análisis detallado.
Las soluciones de IA, incluidos los chatbots, pueden carecer de la diversidad global necesaria para atender a usuarios internacionales. Un estudio reciente de la Universidad de Stanford encontró que muchos de los grandes modelos de lenguaje actuales tienden a favorecer «valores y gustos centrados en Occidente».
La investigación dirigida por Diyi Yang, profesora asistente en Stanford y parte del Instituto de IA Centrada en el Ser Humano de Stanford (HAI), señalan que los intentos de «alinear» estos modelos con los valores de los usuarios a menudo fallan.
Aunque se realizan esfuerzos para adaptar los modelos a los usuarios previstos, esto puede introducir sesgos que comprometen la calidad de las respuestas de los chatbots. En teoría, la alineación debería ser universal y permitir que los modelos sean más útiles para una variedad de usuarios en todo el mundo. Sin embargo, los anotadores que adaptan conjuntos de datos en diferentes regiones pueden malinterpretar estos instrumentos.
El mercado global de chatbots de IA está en rápida expansión y se espera que alcance los 67 mil millones de dólares para 2033. Más del 50% de las empresas se espera que inviertan más en el desarrollo de chatbots que en aplicaciones móviles tradicionales. Sin embargo, muchos idiomas y comunidades siguen siendo desatendidos por estas tecnologías.
El estudio de Stanford también destacó que los modelos de lenguaje suelen estar basados en las preferencias de sus creadores, que generalmente provienen de países de habla inglesa. Los modelos deben reflejar el contexto social de las comunidades a las que sirven, lo que implica variaciones en gramática, temas y sistemas de valores.
Los investigadores recomiendan aumentar la conciencia sobre la diversidad global al:
Reconocer que la alineación de los modelos no es una solución universal.
Fomentar la transparencia en las decisiones de diseño de los modelos de lenguaje.
Buscar conjuntos de datos multilingües para mejorar el rendimiento en diversas lenguas.
Trabajar estrechamente con usuarios locales para superar las deficiencias culturales o lingüísticas.
Es fundamental realizar pruebas extensivas con usuarios locales antes de la implementación completa, y ofrecer opciones de selección de idioma para mejorar la experiencia del usuario.
Hervieux, S. ; Wheatley, A. Building an AI Literacy Framework: Perspectives from Instruction Librarians and Current Information Literacy Tools. Taylor and Francis, 2024
Con el aumento de las discusiones sobre herramientas de inteligencia artificial generativa como ChatGPT, los bibliotecarios se enfrentan ahora a una tecnología de IA accesible que los estudiantes utilizan para completar sus tareas de investigación y redacción. Los marcos y estándares de alfabetización informacional han ayudado tradicionalmente a los bibliotecarios a planificar sus sesiones de instrucción; sin embargo, estas estructuras no abordan la IA. Han surgido muchos talleres dirigidos por bibliotecarios para ayudar a los estudiantes a crear mensajes para chat, verificar la información proporcionada por ChatGPT y usar las herramientas de IA de manera crítica. Aunque ha comenzado a discutirse la inclusión de la IA en el Marco de Alfabetización Informacional de ACRL, se propone que se necesita un nuevo marco para abordar todas las complejidades de la inteligencia artificial. Este documento técnico tiene como objetivo informar sobre entrevistas con bibliotecarios de instrucción sobre la alfabetización en IA. A partir del análisis de las entrevistas, se identificarán los principales temas y preocupaciones relacionados con la IA y se desarrollará un marco robusto para la alfabetización en IA. Los lectores del documento técnico deberían obtener una mejor comprensión del lugar de la alfabetización en IA dentro de la instrucción de alfabetización informacional y poder utilizar una estructura rigurosa para planificar sus propias intervenciones.
Aspectos Clave:
Determinar las perspectivas de los bibliotecarios de instrucción sobre la alfabetización en IA.
Evaluar los marcos de alfabetización actuales para su capacidad de adaptación al panorama de la inteligencia artificial.
Crear un marco robusto de alfabetización en IA.
Hallazgos: Tras 15 entrevistas con bibliotecarios de Canadá y Estados Unidos, los autores determinaron que, aunque el 67% de los bibliotecarios han enseñado contenido sobre IA en el último año, la mayoría no se basó en el Marco de Alfabetización Informacional de ACRL para construir sus sesiones de instrucción. También se identificaron varias habilidades emergentes que otros marcos de alfabetización informacional no representan en detalle, tales como:
Ingeniería de prompts, entre una serie de habilidades necesarias para utilizar herramientas de IA.
Evaluación crítica que va más allá de la autoridad y examina la ética y el sesgo.
Comprensión de las implicaciones éticas, como las relacionadas con el trabajo y el medio ambiente.
Nuevas formas de atribuir la creación/edición de contenido.
El marco propuesto de IA se centrará en:
Participar en el discurso sobre IA.
Conocer los principios básicos de la IA.
Entender las diferencias fundamentales entre tipos de IA.
Experimentar con herramientas de IA.
Revisar los resultados y productos de las herramientas de IA.
El informe de la Data Provenance Initiative, un grupo de investigadores voluntarios especializados en inteligencia artificial (IA), revela una creciente preocupación sobre la disminución de la disponibilidad de datos públicos utilizados para entrenar modelos de IA generativa. Estos modelos, como los desarrollados por empresas líderes como OpenAI y Anthropic, dependen de enormes conjuntos de datos extraídos de la web, que incluyen información recopilada de sitios públicos como blogs, redes sociales y foros. Sin embargo, muchas organizaciones están tomando medidas para proteger sus datos de estos rastreadores, utilizando el archivo robots.txt, que impide que los bots accedan a determinadas partes de sus sitios web.
El informe, titulado “Consent in Crisis: The Rapid Decline of the AI Data Commons” destaca que esta tendencia de restringir el acceso a datos es particularmente notable en sitios monetizados como los de noticias, artistas y otros contenidos protegidos por derechos de autor. Estos sitios están preocupados por cómo la IA generativa podría afectar sus ingresos y, por tanto, están implementando barreras para proteger su contenido.
Shayne Longpre, uno de los investigadores principales del informe, explicó que este cambio tiene serias implicaciones para el futuro de la IA. A medida que más sitios bloquean a los rastreadores, los modelos de IA se verán forzados a entrenarse con datos de menor calidad o menos actualizados, lo que podría comprometer su rendimiento y precisión. Además, aunque algunas grandes empresas de IA podrían superar este desafío al negociar acuerdos exclusivos para acceder a datos de alta calidad, esto podría generar problemas de competencia y aumentar la barrera de entrada para nuevas empresas en el campo de la IA.
El informe también menciona la creciente preocupación por el uso de datos sintéticos como alternativa, que aunque tiene potencial, podría llevar a problemas como la «degradación del modelo» si se basa en datos de baja calidad.
Xianhong Hu, Neupane, Bhanu, Echaiz, Lucia Flores, Sibal, Prateek, Rivera Lam, Macarena. El aporte de la inteligencia artificial y las TIC avanzadas a las sociedades del conocimiento: una perspectiva de derechos, apertura, acceso y múltiples actores. Paris: Unesco, 2024
El mandato de la UNESCO de construir sociedades del conocimiento integradoras se centra en sus esfuerzos por promover la libertad de expresión y el acceso a la información, junto con una educación de calidad y el respeto de la diversidad cultural y lingüística. La transformación digital que está teniendo lugar en la sociedad afecta a todas las esferas de la actividad humana, y es oportuno reflexionar sobre los principales desafíos y oportunidades que crean las tecnologías digitales, como la inteligencia artificial (IA).
El título de esta publicación es un llamado a la “Dirigir la IA y las TIC avanzadas para las sociedades del conocimiento” desde la perspectiva de los derechos humanos, la apertura, el acceso y la gobernanza de múltiples actores (los principios DAAM). Dicha dirección también debe apoyar la igualdad entre los géneros y a África, las dos prioridades globales de la UNESCO. El cambio y el avance tecnológicos son importantes para el desarrollo sostenible, pero con la creencia en el determinismo tecnológico se corre el riesgo de descuidar los impulsores sociales, económicos y de otro tipo. En cambio, el desafío consiste en aprovechar la agencia humana para configurar la trayectoria de IA y las tecnologías de la información y las comunicaciones (TIC) conexas. Si bien no hay una única definición de “inteligencia artificial” (IA), esta publicación se centra en lo que la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST) de la UNESCO describe como “máquinas capaces de imitar ciertas funcionalidades de la inteligencia humana, incluidas características como la percepción, el aprendizaje, el razonamiento, la resolución de problemas, la interacción mediante el lenguaje y hasta la producción de trabajo creativo”.
La IA y sus elementos constitutivos de datos, algoritmos, hardware, conectividad y almacenamiento aumentan exponencialmente la potencia de las TIC. Esta es una gran oportunidad para el desarrollo sostenible, con riesgos simultáneos que también deben abordarse. Para dirigir la lA de conformidad con estas características es necesario reconocer la distribución desigual, pero dinámica, de la potencia de la lA en múltiples centros dispersos en las distintas áreas del gobierno, el sector privado, la comunidad técnica, la sociedad civil y otras partes interesadas en todo el mundo. Es por esta razón que el compromiso de los múltiples actores en torno a la IA es vital. Esta perspectiva está en consonancia con el enfoque de gobernanza de las TIC según los principios y procesos de la Cumbre Mundial sobre la Sociedad de la Información (CMSI) que dirigen las Naciones Unidas.
Annapureddy, Ravinithesh, Alessandro Fornaroli, y Daniel Gatica-Perez. «Generative AI Literacy: Twelve Defining Competencies». Digit. Gov.: Res. Pract., 3 de agosto de 2024. https://doi.org/10.1145/3685680.
Este artículo presenta un modelo basado en competencias para la alfabetización en inteligencia artificial (IA) generativa que abarca las habilidades esenciales y las áreas de conocimiento necesarias para interactuar con la IA generativa.
Las competencias abarcan desde la alfabetización básica en IA hasta la ingeniería y la programación, pasando por consideraciones éticas y jurídicas. Estas doce competencias ofrecen un marco para las personas, los responsables políticos, los funcionarios públicos y los educadores que deseen navegar y aprovechar el potencial de la IA generativa de forma responsable.
Las doce competencias definidas para la alfabetización en IA generativa ofrecen ejemplos de cómo cada competencia puede aplicarse en la práctica.
1. Alfabetización Básica en IA Esta competencia implica conocer los fundamentos de la IA, más allá de la programación. Permite a los individuos identificar diferentes tipos de IA y evaluar cómo pueden impactar sus procesos o negocios. Ejemplo: Reconocer y evaluar cómo un sistema de IA puede beneficiar o representar riesgos para un negocio.
2. Conocimiento de Modelos de IA Generativa Entender qué son los modelos de IA generativa, como los LLMs (Modelos de Lenguaje de Gran Escala), y cómo funcionan. Incluye la comprensión de que estos modelos generan contenido original basado en grandes volúmenes de datos. Ejemplo: Diferenciar entre un modelo de IA generativa y un motor de búsqueda tradicional.
3. Capacidad y Limitaciones de Herramientas de IA Generativa Conocer lo que los modelos de IA generativa pueden y no pueden hacer, incluyendo sus fortalezas y debilidades. Es crucial entender las preocupaciones de privacidad y seguridad, así como los riesgos de contenido engañoso. Ejemplo: Ser consciente de que los modelos como ChatGPT pueden producir afirmaciones tanto correctas como incorrectas.
4. Habilidad para Usar Herramientas de IA Generativa Saber cómo interactuar con diversas herramientas generativas y aprender nuevas según sea necesario. Incluye la habilidad para seleccionar el modelo adecuado para aplicaciones específicas. Ejemplo: Aprender a utilizar herramientas de generación de imágenes como Midjourney o DreamStudio.
5. Capacidad para Detectar Contenido Generado por IA Distinguir entre contenido generado por humanos y por IA, y usar software de detección de IA. Reconocer las limitaciones y sesgos de las herramientas de detección. Ejemplo: Verificar la autenticidad de un video viral utilizando herramientas de detección de IA.
6. Evaluación de la Salida de Herramientas de IA Generativa Analizar y verificar el contenido generado para asegurar que cumple con las necesidades y expectativas, y minimizar errores o «alucinaciones» del modelo. Ejemplo: Confirmar los hechos presentados en un ensayo generado por un modelo de lenguaje.
7. Habilidad en Ingeniería de Prompts Diseñar y utilizar prompts efectivos para modelos generativos de texto, lo cual es esencial para obtener resultados útiles y precisos. Incluye técnicas avanzadas como la generación automática de prompts. Ejemplo: Usar un lenguaje descriptivo en prompts para generar imágenes precisas con modelos de IA.
8. Capacidad para Programar y Ajustar Modelos Desarrollar y ajustar modelos de IA generativa, lo cual incluye diseñar arquitecturas, preparar datos de entrenamiento, y entrenar y desplegar modelos. Ejemplo: Adaptar un modelo de IA generativa para crear contenido especializado en un dominio como la medicina.
9. Conocimiento de los Contextos de Uso de IA Generativa Evaluar los contextos apropiados para el uso de IA generativa, considerando las expectativas y requisitos del entorno social y profesional. Ejemplo: Seguir las directrices de las universidades sobre el uso de modelos de lenguaje en tareas académicas.
10. Conocimiento de las Implicaciones Éticas Analizar cómo los modelos y outputs de IA afectan a la sociedad y alinear su uso con valores éticos. Considerar las implicaciones éticas de su uso en diferentes contextos. Ejemplo: Evaluar la ética de usar imágenes generadas por IA en una campaña política sin revelar su origen.
11. Conocimiento de los Aspectos Legales Estar informado sobre el marco legal relacionado con la IA y sus aplicaciones, incluyendo derechos y regulaciones actuales y emergentes. Ejemplo: Familiarizarse con el Acta de IA de la Unión Europea y sus implicaciones.
12. Capacidad de Aprendizaje Continuo Mantenerse actualizado con las nuevas herramientas, funcionalidades y regulaciones en el campo de la IA generativa. Esta competencia transversal se aplica a todas las demás.Ejemplo: Seguir las actualizaciones de herramientas de generación de video y estar al tanto de nuevas opciones disponibles.
La incorporación de estas competencias a los programas educativos y a las iniciativas de formación profesional puede preparar a las personas para convertirse en usuarios y creadores responsables e informados de la IA generativa. Las competencias siguen una progresión lógica y sirven como hoja de ruta para las personas que deseen familiarizarse con la IA generativa y para que los investigadores y los responsables políticos desarrollen evaluaciones, programas educativos, directrices y normativas.
El marco propuesto es un punto de partida para la integración de estas competencias en currículos educativos y programas de desarrollo profesional, promoviendo la estandarización global de la alfabetización en IA y preparando a una nueva generación de individuos capacitados para contribuir activamente al desarrollo de la IA.
El porcentaje de jóvenes de 13 a 18 años que han utilizado IA generativa se ha duplicado en el último año, pasando de casi 2 de cada 5 en 2023 (37,1%) a 3 de cada 4 (77,1%) en 2024. Casi 1 de cada 5 jóvenes (18,5%) de 13 a 18 años afirmaron haber utilizado IA generativa para escribir historias. 1 de cada 5 (20,9%) niños y jóvenes jóvenes dijeron que normalmente copiaban lo que les decía la IA generativa
Los avances tecnológicos recientes han acelerado la influencia de la Inteligencia Artificial (IA) en nuestras vidas, impactando también en la educación y la alfabetización. Estos informes presentan hallazgos de encuestas anuales de alfabetización realizadas en 2023 y 2024, que incluyen preguntas sobre el uso de IA generativa. En 2024, participaron 53.169 niños y jóvenes, con un enfoque en 15.830 jóvenes de 13 a 18 años y 1.228 maestros en escuelas del Reino Unido.
Uso de la IA Generativa por los Jóvenes:
Incremento en el uso: El porcentaje de jóvenes de 13 a 18 años que usaron IA generativa aumentó del 37.1% en 2023 al 77.1% en 2024. No hubo diferencias significativas entre chicos y chicas (78.3% vs. 76.4%), ni entre aquellos que recibían comidas escolares gratuitas y los que no (77.7% vs. 77.3%).
Usos comunes: Los jóvenes que utilizan regularmente IA generativa lo hacen principalmente por entretenimiento, curiosidad, tareas escolares e inspiración. En relación con la alfabetización, el 44.4% la usó para conversar, el 18.5% para escribir historias, el 12.8% para escribir poemas o letras de canciones, y el 9.0% para escribir no ficción.
Actitudes positivas: La mayoría de los jóvenes considera que la IA generativa les ayuda con ideas (56.6%), comprensión (52.2%) y aprendizaje de nuevos conceptos (50.8%). Además, el 39.6% siente que les ayuda a escribir y el 23.2% con la lectura.
Crítica y copia: Casi la mitad (47.4%) de los jóvenes dijo que suelen agregar sus propios pensamientos a lo que la IA les ofrece, y el 39.9% revisa las respuestas porque podrían estar equivocadas. Sin embargo, 1 de cada 5 (20.9%) simplemente copia lo que la IA les dice, y un porcentaje similar (20.6%) no verifica las salidas, indicando la necesidad de mayor apoyo para desarrollar habilidades críticas en el uso de la IA.
Uso de la IA Generativa por los Maestros:
Incremento en el uso: El porcentaje de maestros que usaron IA generativa aumentó del 31.0% en 2023 al 47.7% en 2024, con un mayor uso entre maestros de secundaria (56.8%) en comparación con los de primaria (30.9%).
Preocupaciones y percepciones: El 37.7% de los maestros estaba preocupado por el uso de IA generativa por parte de sus alumnos, especialmente en secundaria (45.1% vs. 19.7% en primaria). No obstante, el 41.0% de los maestros no estaba preocupado, aunque un 21.3% no estaba seguro.
Impacto en habilidades: Aunque el 64.8% de los maestros cree que la IA generativa puede modelar buena escritura para los estudiantes, el 48.9% teme que tenga un impacto negativo en las habilidades de escritura de los niños.
Necesidad de formación: Más del 82.0% de los maestros considera que los estudiantes deben aprender a interactuar críticamente con la IA generativa, y el 75.3% siente que también necesitan más formación, apoyo y recursos para utilizar eficazmente estas herramientas.
Estos hallazgos sugieren que tanto maestros como estudiantes podrían beneficiarse de una mayor formación y apoyo para desarrollar habilidades esenciales que les permitan interactuar de manera efectiva, crítica y creativa con la IA generativa.
Las empresas de inteligencia artificial (IA) deben actuar de manera justa cuando utilizan datos académicos en el entrenamiento de sus modelos. Los investigadores están preocupados por el uso sin restricciones de su propiedad intelectual en la formación de modelos de lenguaje como ChatGPT. Es crucial establecer reglas claras sobre el uso aceptable de estos datos.
Actualmente, no se sabe con precisión qué datos se usaron para entrenar modelos como ChatGPT, pero es probable que se hayan utilizado millones de artículos académicos, incluidos aquellos bajo acceso abierto y posiblemente también artículos protegidos por derechos de autor. Esto plantea preguntas sobre si los creadores de estos datos deberían recibir crédito y cómo.
El tema es complicado por las leyes de propiedad intelectual, que varían según la jurisdicción y no siempre son claras sobre si la recolección de datos o su uso para crear modelos de IA constituye una infracción de derechos de autor. Algunas empresas de IA, para evitar litigios, están comenzando a comprar licencias para los datos utilizados en el entrenamiento.
El uso de materiales bajo licencias como Creative Commons, que promueven la distribución y reutilización libre, también genera ambigüedades. Aunque no siempre se considera una infracción el uso de estos materiales para entrenar IA, hay preocupaciones sobre cómo las IA pueden afectar a los creadores, incluyendo a investigadores cuyo trabajo podría ser reutilizado sin la atribución adecuada.
La atribución es un principio fundamental en la ciencia, y algunos investigadores consideran que el uso de datos científicos por modelos comerciales de IA excede lo que las exenciones legales actuales estaban destinadas a permitir. Dado que es casi imposible atribuir correctamente las contribuciones cuando se usan millones de fuentes, se han sugerido soluciones como la generación aumentada por recuperación, que podría permitir a los modelos citar trabajos relevantes.
Dar a los investigadores la opción de excluir su trabajo del entrenamiento de IA podría aliviar sus preocupaciones, y algunas herramientas ya están emergiendo para facilitar esto. Además, leyes como la Ley de IA de la UE, que exige mayor transparencia sobre los datos utilizados en el entrenamiento, podrían fortalecer el control de los creadores sobre su trabajo.
Es necesario continuar investigando si se requieren soluciones más radicales, como nuevas licencias o cambios en la ley de derechos de autor. Las herramientas de IA, al aprovechar un ecosistema de datos construido por movimientos de código abierto, deben respetar las expectativas de reciprocidad y uso razonable, para evitar desincentivar la creación original y asegurar que los creadores mantengan cierto control sobre su obra.
Wheatley, Amanda, y Sandy Hervieux. «Comparing generative artificial intelligence tools to voice assistants using reference interactions». The Journal of Academic Librarianship 50, n.o 5 (1 de septiembre de 2024): 102942. https://doi.org/10.1016/j.acalib.2024.102942.
El estudio analiza la capacidad de los asistentes de voz y las herramientas de inteligencia artificial generativa para responder a preguntas de referencia que tradicionalmente reciben los bibliotecarios académicos. Los autores crearon una muestra de 25 preguntas basadas en consultas recibidas en el servicio de referencia virtual de su institución. Luego, desarrollaron una rúbrica para evaluar la calidad de las respuestas proporcionadas por las herramientas impulsadas por IA. Los autores concluyeron que las herramientas entienden bien las preguntas de referencia y ofrecen respuestas relevantes, pero la calidad de las referencias proporcionadas y la precisión de las respuestas pueden ser insuficientes. Sugieren que se necesita más investigación para comprender mejor el lugar de las herramientas impulsadas por IA en los servicios de referencia.
Bhavsar, Daivat, Laura Duffy, Hamin Jo, Cynthia Lokker, R. Brian Haynes, Alfonso Iorio, Ana Marusic, y Jeremy Y. Ng. 2024. «Policies on Artificial Intelligence Chatbots Among Academic Publishers: A Cross-Sectional Audit». medRxiv. https://doi.org/10.1101/2024.06.19.24309148.
El estudio auditó las políticas de 163 editoriales académicas en relación con el uso de chatbots de inteligencia artificial (IA) por parte de autores, enfocándose en editoriales de ciencia, tecnología y medicina. De las editoriales evaluadas, solo 56 (34,4%) tenían políticas públicas sobre el uso de chatbots de IA. Ninguna permitía que los chatbots fueran acreditados como autores. La mayoría (87,5%) requería que se revelara el uso de IA en el proceso de redacción. Cuatro editoriales prohibieron completamente el uso de estas herramientas. El estudio sugiere que en el futuro podría haber un aumento en la adopción de políticas sobre IA por parte de las editoriales académicas.
Elemento
Resultado
Total de editoriales auditadas
163
Editoriales con políticas públicas sobre el uso de chatbots de IA
56 (34,4%)
Políticas que permiten acreditación de autoría para chatbots de IA
0 (0%)
Políticas que requieren divulgación del uso de chatbots de IA
49/56 (87,5%)
Editoriales que prohíben completamente el uso de chatbots de IA