Archivo de la categoría: Alfabetización informacional

El papel de los bibliotecarios universitarios en relación a la AI: el ser humano en el centro

Guzman, Dani. «Human at the Center, AI in the Loop: The Role of Librarians in Shaping Academic AI.» Katina Magazine, 2024. https://katinamagazine.org/content/article/sponsored/2024/human-at-the-center-ai-in-the-loop-clarivate.

A medida que la IA se ha ido desplegando en diversos sectores, las bibliotecas, en particular las universitarias, se encuentran en una posición clave para integrar estas tecnologías de manera que potencien su misión educativa, en lugar de reemplazar la labor humana. Según el artículo, la clave está en equilibrar la automatización con la experiencia humana, utilizando la IA como una herramienta de apoyo en lugar de como un sustituto de las habilidades de los bibliotecarios.

La rápida expansión de la inteligencia artificial (IA) ha generado una variedad de opiniones sobre su impacto en el trabajo, especialmente en campos del conocimiento que requieren habilidades especializadas, como las bibliotecas universitarias. Mientras que algunos temen que la IA pueda reemplazar a los humanos, otros la ven como una oportunidad para mejorar y transformar la manera en que se lleva a cabo el trabajo intelectual. Entre estas posturas, muchos, incluidos los bibliotecarios, consideran que la IA abre nuevas posibilidades para optimizar los servicios y mejorar la eficiencia.

Una de las primeras consideraciones que aborda es cómo las bibliotecas deben identificar los casos de uso adecuados de la IA, como la mejora en la productividad, la investigación y el apoyo a los estudiantes. Los bibliotecarios tienen un papel fundamental en priorizar estas aplicaciones, ayudando a asegurar que la implementación de la IA se alinee con los objetivos estratégicos y operativos de las bibliotecas. La IA ya está siendo utilizada para tareas como el descubrimiento de investigación, la mejora en la búsqueda de literatura y la gestión de metadatos, lo que permite a los bibliotecarios centrarse en tareas más estratégicas.

El primer paso en la implementación de IA es identificar áreas donde la tecnología pueda agregar valor sin afectar la misión principal de las bibliotecas, que incluye el descubrimiento de investigaciones, el apoyo a los estudiantes y la mejora de la productividad interna. Los bibliotecarios, con su experiencia en gestionar información y procesos, tienen un papel crucial en determinar los casos de uso más efectivos de la IA, ayudando a priorizar las herramientas que pueden tener el mayor impacto.

El artículo también aborda cómo la IA puede transformar los servicios bibliotecarios. Por ejemplo, la implementación de herramientas basadas en IA puede simplificar tareas complejas como las revisiones de literatura o el análisis de datos, mejorando la experiencia de los estudiantes y de los investigadores. Además, la IA tiene el potencial de crear nuevos servicios, como sistemas de análisis de datos que permiten descubrir patrones y tendencias en la información, lo que puede ser útil tanto para la investigación académica como para la enseñanza. Pero sobre todo se destaca la importancia de que los bibliotecarios mantengan un control humano en el uso de estas herramientas para asegurar la integridad académica.

Otro aspecto importante que se menciona es la relación entre la IA y los principios éticos y de transparencia. Las bibliotecas deben garantizar que las herramientas de IA que utilicen estén basadas en fuentes académicas confiables y que ofrezcan a los usuarios acceso a la información utilizada. Esto es esencial para mantener la confianza en los sistemas impulsados por IA. Además, la ética en la implementación de la IA es crucial para evitar problemas como la desinformación o los sesgos. En este sentido, la seguridad y la protección de los datos de los usuarios también deben ser una prioridad, especialmente dado el entorno regulatorio en constante cambio en torno a la privacidad de los datos.

A medida que la IA se integra más en los servicios bibliotecarios, es crucial establecer un equilibrio adecuado entre la autonomía de las máquinas y el juicio humano. La transparencia, la ética y la seguridad son tres áreas clave donde los bibliotecarios deben intervenir para garantizar que la IA se utilice de manera responsable.

  1. Transparencia: Los bibliotecarios deben asegurarse de que las herramientas de IA sean transparentes sobre las fuentes de información que utilizan. Esto es fundamental para mantener la confianza de los usuarios en los resultados generados por la IA. Asegurarse de que las fuentes sean académicamente válidas y accesibles es una prioridad para preservar la integridad de la información.
  2. Ética: Los sistemas de IA deben diseñarse para evitar la desinformación, los sesgos y otros problemas éticos, como las «alucinaciones» (información incorrecta generada por IA). Los bibliotecarios desempeñan un papel esencial en la evaluación de la ética de las herramientas de IA, asegurando que los usuarios reciban información precisa y confiable.
  3. Seguridad: La privacidad de los datos de los usuarios es una prioridad. Los bibliotecarios deben asegurarse de que las herramientas de IA cumplan con los estándares de seguridad y las regulaciones globales de privacidad, protegiendo los datos sensibles mientras se brindan servicios personalizados a los usuarios.

Por último, se resalta que el futuro de las bibliotecas universitarias dependerá de cómo logren integrar la IA de manera efectiva, preservando la experiencia humana y el juicio profesional. A través de la promoción de la alfabetización digital y la colaboración con otras instituciones académicas y proveedores de tecnología, los bibliotecarios podrán asegurar que la IA se utilice de manera ética y efectiva, contribuyendo al desarrollo de la investigación y la enseñanza sin perder de vista los valores fundamentales de las bibliotecas.

Google NotebookLM: una herramienta de inteligencia artificial para ayudar a los usuarios a organizar, resumir y escuchar la información contenida en documentos

Google NotebookLM

Google NotebookLM es una herramienta innovadora y potente para organizar y procesar grandes volúmenes de información, ofreciendo un apoyo significativo para el estudio y el trabajo en entornos académicos y profesionales. Su capacidad para transformar texto en audio, resumir contenido y responder preguntas personalizadas representa un paso hacia una mayor accesibilidad y personalización en el aprendizaje y el manejo de información, aunque también requiere un uso consciente y ético.

Google NotebookLM es una herramienta de inteligencia artificial lanzada para ayudar a los usuarios a organizar, resumir y explorar el contenido de sus documentos de manera eficiente. Su propósito es facilitar el estudio y la comprensión de grandes volúmenes de información, permitiendo a estudiantes, investigadores y profesionales manejar sus notas de forma interactiva. La herramienta se basa en la tecnología de procesamiento de lenguaje natural (NLP, por sus siglas en inglés), que le permite comprender y manipular texto de manera avanzada.

NotebookLM utiliza modelos avanzados de lenguaje, como los de la serie de Google, para analizar y sintetizar información de documentos. Los usuarios pueden cargar diferentes tipos de archivos, como documentos de texto, artículos académicos o apuntes de clases, y NotebookLM se encarga de extraer los puntos clave, resumiendo el contenido en un formato más accesible. También permite hacer preguntas directamente sobre el contenido del documento, proporcionando respuestas contextuales en tiempo real.

Además, NotebookLM va más allá del resumen tradicional. Su capacidad para transformar textos en audios con un formato de estilo conversacional hace que los estudiantes puedan, por ejemplo, escuchar sus notas como si fuera un podcast. Este tipo de innovación está orientada a diferentes estilos de aprendizaje y necesidades, especialmente útil para aquellos que prefieren métodos auditivos o buscan optimizar el tiempo de estudio mientras realizan otras actividades.

¿Cómo funciona?

Los usuarios pueden cargar documentos a NotebookLM desde su Google Drive, ya sea en formato PDF, Google Docs, o textos de otros tipos. Esto permite una integración sencilla con los archivos de estudio que los usuarios ya tienen almacenados. A continuación NotebookLM analiza automáticamente el contenido de los documentos y genera resúmenes detallados que capturan los puntos más relevantes. Este proceso ahorra tiempo, ya que evita la necesidad de leer el documento completo para entender su esencia.

Una función clave es la posibilidad de hacer preguntas sobre el contenido del documento. NotebookLM puede responder de manera precisa y contextual a estas preguntas, basándose en la información contenida en el archivo. Por ejemplo, un estudiante que esté revisando un artículo complejo puede preguntar por las conclusiones principales, y NotebookLM responderá en segundos con una respuesta relevante.

También da la posibilidad de permite modificar el tono del texto, adaptándolo para que suene más formal, académico o casual, según las necesidades del usuario. Esto es útil para adaptar documentos como informes o correos electrónicos, cambiando el tono para que sea adecuado según el contexto.

Otra característica de la herramienta es la transformación de las notas de contenido a audio. Lo que permite que los estudiantes escuchen el contenido de sus notas en formato de audio conversacional, que simula un podcast o diálogo. Es especialmente útil para quienes prefieren estudiar mediante la escucha o desean repasar información mientras realizan otras actividades.

Impacto de las nuevas herramientas de IA en la educación: ¿apoyo al estudio o riesgo para el aprendizaje?

Young, Jeffrey R. «New AI Tools Are Promoted as Study Aids for Students. Are They Doing More Harm Than Good?» EdSurge, November 8, 2024. https://www.edsurge.com/news/2024-11-08-new-ai-tools-are-promoted-as-study-aids-for-students-are-they-doing-more-harm-than-good.

Las herramientas de IA en educación generan un debate complejo. Si bien proporcionan accesibilidad y apoyo para algunos estudiantes, existe la preocupación de que estén promoviendo una forma de aprendizaje que omite el esfuerzo cognitivo necesario para una verdadera comprensión. Los educadores sugieren que las compañías de IA asuman la responsabilidad de desarrollar sus herramientas de manera que fomenten el aprendizaje en lugar de obstaculizarlo.

El artículo de Jeffrey R. Young examina el auge de herramientas de inteligencia artificial (IA) diseñadas para ayudar a estudiantes, como Google NotebookLM, que convierten notas de clase en podcasts interactivos, y cómo éstas plantean tanto beneficios como preocupaciones para la educación.

Estas herramientas permiten a los estudiantes transformar lecturas, notas o materiales en resúmenes instantáneos, y en muchos casos ayudan a alumnos neurodivergentes o con dificultades para procesar grandes volúmenes de información. No obstante, varios educadores temen que la facilidad y rapidez de estos resúmenes pueda incentivar a los estudiantes a evitar el trabajo de analizar y comprender profundamente los textos. Alexis Peirce Caudell, docente en la Universidad de Indiana, observa que, aunque los estudiantes usan estas herramientas de diferentes maneras según su área de estudio, algunos se sienten presionados a usarlas solo porque sus compañeros lo hacen, aún si esto compromete su aprendizaje real.

Marc Watkins, profesor de la Universidad de Mississippi, destaca que la fricción o dificultad en el proceso de aprendizaje es crucial, pues ayuda a internalizar el conocimiento. A su juicio, las herramientas de IA eliminan este esfuerzo valioso, permitiendo a los estudiantes «pasar de inmediato al borrador final» con poco trabajo real. Además, considera que las políticas académicas actuales sobre el uso de IA necesitan actualizarse continuamente debido a las rápidas innovaciones en IA.

Un desafío adicional es la precisión, ya que los modelos de IA a veces generan «alucinaciones» o información incorrecta que presentan como si fuera verdad. La experiencia de Bonni Stachowiak, decana en Vanguard University, ilustra esta problemática: al usar Google NotebookLM, observó que la IA fallaba en temas complejos que ella conocía bien, lo cual puede generar una comprensión superficial o errónea.

Algunos estudiantes también plantean inquietudes éticas, como el impacto ambiental del uso de IA y la privacidad de sus datos. Caudell subraya que estas son conversaciones que apenas se están explorando en la educación.

A pesar de las críticas, las herramientas de IA han demostrado tener efectos positivos, especialmente para estudiantes con necesidades específicas, como aquellos con TDAH o discapacidades intelectuales, quienes se benefician de la división de tareas en pasos manejables o de resúmenes que facilitan el acceso inicial a textos largos.

La revolución de las cualificaciones y el futuro del aprendizaje y los ingresos

The Skills Revolution and the Future of Learning and Earning. McKinsey, 2024

Texto completo

El informe analiza cómo la tecnología está transformando el trabajo y la necesidad de adaptar la educación y la formación profesional para asegurar un crecimiento inclusivo y sostenible. Destaca que tanto los sectores público como privado juegan un papel fundamental en crear empleos sustentables, cerrar las brechas de habilidades y garantizar que el crecimiento impulsado por la tecnología beneficie a todos.

El informe identifica ocho hallazgos clave para el futuro de la educación:

  1. Cambio de ocupaciones: A medida que se despliega la automatización, millones de trabajadores deberán cambiar de ocupación.
  2. Aumento de habilidades sociales, emocionales y digitales: La demanda de estas habilidades seguirá creciendo.
  3. La importancia de la formación continua: La experiencia laboral es crucial para el valor del capital humano.
  4. Educación combinada: Tecnologías que mejoran la conectividad y el aprendizaje a ritmo propio están ganando relevancia.
  5. Educación infantil temprana: Las inversiones en esta etapa son esenciales y tienen un alto retorno de inversión.
  6. Educación primaria y secundaria (K-12): Hay un enfoque creciente en incluir habilidades futuras en el currículo.
  7. Educación superior: Se está moviendo hacia un enfoque basado en habilidades, con microcredenciales que preparan a los estudiantes para el mundo laboral.
  8. Desarrollo de habilidades en el trabajo: Las empresas pueden enfocarse más en habilidades que en títulos, adoptando una mentalidad de “incubadora de talentos”.

El informe resalta la urgencia de invertir en la transformación educativa para que el crecimiento impulsado por la tecnología sea inclusivo y equitativo.

Cómo las universidades están reinventando el aprendizaje en un mundo de IA

The Chronicle of Higher Education. «How Colleges Are Reimagining Learning in an AI World», 3 de octubre de 2024. https://www.chronicle.com/article/the-future-is-hybrid.

Se analiza cómo las universidades están adaptándose al creciente papel de la inteligencia artificial (IA) en la educación. En lugar de ver la IA como una herramienta que sustituya el esfuerzo humano, algunos educadores, como Dan Myers y Anne Murdaugh de Rollins College, están integrando la IA como un apoyo para mejorar el aprendizaje.

En sus cursos, pidieron a los estudiantes que usaran herramientas como Claude y Copilot para proyectos de investigación, documentando cada paso en diarios que incluían los prompts y respuestas de IA, junto con sus reflexiones sobre el proceso. Los estudiantes encontraron útil la IA en etapas de brainstorming y esquematización, aunque preferían escribir por su cuenta, revelando la necesidad de trabajo independiente en ciertos aspectos como la revisión de literatura.

Este enfoque marca un cambio hacia una colaboración consciente con la IA, lo que podría permitir a los estudiantes aprender de manera más eficaz en vez de delegar el trabajo. Myers subraya que el desafío no es rediseñar drásticamente el currículo, sino encontrar los puntos estratégicos donde cada estudiante pueda desarrollar habilidades fundamentales en IA.

Mientras que algunos profesores temen el impacto de la IA en la educación, Myers y Murdaugh argumentan que el pensamiento crítico y el manejo de información, habilidades esenciales para la IA, son precisamente aquellas en las que las universidades ya destacan. De hecho, varias instituciones están buscando incorporar la «alfabetización en IA» en los planes de estudio. Sin embargo, esto no es sencillo: encuestas recientes muestran que aunque muchos estudiantes ya usan la IA para buscar información o hacer resúmenes, la mayoría de los profesores todavía no se sienten capacitados para aplicarla en su enseñanza.

Organizaciones como WGU Labs y la American Association of Colleges and Universities (AAC&U) están trabajando para reducir la incertidumbre en torno a la IA en la educación, proporcionando ejemplos prácticos y programas de capacitación. De hecho, la AAC&U ha lanzado un instituto de siete meses sobre IA, pedagogía y currículum, en el que participan equipos de 123 universidades que buscan integrar la IA de manera ética y efectiva.

Para instituciones más pequeñas como Berry College, la adopción de la IA incluye decisiones éticas y de privacidad, pues quieren educar a sus estudiantes en el uso crítico de la IA sin depender en exceso de detectores de IA, que podrían generar desconfianza. Mientras tanto, en universidades grandes como la Universidad de Michigan y Yale, se están desarrollando plataformas propias que permiten a los estudiantes y profesores experimentar con chatbots y otras herramientas de IA dentro de entornos protegidos. Esto asegura privacidad y brinda igualdad de oportunidades a estudiantes que de otra forma no podrían acceder a versiones avanzadas de herramientas como ChatGPT.

Universidades como Carnegie Mellon han comenzado a financiar experimentos para probar el impacto de la IA en el aula, explorando si esta mejora la capacidad de los estudiantes para generar ideas y defender argumentos. Algunos profesores también están explorando el desarrollo de tutores de IA para apoyar el aprendizaje autodirigido, lo que permite a los estudiantes trabajar a su propio ritmo y con acceso continuo a un «instructor» que no se frustra.

Sin embargo, los desafíos son significativos, pues la IA plantea dilemas sobre cómo y hasta qué punto se deben adaptar los programas de estudio. Mientras que algunos educadores ven en la IA una oportunidad para dedicar más tiempo a problemas complejos en clase, otros temen que se convierta en una distracción o en una solución demasiado fácil. Las universidades están comenzando a ver a la IA no solo como una herramienta auxiliar, sino como una tecnología fundamental que redefine la experiencia educativa, exigiendo un equilibrio entre innovación y cautela en su implementación.

¿Podemos confiar en las búsquedas web con Inteligencia Artificial?

Bains, Callum. «The Chatbot Optimisation Game: Can We Trust AI Web Searches?» The Guardian, 3 de noviembre de 2024. https://www.theguardian.com/technology/2024/nov/03/the-chatbot-optimisation-game-can-we-trust-ai-web-searches.

El artículo «The Chatbot Optimisation Game: Can We Trust AI Web Searches?» publicado en The Guardian, analiza cómo los chatbots de inteligencia artificial (IA) eligen y presentan la información en las búsquedas en línea y cuestiona la confiabilidad de estas respuestas.

Investigadores de la Universidad de California en Berkeley encontraron que los chatbots actuales dependen excesivamente de la relevancia superficial de la información, priorizando textos con lenguaje técnico o palabras clave sin evaluar su confiabilidad. Esto significa que tienden a pasar por alto aspectos que normalmente consideraríamos para verificar la veracidad, como referencias científicas o lenguaje imparcial.

El concepto de «optimización de motores generativos» fue introducido el año pasado, indicando que el uso de un lenguaje autoritativo y referencias (incluso si son incorrectas o irrelevantes) podría aumentar la visibilidad en las respuestas de los chatbots hasta en un 40%. Sin embargo, estas conclusiones son tentativas y los algoritmos de selección de los chatbots aún son difíciles de manipular con reglas claras.

El uso de chatbots también plantea un dilema existencial en internet: a diferencia de los motores de búsqueda tradicionales, los chatbots solo mencionan unas pocas fuentes en sus respuestas, lo que beneficia a un grupo reducido de sitios y deja prácticamente invisibles a otros, afectando su tráfico significativamente.

Además, los investigadores de Harvard han demostrado que, más allá de la GEO, es posible manipular directamente las respuestas de los chatbots con “secuencias de texto estratégicas”. Estas secuencias, que parecen cadenas de caracteres sin sentido, en realidad están diseñadas mediante algoritmos que hacen que los chatbots generen respuestas específicas. Esto podría permitir que ciertos productos o contenidos logren más visibilidad en las respuestas de los chatbots, independientemente de su calidad o confiabilidad.

Este tipo de manipulación plantea riesgos evidentes para los usuarios, quienes podrían ver productos o información en el chatbot sin saber que fueron posicionados mediante técnicas de manipulación. Aunque en el futuro los LLMs (modelos de lenguaje de IA) podrían fortalecerse contra estos ataques, los investigadores señalan que los métodos de manipulación también están en constante evolución, por lo que los desafíos de control seguirán presentes.

Otro problema que el artículo resalta es el llamado “dilema de la respuesta directa”, un concepto desarrollado por el investigador Martin Potthast y su equipo. Este dilema surge cuando los chatbots presentan una única respuesta a una pregunta, lo cual puede llevar a que los usuarios acepten esa respuesta sin buscar otros puntos de vista o fuentes. Esto plantea el riesgo de que los usuarios perciban la respuesta del chatbot como la verdad única, sin considerar otras perspectivas o matices que podrían ser importantes en temas complejos.

Con la introducción de resúmenes de IA en los motores de búsqueda, Google lanzó la campaña «Let Google do the searching for you» («Deja que Google haga la búsqueda por ti»), lo cual sugiere que estos resúmenes optimizan el proceso de búsqueda. Sin embargo, este tipo de automatización podría perjudicar a aquellos usuarios que buscan información imparcial y precisa, ya que los chatbots, al ser susceptibles a manipulaciones, no siempre pueden garantizar que la información proporcionada sea confiable.

En resumen, el artículo advierte sobre los desafíos éticos y prácticos que implica la creciente dependencia de chatbots generativos para obtener información en línea. Si bien pueden hacer las búsquedas más rápidas y cómodas, los riesgos de manipulación y la falta de una supervisión clara en la selección de información hacen que esta tecnología aún esté lejos de ser una fuente autoritativa y confiable para temas complejos.

Alfabetizaciones Digitales Críticas: un recurso de acceso abierto diseñado para apoyar tanto a profesionales de la información como a educadores.

#DLFteach Toolkit Volume 4: Critical Digital Literacies” DLF’s Digital Library Pedagogy Group, 2024

Texto completo


Volume 1 #DLFteach Toolkit 1.0
#DLFteach Toolkit

Volume 2: Lesson Plans on Immersive Pedagogy#DLFteach Toolkit

Volume 3: Lesson Plans for Literacy and Competency Driven Digital Scholarship Instruction#DLFteach Toolkit

Volume 4: Critical Digital

Con un enfoque temático en las alfabetizaciones digitales críticas, este volumen ofrece planes de lecciones y materiales didácticos adaptables que ayudan a los estudiantes a desarrollar las habilidades necesarias para consumir y crear información en un entorno digital, así como el pensamiento crítico necesario para comprender y cuestionar los sistemas de información y sus estructuras de poder subyacentes. Destaca tanto los resultados basados en habilidades como el pensamiento contextual, revelando las desigualdades y sesgos estructurales de muchas herramientas digitales.

Los instructores que utilicen este toolkit aprenderán estrategias para promover la inclusión, la accesibilidad y la pedagogía digital en sus prácticas de enseñanza, ayudando a los estudiantes a interactuar de manera reflexiva con las tecnologías emergentes y a desarrollar estrategias para corregir las desigualdades de uso e impacto.

Cada lección incluye objetivos de aprendizaje, preparación y un esquema de la sesión. Materiales adicionales, como diapositivas, guías, evaluaciones y conjuntos de datos, están disponibles en el repositorio DLF OSF y enlazados desde cada lección.

Hacia una IA ética y justa en la investigación educativa

Barnes, T., Danish, J., Finkelstein, S., Molvig, O., Burriss, S., Humburg, M., Reichert, H., Limke, A. Toward Ethical and Just AI in Education Research. Community for Advancing Discovery Research in Education (CADRE). Education Development Center, 2024

Texto completo

El documento «Toward Ethical and Just AI in Education Research» discute el creciente uso de la inteligencia artificial en la educación, particularmente en las áreas de ciencia, tecnología, ingeniería y matemáticas (STEM). Los avances en la investigación y desarrollo de inteligencia artificial en educación (AIED) están transformando la enseñanza y el aprendizaje, generando una mezcla de entusiasmo y preocupación.

Los autores, miembros de la Community for Advancing Discovery Research in Education (CADRE), reconocen que, aunque la AI tiene el potencial de revolucionar la educación, también puede perpetuar sesgos existentes y afectar negativamente la práctica educativa. Este informe es el primero de una serie de tres que aborda enfoques éticos en la investigación y aplicación de la AIED en STEM, impulsado por la necesidad de considerar cuidadosamente cómo se diseñan y utilizan estas tecnologías.

Los investigadores subrayan la importancia de adoptar políticas que prioricen la ética, la equidad y la justicia en el desarrollo de tecnologías AIED en educación K-12. En este sentido, proponen un marco ético y herramientas que fomentan la reflexión continua y la comunicación para mejorar la investigación y el desarrollo inclusivos y equitativos.

Además, hacen hincapié en que las tecnologías AI reflejan tanto los sesgos intencionados como los no intencionados de sus diseñadores y de la sociedad. Por lo tanto, abogan por un enfoque integral que incorpore principios éticos establecidos, lo que permitirá que las buenas intenciones de los investigadores y desarrolladores se traduzcan en decisiones de diseño positivas y en la creación de productos tecnológicos inclusivos.

Un sitio web de noticias impulsado por IA acusa accidentalmente de asesinato al fiscal del distrito

«AI-Powered News Site Accidentally Accuses District Attorney of Murder», Futurism. 18 de octubre de 2024. https://futurism.com/ai-accuses-district-attorney-of-murder.

Un controvertido sitio de noticias local impulsado por inteligencia artificial, Hoodline San José, cometió un grave error al acusar accidentalmente a un fiscal del distrito de asesinato. Un artículo publicado por este medio, que forma parte de una red de sitios de noticias locales en EE. UU., tenía el impactante título: «FISCAL DEL CONDADO DE SAN MATEO ACUSADO DE ASESINATO EN MEDIO DE LA BÚSQUEDA DE LOS RESTOS DE LA VÍCTIMA». Sin embargo, la realidad es que, aunque hubo un asesinato, el fiscal no fue el autor; simplemente había presentado cargos contra el verdadero sospechoso.

El error se originó cuando el sistema de inteligencia artificial de Hoodline interpretó incorrectamente un tuit de la oficina del fiscal del distrito de San Mateo, que anunciaba que un hombre local había sido acusado de asesinato. La IA distorsionó la información de tal manera que hizo parecer que el propio fiscal había cometido el crimen. Este tipo de acusaciones, sobre todo contra un funcionario público, es de suma gravedad en el periodismo.

Después de que el sitio fue señalado por Techdirt, se publicó una nota del editor que intentó explicar el error como un «error tipográfico» que cambió el significado del contenido y creó confusión entre el fiscal y el acusado, que son personas diferentes. Este incidente pone en tela de juicio la promesa de Hoodline de que su contenido editorial cuenta con un nivel significativo de supervisión humana, dado que el sitio utiliza abiertamente inteligencia artificial para generar «noticias» de manera sintética.

Además, el artículo firmado por Eileen Vargas, una de las muchas identidades de reporteros generadas por IA del sitio. Esta práctica ha sido objeto de crítica por pretender mostrar una diversidad racial que no refleja la realidad de la industria periodística, que es mayoritariamente blanca y masculina.

El error también podría tener implicaciones para Google, ya que la acusación falsa apareció en su sección de noticias. La situación plantea preguntas sobre cuánta libertad debería darse a un sitio de noticias que claramente carece de estándares editoriales y si se puede confiar en los algoritmos para filtrar contenido generado por IA.

Lo que queda claro es que errores como este, que un periodista humano bajo un proceso editorial adecuado probablemente no cometería, podrían volverse más comunes a medida que los editores deleguen el control a sistemas de IA económicos y poco supervisados.

El potencial de la IA generativa y la detección, la disciplina y la desconfianza

Dwyer, M. ; Laird, E. Up in the Air Educators Juggling the Potential of Generative AI with Detection, Discipline, and Distrust. e Center for Democracy & Technology (CDT), 2024

Texto completo

Desde finales del curso 2022-23, los educadores han tenido una experiencia distinta con la inteligencia artificial generativa (IA). Las escuelas han aprovechado para reorganizarse y adaptarse tras la rápida aparición de ChatGPT el año anterior. El Centro para la Democracia y la Tecnología (CDT) realizó una encuesta en noviembre y diciembre de 2023 a maestros de secundaria para entender cómo interactúan con esta tecnología y qué apoyo reciben.

En agosto de 2023, el Centro para la Democracia y la Tecnología (CDT) realizó una encuesta para examinar las experiencias y opiniones de maestros, estudiantes y padres sobre varios aspectos de la tecnología, incluida la IA generativa, durante el año escolar 2022-23. Luego, entre noviembre y diciembre de 2023, CDT patrocinó una encuesta dirigida a maestros para analizar cambios en el uso reportado de IA generativa y evaluar el apoyo y la orientación que los maestros están recibiendo por parte de sus escuelas o distritos en el año escolar 2023-24. Para ello, se llevaron a cabo entrevistas en línea a 460 maestros de 6.º a 12.º grado realizadas entre noviembre y diciembre de 2023.

El estudio reveló avances y desafíos:

  • Mayor familiaridad y formación: Aunque ha aumentado el uso de IA generativa y las políticas escolares, persisten riesgos. A muchos maestros les falta orientación sobre el uso responsable por parte de los estudiantes y cómo detectar trabajos generados por IA.
  • Dependencia de herramientas de detección de IA: Los maestros confían cada vez más en estas herramientas, a pesar de que son poco efectivas. Esto podría afectar negativamente a los estudiantes.
  • Aumento en la disciplina estudiantil: Más estudiantes están siendo castigados por el uso de IA, con un riesgo mayor para estudiantes marginados.
  • Desconfianza hacia los estudiantes: Los maestros, especialmente en escuelas que prohíben la IA, siguen siendo más desconfiados respecto a la integridad académica de los estudiantes, lo que también ha resultado en más sanciones disciplinarias.

Las escuelas han avanzado significativamente en la creación de políticas y en proporcionar orientación a los docentes sobre el uso de la IA generativa en un corto periodo. En el año escolar anterior, muchas escuelas aún estaban desorientadas y rezagadas en cuanto a la implementación de normativas sobre IA generativa, y muchos maestros informaban que sus instituciones no tenían políticas claras al respecto. Sin embargo, en el año escolar 2023-24, más docentes reportan que sus escuelas han adoptado políticas y procedimientos, además de ofrecer mayor capacitación y apoyo en relación con el uso de estas herramientas.

  • 80% de los docentes han recibido capacitación formal sobre políticas de uso de IA generativa, un aumento de 37 puntos porcentuales respecto al año pasado.
  • 85% de los maestros afirman que sus escuelas tienen una política que permite o prohíbe el uso de herramientas de IA generativa, como ChatGPT, para tareas escolares, y 71% de ellos indican que es la primera vez que se implementa dicha política en sus instituciones.
  • Las políticas que permiten el uso de IA generativa para tareas casi se han duplicado en comparación con el año anterior (del 31% al 60%).
  • Además, 72% de los maestros afirman que las escuelas han solicitado su opinión sobre las políticas de uso de IA generativa en el aula, un porcentaje superior al de otras tecnologías escolares.

Los maestros se están volviendo cada vez más dependientes de las herramientas de detección de contenido generativo de IA sancionadas por las escuelas, lo cual es problemático ya que investigaciones indican que estas herramientas no son consistentemente efectivas para diferenciar entre texto generado por IA y escrito por humanos. Además, la mayoría de los docentes no han recibido orientación sobre cómo actuar si sospechan que un estudiante ha utilizado IA de manera inapropiada.

  • 68% de los maestros informan que utilizan regularmente una herramienta de detección de contenido de IA, lo que representa un aumento de 30 puntos porcentuales en comparación con el año pasado.
  • Solo 25% de los docentes se sienten muy efectivos a la hora de discernir si los trabajos fueron creados por IA o por los estudiantes mismos.
  • El uso de herramientas de detección sancionadas por las escuelas ha aumentado: 78% de los maestros informan que su escuela respalda alguna herramienta de este tipo, en comparación con el 43% del año pasado.

Esta situación genera preocupación, especialmente por el aumento en las sanciones disciplinarias hacia los estudiantes, que será tratado en la si

El aumento en el uso de la IA generativa ha generado un incremento en las sanciones disciplinarias hacia los estudiantes, en parte debido a la falta de capacitación docente y a la creciente dependencia de herramientas de detección de IA, que a menudo son ineficaces. Desde el año escolar pasado, las sanciones por el uso de IA generativa han aumentado un 16%, alcanzando al 64% de los estudiantes sancionados en el ciclo 2023-2024.

  • Herramientas de detección de IA: El uso regular de estas herramientas por los maestros está vinculado a un mayor número de sanciones. Un 72% de los maestros que las usan regularmente informan sobre estudiantes que han enfrentado consecuencias negativas.
  • Desigualdades en la disciplina: Estudiantes que dependen de dispositivos proporcionados por la escuela, así como aquellos de comunidades marginadas (negros, hispanos, rurales y de bajos ingresos), enfrentan mayor riesgo de sanciones.
  • Estudiantes con discapacidades: Los alumnos con planes IEP o 504 reportan un uso más frecuente de IA generativa, lo que, combinado con el mayor uso de herramientas de detección por parte de maestros de educación especial, aumenta el riesgo de acciones disciplinarias para estos estudiantes.

El aumento de estas sanciones plantea preocupaciones sobre las consecuencias educativas negativas, especialmente para poblaciones vulnerables.