Archivo de la etiqueta: Inteligencia artificial

El valor de la biblioteca se incrementa en la era de la IA

Tanzi, Nick. «The Library’s Value Is Increased in the Age of AI». The Digital Librarian, 7 de noviembre de 2024. https://the-digital-librarian.com/2024/11/07/the-librarys-value-is-increased-in-the-age-of-ai/.

El artículo de Nick Tanzi titulado The Library’s Value is Increased in the Age of AI discute cómo las bibliotecas, lejos de perder valor frente al auge de la inteligencia artificial (IA), ven ampliada su relevancia debido a tres pilares fundamentales: privacidad, exactitud e humanidad.

El valor de las bibliotecas en la era de la inteligencia artificial (IA) ha aumentado considerablemente debido a su capacidad para adaptarse a nuevas tecnologías, como ya lo ha demostrado en el pasado con la llegada de la web, Google, los eReaders y otras innovaciones. En este contexto, las bibliotecas siguen desempeñando un papel fundamental, especialmente en áreas donde la IA presenta nuevos desafíos. Temas como la privacidad, la precisión de la información, la humanidad en un mundo cada vez más tecnológico y la necesidad de encontrar un equilibrio entre la tecnología y las personas son ahora más relevantes que nunca.

En la era de la IA, la privacidad se convierte en un bien valioso. Las tecnologías emergentes tienden a recolectar datos personales de los usuarios para alimentar sus modelos, lo que ha suscitado preocupaciones sobre la explotación de la información personal. En contraste, las bibliotecas defienden firmemente la privacidad de sus usuarios, garantizando que no se compartan datos personales sin consentimiento explícito. La ALA (American Library Association) establece que las bibliotecas deben proteger la privacidad, un principio que resulta especialmente relevante dado el creciente uso de IA. Las bibliotecas, por lo tanto, deben adoptar políticas claras para el uso de herramientas de IA que no comprometan la privacidad de los usuarios, educar sobre cómo gestionar la huella digital y asegurarse de que los proveedores de servicios de IA respeten estos valores.

En un mundo saturado de contenido generado por IA, como imágenes manipuladas, deepfakes y «alucinaciones» de IA, la capacidad de discernir información precisa y objetiva es crucial. Las bibliotecas se posicionan como guardianes de la información confiable, ofreciendo acceso a colecciones de libros, bases de datos y otros recursos verificados. Sin embargo, como señala Luke Swarthout, optar por excluir la IA del internet es cada vez más inviable. Las bibliotecas deben enseñar a sus usuarios a identificar contenidos generados por IA, a evaluar la fiabilidad de estas fuentes y a utilizar la IA de manera crítica. En este sentido, las bibliotecas se convierten en centros esenciales para la alfabetización mediática y la alfabetización en IA.

La tecnología, y en especial la IA, puede deshumanizar las interacciones, como lo evidencian los sistemas automatizados de atención al cliente y los chatbots. Las bibliotecas, en cambio, se distinguen por su enfoque en la humanidad: son instituciones locales, profundamente conectadas con sus comunidades. Su personalización del servicio se basa en el contacto humano, y no en la recolección de grandes volúmenes de datos. Las bibliotecas ofrecen un espacio para la interacción social, lo que es cada vez más importante en una era de creciente aislamiento social.

En definitiva, las bibliotecas enfrentan el reto de integrar las tecnologías emergentes como la IA sin comprometer los principios fundamentales que las definen: privacidad, exactitud y humanidad. A medida que la IA se vuelve omnipresente, es crucial que las bibliotecas mantengan su identidad y su relevancia, ofreciendo servicios que respeten estos valores mientras navegan por los cambios tecnológicos.

Fundamentalmente se ubraya que las bibliotecas, lejos de ser obsoletas en la era digital, desempeñan un papel más relevante que nunca, actuando como baluartes de privacidad, fuentes de información precisa y centros de interacción humana en un mundo cada vez más automatizado.

Anthropic advierte de la catástrofe de la IA si los gobiernos no regulan en 18 meses

Anthropic. «The Case for Targeted RegulationAnthropic, 31 de octubre de 2024. https://www.anthropic.com/news/the-case-for-targeted-regulation.

La regulación de la IA es esencial para balancear los beneficios y los riesgos. Si bien es un desafío complejo, es crucial implementarla pronto para evitar consecuencias negativas y asegurar el progreso en áreas clave como la ciencia y la medicina.

Los sistemas de inteligencia artificial (IA) están avanzando rápidamente, ofreciendo enormes beneficios potenciales en áreas como la ciencia, la medicina y la economía. Sin embargo, también presentan riesgos significativos, como el uso indebido en ciberseguridad o biotecnología, y la posibilidad de comportamientos autónomos y destructivos de los propios sistemas. Ante estos riesgos, se urge a los gobiernos a implementar políticas de IA en los próximos 18 meses, ya que el margen para prevenir estos riesgos está cerrándose rápidamente.

Una regulación bien diseñada y específica puede permitir que se aprovechen los beneficios de la IA, mitigando al mismo tiempo sus peligros. Sin embargo, si se retrasan las acciones, el resultado podría ser una regulación ineficaz que limite el progreso sin evitar los riesgos. Se propone una regulación dirigida que se enfoque en tres principios clave:

  1. Urgencia: La IA ha avanzado significativamente en el último año, con mejoras notables en tareas de codificación, razonamiento y matemáticas, lo que aumenta tanto las aplicaciones positivas como las posibilidades de uso indebido, especialmente en áreas como la ciberseguridad y la biotecnología.
  2. Política de Escalamiento Responsable (RSP): En Anthropic, la empresa responsable del artículo, se ha implementado una política llamada «Escalamiento Responsable», que ajusta las medidas de seguridad y mitigación de riesgos en función de los niveles de capacidad de los modelos de IA. Esta política se adapta de forma continua según el desarrollo de los modelos y su potencial de generar riesgos catastróficos.
  3. Elementos clave para la regulación de la IA:
    • Transparencia: Las empresas deben ser obligadas a publicar sus políticas de seguridad y las evaluaciones de riesgo de cada nueva generación de modelos de IA.
    • Incentivos para mejores prácticas de seguridad: La regulación debe fomentar que las empresas desarrollen políticas efectivas que prevengan riesgos graves.
    • Simplicidad y enfoque: La regulación debe ser precisa y evitar cargas innecesarias o reglas complicadas que puedan obstaculizar el progreso.

Se destaca la necesidad urgente de que los gobiernos y la industria trabajen juntos para desarrollar un marco regulatorio efectivo, que no solo reduzca los riesgos catastróficos de la IA, sino que también permita a la industria seguir innovando. Esto debe lograrse de manera flexible, considerando el rápido avance de la tecnología y adaptando las políticas a las mejores prácticas emergentes.

Google ya incluye marcas de agua en sus textos generados por inteligencia artificial

«Google DeepMind Debuts Watermarks for AI-Generated Text – IEEE Spectrum». Accedido 13 de noviembre de 2024. https://spectrum.ieee.org/watermark.

Google DeepMind ha lanzado un innovador sistema de marca de agua para textos generados por IA llamado SynthID-Text, el cual tiene como objetivo facilitar la identificación de contenidos creados por modelos de lenguaje como su chatbot Gemini.

Esta tecnología añade una “firma estadística” o marca de agua en el texto generado, de manera que un detector especializado puede verificar si el contenido proviene de una IA, todo sin afectar la calidad, creatividad ni velocidad de la generación de respuestas. A diferencia de otros métodos que también intentan identificar texto de IA, SynthID-Text no altera visiblemente el texto para el lector humano, pero sí deja una señal detectable para su propio sistema.

Este sistema es la respuesta de Google al creciente problema de proliferación de contenido generado por IA, que ha inundado plataformas digitales como redes sociales y entornos académicos. Aunque existen herramientas para detectar textos de IA o incluso para hacerlos parecer escritos por humanos, su precisión ha sido limitada y, a medida que los chatbots mejoran, distinguir entre textos humanos e IA se vuelve más difícil. Con la implementación de SynthID-Text, Google espera dar un paso adelante en la solución de este problema.

SynthID-Text opera discretamente en el proceso de generación de texto: el sistema asigna puntuaciones a palabras candidatas en la respuesta generada por el chatbot, eligiendo aquellas que crean un patrón estadístico. Este patrón es imperceptible para los usuarios, pero detectable mediante el sistema SynthID. La marca de agua es esencialmente un “sello” que permite a los sistemas de Google o a desarrolladores que usen Gemini verificar si el texto proviene de un modelo de lenguaje de Google.

Sin embargo, los investigadores admiten que la marca de agua puede ser fácilmente eliminada o alterada si el texto se modifica de manera significativa. Por ejemplo, un usuario que edite el texto o que lo resuma con otro chatbot puede remover la firma, lo cual representa un desafío considerable para la tecnología. A pesar de estas limitaciones, Google ha asegurado que las respuestas marcadas con SynthID-Text son igual de satisfactorias que las respuestas no marcadas, basándose en pruebas realizadas con 20 millones de solicitudes a Gemini.

Undermind.ai: una nueva herramienta de búsqueda de información científica con IA que mejora la precisión

Undermind.ai

https://undermind.ai

Undermind.ai es una herramienta de búsqueda avanzada impulsada por IA, diseñada especialmente para investigadores académicos. A diferencia de otras herramientas de búsqueda como Elicit.com y SciSpace, Undermind combina búsquedas basadas en palabras clave y búsqueda semántica utilizando algoritmos que imitan el proceso de descubrimiento humano. Esto permite realizar búsquedas sucesivas de palabras clave, citas y semántica, mejorando la precisión y la exhaustividad de los resultados. Cada búsqueda toma entre 2 y 3 minutos debido a este proceso iterativo.

Una característica única de Undermind es su modelo estadístico, que estima la cantidad total de artículos relevantes sobre un tema, ayudando a los usuarios a saber si están agotando los contenidos relevantes. Además, clasifica los artículos encontrados en tres niveles de relevancia y genera resúmenes con IA de cada artículo, similar a herramientas como Scite.ai.

Aunque el interfaz web es intuitivo y permite compartir resultados fácilmente, la herramienta aún carece de funciones de ordenación y filtros adicionales en la sección de referencias. Además, algunos usuarios no encuentran útil la función de red de citas y cronograma, ya que los controles para ajustar la visualización son poco prácticos.

El servicio es gratuito con limitaciones, pero ofrece suscripciones mensuales y anuales para usuarios individuales y académicos. A pesar de ser prometedora, Undermind aún carece de pruebas de rendimiento oficiales frente a otras herramientas, lo que obliga a los usuarios potenciales a probar la herramienta según sus necesidades específicas. A pesar de esto, tiene el potencial de mejorar la calidad de las revisiones literarias, especialmente en temas complejos, mediante un proceso de búsqueda más preciso y eficiente.

El papel de los bibliotecarios universitarios en relación a la AI: el ser humano en el centro

Guzman, Dani. «Human at the Center, AI in the Loop: The Role of Librarians in Shaping Academic AI.» Katina Magazine, 2024. https://katinamagazine.org/content/article/sponsored/2024/human-at-the-center-ai-in-the-loop-clarivate.

A medida que la IA se ha ido desplegando en diversos sectores, las bibliotecas, en particular las universitarias, se encuentran en una posición clave para integrar estas tecnologías de manera que potencien su misión educativa, en lugar de reemplazar la labor humana. Según el artículo, la clave está en equilibrar la automatización con la experiencia humana, utilizando la IA como una herramienta de apoyo en lugar de como un sustituto de las habilidades de los bibliotecarios.

La rápida expansión de la inteligencia artificial (IA) ha generado una variedad de opiniones sobre su impacto en el trabajo, especialmente en campos del conocimiento que requieren habilidades especializadas, como las bibliotecas universitarias. Mientras que algunos temen que la IA pueda reemplazar a los humanos, otros la ven como una oportunidad para mejorar y transformar la manera en que se lleva a cabo el trabajo intelectual. Entre estas posturas, muchos, incluidos los bibliotecarios, consideran que la IA abre nuevas posibilidades para optimizar los servicios y mejorar la eficiencia.

Una de las primeras consideraciones que aborda es cómo las bibliotecas deben identificar los casos de uso adecuados de la IA, como la mejora en la productividad, la investigación y el apoyo a los estudiantes. Los bibliotecarios tienen un papel fundamental en priorizar estas aplicaciones, ayudando a asegurar que la implementación de la IA se alinee con los objetivos estratégicos y operativos de las bibliotecas. La IA ya está siendo utilizada para tareas como el descubrimiento de investigación, la mejora en la búsqueda de literatura y la gestión de metadatos, lo que permite a los bibliotecarios centrarse en tareas más estratégicas.

El primer paso en la implementación de IA es identificar áreas donde la tecnología pueda agregar valor sin afectar la misión principal de las bibliotecas, que incluye el descubrimiento de investigaciones, el apoyo a los estudiantes y la mejora de la productividad interna. Los bibliotecarios, con su experiencia en gestionar información y procesos, tienen un papel crucial en determinar los casos de uso más efectivos de la IA, ayudando a priorizar las herramientas que pueden tener el mayor impacto.

El artículo también aborda cómo la IA puede transformar los servicios bibliotecarios. Por ejemplo, la implementación de herramientas basadas en IA puede simplificar tareas complejas como las revisiones de literatura o el análisis de datos, mejorando la experiencia de los estudiantes y de los investigadores. Además, la IA tiene el potencial de crear nuevos servicios, como sistemas de análisis de datos que permiten descubrir patrones y tendencias en la información, lo que puede ser útil tanto para la investigación académica como para la enseñanza. Pero sobre todo se destaca la importancia de que los bibliotecarios mantengan un control humano en el uso de estas herramientas para asegurar la integridad académica.

Otro aspecto importante que se menciona es la relación entre la IA y los principios éticos y de transparencia. Las bibliotecas deben garantizar que las herramientas de IA que utilicen estén basadas en fuentes académicas confiables y que ofrezcan a los usuarios acceso a la información utilizada. Esto es esencial para mantener la confianza en los sistemas impulsados por IA. Además, la ética en la implementación de la IA es crucial para evitar problemas como la desinformación o los sesgos. En este sentido, la seguridad y la protección de los datos de los usuarios también deben ser una prioridad, especialmente dado el entorno regulatorio en constante cambio en torno a la privacidad de los datos.

A medida que la IA se integra más en los servicios bibliotecarios, es crucial establecer un equilibrio adecuado entre la autonomía de las máquinas y el juicio humano. La transparencia, la ética y la seguridad son tres áreas clave donde los bibliotecarios deben intervenir para garantizar que la IA se utilice de manera responsable.

  1. Transparencia: Los bibliotecarios deben asegurarse de que las herramientas de IA sean transparentes sobre las fuentes de información que utilizan. Esto es fundamental para mantener la confianza de los usuarios en los resultados generados por la IA. Asegurarse de que las fuentes sean académicamente válidas y accesibles es una prioridad para preservar la integridad de la información.
  2. Ética: Los sistemas de IA deben diseñarse para evitar la desinformación, los sesgos y otros problemas éticos, como las «alucinaciones» (información incorrecta generada por IA). Los bibliotecarios desempeñan un papel esencial en la evaluación de la ética de las herramientas de IA, asegurando que los usuarios reciban información precisa y confiable.
  3. Seguridad: La privacidad de los datos de los usuarios es una prioridad. Los bibliotecarios deben asegurarse de que las herramientas de IA cumplan con los estándares de seguridad y las regulaciones globales de privacidad, protegiendo los datos sensibles mientras se brindan servicios personalizados a los usuarios.

Por último, se resalta que el futuro de las bibliotecas universitarias dependerá de cómo logren integrar la IA de manera efectiva, preservando la experiencia humana y el juicio profesional. A través de la promoción de la alfabetización digital y la colaboración con otras instituciones académicas y proveedores de tecnología, los bibliotecarios podrán asegurar que la IA se utilice de manera ética y efectiva, contribuyendo al desarrollo de la investigación y la enseñanza sin perder de vista los valores fundamentales de las bibliotecas.

Google NotebookLM: una herramienta de inteligencia artificial para ayudar a los usuarios a organizar, resumir y escuchar la información contenida en documentos

Google NotebookLM

Google NotebookLM es una herramienta innovadora y potente para organizar y procesar grandes volúmenes de información, ofreciendo un apoyo significativo para el estudio y el trabajo en entornos académicos y profesionales. Su capacidad para transformar texto en audio, resumir contenido y responder preguntas personalizadas representa un paso hacia una mayor accesibilidad y personalización en el aprendizaje y el manejo de información, aunque también requiere un uso consciente y ético.

Google NotebookLM es una herramienta de inteligencia artificial lanzada para ayudar a los usuarios a organizar, resumir y explorar el contenido de sus documentos de manera eficiente. Su propósito es facilitar el estudio y la comprensión de grandes volúmenes de información, permitiendo a estudiantes, investigadores y profesionales manejar sus notas de forma interactiva. La herramienta se basa en la tecnología de procesamiento de lenguaje natural (NLP, por sus siglas en inglés), que le permite comprender y manipular texto de manera avanzada.

NotebookLM utiliza modelos avanzados de lenguaje, como los de la serie de Google, para analizar y sintetizar información de documentos. Los usuarios pueden cargar diferentes tipos de archivos, como documentos de texto, artículos académicos o apuntes de clases, y NotebookLM se encarga de extraer los puntos clave, resumiendo el contenido en un formato más accesible. También permite hacer preguntas directamente sobre el contenido del documento, proporcionando respuestas contextuales en tiempo real.

Además, NotebookLM va más allá del resumen tradicional. Su capacidad para transformar textos en audios con un formato de estilo conversacional hace que los estudiantes puedan, por ejemplo, escuchar sus notas como si fuera un podcast. Este tipo de innovación está orientada a diferentes estilos de aprendizaje y necesidades, especialmente útil para aquellos que prefieren métodos auditivos o buscan optimizar el tiempo de estudio mientras realizan otras actividades.

¿Cómo funciona?

Los usuarios pueden cargar documentos a NotebookLM desde su Google Drive, ya sea en formato PDF, Google Docs, o textos de otros tipos. Esto permite una integración sencilla con los archivos de estudio que los usuarios ya tienen almacenados. A continuación NotebookLM analiza automáticamente el contenido de los documentos y genera resúmenes detallados que capturan los puntos más relevantes. Este proceso ahorra tiempo, ya que evita la necesidad de leer el documento completo para entender su esencia.

Una función clave es la posibilidad de hacer preguntas sobre el contenido del documento. NotebookLM puede responder de manera precisa y contextual a estas preguntas, basándose en la información contenida en el archivo. Por ejemplo, un estudiante que esté revisando un artículo complejo puede preguntar por las conclusiones principales, y NotebookLM responderá en segundos con una respuesta relevante.

También da la posibilidad de permite modificar el tono del texto, adaptándolo para que suene más formal, académico o casual, según las necesidades del usuario. Esto es útil para adaptar documentos como informes o correos electrónicos, cambiando el tono para que sea adecuado según el contexto.

Otra característica de la herramienta es la transformación de las notas de contenido a audio. Lo que permite que los estudiantes escuchen el contenido de sus notas en formato de audio conversacional, que simula un podcast o diálogo. Es especialmente útil para quienes prefieren estudiar mediante la escucha o desean repasar información mientras realizan otras actividades.

Impacto de las nuevas herramientas de IA en la educación: ¿apoyo al estudio o riesgo para el aprendizaje?

Young, Jeffrey R. «New AI Tools Are Promoted as Study Aids for Students. Are They Doing More Harm Than Good?» EdSurge, November 8, 2024. https://www.edsurge.com/news/2024-11-08-new-ai-tools-are-promoted-as-study-aids-for-students-are-they-doing-more-harm-than-good.

Las herramientas de IA en educación generan un debate complejo. Si bien proporcionan accesibilidad y apoyo para algunos estudiantes, existe la preocupación de que estén promoviendo una forma de aprendizaje que omite el esfuerzo cognitivo necesario para una verdadera comprensión. Los educadores sugieren que las compañías de IA asuman la responsabilidad de desarrollar sus herramientas de manera que fomenten el aprendizaje en lugar de obstaculizarlo.

El artículo de Jeffrey R. Young examina el auge de herramientas de inteligencia artificial (IA) diseñadas para ayudar a estudiantes, como Google NotebookLM, que convierten notas de clase en podcasts interactivos, y cómo éstas plantean tanto beneficios como preocupaciones para la educación.

Estas herramientas permiten a los estudiantes transformar lecturas, notas o materiales en resúmenes instantáneos, y en muchos casos ayudan a alumnos neurodivergentes o con dificultades para procesar grandes volúmenes de información. No obstante, varios educadores temen que la facilidad y rapidez de estos resúmenes pueda incentivar a los estudiantes a evitar el trabajo de analizar y comprender profundamente los textos. Alexis Peirce Caudell, docente en la Universidad de Indiana, observa que, aunque los estudiantes usan estas herramientas de diferentes maneras según su área de estudio, algunos se sienten presionados a usarlas solo porque sus compañeros lo hacen, aún si esto compromete su aprendizaje real.

Marc Watkins, profesor de la Universidad de Mississippi, destaca que la fricción o dificultad en el proceso de aprendizaje es crucial, pues ayuda a internalizar el conocimiento. A su juicio, las herramientas de IA eliminan este esfuerzo valioso, permitiendo a los estudiantes «pasar de inmediato al borrador final» con poco trabajo real. Además, considera que las políticas académicas actuales sobre el uso de IA necesitan actualizarse continuamente debido a las rápidas innovaciones en IA.

Un desafío adicional es la precisión, ya que los modelos de IA a veces generan «alucinaciones» o información incorrecta que presentan como si fuera verdad. La experiencia de Bonni Stachowiak, decana en Vanguard University, ilustra esta problemática: al usar Google NotebookLM, observó que la IA fallaba en temas complejos que ella conocía bien, lo cual puede generar una comprensión superficial o errónea.

Algunos estudiantes también plantean inquietudes éticas, como el impacto ambiental del uso de IA y la privacidad de sus datos. Caudell subraya que estas son conversaciones que apenas se están explorando en la educación.

A pesar de las críticas, las herramientas de IA han demostrado tener efectos positivos, especialmente para estudiantes con necesidades específicas, como aquellos con TDAH o discapacidades intelectuales, quienes se benefician de la división de tareas en pasos manejables o de resúmenes que facilitan el acceso inicial a textos largos.

Inteligencia artificial y su impacto en la escritura académica

Alonso Arévalo, Julio. «Inteligencia artificial y su impacto en la escritura académica.» INVESCOL II JORNADA DE INVESTIGACIÓN EN ENFERMERÍA: INTELIGENCIA ARTIFICIAL Y ENFERMERÍA Salamanca, 25 de octubre de 2024 Salamanca (2024).

La inteligencia artificial (IA) está transformando la escritura académica al proporcionar herramientas que simplifican la investigación, redacción y edición de documentos. A través de algoritmos avanzados, la IA puede analizar grandes volúmenes de información, identificar patrones y sugerir ideas, lo cual facilita el desarrollo de textos académicos. Estas herramientas apoyan a estudiantes y docentes al ofrecer recomendaciones sobre vocabulario, estructura y citas bibliográficas, además de mejorar la calidad de los escritos al detectar errores gramaticales y de estilo. No obstante, la IA debe ser vista como una ayuda que complementa, sin reemplazar, el pensamiento crítico y la creatividad esenciales en la escritura académica.

Cómo las universidades están reinventando el aprendizaje en un mundo de IA

The Chronicle of Higher Education. «How Colleges Are Reimagining Learning in an AI World», 3 de octubre de 2024. https://www.chronicle.com/article/the-future-is-hybrid.

Se analiza cómo las universidades están adaptándose al creciente papel de la inteligencia artificial (IA) en la educación. En lugar de ver la IA como una herramienta que sustituya el esfuerzo humano, algunos educadores, como Dan Myers y Anne Murdaugh de Rollins College, están integrando la IA como un apoyo para mejorar el aprendizaje.

En sus cursos, pidieron a los estudiantes que usaran herramientas como Claude y Copilot para proyectos de investigación, documentando cada paso en diarios que incluían los prompts y respuestas de IA, junto con sus reflexiones sobre el proceso. Los estudiantes encontraron útil la IA en etapas de brainstorming y esquematización, aunque preferían escribir por su cuenta, revelando la necesidad de trabajo independiente en ciertos aspectos como la revisión de literatura.

Este enfoque marca un cambio hacia una colaboración consciente con la IA, lo que podría permitir a los estudiantes aprender de manera más eficaz en vez de delegar el trabajo. Myers subraya que el desafío no es rediseñar drásticamente el currículo, sino encontrar los puntos estratégicos donde cada estudiante pueda desarrollar habilidades fundamentales en IA.

Mientras que algunos profesores temen el impacto de la IA en la educación, Myers y Murdaugh argumentan que el pensamiento crítico y el manejo de información, habilidades esenciales para la IA, son precisamente aquellas en las que las universidades ya destacan. De hecho, varias instituciones están buscando incorporar la «alfabetización en IA» en los planes de estudio. Sin embargo, esto no es sencillo: encuestas recientes muestran que aunque muchos estudiantes ya usan la IA para buscar información o hacer resúmenes, la mayoría de los profesores todavía no se sienten capacitados para aplicarla en su enseñanza.

Organizaciones como WGU Labs y la American Association of Colleges and Universities (AAC&U) están trabajando para reducir la incertidumbre en torno a la IA en la educación, proporcionando ejemplos prácticos y programas de capacitación. De hecho, la AAC&U ha lanzado un instituto de siete meses sobre IA, pedagogía y currículum, en el que participan equipos de 123 universidades que buscan integrar la IA de manera ética y efectiva.

Para instituciones más pequeñas como Berry College, la adopción de la IA incluye decisiones éticas y de privacidad, pues quieren educar a sus estudiantes en el uso crítico de la IA sin depender en exceso de detectores de IA, que podrían generar desconfianza. Mientras tanto, en universidades grandes como la Universidad de Michigan y Yale, se están desarrollando plataformas propias que permiten a los estudiantes y profesores experimentar con chatbots y otras herramientas de IA dentro de entornos protegidos. Esto asegura privacidad y brinda igualdad de oportunidades a estudiantes que de otra forma no podrían acceder a versiones avanzadas de herramientas como ChatGPT.

Universidades como Carnegie Mellon han comenzado a financiar experimentos para probar el impacto de la IA en el aula, explorando si esta mejora la capacidad de los estudiantes para generar ideas y defender argumentos. Algunos profesores también están explorando el desarrollo de tutores de IA para apoyar el aprendizaje autodirigido, lo que permite a los estudiantes trabajar a su propio ritmo y con acceso continuo a un «instructor» que no se frustra.

Sin embargo, los desafíos son significativos, pues la IA plantea dilemas sobre cómo y hasta qué punto se deben adaptar los programas de estudio. Mientras que algunos educadores ven en la IA una oportunidad para dedicar más tiempo a problemas complejos en clase, otros temen que se convierta en una distracción o en una solución demasiado fácil. Las universidades están comenzando a ver a la IA no solo como una herramienta auxiliar, sino como una tecnología fundamental que redefine la experiencia educativa, exigiendo un equilibrio entre innovación y cautela en su implementación.

¿Podemos confiar en las búsquedas web con Inteligencia Artificial?

Bains, Callum. «The Chatbot Optimisation Game: Can We Trust AI Web Searches?» The Guardian, 3 de noviembre de 2024. https://www.theguardian.com/technology/2024/nov/03/the-chatbot-optimisation-game-can-we-trust-ai-web-searches.

El artículo «The Chatbot Optimisation Game: Can We Trust AI Web Searches?» publicado en The Guardian, analiza cómo los chatbots de inteligencia artificial (IA) eligen y presentan la información en las búsquedas en línea y cuestiona la confiabilidad de estas respuestas.

Investigadores de la Universidad de California en Berkeley encontraron que los chatbots actuales dependen excesivamente de la relevancia superficial de la información, priorizando textos con lenguaje técnico o palabras clave sin evaluar su confiabilidad. Esto significa que tienden a pasar por alto aspectos que normalmente consideraríamos para verificar la veracidad, como referencias científicas o lenguaje imparcial.

El concepto de «optimización de motores generativos» fue introducido el año pasado, indicando que el uso de un lenguaje autoritativo y referencias (incluso si son incorrectas o irrelevantes) podría aumentar la visibilidad en las respuestas de los chatbots hasta en un 40%. Sin embargo, estas conclusiones son tentativas y los algoritmos de selección de los chatbots aún son difíciles de manipular con reglas claras.

El uso de chatbots también plantea un dilema existencial en internet: a diferencia de los motores de búsqueda tradicionales, los chatbots solo mencionan unas pocas fuentes en sus respuestas, lo que beneficia a un grupo reducido de sitios y deja prácticamente invisibles a otros, afectando su tráfico significativamente.

Además, los investigadores de Harvard han demostrado que, más allá de la GEO, es posible manipular directamente las respuestas de los chatbots con “secuencias de texto estratégicas”. Estas secuencias, que parecen cadenas de caracteres sin sentido, en realidad están diseñadas mediante algoritmos que hacen que los chatbots generen respuestas específicas. Esto podría permitir que ciertos productos o contenidos logren más visibilidad en las respuestas de los chatbots, independientemente de su calidad o confiabilidad.

Este tipo de manipulación plantea riesgos evidentes para los usuarios, quienes podrían ver productos o información en el chatbot sin saber que fueron posicionados mediante técnicas de manipulación. Aunque en el futuro los LLMs (modelos de lenguaje de IA) podrían fortalecerse contra estos ataques, los investigadores señalan que los métodos de manipulación también están en constante evolución, por lo que los desafíos de control seguirán presentes.

Otro problema que el artículo resalta es el llamado “dilema de la respuesta directa”, un concepto desarrollado por el investigador Martin Potthast y su equipo. Este dilema surge cuando los chatbots presentan una única respuesta a una pregunta, lo cual puede llevar a que los usuarios acepten esa respuesta sin buscar otros puntos de vista o fuentes. Esto plantea el riesgo de que los usuarios perciban la respuesta del chatbot como la verdad única, sin considerar otras perspectivas o matices que podrían ser importantes en temas complejos.

Con la introducción de resúmenes de IA en los motores de búsqueda, Google lanzó la campaña «Let Google do the searching for you» («Deja que Google haga la búsqueda por ti»), lo cual sugiere que estos resúmenes optimizan el proceso de búsqueda. Sin embargo, este tipo de automatización podría perjudicar a aquellos usuarios que buscan información imparcial y precisa, ya que los chatbots, al ser susceptibles a manipulaciones, no siempre pueden garantizar que la información proporcionada sea confiable.

En resumen, el artículo advierte sobre los desafíos éticos y prácticos que implica la creciente dependencia de chatbots generativos para obtener información en línea. Si bien pueden hacer las búsquedas más rápidas y cómodas, los riesgos de manipulación y la falta de una supervisión clara en la selección de información hacen que esta tecnología aún esté lejos de ser una fuente autoritativa y confiable para temas complejos.