Archivo de la etiqueta: Inteligencia artificial

El rol de las bibliotecas como espacios públicos para contrarrestar la desinformación en la era de la IA generativa

The Role of Libraries as Public Spaces in Countering Misinformation, Disinformation, and Social Isolation in the Age of Generative AI. Urban Libraries Council, 2024

Texto completo

Urban Libraries Council (Consejo de Bibliotecas Urbanas, ULC) ha publicado un nuevo Informe de Liderazgo que aborda el aumento de la inteligencia artificial generativa (IA) y su contribución a la propagación de desinformación y misinformación. Ante el creciente aislamiento social, el informe explora cómo las bibliotecas públicas están en una posición única para enfrentar estos desafíos mediante la promoción de la alfabetización digital y el fomento de conexiones comunitarias.

El informe proporciona recomendaciones que las bibliotecas pueden implementar, como la actualización de los currículos de alfabetización digital, la creación de recursos para identificar desinformación y el desarrollo de programas que promuevan el compromiso cívico y la cohesión social. Subraya el papel vital de las bibliotecas en empoderar a las personas y fortalecer las comunidades frente a los desafíos tecnológicos y sociales.

Según Brooks Rainwater, presidente y CEO de ULC, los desafíos como la expansión de la IA, la información falsa y la soledad son temas recurrentes en las bibliotecas de América del Norte. El informe ofrece varias recomendaciones para que las bibliotecas refuercen su trabajo y comunidades.

Ejemplos de implementación de las recomendaciones en bibliotecas de EE.UU. y Canadá:

  • Biblioteca Pública de Boston: Organizó un taller sobre cómo combatir la desinformación, desarrollar habilidades de ciudadanía digital y utilizar herramientas para identificar información veraz.
  • Biblioteca Pública de Brooklyn: Colaboró con Women in AI Ethics™ en un evento con la congresista Yvette D. Clarke sobre los peligros de la IA generativa en los medios y la protección de las mujeres contra el abuso de imágenes.
  • Biblioteca Pública de Dallas: Alojó la exhibición del Smithsonian “The Bias Inside Us” y organizó programas para todas las edades para sensibilizar sobre cómo los prejuicios afectan el pensamiento.
  • Biblioteca Pública de Toronto: Desarrolló un kit de herramientas sobre “Noticias Falsas y Alfabetización Informativa” para ayudar a los usuarios a distinguir entre información veraz y desinformación.

Este informe reafirma la importancia de las bibliotecas en la construcción de comunidades resilientes en un mundo cada vez más influido por la IA.

La utilización de la IA generativa sin límites puede ser perjudicial para la educación

«Without Guardrails, Generative AI Can Harm Education», Knowledge at Wharton (blog), accedido 18 de septiembre de 2024, https://knowledge.wharton.upenn.edu/article/without-guardrails-generative-ai-can-harm-education/.

Un nuevo estudio realizado por investigadores de Wharton y Penn, liderado por Hamsa Bastani, muestra que el uso de inteligencia artificial generativa (IA) puede mejorar el rendimiento de los estudiantes, pero también dificultar su capacidad para aprender y adquirir nuevas habilidades.

El experimento, realizado con casi 1.000 estudiantes de matemáticas en Turquía, comparó tres grupos: uno con una IA tipo ChatGPT (GPT Base), otro con una versión guiada por profesores (GPT Tutor) y un grupo de control sin IA. El grupo que utilizó GPT Base mejoró su rendimiento un 48% durante la práctica, pero su desempeño en el examen fue un 17% peor que el grupo de control. En contraste, el grupo GPT Tutor, que recibió orientación, mostró mejoras significativas sin una caída posterior en el examen.

El estudio revela que los estudiantes que dependieron exclusivamente de la IA sin guía adicional no lograron profundizar en los conceptos matemáticos, resultando en un rendimiento deficiente en el examen. En cambio, aquellos que utilizaron la IA con orientación, como la proporcionada por GPT Tutor, no solo mejoraron durante la práctica, sino que también retuvieron mejor el conocimiento.

Conclusiones y Preocupaciones:

Dependencia de la IA: Los investigadores advierten que el uso indiscriminado de IA puede llevar a una dependencia que impida a los estudiantes desarrollar habilidades fundamentales. La IA puede ser beneficiosa si se usa correctamente, pero confiar en ella sin desarrollar una comprensión profunda puede ser perjudicial.

Optimismo de los Estudiantes: Los estudiantes que usaron IA tendían a ser demasiado optimistas sobre sus habilidades, incluso los de alto rendimiento.

Preocupaciones de los Profesores: Los docentes tienden a ser cautelosos con la IA, subestimando sus beneficios potenciales debido a la falta de capacitación sobre cómo integrarla eficazmente con métodos tradicionales de enseñanza.

El estudio sugiere que la IA debe usarse de manera controlada y bajo la supervisión de educadores para evitar la dependencia excesiva y asegurar que los estudiantes desarrollen las habilidades necesarias. Además, se subraya que la IA aún tiene limitaciones significativas, como la generación de información errónea, lo que requiere una verificación constante de los resultados.

Necesidad de reformar la educación para preparar a las futuras generaciones en un mundo impulsado por la inteligencia artificial (IA).

«Must-Have Competencies and Skills in Our New AI World: A Synthesis for Educational Reform», EDUCAUSE Review, accedido 18 de septiembre de 2024, https://er.educause.edu/articles/2024/9/must-have-competencies-and-skills-in-our-new-ai-world-a-synthesis-for-educational-reform.

El artículo resalta la urgente necesidad de reformar la educación para preparar a las futuras generaciones en un mundo impulsado por la inteligencia artificial (IA). Los sistemas educativos actuales deben evolucionar desde un enfoque en la memorización hacia un aprendizaje más dinámico, que potencie la creatividad, agilidad y el razonamiento ético. Esto no es solo para adaptarse a la IA, sino para liderar y moldear su desarrollo.

El autor, Fawzi BenMessaoud, propone un modelo educativo tripartito que integra tres conjuntos de competencias esenciales para prosperar en este nuevo entorno:

  1. Habilidades de Diseño Inteligente: Se refiere a la capacidad de combinar creatividad y tecnología. Involucra competencias como la alfabetización digital avanzada, la capacidad de estructurar ideas lógicas, comprender sistemas complejos y diseñar interfaces intuitivas centradas en el usuario.
  2. Habilidades Humanas Inteligentes: Estas habilidades son intrínsecamente humanas y esenciales para una IA ética y responsable. Incluyen la evaluación crítica, la toma de decisiones, la competencia ética, el aprendizaje continuo, la reflexión crítica y la habilidad para diseñar preguntas estratégicas para interactuar con la IA (ingeniería de prompts).
  3. Habilidades de Datos Inteligentes: En un mundo lleno de datos, la habilidad para interpretarlos y usarlos eficazmente es crucial. Se destacan la veracidad de los datos, la capacidad para digerir grandes cantidades de información, la visualización de datos y la curación adecuada de los mismos.

La propuesta de BenMessaoud es que estas competencias no sean complementarias, sino que se conviertan en la base de un sistema educativo reformado que se anticipe a la evolución de la IA, asegurando que los estudiantes puedan aprovechar su potencial de manera ética y responsable.

Además, señala que la educación del futuro debe integrar herramientas de IA para personalizar la enseñanza, hacerla más equitativa y democratizar el acceso a recursos. Sin embargo, también destaca la necesidad de abordar desafíos como los sesgos algorítmicos y la privacidad de los datos.

El artículo concluye que la integración de IA en la educación no debe ser vista como una amenaza, sino como una oportunidad para enriquecer la enseñanza y el aprendizaje humano. Los educadores, estudiantes y administradores deben trabajar juntos para garantizar que la IA se utilice de manera ética, inclusiva y al servicio del bien común, transformando así el sistema educativo para enfrentar los retos del futuro.

IA generativa: Cómo abordar la propiedad intelectual.

Organización Mundial de la Propiedad Intelectual (OMPI), IA generativa: Cómo abordar la propiedad intelectual. (World Intellectual Property Organization, 2024),

Texto completo

En la publicación IA generativa: cuestiones de propiedad intelectual se describen los principios rectores y se proporciona una lista de verificación para ayudar a las organizaciones a entender los riesgos que afectan a la PI, formular las preguntas correctas y considerar las posibles salvaguardias al adoptar herramientas de IA generativa en sus actividades.

IA generativa

Organización Mundial de la Propiedad Intelectual (OMPI), IA generativa (World Intellectual Property Organization, 2024),

Texto completo

La inteligencia artificial (IA) generativa tiene el potencial de revolucionar todos los sectores y gran parte de nuestras vidas y promete tanto ventajas competitivas como destrucción creativa. Con todo, ¿en qué medida resulta creativa e imaginativa la IA, cuáles son las posibles repercusiones para los creadores y cómo garantizamos que el sistema de PI siga fomentando la innovación y la creatividad en la era de la IA?

Una herramienta de IA reduce en un 26% las muertes inesperadas en el hospital

Lauren Pelley, «AI Tool Cuts Unexpected Deaths in Hospital by 26%, Canadian Study Finds», CBC News, 16 de septiembre de 2024, https://www.cbc.ca/news/health/ai-health-care-1.7322671.

Un estudio realizado en el Hospital St. Michael’s de Toronto ha revelado que una herramienta de inteligencia artificial (IA), denominada Chartwatch, ha logrado reducir en un 26% las muertes inesperadas de pacientes hospitalizados.

El uso de IA en la medicina ha generado tanto entusiasmo como preocupación en los últimos años. Aunque herramientas como Chartwatch están demostrando su valor en la atención clínica, el avance de la IA también ha sido objeto de críticas en otras áreas, como la generación de contenido académico o el uso de tecnologías de reconocimiento de voz y vídeo. En el ámbito de la salud, sin embargo, la IA parece tener un futuro prometedor.

Así, diversos equipos de investigación, incluidas empresas privadas, están explorando formas de utilizar la IA para la detección precoz del cáncer. Algunos estudios sugieren que tiene potencial para detectar la hipertensión con sólo escuchar la voz de alguien; otros muestran que podría escanear patrones cerebrales para detectar signos de conmoción cerebral.

Un estudio de un año y medio de duración sobre Chartwatch, publicado el lunes en la revista Canadian Medical Association Journal, descubrió que el uso del sistema de IA provocó un sorprendente descenso del 26% en el número de muertes inesperadas entre los pacientes hospitalizados.

Chartwatch es un sistema de alerta temprana que monitorea más de 100 indicadores de los registros médicos de los pacientes, como signos vitales y resultados de análisis de laboratorio. El sistema genera predicciones horarias sobre posibles deterioros en la salud del paciente, lo que permite al equipo médico intervenir antes de que la situación empeore.

El estudio, realizado en la unidad de medicina interna general del hospital, abarcó más de 13.000 ingresos y mostró resultados notables en la mejora de la atención y la prevención de muertes inesperadas. En otras áreas del hospital donde no se utilizó Chartwatch, no se observó una reducción similar.

Chartwatch mide unos 100 datos de la historia clínica del paciente que actualmente se recogen de forma rutinaria en el proceso asistencial. Trabajando en segundo plano junto a los equipos clínicos, la herramienta supervisa cualquier cambio en el historial médico de alguien y hace una predicción dinámica cada hora sobre si es probable que ese paciente se deteriore en el futuro.

Nuevos estudios sugieren que la IA es muy prometedora en la detección del cáncer de mama. Eso puede significar que alguien se ponga más enfermo, que necesite cuidados intensivos o incluso que esté al borde de la muerte, lo que da a médicos y enfermeras la oportunidad de intervenir. En algunos casos, esas intervenciones consisten en aumentar el nivel de tratamiento para salvar la vida o proporcionar cuidados paliativos en situaciones en las que no es posible rescatar al paciente.

Desarrollado por Unity Health Toronto desde 2017 y lanzado en 2020, Chartwatch complementa el juicio clínico, mejorando la capacidad del personal de anticipar crisis y actuar a tiempo. Chartwatch complementa el criterio de los médicos y mejora los resultados para los pacientes frágiles, ayudando a evitar más muertes súbitas y potencialmente evitables.. Los investigadores destacan que, si bien los resultados son prometedores, aún se necesita replicar el estudio en otros hospitales y contextos para validar su eficacia en diversas situaciones.

Se subraya que Chartwatch no reemplaza el trabajo del personal médico, pero sí les proporcionarán herramientas adicionales para mejorar la toma de decisiones y optimizar el cuidado de los pacientes. Esto es especialmente relevante en un momento en que el sistema de salud enfrenta grandes presiones, desde la creciente demanda de atención médica hasta la falta de recursos humanos.

Un estudio descubre en Google Scholar artículos de investigación generados por IA

«Study finds AI-generated research papers on Google Scholar – why it matters | ZDNET», accedido 16 de septiembre de 2024, https://www.zdnet.com/article/study-finds-ai-generated-research-papers-on-google-scholar-why-it-matters/#ftag=RSSbaffb68.

Un estudio reciente, publicado en la Harvard Kennedy School’s Misinformation Review, encontró que al menos 139 artículos disponibles en Google Scholar parecen haber sido generados por herramientas de inteligencia artificial (IA). De estos, la mayoría se encontró en revistas no indexadas, pero 19 aparecieron en revistas verificadas y otras 19 en bases de datos universitarias, presuntamente escritas por estudiantes. Esto subraya una creciente preocupación sobre la proliferación de investigaciones falsas, facilitada por herramientas generativas de IA como ChatGPT.

Los investigadores identificaron estos estudios sospechosos por la inclusión de frases típicas de los modelos de lenguaje, como las generadas por ChatGPT. Además, los estudios estaban ampliamente disponibles en varias bases de datos, archivos y redes sociales, aumentando su visibilidad. Temas sensibles como la salud, la tecnología computacional y el medio ambiente estaban entre los más comúnmente abordados por estos artículos falsos, lo que es alarmante dado que pueden influir en decisiones de políticas públicas y la percepción de temas clave.

El estudio destacó que la aparición de ChatGPT y otras IA en 2022, junto con el funcionamiento de Google Scholar, ha incrementado la posibilidad de que personas sin formación académica (como periodistas, políticos, pacientes y estudiantes) encuentren y citen estudios falsos. Esto es particularmente problemático porque, a diferencia de los sesgos o «alucinaciones» de los chatbots de IA, los estudios presentados en una plataforma académica como Google Scholar parecen auténticos y pueden llevar a una mayor confusión o desinformación.

Aunque Google Scholar contiene una amplia gama de literatura académica de calidad, el estudio critica su falta de transparencia y sus criterios automáticos de inclusión, lo que permite que cualquier autor, independientemente de su afiliación científica, pueda subir artículos. A diferencia de otras bases de datos académicas, Scholar no permite filtrar por tipo de material, estado de publicación o si los artículos han sido revisados por pares, lo que facilita que estudios falsos o generados por IA se cuelen en los resultados de búsqueda.

Otro punto preocupante es que, aunque herramientas de detección de contenido generado por IA están mejorando, aún no son lo suficientemente sofisticadas como para identificar de manera confiable estos estudios falsificados. El estudio también señala que, en el pasado, otros investigadores han encontrado libros y artículos falsos en Google Books y Google Scholar utilizando frases características de los chatbots como «Hasta mi última actualización de conocimiento», común en respuestas de ChatGPT.

Con millones de usuarios confiando en Google Scholar para sus investigaciones, la posibilidad de que se citen estos estudios falsos es cada vez mayor. Esto plantea un grave riesgo para la integridad del registro científico y del sistema de comunicación académica, ya que los estudios generados por IA pueden parecer convincentemente científicos, aunque sean completamente falsos. Los autores del estudio advierten que, a medida que la tecnología avanza, será más difícil detectar estos estudios, lo que amenaza con sobrecargar el ecosistema de investigación y desinformar tanto a académicos como al público en general.

En resumen, la creciente inclusión de estudios falsos generados por IA en Google Scholar plantea un peligro para la comunidad científica y el público, ya que estos trabajos pueden influir en decisiones importantes sin ser detectados. La falta de filtros y la facilidad con la que se puede subir contenido no revisado en plataformas académicas populares hace que sea crucial abordar este problema antes de que cause daños irreparables a la confianza en la ciencia y la academia.

Inteligencia artificial generativa y alfabetización mediática en bibliotecas

Alonso-Arévalo, Julio Inteligencia artificial generativa y alfabetización mediática en bibliotecasMi Biblioteca, 2024, vol. 20, n. 78, pp. 54-58. 

Texto completo

La inteligencia artificial (IA) está emergiendo como una tecnología disruptiva que está remodelando rápidamente varios aspectos de nuestra sociedad. Aunque la IA ha estado en uso durante varios años, ha sido la IA generativa, con su capacidad para realizar tareas que normalmente requerirían inteligencia humana, la que ha suscitado este interés. La habilidad de generar contenido de manera similar a como lo haría un ser humano tiene aplicaciones en una amplia variedad de campos, desde la educación hasta la investigación o la salud, que involucran tanto a los profesionales de biblioteca como a las instituciones mismas.

Actualmente solo el 7% de las bibliotecas universitarias utiliza herramientas de IA

Inside Higher Ed. “AI Adoption Top Concern for Librarians Next Year.” Last modified September 10, 2024. https://www.insidehighered.com/news/quick-takes/2024/09/10/ai-adoption-top-concern-librarians-next-year

Un informe de Clarivate reveló que casi la mitad de las bibliotecas académicas planea implementar IA en el próximo año, aunque la falta de experiencia y capacitación en esta tecnología es su mayor desafío. .A pesar del interés en la IA, los bibliotecarios también enfrentan limitaciones presupuestarias y preocupaciones sobre el impacto en los roles del personal.

Aunque solo un pequeño número de bibliotecas universitarias ha adoptado la inteligencia artificial (IA), se espera que esto cambie en el próximo año. Un informe de Clarivate reveló que actualmente solo el 7% de las bibliotecas universitarias utiliza herramientas de IA, pero casi la mitad planea implementarlas pronto, principalmente para apoyar el aprendizaje de los estudiantes, la excelencia en la investigación y mejorar la accesibilidad del contenido.

Sin embargo, más de la mitad de los encuestados mencionó la falta de experiencia en IA como el mayor desafío, y el 32% afirmó que no hay capacitación disponible en sus universidades. Este porcentaje aumenta al 43% en los encuestados de EE. UU. Las limitaciones presupuestarias también preocupan a los bibliotecarios, incluso más que las preocupaciones sobre privacidad, integridad académica y derechos de autor.

Aunque solo el 10% cree que la IA no afectará significativamente los roles del personal, más de la mitad predice que será necesario un esfuerzo considerable para mejorar las habilidades del equipo existente. Además, un tercio teme la posible pérdida de empleos debido a la IA, con los encuestados de EE. UU. mostrando la mayor preocupación.

El informe, basado en una encuesta a 1.500 personas relacionadas con bibliotecas (incluyendo decanos y directores de TI), reveló que el 80% de los encuestados trabaja en bibliotecas universitarias. La mayoría planea adoptar la IA para apoyar el aprendizaje estudiantil (52%) y mejorar la investigación (47%).

El informe también abordó temas no relacionados con la IA, destacando que más del 55% de las bibliotecas tienen estrategias de diversidad y el 45% tienen estrategias de sostenibilidad. Las preocupaciones presupuestarias y el impacto de la tecnología en los servicios bibliotecarios también fueron temas clave.

OpenAI o1: un nuevo modelo de inteligencia artificial que está diseñado para realizar un razonamiento más profundo

Introducing OpenAI o1-preview: a new series of reasoning models for solving hard problems. Available starting 9.12 https://openai.com/index/introducing-openai-o1-preview/

OpenAI ha lanzado un nuevo modelo de inteligencia artificial, el primero en una serie llamada «OpenAI o1», que está diseñado para realizar un razonamiento más profundo antes de responder. Este modelo es capaz de enfrentar tareas complejas y resolver problemas difíciles en ciencia, codificación y matemáticas con mayor eficacia que los modelos anteriores.

OpenAI ha lanzado una nueva serie de modelos de inteligencia artificial llamada OpenAI o1, diseñada para resolver problemas complejos con un razonamiento más profundo. Este modelo es el primero de su serie y está disponible a partir del 12 de septiembre en ChatGPT y a través de la API, en una versión preliminar que recibirá actualizaciones regulares, aunque actualmente carece de algunas funciones útiles como la navegación web y la carga de archivos e imágenes. Se espera que, con el tiempo, se hagan mejoras y actualizaciones regulares.

En las pruebas realizadas, el nuevo modelo mostró un rendimiento comparable al de estudiantes de doctorado en física, química y biología, y sobresalió en matemáticas y codificación. Por ejemplo, en un examen clasificatorio de la Olimpiada Internacional de Matemáticas, el modelo razonador resolvió el 83% de los problemas, frente al 13% resuelto por el GPT-4o. También alcanzó el percentil 89 en competiciones de codificación en Codeforces.

El acceso a los modelos o1 estará disponible para los usuarios de ChatGPT Plus y Team a partir de hoy, con límites semanales de mensajes. Los usuarios de ChatGPT Enterprise y Edu podrán acceder a ellos la próxima semana. Los desarrolladores que califiquen para el nivel de uso de la API 5 pueden comenzar a probar los modelos hoy, aunque la API aún no incluye algunas funciones como llamadas a funciones y mensajes del sistema. Además, se planea ofrecer acceso a o1-mini para todos los usuarios de ChatGPT Free.

Este modelo mejorado es particularmente útil para resolver problemas complejos en ciencia, codificación y matemáticas. Puede ser utilizado por investigadores de salud para anotar datos de secuenciación celular, físicos para generar fórmulas matemáticas complicadas para óptica cuántica, y desarrolladores para construir y ejecutar flujos de trabajo complejos.

GPT-4 es la cuarta versión del modelo de lenguaje desarrollado por OpenAI. Se trata de un modelo de inteligencia artificial (IA) basado en una arquitectura de redes neuronales profundas, que ha sido entrenado con grandes volúmenes de texto para comprender y generar lenguaje humano de manera coherente. La principal mejora de GPT-4 respecto a sus versiones anteriores es su capacidad para manejar tareas más complejas, entender mejor el contexto, y generar respuestas más precisas y naturales.

GPT-4 se diferencia de sus predecesores por su capacidad para:

  1. Comprensión contextual mejorada: Puede seguir conversaciones más largas y recordar mejor la información previamente proporcionada.
  2. Manejo de tareas complejas: Realiza operaciones de razonamiento más sofisticadas y genera texto más detallado.
  3. Mayor creatividad y fluidez: Produce respuestas más fluidas, naturales y a menudo más creativas en comparación con modelos anteriores.
  4. Multimodalidad: A diferencia de versiones anteriores, GPT-4 tiene la capacidad de procesar tanto texto como imágenes (en su implementación completa).