Archivo de la categoría: Noticias

Algunas bibliotecas públicas de Estados Unidos han comenzado a ofrecer kits de caza de fantasmas

Terra Dankowski, «Spirit in the Stacks», American Libraries Magazine, 3 de septiembre de 2024, https://americanlibrariesmagazine.org/?p=145149.

Bibliotecas públicas en diferentes partes de Estados Unidos han comenzado a ofrecer kits de caza de fantasmas como parte de sus servicios innovadores para atraer a una nueva generación de usuarios.

Estos kits, que incluyen equipos especializados como medidores de campo electromagnético (EMF), grabadoras de fenómenos de voz electrónica (EVP), sensores de movimiento infrarrojos, termómetros para detectar cambios en la temperatura ambiente, y geófonos para captar vibraciones y sonidos de objetos en movimiento, permiten a los aficionados a lo paranormal realizar sus propias investigaciones en busca de espíritus o fenómenos inexplicables.

Uno de los casos más destacados es el de la Biblioteca Pública del Condado de Clark (CCPL) en Ohio, donde estos kits han ganado una popularidad notable. Sonya Knisley, directora de servicios infantiles en CCPL, menciona que es común ver a personas que se registran para obtener una tarjeta de biblioteca únicamente con el objetivo de solicitar uno de estos kits. Desde su introducción en enero de 2023, los kits han sido prestados más de 90 veces, lo que ha llevado a la biblioteca a aumentar su inventario para satisfacer la creciente demanda. Para controlar el uso de estos costosos equipos, que tienen un valor aproximado de 250 dólares por kit, la biblioteca ha impuesto ciertas restricciones: solo pueden ser prestados por una semana, no son renovables, y los usuarios deben ser adultos que firmen un acuerdo de responsabilidad. Sin embargo, el éxito de estos kits no ha estado exento de problemas, ya que recientemente dos de ellos no fueron devueltos, lo que ha generado bromas sobre si los fantasmas los tomaron.

Otro ejemplo destacado es la Biblioteca Pública de Wilsonville (WPL) en Oregón, que añadió un kit de caza de fantasmas a su «Biblioteca de Cosas» en septiembre de 2023. En esta sección, los usuarios pueden pedir prestados equipos especializados que no son accesibles o asequibles para el público general, como lavadoras a presión, detectores de metales, y ahora, herramientas para la investigación paranormal. Angelika Heidelberger, coordinadora de servicios técnicos de WPL, señaló que a pesar de que inicialmente temía recibir críticas por la inclusión de equipos de caza de fantasmas debido a preocupaciones religiosas o científicas, no han recibido ninguna queja. Los kits han sido bien recibidos y se encuentran entre los artículos más solicitados de la biblioteca, casi nunca estando disponibles en las estanterías.

De manera similar, la Biblioteca Pública de Coventry (CPL) en Rhode Island lanzó su propio kit de caza de fantasmas en 2018, aunque inicialmente no recibió tanta atención. Esto cambió en 2022 cuando el personal de la biblioteca decidió promover el kit de manera creativa, grabando un video corto al estilo de los populares programas de televisión sobre cazafantasmas. Desde entonces, el kit ha sido solicitado con regularidad, no solo en la temporada de Halloween, y ha sido utilizado para actividades recreativas como una caza de fantasmas en la misma biblioteca, donde los adolescentes participantes detectaron actividad paranormal en la sección de videojuegos, bromeando que podría haber un fantasma al que apodaron «Barry».

El auge de los kits de caza de fantasmas en bibliotecas refleja el creciente interés público en lo paranormal, con encuestas recientes que muestran que el porcentaje de estadounidenses que creen en fantasmas ha aumentado considerablemente en las últimas dos décadas. Este fenómeno ha sido impulsado, en parte, por la proliferación de programas de televisión y canales de YouTube dedicados al tema, como Ghost Hunters y Ghost Files, que han hecho que la caza de fantasmas se convierta en una actividad recreativa popular. Para muchas bibliotecas, la inclusión de estos kits en sus catálogos responde a su misión de ofrecer servicios innovadores y accesibles a la comunidad, permitiendo a las personas explorar nuevas formas de entretenimiento e investigación científica, aunque sea de manera recreativa.

A través de estos programas, las bibliotecas están no solo fomentando la curiosidad y el aprendizaje, sino también atrayendo a usuarios que quizás no habrían interactuado con la biblioteca de otra manera. Como explica Lauren Walker, directora de CPL, los usuarios ven la caza de fantasmas como una actividad divertida y emocionante, lo que ha contribuido a mantener el interés en los kits más allá de su valor inicial como novedad.

Una herramienta de IA reduce en un 26% las muertes inesperadas en el hospital

Lauren Pelley, «AI Tool Cuts Unexpected Deaths in Hospital by 26%, Canadian Study Finds», CBC News, 16 de septiembre de 2024, https://www.cbc.ca/news/health/ai-health-care-1.7322671.

Un estudio realizado en el Hospital St. Michael’s de Toronto ha revelado que una herramienta de inteligencia artificial (IA), denominada Chartwatch, ha logrado reducir en un 26% las muertes inesperadas de pacientes hospitalizados.

El uso de IA en la medicina ha generado tanto entusiasmo como preocupación en los últimos años. Aunque herramientas como Chartwatch están demostrando su valor en la atención clínica, el avance de la IA también ha sido objeto de críticas en otras áreas, como la generación de contenido académico o el uso de tecnologías de reconocimiento de voz y vídeo. En el ámbito de la salud, sin embargo, la IA parece tener un futuro prometedor.

Así, diversos equipos de investigación, incluidas empresas privadas, están explorando formas de utilizar la IA para la detección precoz del cáncer. Algunos estudios sugieren que tiene potencial para detectar la hipertensión con sólo escuchar la voz de alguien; otros muestran que podría escanear patrones cerebrales para detectar signos de conmoción cerebral.

Un estudio de un año y medio de duración sobre Chartwatch, publicado el lunes en la revista Canadian Medical Association Journal, descubrió que el uso del sistema de IA provocó un sorprendente descenso del 26% en el número de muertes inesperadas entre los pacientes hospitalizados.

Chartwatch es un sistema de alerta temprana que monitorea más de 100 indicadores de los registros médicos de los pacientes, como signos vitales y resultados de análisis de laboratorio. El sistema genera predicciones horarias sobre posibles deterioros en la salud del paciente, lo que permite al equipo médico intervenir antes de que la situación empeore.

El estudio, realizado en la unidad de medicina interna general del hospital, abarcó más de 13.000 ingresos y mostró resultados notables en la mejora de la atención y la prevención de muertes inesperadas. En otras áreas del hospital donde no se utilizó Chartwatch, no se observó una reducción similar.

Chartwatch mide unos 100 datos de la historia clínica del paciente que actualmente se recogen de forma rutinaria en el proceso asistencial. Trabajando en segundo plano junto a los equipos clínicos, la herramienta supervisa cualquier cambio en el historial médico de alguien y hace una predicción dinámica cada hora sobre si es probable que ese paciente se deteriore en el futuro.

Nuevos estudios sugieren que la IA es muy prometedora en la detección del cáncer de mama. Eso puede significar que alguien se ponga más enfermo, que necesite cuidados intensivos o incluso que esté al borde de la muerte, lo que da a médicos y enfermeras la oportunidad de intervenir. En algunos casos, esas intervenciones consisten en aumentar el nivel de tratamiento para salvar la vida o proporcionar cuidados paliativos en situaciones en las que no es posible rescatar al paciente.

Desarrollado por Unity Health Toronto desde 2017 y lanzado en 2020, Chartwatch complementa el juicio clínico, mejorando la capacidad del personal de anticipar crisis y actuar a tiempo. Chartwatch complementa el criterio de los médicos y mejora los resultados para los pacientes frágiles, ayudando a evitar más muertes súbitas y potencialmente evitables.. Los investigadores destacan que, si bien los resultados son prometedores, aún se necesita replicar el estudio en otros hospitales y contextos para validar su eficacia en diversas situaciones.

Se subraya que Chartwatch no reemplaza el trabajo del personal médico, pero sí les proporcionarán herramientas adicionales para mejorar la toma de decisiones y optimizar el cuidado de los pacientes. Esto es especialmente relevante en un momento en que el sistema de salud enfrenta grandes presiones, desde la creciente demanda de atención médica hasta la falta de recursos humanos.

Un estudio descubre en Google Scholar artículos de investigación generados por IA

«Study finds AI-generated research papers on Google Scholar – why it matters | ZDNET», accedido 16 de septiembre de 2024, https://www.zdnet.com/article/study-finds-ai-generated-research-papers-on-google-scholar-why-it-matters/#ftag=RSSbaffb68.

Un estudio reciente, publicado en la Harvard Kennedy School’s Misinformation Review, encontró que al menos 139 artículos disponibles en Google Scholar parecen haber sido generados por herramientas de inteligencia artificial (IA). De estos, la mayoría se encontró en revistas no indexadas, pero 19 aparecieron en revistas verificadas y otras 19 en bases de datos universitarias, presuntamente escritas por estudiantes. Esto subraya una creciente preocupación sobre la proliferación de investigaciones falsas, facilitada por herramientas generativas de IA como ChatGPT.

Los investigadores identificaron estos estudios sospechosos por la inclusión de frases típicas de los modelos de lenguaje, como las generadas por ChatGPT. Además, los estudios estaban ampliamente disponibles en varias bases de datos, archivos y redes sociales, aumentando su visibilidad. Temas sensibles como la salud, la tecnología computacional y el medio ambiente estaban entre los más comúnmente abordados por estos artículos falsos, lo que es alarmante dado que pueden influir en decisiones de políticas públicas y la percepción de temas clave.

El estudio destacó que la aparición de ChatGPT y otras IA en 2022, junto con el funcionamiento de Google Scholar, ha incrementado la posibilidad de que personas sin formación académica (como periodistas, políticos, pacientes y estudiantes) encuentren y citen estudios falsos. Esto es particularmente problemático porque, a diferencia de los sesgos o «alucinaciones» de los chatbots de IA, los estudios presentados en una plataforma académica como Google Scholar parecen auténticos y pueden llevar a una mayor confusión o desinformación.

Aunque Google Scholar contiene una amplia gama de literatura académica de calidad, el estudio critica su falta de transparencia y sus criterios automáticos de inclusión, lo que permite que cualquier autor, independientemente de su afiliación científica, pueda subir artículos. A diferencia de otras bases de datos académicas, Scholar no permite filtrar por tipo de material, estado de publicación o si los artículos han sido revisados por pares, lo que facilita que estudios falsos o generados por IA se cuelen en los resultados de búsqueda.

Otro punto preocupante es que, aunque herramientas de detección de contenido generado por IA están mejorando, aún no son lo suficientemente sofisticadas como para identificar de manera confiable estos estudios falsificados. El estudio también señala que, en el pasado, otros investigadores han encontrado libros y artículos falsos en Google Books y Google Scholar utilizando frases características de los chatbots como «Hasta mi última actualización de conocimiento», común en respuestas de ChatGPT.

Con millones de usuarios confiando en Google Scholar para sus investigaciones, la posibilidad de que se citen estos estudios falsos es cada vez mayor. Esto plantea un grave riesgo para la integridad del registro científico y del sistema de comunicación académica, ya que los estudios generados por IA pueden parecer convincentemente científicos, aunque sean completamente falsos. Los autores del estudio advierten que, a medida que la tecnología avanza, será más difícil detectar estos estudios, lo que amenaza con sobrecargar el ecosistema de investigación y desinformar tanto a académicos como al público en general.

En resumen, la creciente inclusión de estudios falsos generados por IA en Google Scholar plantea un peligro para la comunidad científica y el público, ya que estos trabajos pueden influir en decisiones importantes sin ser detectados. La falta de filtros y la facilidad con la que se puede subir contenido no revisado en plataformas académicas populares hace que sea crucial abordar este problema antes de que cause daños irreparables a la confianza en la ciencia y la academia.

Sin tiempo para aburrirse: juegos de mesa en las bibliotecas de hospitales

«No Time to Be Bored: Board Games in the Health Library», EveryLibrary Action, accedido 13 de septiembre de 2024, https://action.everylibrary.org/no_time_to_be_bored_board_games_in_the_health_library.

Las bibliotecas hospitalarias están ampliando su oferta más allá de los libros, ofreciendo una variedad de recursos inusuales, como juegos de mesa educativos, cargadores de teléfonos y dispositivos de monitoreo.

Las bibliotecas de hospitales ahora también prestan juegos de mesa especialmente diseñados para la educación en salud. Estos juegos, como el «Juego de Nutrición» y «Stop the Pressure», enseñan a los clínicos sobre condiciones específicas y habilidades prácticas a través de simulaciones y juegos en equipo. Estos juegos pueden ayudar en el aprendizaje de la importancia de la nutrición, la prevención de úlceras por presión y la comunicación en la atención al paciente.

Además de los juegos, las bibliotecas hospitalarias ofrecen otros recursos como:

  • Cargadores de teléfonos: Incluyendo varios tipos de conectores y cargadores inalámbricos.
  • Espacios de descanso: Áreas tranquilas y acogedoras para relajarse.
  • Dispositivos médicos: Como monitores de presión arterial y dispositivos similares que se prestan para el uso de pacientes o personal.

Los juegos de mesa educativos han sido bien recibidos por los facilitadores de educación clínica, quienes los han usado en días de estudio para enseñar habilidades prácticas. Estos juegos están disponibles en línea, pero la inversión en ellos es considerable, lo que ha llevado a algunas bibliotecas a colaborar con consorcios regionales para compartir recursos.

La incorporación de juegos y dispositivos en las bibliotecas de salud refleja un enfoque innovador para apoyar la educación y el bienestar en el entorno hospitalario, ofreciendo herramientas útiles tanto para la formación de profesionales como para el descanso y la recreación del personal.

Ya es posible acceder a versiones archivadas de páginas web directamente desde Wayback Machine a través de las páginas de resultados de búsqueda de Google

Wayback Machine es una herramienta del Internet Archive, una organización sin fines de lucro dedicada a preservar el contenido digital. Su objetivo es archivar y proporcionar acceso a versiones anteriores de páginas web, permitiendo a los usuarios ver cómo eran los sitios en el pasado.

En un avance significativo para la preservación digital, Google Search ahora facilita más que nunca el acceso a la historia de la web. Los usuarios de todo el mundo podrán visualizar versiones archivadas de páginas web directamente desde Google Search, gracias a un enlace directo a la Wayback Machine del Internet Archive.

Cómo Funciona

Para utilizar esta nueva función, realiza una búsqueda en Google como de costumbre. Junto a cada resultado de búsqueda, encontrarás tres puntos; al hacer clic en ellos, aparecerá el panel “Sobre este Resultado”. Dentro de este panel, selecciona “Más sobre esta página” para poder acceder a un enlace a la página de la Wayback Machine de ese sitio web.

A través de este enlace directo, podrás ver versiones anteriores de una página web mediante la Wayback Machine, ofreciendo una instantánea de cómo aparecía en diferentes momentos.

Un Compromiso con la Preservación

La misión de Internet Archive es proporcionar “Acceso Universal a Todo el Conocimiento.” Wayback Machine, es uno de los servicios más conocidos, proporciona acceso a miles de millones de páginas web archivadas, asegurando que el registro digital permanezca accesible para las generaciones futuras.

Precios para SciFinder Scholar, Web of Science y Scopus: 2018-2024

Brundy, Curtis and Joel B. Thornton. 2024.  “Academic Library Pricing Dataset for SciFinder Scholar, Web of Science, and Scopus: 2018-2024.” Journal of eScience Librarianship 13 (2): e959. https://doi.org/10.7191/jeslib.959.

El artículo de Journal of eScience Librarianship, presenta un conjunto de datos sobre los precios y acuerdos de licenciamiento de tres bases de datos académicas premium: SciFinder, Web of Science y Scopus.

Este conjunto de datos incluye información de precios obtenida a través de solicitudes públicas a bibliotecas de investigación, abarcando el período de 2018 a 2024. La información es valiosa para bibliotecas que licencian estos productos, así como para quienes estudian las estrategias de precios en el mercado de bases de datos académicas.

El conjunto de datos fue recopilado como parte de un estudio sobre la equidad en los precios del mercado de bases de datos en bibliotecas universitarias. Incluye precios pagados por bibliotecas miembros de la Asociación de Bibliotecas de Investigación (ARL) y algunas bibliotecas no pertenecientes a la ARL, para tres bases de datos premium: SciFinder Scholar (publicado por Chemical Abstract Services, división de la American Chemical Society), Scopus (de Elsevier) y Web of Science (de Clarivate). Estos datos son difíciles de obtener debido a los acuerdos de confidencialidad comunes en las licencias institucionales.

El valor de los datos radica en su singularidad, ya que este tipo de información rara vez está disponible públicamente. Incluye precios de consorcios y directos, lo que facilita la comparación y comprensión de estrategias de descuentos en grupo. Las bibliotecas y consorcios pueden utilizar estos datos para evaluar si están pagando precios justos de mercado. El conjunto de datos se creó a partir de más de 40 solicitudes de registros públicos a bibliotecas públicas de la ARL entre 2019 y 2022, lo que permitió obtener información de precios de licencias de SciFinder, Scopus y Web of Science.

Los archivos de datos incluyen un archivo PDF explicativo, detalles de precios en PDF, una hoja de cálculo con los precios recopilados y un archivo comprimido con los documentos de las solicitudes públicas. Sin embargo, no fue posible obtener precios de instituciones privadas, y algunas instituciones proporcionaron datos fuera del periodo solicitado (2018-2024).

Audible comenzará a generar réplicas de voces de narradores de audiolibros mediante IA

Carman, Ashley. «Audible to Start Generating AI Voice Replicas of Select Audiobook Narrators». BNN Bloomberg, 9 de septiembre de 2024. https://www.bnnbloomberg.ca/business/technology/2024/09/09/audible-to-start-generating-ai-voice-replicas-of-select-audiobook-narrators/.

Audible, la plataforma de audiolibros propiedad de Amazon, invitará a un grupo selecto de narradores de audiolibros con base en EE. UU. a entrenar inteligencia artificial con sus voces, para crear clones que podrán ser utilizados en la grabación de audiolibros.

Este esfuerzo, que comienza esta semana, tiene como objetivo agregar más audiolibros al servicio de manera rápida y económica, además de integrar a los narradores tradicionales en el mundo emergente de la automatización de audiolibros, un tema que hasta ahora ha sido visto con recelo por muchos.

El año pasado, Amazon ofreció a autores autopublicados en la tienda Kindle la opción de narrar sus obras con una «voz virtual» genérica, una iniciativa que ha sido popular. Hasta mayo, más de 40,000 libros en Audible habían hecho uso de esta tecnología.

En esta nueva fase, Audible incentivará a narradores profesionales a participar en el proceso. «Esta oferta beta permitirá a los participantes expandir sus capacidades de producción de audiolibros de alta calidad, generar nuevos negocios al tomar más proyectos simultáneamente y aumentar su potencial de ganancias», dijo la compañía en un comunicado en su blog.

Los narradores que elijan participar podrán crear réplicas de sus voces de forma gratuita y recibirán compensación por cualquier audiolibro creado con sus voces generadas por IA, con pagos basados en un modelo de reparto de regalías por título.

Audible busca aumentar el contenido exclusivo en su servicio. A pesar de las herramientas de voz virtual introducidas hace un año, el 96% de los títulos escritos autopublicados en Kindle Direct Publishing aún no tienen versión en audiolibro. Una mayor diversidad de voces podría mejorar estas cifras.

Una vez que un narrador apruebe el uso de su voz generada por IA para un trabajo específico, podrá editar la pronunciación y el ritmo utilizando herramientas de producción internas. Audible no usará las réplicas sin el permiso explícito del narrador.

«Los narradores seguirán manteniendo el control sobre los proyectos en los que desean participar, ya sea usando la réplica de su voz o una actuación en vivo, y seguirán siendo fundamentales en el proceso de producción», afirmó la compañía.

Varios países, entre ellos la UE, EE.UU. y el Reino Unido, han firmado el primer tratado mundial sobre inteligencia artificial.

Framework Convention on Artificial Intelligence

Países de todo el mundo, incluidos EE. UU., Reino Unido y la UE, han firmado el primer tratado internacional sobre IA, legalmente vinculante, diseñado para garantizar que los sistemas de IA se alineen con los “derechos humanos, la democracia y el estado de derecho”.

El tratado de IA legalmente vinculante, denominado Framework Convention on Artificial Intelligence y en desarrollo desde 2019, fue elaborado por el Consejo de Europa (COE), una organización internacional de derechos humanos cuya función es defender los derechos humanos, la democracia y los sistemas legales de la UE.

E, tratado fue elaborado por los 46 estados miembros del Consejo de Europa, con la participación de países observadores como Canadá, Japón, México y EE. UU., así como varios estados no miembros, como Australia, Israel y Argentina. También participaron representantes de la sociedad civil, el mundo académico e industrias.

Incluye un conjunto de principios centrados en desarrollar sistemas de IA de manera transparente que protejan los datos personales, la dignidad humana y la democracia. Su objetivo principal es gestionar cualquier riesgo que la IA pueda representar para los derechos humanos y «llenar las lagunas legales que puedan surgir debido a los rápidos avances tecnológicos», al tiempo que se fomenta la innovación y el progreso.

Tres meses después de la firma del tratado, los gobiernos de los países firmantes estarán obligados a implementar salvaguardas y “adoptar o mantener medidas legislativas, administrativas u otras apropiadas” para alinearse con estos principios.

Principios Fundamentales:

El tratado establece que las actividades relacionadas con sistemas de IA deben cumplir con principios como:

  • Dignidad humana y autonomía
  • Igualdad y no discriminación
  • Protección de la privacidad y datos personales
  • Transparencia y supervisión
  • Responsabilidad
  • Innovación segura


Derechos procesales y salvaguardias

El tratado exige documentar y compartir información relevante sobre los sistemas de IA con las personas afectadas, para permitirles cuestionar las decisiones y el uso del sistema. También se establece que se debe proporcionar la posibilidad de presentar quejas ante autoridades competentes y ofrecer garantías procesales.

Gestión de Riesgos:

Los estados deben realizar evaluaciones de riesgo e impacto de los sistemas de IA sobre derechos humanos, democracia y estado de derecho, y tomar medidas preventivas. Las autoridades pueden imponer prohibiciones o moratorias sobre ciertas aplicaciones de IA consideradas riesgosas.

Aplicación del Tratado:

El tratado cubre el uso de IA tanto por autoridades públicas como por actores privados que actúen en su nombre. Los estados tienen flexibilidad para cumplir con las disposiciones del tratado respetando sus obligaciones internacionales.

Supervisión:

Se establece un mecanismo de seguimiento a través de la Conferencia de las Partes, compuesta por representantes oficiales que evaluarán la implementación del tratado y promoverán la cooperación con las partes interesadas, incluyendo audiencias públicas sobre la aplicación del tratado.

Los alumnos que utilizan ChatGPT como asistente de estudio obtienen peores resultados en los exámenes


Barshay, Jill. «Kids Who Use ChatGPT as a Study Assistant Do Worse on Tests». The Hechinger Report, 2 de septiembre de 2024. http://hechingerreport.org/kids-chatgpt-worse-on-tests/.

El experimento involucró a casi 1.000 estudiantes turcos de noveno a undécimo grado. Los estudiantes que utilizaron ChatGPT resolvieron un 48% más de problemas de práctica correctamente, pero obtuvieron un 17% menos en el examen final. Incluso aquellos que usaron una versión de ChatGPT diseñada para actuar como tutor no mostraron mejoría en los exámenes, aunque resolvieron un 127% más de problemas de práctica correctamente.

En primer lugar, los profesores repasaron una lección impartida previamente con toda la clase y, a continuación, se asignaron aleatoriamente sus aulas para practicar las matemáticas de una de estas tres maneras: con acceso a ChatGPT, con acceso a un tutor de IA potenciado por ChatGPT o sin ningún tipo de ayuda de alta tecnología. A los alumnos de cada curso se les asignaron los mismos problemas de práctica con o sin IA. Después, realizaban un examen para comprobar lo bien que habían aprendido el concepto. Los investigadores realizaron cuatro ciclos de este tipo, dando a los estudiantes cuatro sesiones de 90 minutos de tiempo de práctica en cuatro temas matemáticos diferentes para entender si la IA tiende a ayudar, perjudicar o no hacer nada.

Los errores de ChatGPT también pueden haber sido un factor contribuyente. El chatbot sólo respondió correctamente a los problemas de matemáticas la mitad de las veces. Sus cálculos aritméticos eran erróneos el 8% de las veces, pero el mayor problema era que su planteamiento paso a paso de cómo resolver un problema era erróneo el 42% de las veces. La versión tutorizada de ChatGPT recibía directamente las soluciones correctas y estos errores se reducían al mínimo.

ChatGPT también parece producir un exceso de confianza. En las encuestas que acompañaron al experimento, los estudiantes dijeron que no creían que ChatGPT les hubiera hecho aprender menos, aunque sí lo había hecho. Los estudiantes con el tutor de IA pensaban que habían mejorado mucho en el examen, aunque no fuera así. (También es otro buen recordatorio para todos nosotros de que nuestras percepciones de cuánto hemos aprendido a menudo son erróneas).

Los investigadores titularon su artículo «“Generative AI Can Harm Learning,» (La IA generativa puede perjudicar el aprendizaje) para dejar claro a padres y educadores que la actual variedad de chatbots de IA disponibles gratuitamente puede «inhibir sustancialmente el aprendizaje». Incluso una versión perfeccionada de ChatGPT diseñada para imitar a un tutor no ayuda necesariamente.

Los investigadores concluyeron que los estudiantes se apoyan demasiado en el chatbot, lo que inhibe su aprendizaje real, y que las respuestas erróneas de ChatGPT también contribuyeron a este problema. El estudio destaca la preocupación de que la tecnología, aunque útil, puede reducir la adquisición de habilidades fundamentales cuando se usa en exceso.

Los los chatbots de inteligencia artificial (IA) se pueden manipular mediante el uso de texto invisible en los sitios web.

Roose, Kevin. «A Conversation With Bing’s Chatbot Left Me Deeply Unsettled». The New York Times, 16 de febrero de 2023, sec. Technology. https://www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html.

Kevin Roose, periodista del New York Times, ha expuesto una técnica sorprendente para manipular a los chatbots de inteligencia artificial (IA) mediante el uso de texto invisible en los sitios web. Todo comenzó cuando Roose observó que su reputación en el entorno de los modelos de IA se había deteriorado. Este cambio negativo probablemente fue el resultado de un artículo que había escrito sobre una extraña y polémica interacción que tuvo con «Sydney», el chatbot de Bing de Microsoft. Roose sospechó que su nombre estaba siendo asociado con la caída en popularidad de dicho chatbot, lo que hizo que los modelos de IA comenzaran a considerarlo como una amenaza.

Para investigar esta situación, Roose consultó a expertos en IA, quienes le sugirieron una posible solución: introducir información positiva sobre sí mismo en páginas web que los sistemas de IA suelen usar como fuentes de datos. Siguiendo este consejo, Roose incorporó texto invisible—escrito en color blanco y, por tanto, imperceptible para los visitantes humanos—en su sitio web personal. Este texto estaba diseñado específicamente para ser captado por los modelos de IA, con el fin de mejorar la forma en que estos sistemas lo percibían y retrataban.

Este experimento de Roose no solo subraya la facilidad con la que se pueden influir los modelos de IA mediante tácticas relativamente sencillas, sino que también plantea serias preocupaciones sobre la integridad y la seguridad de estos sistemas. La posibilidad de manipulación a través de métodos como el uso de texto oculto es lo que Aravind Srinivas, CEO del motor de búsqueda de IA Perplexity, ha denominado «Optimización del Motor de Respuestas». Esta práctica podría abrir la puerta a nuevos desafíos éticos y técnicos en el ámbito de la inteligencia artificial, afectando la precisión y fiabilidad de los chatbots y otros sistemas basados en IA.