Archivo de la etiqueta: Noticias

Wiley defiende los derechos de autor frente al uso no autorizado de contenidos en la inteligencia artificial

Wiley. 2025. Wiley Position Statement on Illegal Scraping of Copyrighted Content by AI Developers. May 7, 2025. https://www.wiley.com/en-us/position-statement-ai-scraping

En su declaración oficial, Wiley —una de las editoriales académicas más antiguas y reconocidas del mundo— reafirma su postura firme en defensa de los derechos de propiedad intelectual ante el creciente uso de contenidos protegidos en el entrenamiento de modelos de inteligencia artificial. Subraya que la innovación tecnológica debe avanzar de la mano de prácticas éticas y legales, especialmente en lo que respecta al uso de obras creadas por autores, investigadores y comunidades académicas.

Wiley comienza recordando su compromiso histórico con la creación y difusión del conocimiento, destacando que este progreso solo es posible si se respeta el trabajo intelectual de quienes generan contenidos. Reconoce el valor transformador de la inteligencia artificial para la investigación y el descubrimiento, pero advierte que dicho avance debe asentarse sobre una base de respeto a los derechos de autor, atribución adecuada y compensación justa.

En este sentido, la editorial exige que los desarrolladores de IA soliciten autorización expresa antes de utilizar materiales de su propiedad o publicados en colaboración con sus socios. Wiley deja claro que no existe ningún tipo de permiso implícito, y que todos los derechos están reservados, salvo que se obtenga una licencia formal.

Además, se insiste en que la atribución transparente y la trazabilidad del origen de los datos son principios clave del desarrollo ético de IA. Wiley ha desarrollado marcos de licenciamiento flexibles y adaptables, que permiten a los desarrolladores acceder de forma legal a contenidos protegidos, en función de sus necesidades específicas.

El comunicado también subraya que ya existen numerosos acuerdos exitosos entre editoriales científicas (STM y comerciales) y empresas de IA, incluidos acuerdos firmados por la propia Wiley. Estos pactos demuestran que el mercado de licencias de contenidos para IA no solo es viable, sino que ya está en funcionamiento.

Más allá del aspecto legal, Wiley resalta el valor de establecer colaboraciones activas con la comunidad de desarrolladores de IA para promover estándares compartidos que incluyan transparencia, citación adecuada, atribución y procedencia de los datos. Esto no solo garantiza el respeto por los creadores, sino que también contribuye a generar confianza entre los usuarios de sistemas de IA.

En conclusión, Wiley aboga por un ecosistema sostenible donde la tecnología y la creatividad humana coexistan armónicamente. La editorial invita a autores, investigadores, desarrolladores éticos de IA y otras editoriales a participar activamente en la construcción de un marco de innovación responsable, donde los derechos de los creadores sean preservados y reconocidos como base de cualquier avance significativo en el campo de la inteligencia artificial.

Importancia de los podcast en la potencialización y ampliación del impacto académico de los investigadores

Allison Symulevich, Matt Torrence, Jason Boczar, y Jessica Szempruch, «Podcasting as Open Access: A Review and Discussion of Potential Impact on Scholarly Communication and Promotion» Journal of Librarianship and Scholarly Communication 13, no. 1 (2025): eP18241, https://doi.org/10.31274/jlsc.18241

Los podcasts académicos constituyen una forma informal mediante la cual el profesorado puede compartir su experiencia investigadora con una audiencia más amplia e internacional. En el artículo, los autores sostienen que los podcasts representan un tipo de comunicación académica informal y destacan el papel que pueden desempeñar las bibliotecas en el éxito de su difusión y accesibilidad.

En los últimos años, los podcasts académicos han emergido como una valiosa herramienta de comunicación científica informal, permitiendo a docentes, investigadores y especialistas compartir su conocimiento y experiencia más allá de los canales tradicionales de divulgación, como los artículos académicos o las conferencias. Este tipo de contenido, al ser accesible y narrativo, facilita la conexión con audiencias más amplias y diversas, incluyendo estudiantes, colegas de otras disciplinas, profesionales del sector y el público general.

Uno de los aportes más significativos del podcasting en el entorno académico es su naturaleza abierta. Cuando estos materiales se publican en repositorios institucionales de acceso abierto, como se ha hecho en la Universidad del Sur de Florida, se garantiza su disponibilidad permanente y gratuita, lo que contribuye directamente a mejorar la visibilidad, el alcance internacional y la trazabilidad del trabajo académico. Este enfoque no solo amplía la audiencia potencial del contenido, sino que también complementa la evaluación del impacto de la producción científica a través de nuevas métricas de uso, como descargas, escuchas, alcance geográfico y nivel de interacción en plataformas digitales.

A nivel institucional, las bibliotecas universitarias pueden desempeñar un papel clave al apoyar la creación, el alojamiento, la preservación y la difusión de podcasts académicos, ayudando a los investigadores a optimizar el impacto de su producción intelectual. Asimismo, estos formatos pueden integrarse como evidencias de transferencia de conocimiento en procesos de evaluación y promoción académica, dado que reflejan habilidades de comunicación científica, compromiso con la sociedad y capacidad de innovación.

El estudio también plantea la necesidad de avanzar hacia una estandarización de los sistemas de medición del impacto de los podcasts académicos, así como la generación de guías que permitan a otras instituciones replicar buenas prácticas en este campo emergente de la ciencia abierta.

Ninguna IA supo predecir que Prevost iba a ser el nuevo Papa de la Iglesia Católica

Un artículo de Euronews analizó las predicciones de diversos chatbots de inteligencia artificial sobre quién sería el próximo Papa tras el fallecimiento de Francisco. Modelos como ChatGPT, Gemini, Grok-2 y DeepSeek fueron consultados para conocer sus opiniones sobre el sucesor del Pontífice. Aunque como vemos las IA no pueden predecir eventos futuros con certeza, aunque sus respuestas ofrecen una visión interesante sobre las tendencias actuales en la Iglesia Católica

La mayoría de las IA consultadas antes del cónclave apostaban por otros cardenales, como Pietro Parolin, Luis Antonio Tagle o Matteo Zuppi . La sorpresa fue aún mayor porque Prevost, un agustino estadounidense de 69 años con una carrera misionera en Perú, tenía una probabilidad estimada de apenas el 2% en los mercados de predicción

Según los chatbots, el cardenal filipino Luis Antonio Tagle era uno de los favoritos para asumir el papado. Su perfil destacaba por su juventud, su apoyo al Papa Francisco y su proyección internacional. Sin embargo, algunos modelos señalaron que su edad podría ser un factor en contra para asumir un cargo de tanta responsabilidad.

Otro nombre que dieron las predicciones fue el del cardenal italiano Pietro Parolin, actual Secretario de Estado del Vaticano. Su experiencia administrativa y diplomática lo posicionaban como un candidato sólido para liderar la Iglesia en tiempos de desafíos institucionales.

Además de estos dos, otros cardenales como Matteo Zuppi, Jean-Claude Hollerich y Jean-Marc Aveline también fueron mencionados por las IA como posibles sucesores. Cada uno con características podrían contribuir a una visión renovada o continuista de la Iglesia.

En conclusión, se puede decir que aunque la inteligencia artificial puede analizar datos y tendencias, no fue capaz de predecir con precisión la elección de Robert Prevost como Papa. Su elección fue una sorpresa para muchos, incluidos los sistemas de IA.

Donald Trump despide de forma repentina a Carla Hayden, la Bibliotecaria del Congreso de Estados Unidos

Wu, Nicholas, Lisa Kashinsky y Katherine Tully-McManus. “Librarian of Congress Carla Hayden Is Fired by Trump.” Politico. 8 de mayo de 2025. https://www.politico.com/live-updates/2025/05/08/congress/librarian-of-congress-carla-hayden-fired-00337506

La destitución de Hayden ha abierto un debate más amplio sobre el papel de las instituciones culturales, la autonomía profesional y la creciente politización de los cargos públicos en Estados Unidos. Su salida forzada podría tener repercusiones duraderas en la forma en que se definen y protegen los roles culturales clave en la democracia estadounidense.

El 8 de mayo de 2025, el presidente Donald Trump despidió de forma repentina a Carla Hayden, quien hasta entonces ejercía como Bibliotecaria del Congreso de Estados Unidos. La noticia fue confirmada tanto por un portavoz oficial de la Biblioteca del Congreso como por un correo electrónico enviado a Hayden por el subdirector de Personal Presidencial, Trent Morse, en el que se notificaba que su puesto quedaba «terminado con efecto inmediato».

La destitución fue interpretada por muchos como un acto abrupto y sin precedentes, especialmente porque Hayden estaba en pleno ejercicio de un mandato de diez años para el cual había sido confirmada en 2016 por una amplia mayoría del Senado (74 votos a favor y 18 en contra), tras ser nominada por el expresidente Barack Obama.

Carla Hayden hizo historia como la primera mujer y la primera persona afroamericana en liderar la Biblioteca del Congreso, la institución bibliotecaria más grande del mundo. Antes de asumir ese cargo, había desempeñado un papel destacado en el sistema de bibliotecas públicas, particularmente como directora de la Biblioteca Gratuita Enoch Pratt de Baltimore. Durante su gestión al frente de la Biblioteca del Congreso, Hayden promovió la modernización digital, el acceso abierto y una mayor inclusión social, además de fortalecer la presencia pública de la biblioteca a través de las redes sociales y eventos culturales.

Sin embargo, en los días previos a su despido, Hayden fue objeto de fuertes críticas por parte de algunos sectores conservadores. Un grupo activista de línea dura llamado American Accountability Foundation la acusó en redes sociales de ser «woke», de tener posturas contrarias a Trump y de «promover la transición de género en menores», aunque no presentaron pruebas concretas. Estas críticas coincidieron con cuestionamientos por parte de legisladores republicanos durante una audiencia del Comité de Administración de la Cámara de Representantes, en la que se discutieron los retrasos y el aumento de costos en el proyecto de renovación del emblemático edificio que alberga la institución.

La reacción de los demócratas fue inmediata. El congresista Joe Morelle, principal demócrata en el comité que supervisa la biblioteca, calificó el despido como un ataque contra una servidora pública ejemplar. El líder de la minoría demócrata en el Senado, Chuck Schumer, fue más allá al decir que este acto formaba parte de «la campaña implacable de Trump por desmantelar los contrapesos democráticos y castigar a los funcionarios que no se someten a su voluntad». Ante esta situación, Morelle anunció su intención de presentar una propuesta legislativa para transferir al Congreso el poder de nombrar y destituir al Bibliotecario del Congreso, con el fin de evitar decisiones unilaterales por parte del Ejecutivo, como ya se hizo recientemente con el cargo de Arquitecto del Capitolio tras una serie de escándalos.

Wiley retracta de 26 artículos por la posible participación de fábricas de artículos científicos en ellos

Marcus, Adam. «Wiley Journal Retracts 26 Papers for ‘Compromised Peer Review.’» Retraction Watch, February 19, 2025. https://retractionwatch.com/2025/02/19/environmental-toxicology-wiley-journal-retractions-compromised-peer-review/#more-131105

Los artículos retirados de Environmental Toxicology tienen en común que todos los autores están afiliados a universidades chinas, y muchos de los correos electrónicos de los autores no corresponden a dominios académicos legítimos, sino que contienen secuencias aleatorias de letras y números. Este patrón sugiere la posible participación de fábricas de artículos científicos, que producen y publican trabajos sin un proceso científico genuino.

La revista Environmental Toxicology de Wiley ha realizado la retractación de más de una veintena de artículos en los últimos meses debido a problemas relacionados con el proceso de revisión por pares, lo que ha puesto en evidencia ciertas irregularidades en el manejo editorial de la publicación. Este problema, que se detectó en varias fases, incluyó lotes de retractaciones en noviembre de 2024, enero y más recientemente en febrero de 2025. La investigación interna de Wiley concluyó que estos artículos fueron aceptados exclusivamente debido a un proceso de revisión por pares dudosa, es decir, un procedimiento en el que las evaluaciones de los manuscritos no fueron realizadas de manera justa ni objetiva.

Los artículos en cuestión, todos ellos publicados en Environmental Toxicology, tienen un denominador común: todos los autores están afiliados a universidades de China, y la mayoría de los correos electrónicos de los autores correspondientes no estaban relacionados con dominios universitarios o de instituciones de investigación reconocidas, sino que contenían secuencias aleatorias de letras y números. Este patrón ha sido identificado como una posible señal de actividades vinculadas a fábricas de artículos científicos (Paper Mills), donde se crean y se publican artículos sin un verdadero proceso científico detrás de ellos.

El representante de la oficina de prensa de Wiley explicó que la editorial había identificado patrones preocupantes en la revisión de los manuscritos en proceso, así como en algunos artículos previamente publicados. El caso de Environmental Toxicology forma parte de una investigación más amplia que también ha afectado a otras publicaciones de Wiley, incluidas las retractaciones masivas de artículos en el International Wound Journal en junio de 2024, también por problemas de revisión por pares dudosa. Desde finales de 2022, Wiley ha tenido que retirar más de 11.000 artículos publicados en revistas adquiridas de Hindawi, que la editorial compró en 2021.

Dentro de las retractaciones recientes, nueve de ellas incluyeron declaraciones de uno o más de los autores que no estuvieron de acuerdo con la retirada del artículo. Por ejemplo, Zheng Lufeng, profesor asociado de la Universidad Farmacéutica de China en Nanjing, fue coautor correspondiente de uno de los artículos retirados titulado “MiR-375 impair breast cancer cell stemness by targeting the KLF5/G6PD signaling axis.” Lufeng expresó que los autores no participaron en el proceso de revisión por pares y que esta era una responsabilidad del editor, no de los autores. También solicitó que los editores modificaran los avisos de retractación para indicar que la retirada de los artículos no tenía nada que ver con la implicación directa de los autores en los problemas de la revisión.

Hasta ahora, la mayoría de los artículos retirados fueron publicados en 2024 o en línea bajo el servicio EarlyView de Wiley, lo que implica que la mayoría de los trabajos afectados no habían pasado aún por el proceso de publicación final y revisión completa. Según los avisos de retractación, todos los artículos fueron retirados de común acuerdo entre el Editor en Jefe de la revista y Wiley Periodicals LLC. Paul B. Tchounwou, quien era el editor en jefe de la revista hasta noviembre de 2024, y Christyn Bailey, la actual editora en jefe, no respondieron a las solicitudes de comentarios sobre esta situación.

Este escándalo ha puesto nuevamente en evidencia las vulnerabilidades de los procesos editoriales en el ámbito académico, especialmente en lo que respecta a la integridad de la revisión por pares. Las editoriales enfrentan presiones crecientes por garantizar la calidad de los artículos que publican, lo que genera preocupaciones sobre el auge de prácticas fraudulentas como las fábricas de artículos científicos, que afectan la credibilidad de la investigación académica global. A medida que las editoriales, como Wiley, continúan enfrentando estos desafíos, el proceso de revisión por pares se mantiene como uno de los pilares más importantes para preservar la fiabilidad y la calidad de la investigación publicada.

Además, esta situación también subraya la importancia de la transparencia y la responsabilidad en las publicaciones científicas. El uso de correos electrónicos y dominios no verificados o no asociados con universidades o instituciones de investigación legítimas es una señal de alerta que puede poner en riesgo la calidad de la investigación publicada y afectar la confianza de la comunidad científica. El debate sobre la efectividad del proceso de revisión por pares sigue siendo un tema relevante en el campo académico, con nuevas medidas y plataformas que buscan garantizar la calidad, la integridad y la transparencia en la publicación de trabajos científicos.

Sam Altman, CEO de OpenAI, admite que los beneficios de la IA podrían no distribuirse ampliamente

Wiggers, Kyle. «OpenAI CEO Sam Altman Admits That AI’s Benefits May Not Be Widely DistributedTechCrunch, 9 de febrero de 2025. https://techcrunch.com/2025/02/09/openai-ceo-sam-altman-admits-that-ais-benefits-may-not-be-widely-distributed/

En un ensayo reciente en su blog personal, Sam Altman, CEO de OpenAI, expresó que la compañía está abierta a ideas inusuales, como el concepto de un «presupuesto de cómputo», para permitir que todos en el mundo utilicen IA y garantizar que sus beneficios sean distribuidos de manera más equitativa. Altman destacó que, aunque los avances tecnológicos mejoran indicadores como la salud y la prosperidad económica, la igualdad no está garantizada por la tecnología y puede requerir intervenciones tempranas.

El concepto del «presupuesto de cómputo» de Altman podría ser difícil de ejecutar, ya que la IA ya está impactando el mercado laboral con recortes de empleos. Expertos advierten que el desempleo masivo podría ser una consecuencia si no se implementan políticas gubernamentales adecuadas y programas de reentrenamiento.

Altman también habló sobre la inteligencia artificial general (AGI), que define como un sistema de IA capaz de resolver problemas complejos a nivel humano en diversas áreas. Aunque la AGI está cerca, según Altman, no será perfecta y necesitará supervisión humana. La verdadera utilidad de la AGI, según él, provendrá de su escala masiva, con miles o millones de sistemas de IA trabajando en diversas tareas.

A pesar de los altos costos asociados al desarrollo de IA, Altman mencionó que el costo de usar un nivel determinado de IA disminuye cada 12 meses. OpenAI está trabajando en la creación de una red de datos masiva y buscando inversiones de hasta 40 mil millones de dólares.

En cuanto a la seguridad de la AGI, Altman indicó que OpenAI tomará decisiones y limitaciones impopulares para asegurar que la tecnología no sea mal utilizada, especialmente por gobiernos autoritarios. Además, subrayó que OpenAI tiene como objetivo empoderar a los individuos, sin perder de vista la necesidad de equilibrar la seguridad con la autonomía personal.

Una colación de defensores de la privacidad demanda al «Departamento de Eficiencia Gubernamental» (DOGE) y a Elon Musk por poner en peligro la intimidad de millones de personas

Electronic Frontier Foundation. «EFF Sues OPM, DOGE, and Musk for Endangering the Privacy of MillionsElectronic Frontier Foundation, 11 de febrero de 2025. https://www.eff.org/press/releases/eff-sues-opm-doge-and-musk-endangering-privacy-millions

La EFF y una coalición de defensores de la privacidad liderada por Lex Lumina han presentado una demanda solicitando a un tribunal federal que impida a la Oficina de Gestión de Personal (OPM) de Estados Unidos revelar información privada y sensible de millones de estadounidenses a Elon Musk y su «Departamento de Eficiencia Gubernamental» (DOGE).

Electronic Frontier Foundation (EFF) y una coalición de defensores de la privacidad acaban de presentar una demanda en la que solicitan a un tribunal federal que bloquee al Departamento de Eficiencia Gubernamental (DOGE) de Elon Musk el acceso a la información privada de millones de estadounidenses que almacena la Oficina de Gestión de Personal (OPM), y que elimine cualquier dato que se haya recopilado o eliminado hasta el momento. En la demanda también se nombra a la OPM y se pide al tribunal que impida que la OPM siga compartiendo datos con la DOGE.

Parte de la carta dice:

«Hola Partidario de la Libertad Digital:
No aceptaremos el saqueo descarado de los datos sensibles de millones de personas.

Nuestro caso es bastante sencillo: Los datos de la OPM son extraordinariamente sensibles, la OPM se los dio al DOGE, y esto viola la Ley de Privacidad de 1974.

Por tus derechos digitales,

Corynne McSherry
Directora Jurídica de la EFF»

Los registros de la OPM son una de las mayores, si no la mayor, recopilación de datos de empleados en los EE.UU. Con nuestro co-abogado Lex Lumina, State Democracy Defenders Fund, y Chandra Law Firm, representamos a empleados federales actuales y antiguos cuya privacidad ha sido violada.

Este enorme tesoro de información incluye datos demográficos privados e historiales laborales de prácticamente todos los empleados y contratistas federales actuales y anteriores, así como de los solicitantes de empleo federal. La semana pasada, un juez federal bloqueó temporalmente el acceso del DOGE a un sistema crítico de pagos del Tesoro de EE.UU. en virtud de una demanda similar. Estas violaciones de la privacidad de los datos no deben permitirse.

¿Y ahora qué?

La cuestión no es «qué pasa si estos datos caen en malas manos». Los datos ya han caído en manos equivocadas, según la ley, y deben salvaguardarse inmediatamente. Las violaciones de la privacidad de los estadounidenses se han producido en múltiples agencias, sin supervisión ni salvaguardias, y la EFF se complace en unirse a la brigada de demandas para proteger esta información crítica.

Esto es sólo el principio de lo que puede ser una lucha difícil. Pero la EFF no es ajena a los adversarios duros. Con el apoyo de nuestros miembros, hemos defendido los derechos de los usuarios de tecnología en cientos de casos para proteger su libertad en línea. Me enorgullece estar a tu lado por el futuro de la privacidad, la libertad de expresión y la creatividad.

La BBC denuncia imprecisiones en los resúmenes de noticias generados por IA

Rahman-Jones, Imran. «AI Chatbots Unable to Accurately Summarise News, BBC FindsBBC News, February 11, 2025. https://www.bbc.com/news/articles/c0m17d8827ko.

Un estudio de la BBC encontró que cuatro chatbots de inteligencia artificial—ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) y Perplexity—fallan al resumir con precisión noticias, presentando distorsiones y errores significativos.

En el experimento, la BBC les pidió a estos modelos que resumieran 100 noticias de su sitio web y expertos evaluaron sus respuestas. Se detectó que el 51 % de las respuestas tenía problemas importantes y que el 19 % de aquellas que citaban contenido de la BBC contenían errores factuales, como datos y fechas incorrectas.

Algunos ejemplos de inexactitudes incluyen: Gemini afirmando erróneamente que el NHS no recomienda el vapeo para dejar de fumar, ChatGPT y Copilot diciendo que Rishi Sunak y Nicola Sturgeon aún estaban en el cargo tras haberlo dejado, y Perplexity tergiversando una noticia sobre Medio Oriente.

La directora de BBC News, Deborah Turness, advirtió que las empresas de IA están «jugando con fuego» y pidió que las compañías tecnológicas «retiren» estos resúmenes, como ya hizo Apple tras quejas previas de la BBC.

El informe también señala que los chatbots no solo presentan errores fácticos, sino que tienen dificultades para diferenciar entre opinión y hechos, editorializan y omiten contexto esencial. La BBC busca dialogar con las empresas de IA para encontrar soluciones y garantizar que los editores tengan control sobre el uso de su contenido.

El informe, además señala que, en general, Copilot y Gemini fueron los chatbots con mayores problemas, mientras que ChatGPT y Perplexity mostraron un desempeño algo mejor, aunque también presentaron errores significativos.

El futuro de la investigación en recuperación de información en la era de la IA generativa

Computing Community Consortium (CCC). Future of Information Retrieval Research in the Age of Generative AI CCC Visioning Workshop. Accessed December 5, 2024. https://cra.org/ccc/events/future-of-information-retrieval-research-in-the-age-of-generative-ai-ccc-visioning-workshop/.

El informe Future of Information Retrieval Research in the Age of Generative AI fue elaborado por destacados investigadores, incluyendo James Allan, Eunsol Choi, Daniel P. Lopresti y Hamed Zamani, bajo el auspicio del Computing Community Consortium (CCC). Publicado en diciembre de 2024, explora cómo los modelos de lenguaje generativo (LLMs) están redefiniendo la recuperación de información (IR) y establece una hoja de ruta para el desarrollo futuro en este campo.

Se basa en un taller de visión celebrado en julio de 2024, que reunió a 44 expertos de diversas disciplinas como IR, procesamiento del lenguaje natural (NLP) e inteligencia artificial (IA). El propósito fue analizar cómo la integración de tecnologías generativas podría transformar las interacciones de los usuarios con sistemas de información y cuáles serían los retos y oportunidades.

Durante el taller, se emplearon técnicas colaborativas inspiradas en las reglas de IDEO para fomentar ideas innovadoras y estructuradas. Los participantes debatieron en ocho sesiones temáticas, las cuales identificaron las principales direcciones de investigación necesarias para aprovechar el potencial de los sistemas IR-GenAI.

El informe identifica ocho áreas prioritarias:

  1. Evaluación de sistemas IR-GenAI: diseñar métricas y metodologías que capturen las capacidades únicas de los modelos generativos.
  2. Aprendizaje del feedback humano: integrar retroalimentación implícita y explícita para resolver problemas complejos que requieran razonamiento.
  3. Modelado de usuarios: entender cómo evolucionan las necesidades de los usuarios en sistemas de acceso a información potenciados por IA generativa.
  4. Cuestiones socio-técnicas: abordar los impactos éticos y sociales que surgen con estas tecnologías.
  5. Sistemas personalizados: desarrollar métodos que adapten los resultados de IR-GenAI a las necesidades individuales.
  6. Eficiencia y escalabilidad: optimizar el uso de recursos computacionales, datos y esfuerzos humanos.
  7. IR para mejorar agentes de IA: integrar técnicas de recuperación de información en agentes inteligentes.
  8. Modelos fundacionales para acceso a la información: diseñar modelos específicamente enfocados en la recuperación y descubrimiento de información.

En conclusión, el informe ofrece un resumen de las discusiones y sugiere acciones concretas para académicos, profesionales de la industria, campañas de evaluación y agencias de financiamiento. Se destaca la necesidad de colaboración interdisciplinaria y de crear tecnologías inclusivas que maximicen los beneficios de la IA generativa para la recuperación de información.

Este documento no solo proporciona una visión del futuro de IR, sino también un marco para avanzar en investigaciones y aplicaciones prácticas en la intersección de IA y recuperación de información.

Un sitio web de noticias impulsado por IA acusa accidentalmente de asesinato al fiscal del distrito

«AI-Powered News Site Accidentally Accuses District Attorney of Murder», Futurism. 18 de octubre de 2024. https://futurism.com/ai-accuses-district-attorney-of-murder.

Un controvertido sitio de noticias local impulsado por inteligencia artificial, Hoodline San José, cometió un grave error al acusar accidentalmente a un fiscal del distrito de asesinato. Un artículo publicado por este medio, que forma parte de una red de sitios de noticias locales en EE. UU., tenía el impactante título: «FISCAL DEL CONDADO DE SAN MATEO ACUSADO DE ASESINATO EN MEDIO DE LA BÚSQUEDA DE LOS RESTOS DE LA VÍCTIMA». Sin embargo, la realidad es que, aunque hubo un asesinato, el fiscal no fue el autor; simplemente había presentado cargos contra el verdadero sospechoso.

El error se originó cuando el sistema de inteligencia artificial de Hoodline interpretó incorrectamente un tuit de la oficina del fiscal del distrito de San Mateo, que anunciaba que un hombre local había sido acusado de asesinato. La IA distorsionó la información de tal manera que hizo parecer que el propio fiscal había cometido el crimen. Este tipo de acusaciones, sobre todo contra un funcionario público, es de suma gravedad en el periodismo.

Después de que el sitio fue señalado por Techdirt, se publicó una nota del editor que intentó explicar el error como un «error tipográfico» que cambió el significado del contenido y creó confusión entre el fiscal y el acusado, que son personas diferentes. Este incidente pone en tela de juicio la promesa de Hoodline de que su contenido editorial cuenta con un nivel significativo de supervisión humana, dado que el sitio utiliza abiertamente inteligencia artificial para generar «noticias» de manera sintética.

Además, el artículo firmado por Eileen Vargas, una de las muchas identidades de reporteros generadas por IA del sitio. Esta práctica ha sido objeto de crítica por pretender mostrar una diversidad racial que no refleja la realidad de la industria periodística, que es mayoritariamente blanca y masculina.

El error también podría tener implicaciones para Google, ya que la acusación falsa apareció en su sección de noticias. La situación plantea preguntas sobre cuánta libertad debería darse a un sitio de noticias que claramente carece de estándares editoriales y si se puede confiar en los algoritmos para filtrar contenido generado por IA.

Lo que queda claro es que errores como este, que un periodista humano bajo un proceso editorial adecuado probablemente no cometería, podrían volverse más comunes a medida que los editores deleguen el control a sistemas de IA económicos y poco supervisados.