Inteligencia artificial en bibliotecas universitarias españolas

Observatorio de Inteligencia Artificial REBIUN. Inteligencia artificial en bibliotecas universitarias españolas. . REBIUN, 2024

Texto completo



La encuesta del Observatorio IA de REBIUN, realizada entre el 20/06/2024 y el 12/07/2024, explora el estado de la inteligencia artificial en sus bibliotecas, con una participación del 67%. Revela un interés moderado en la IA, pero destaca obstáculos como la volatilidad del entorno y la falta de competencias del personal, además de una formación autodidacta y limitada. Solo el 25% de las universidades encuestadas tienen una política de IA, mientras que la implementación en áreas como el proceso técnico, atención al usuario y apoyo a la investigación es baja, aunque existen iniciativas como chatbots y herramientas de accesibilidad. El estudio también recoge preocupación por la ética de la IA y la expectativa de que el Observatorio IA provea formación y contenidos actualizados.

El papel de las plataformas de búsqueda online en la difusión científica

Drivas, Kyriakos. 2024. «The Role of Online Search Platforms in Scientific Diffusion». Journal of the Association for Information Science and Technology, octubre, asi.24959. https://doi.org/10.1002/asi.24959.

Desde el lanzamiento de Google Scholar, los trabajos más antiguos han experimentado un aumento en sus citas, un fenómeno que se relaciona con la disminución de los costos de búsqueda y la introducción de algoritmos de clasificación. A partir de esta observación, analizo cómo se produce la recombinación del conocimiento científico en la era de las plataformas de búsqueda en línea. Los resultados muestran que, a medida que los artículos se vuelven más accesibles, sus ideas se difunden más allá de su campo original. Sin embargo, dentro de un mismo campo, la difusión del conocimiento presenta variaciones. Estos hallazgos aportan al debate sobre el posible estrechamiento de la ciencia: aunque es posible que haya ocurrido una reducción en la recombinación de conocimientos entre campos distantes en las últimas décadas, las plataformas de búsqueda en línea no son responsables de ello.

Este estudio examina el impacto del lanzamiento de Google Scholar, observando cómo los investigadores respondieron a los conocimientos presentes en trabajos más antiguos. Los resultados muestran que las citas de estos trabajos aumentaron, especialmente en artículos de campos diferentes al original. No obstante, cuando se observan las citas dentro del mismo campo, los resultados son mixtos. Este hallazgo sugiere que el acceso a través de plataformas como Google Scholar fomenta la diseminación del conocimiento entre campos distintos.


Entrevista con la escritora salmantina Raquel Orejudo. Planeta Biblioteca 2024/10/16

Entrevista con la escritora salmantina Raquel Orejudo.

Planeta Biblioteca 2024/10/26

ESCUCHAR

En la entrevista, Raquel Orejudo reflexiona sobre su trayectoria desde la ciencia y la filosofía hacia el marketing y la comunicación, y cómo estas experiencias han moldeado su enfoque literario. Aunque su formación inicial parece lejana al ámbito literario, ella destaca que la curiosidad científica y el análisis filosófico enriquecen su proceso creativo. Raquel da especial importancia a la exploración de los personajes y sus complejidades emocionales, algo que se refleja en su novela Las esperanzas, la cual recibió el Premio de la Editorial Círculo Rojo en 2022. Esta obra explora la búsqueda de la voz interior en momentos de incertidumbre, una temática que Raquel aborda con autenticidad y que resuena profundamente con ella.

Además, comenta la buena acogida de Las esperanzas entre el público y el efecto positivo que el premio ha tenido en su carrera. También habla sobre su obra Microcuentos para diciembre (2023), donde experimenta con la narrativa breve, encontrando diferencias significativas en el proceso creativo respecto a la novela. Orejudo señala la importancia del marketing en la promoción de sus libros y analiza cómo el formato digital transforma el acceso a la literatura. Finaliza recomendando un libro y una canción, ofreciendo una visión personal que combina realidad y ficción en sus obras, como dice Roberto Rosellini, uno de sus referentes.

Una herramienta de Google permite detectar fácilmente la escritura generada por IA

«Google Tool Makes AI-Generated Writing Easily Detectable». New Scientist. Accedido 24 de octubre de 2024. https://www.newscientist.com/article/2452847-google-tool-makes-ai-generated-writing-easily-detectable/.

Google DeepMind ha desarrollado una técnica llamada watermarking que permite identificar texto generado por inteligencia artificial (IA) de manera automática. Esta tecnología, utilizada en las respuestas del chatbot Gemini, crea una especie de «marca» o firma en el texto que facilita distinguirlo del contenido escrito por humanos. La herramienta busca combatir el mal uso de los chatbots, como la propagación de desinformación y el fraude en entornos educativos y laborales.

El avance más reciente de Google es que ha hecho esta técnica disponible en código abierto, lo que permite que otros desarrolladores de IA puedan utilizarla en sus propios modelos de lenguaje. Pushmeet Kohli, de Google DeepMind, destaca que aunque esta tecnología, llamada SynthID, no es una solución definitiva, es un importante paso hacia la creación de herramientas más confiables para identificar contenido generado por IA.

La técnica funciona mediante un proceso llamado muestreo por torneo. Mientras el modelo genera una secuencia de texto, un algoritmo va guiando la selección de ciertas palabras (o tokens) que crean una firma estadística única. Este proceso aumenta la complejidad para quienes quieran eliminar o revertir esta marca. Según los investigadores de Google, este sistema ha sido probado en 20 millones de textos generados por Gemini sin que la calidad del texto se vea afectada, lo que demuestra su efectividad.

Sin embargo, los investigadores reconocen que esta técnica es más efectiva en textos largos que ofrecen múltiples formas de respuesta, como ensayos o correos electrónicos, y que no ha sido probada en tipos de respuestas más técnicas, como problemas de matemáticas o codificación. Además, expertos como Furong Huang de la Universidad de Maryland, señalan que un adversario con suficientes recursos computacionales podría eliminar estas marcas, aunque hacerlo requeriría un gran esfuerzo.

La herramienta también ha sido probada frente a otras técnicas de watermarking, y SynthID ha mostrado un mejor desempeño en la detección de contenido generado por IA. A pesar de su eficacia, Scott Aaronson, de la Universidad de Texas en Austin, advierte que ningún método de marcado es infalible, pero cree que puede ayudar a detectar una parte significativa de la desinformación o el engaño académico generado por IA.

Finalmente, los investigadores y expertos coinciden en que esta técnica es solo una parte de la solución y que se necesitan más salvaguardas contra el mal uso de los chatbots de IA. Furong Huang sugiere que la regulación gubernamental podría ayudar a hacer que el watermarking sea una medida estándar, asegurando un uso más seguro y confiable de los grandes modelos de lenguaje.

La Asociación de Editores Americanos (AAP) ha unido a 10.000 creadores para condenar el uso indebido de sus obras por parte de empresas tecnológicas para entrenar modelos de IA generativa

«Publishers Join with Worldwide Coalition to Condemn the Theft of Creative and Intellectual Authorship by Tech Companies for Generative AI Training – AAP». 2024. 22 de octubre de 2024.

Ver noticia

El artículo publicado por la Asociación de Editores Americanos (AAP) destaca la creciente preocupación entre los creadores de contenido y sus aliados sobre el uso indebido de sus obras por parte de grandes empresas tecnológicas, particularmente en el desarrollo y entrenamiento de modelos de inteligencia artificial generativa. Estos modelos, que generan textos, imágenes, música y otros contenidos a partir de datos preexistentes, han provocado un fuerte debate en torno a los derechos de autor, ya que muchas de las obras utilizadas para entrenar estas tecnologías son extraídas sin el consentimiento de los autores.

Denuncia del uso de obras creativas sin autorización

La AAP, en colaboración con más de 10.000 creadores de diversas disciplinas como escritores, músicos, actores, artistas visuales y fotógrafos, ha emitido una condena pública contra lo que describen como el «robo» de la autoría creativa e intelectual por parte de estas empresas tecnológicas. Según los creadores y la AAP, los modelos de IA generativa no podrían existir sin la ingesta masiva de contenidos como libros, canciones, artículos de prensa, actuaciones y otras expresiones artísticas producidas por seres humanos. Estas obras son copiadas, procesadas y reutilizadas por las IA sin cumplir con las leyes de derechos de autor, lo que plantea serios problemas legales y éticos.

Un momento crucial para la política sobre IA

El texto señala que este es un momento decisivo para el desarrollo de políticas globales relacionadas con la inteligencia artificial. Los creadores y sus editoriales están haciendo un llamado a los gobiernos y a los sistemas judiciales para que defiendan los principios fundamentales del derecho de autor. Entre estos principios, destaca la exigencia de que la reproducción de obras y la creación de trabajos derivados solo pueden llevarse a cabo con el consentimiento explícito de quienes crearon e invirtieron en esas obras. La defensa de este principio es crucial no solo para proteger los derechos de los creadores, sino también para garantizar que la propiedad intelectual y los recursos financieros invertidos en la creación de contenido sean respetados.

La posición de la AAP sobre la colaboración con la tecnología

Maria A. Pallante, presidenta y CEO de la AAP, expresó que si bien las colaboraciones tecnológicas son esenciales para la industria editorial, deben basarse en acuerdos legales y respetuosos, no en la explotación no autorizada de contenido. Pallante subraya que los creadores no trabajan para enriquecer a las grandes compañías tecnológicas, sino para inspirar y educar a un público global informado. Las colaboraciones entre la tecnología y la industria creativa han sido, históricamente, parte del ecosistema de la publicación, pero siempre sobre la base de licencias legales y respeto mutuo entre las partes. El problema actual radica en que las empresas tecnológicas están tomando obras sin sanción legal, un comportamiento que ella describe como una «apropiación masiva».

El papel crucial de los derechos de autor

El artículo también destaca la importancia de los derechos de autor como base del sistema de creación y distribución de contenido. Los derechos de autor no solo protegen la propiedad intelectual de los creadores, sino que también garantizan que los creadores sean adecuadamente recompensados por su trabajo. En ausencia de un marco claro y respetado de derechos de autor, la industria creativa podría enfrentar serias dificultades, ya que los autores podrían perder el control sobre cómo se utilizan sus obras y, en consecuencia, sufrir pérdidas económicas significativas.

Impacto global de la IA en la industria creativa

Este fenómeno no es exclusivo de los Estados Unidos, sino que tiene implicaciones globales. A medida que los modelos de IA generativa se expanden y se utilizan en todo el mundo, la discusión sobre el uso indebido de contenido protegido por derechos de autor se intensifica. Los creadores de todo el mundo están pidiendo que se tomen medidas para evitar que sus obras sean utilizadas sin su consentimiento en el desarrollo de IA, y para que se establezcan políticas claras que obliguen a las empresas tecnológicas a obtener licencias adecuadas antes de utilizar cualquier contenido protegido.

Declaración global y acciones futuras

La AAP y sus socios de coalición han lanzado una declaración global que denuncia estas prácticas y solicitan a los gobiernos y tribunales que actúen para proteger los derechos de los creadores. Esta declaración está respaldada por firmas de miles de creadores en todo el mundo, quienes exigen que las políticas sobre IA se desarrollen de manera justa y respeten los derechos de autor. Además, la AAP hace un llamado a la comunidad internacional para que tome medidas proactivas en la creación de un marco regulatorio que equilibre los avances tecnológicos con la protección de los derechos de los autores.

Las bibliotecas ayudan a los mayores a mantenerse en forma

«How Libraries Help Seniors Stay Fit». EveryLibrary Action. Accedido 24 de octubre de 2024. https://action.everylibrary.org/how_libraries_help_seniors_stay_fit.

las bibliotecas se están posicionando como un recurso invaluable para los adultos mayores que buscan mantenerse activos, seguros y comprometidos con su salud. Estos programas, accesibles y adaptados, están ayudando a que las personas mayores puedan disfrutar de una vida más saludable y plena, demostrando que las bibliotecas son mucho más que simples lugares de lectura: son centros integrales de bienestar comunitario.

Las bibliotecas públicas han asumido un rol fundamental en ayudar a los adultos mayores a mantenerse activos mediante la organización de programas de ejercicio adaptados a sus necesidades. Con motivo del Día Nacional de los Ciudadanos Mayores, el 21 de agosto, se reflexiona sobre la importancia de que las instituciones públicas, incluidas las bibliotecas, acomoden las necesidades de los adultos mayores, entre las cuales destaca el mantener una rutina de ejercicio regular para preservar la salud.

Programas de Ejercicio en Bibliotecas

Muchas bibliotecas en todo el país han comenzado a organizar programas de ejercicio específicamente diseñados para personas mayores. Estos programas evitan los entrenamientos de alto impacto, como el levantamiento de pesas o ejercicios intensos de resistencia, que pueden ser peligrosos para los adultos mayores debido al riesgo elevado de lesiones. En su lugar, ofrecen alternativas de bajo impacto, que son seguras y efectivas para mantener el cuerpo activo. Entre estas opciones están el yoga, los estiramientos básicos y ejercicios cardiovasculares ligeros, como caminatas, que ayudan a mejorar la salud física y la resistencia a lesiones.

Un Espacio Seguro para Hacer Ejercicio

Uno de los obstáculos comunes que enfrentan los adultos mayores a la hora de mantenerse en forma es la incomodidad de ejercitarse en ambientes típicos de gimnasios, que pueden ser intimidantes y no siempre están adaptados a sus capacidades físicas. Las bibliotecas, al ofrecer estos programas, crean un ambiente acogedor, inclusivo y sin juicios, donde los adultos mayores se sienten cómodos para ejercitarse a su propio ritmo. Esto no solo promueve el bienestar físico, sino también la confianza y la dignidad de los participantes.

Accesibilidad para Todos

La accesibilidad es un aspecto clave en los programas de ejercicio de las bibliotecas. Con el envejecimiento, la movilidad tiende a disminuir, lo que hace que actividades como desplazarse a un gimnasio o salir a correr resulten difíciles o imposibles. Las bibliotecas, por su cercanía a los barrios y las comunidades, son una opción mucho más accesible. Esto elimina una de las barreras más significativas para los adultos mayores que desean mantenerse activos, pero que se ven limitados por la distancia o la falta de instalaciones adecuadas cerca de sus hogares.

La Importancia de los Programas Comunitarios en las Bibliotecas

El rol de las bibliotecas va mucho más allá de prestar libros. En la actualidad, están centradas en enriquecer la vida de sus comunidades mediante la implementación de programas que atienden diversas necesidades. Los programas de ejercicio para adultos mayores son solo un ejemplo de los esfuerzos de las bibliotecas para mejorar la calidad de vida de sus usuarios, ofreciendo actividades que promueven no solo la salud física, sino también el bienestar mental y social. A través de estos programas, las bibliotecas continúan consolidándose como espacios vitales para el desarrollo y el apoyo comunitario.

¿Cuál es el futuro de la IA generativa?

«What is the future of Generative AI? | McKinsey». s. f. Accedido 24 de octubre de 2024. https://www.mckinsey.com/featured-insights/mckinsey-explainers/whats-the-future-of-generative-ai-an-early-view-in-15-charts.

El artículo de McKinsey sobre el futuro de la inteligencia artificial generativa (IA gen) ofrece una visión detallada de cómo esta tecnología ha evolucionado rápidamente y su posible impacto económico y social en los próximos años. Desde el lanzamiento de ChatGPT en noviembre de 2022, la IA generativa ha pasado de ser una novedad tecnológica a una herramienta crucial para muchas industrias. En apenas unos meses, se estima que la IA gen podría aportar hasta 4.4 billones de dólares anuales a la economía global, gracias a su capacidad para transformar sectores como las finanzas, la atención médica, el retail y la gestión de relaciones con clientes.

Principales cuestiones:

  1. Rápida Evolución de la Tecnología: La IA generativa ha avanzado a pasos agigantados desde finales de 2022, con nuevos desarrollos casi mensuales. A lo largo de los primeros meses de 2023, compañías como OpenAI, Microsoft, Google, Amazon y Meta lanzaron iteraciones importantes que mejoraron significativamente el rendimiento y ampliaron las capacidades de la IA generativa. Ejemplos de ello incluyen la integración de IA en aplicaciones empresariales como el Einstein GPT de Salesforce para la gestión de relaciones con clientes o Kosmos-1 de Microsoft, un modelo multimodal que responde tanto a imágenes y audio como a texto.
  2. Impacto Económico: La investigación de McKinsey estima que la IA generativa puede tener un impacto económico directo y masivo en sectores clave, proporcionando mejoras en la eficiencia, automatización de tareas, generación de contenido y optimización de procesos. Aunque la IA gen es revolucionaria, McKinsey señala que aún representa una porción del ecosistema de IA. Las tecnologías de análisis avanzado y aprendizaje automático tradicional siguen siendo vitales para la optimización de tareas en la mayoría de las industrias y no deben ser desatendidas.
  3. Empleos y Transformación del Mercado Laboral: La IA generativa plantea preguntas críticas sobre su impacto en el empleo. Si bien podría automatizar ciertas tareas y cambiar la forma en que muchos trabajos son realizados, también tiene el potencial de crear nuevas oportunidades laborales en sectores como el desarrollo de software, marketing y atención al cliente. Sin embargo, McKinsey advierte que la transición hacia una fuerza laboral más dependiente de la IA requiere una planificación cuidadosa y medidas de protección para evitar desigualdades en el mercado de trabajo.
  4. Industrias Más Afectadas: Algunas industrias se beneficiarán más que otras de la implementación de la IA generativa. Los sectores de servicios financieros, salud y tecnología son los que más rápidamente están adoptando estas herramientas para tareas como la creación de modelos financieros, la automatización de consultas médicas y la gestión de clientes. El uso de IA gen en la creación de contenido también es de gran interés para el marketing, el periodismo y el entretenimiento, donde ya está comenzando a automatizar la creación de texto, audio, imágenes y video.
  5. Adopción en las Organizaciones: McKinsey subraya que las empresas que están en proceso de transformación digital deben prestar atención al desarrollo de la IA generativa, ya que representa una herramienta poderosa para mejorar la productividad. Sin embargo, aconsejan que estas organizaciones no descarten las herramientas tradicionales de IA, ya que continúan siendo esenciales para la optimización de tareas más específicas y en una variedad de sectores.
  6. Desafíos Éticos y Salvaguardas: Uno de los temas más destacados es la necesidad de salvaguardas y medidas éticas para asegurar un uso responsable de la IA generativa. Entre las preocupaciones mencionadas están la generación de contenido falso, la falta de transparencia en la toma de decisiones automatizadas y la posible dependencia excesiva en la IA para tareas críticas. McKinsey señala que es fundamental que las organizaciones que implementan estas tecnologías establezcan marcos de seguridad y políticas claras para evitar abusos o consecuencias negativas no deseadas.

El futuro de la IA generativa es aún incierto, pero McKinsey prevé una continua aceleración en su adopción y desarrollo. A medida que más empresas integran estas herramientas en sus operaciones, la demanda de nuevas aplicaciones y mejoras crecerá, lo que conducirá a avances aún más significativos en el corto plazo. Sin embargo, la atención debe estar centrada en equilibrar los beneficios con los desafíos éticos y sociales, garantizando que la IA generativa se utilice de manera responsable y efectiva.

El artículo concluye señalando que, aunque la IA generativa está en una fase de crecimiento explosivo, las empresas deben ser prudentes y equilibrar su adopción con las tecnologías tradicionales de IA que siguen siendo altamente efectivas. El potencial de la IA gen es enorme, pero solo puede realizarse plenamente si se aborda con la estrategia adecuada, combinando innovación tecnológica con responsabilidad social y un enfoque sólido en la productividad y el valor a largo plazo.

Revistas con altos índices de artículos sospechosos señalados por una start-up de integridad científica



Van Noorden R. Journals with high rates of suspicious papers flagged by science-integrity start-up. Nature. 2024 Oct 23;doi: 10.1038/d41586-024-03427-w. Available from: https://www.nature.com/articles/d41586-024-03427-w

El artículo de Richard Van Noorden analiza el impacto de investigaciones científicas fraudulentas o sospechosas en revistas académicas, señaladas por la herramienta Argos, desarrollada por la empresa tecnológica Scitility. Esta plataforma, lanzada en septiembre de 2024, asigna a los artículos un puntaje de riesgo basado en los antecedentes de los autores y en las citas a investigaciones previamente retractadas. Un puntaje alto no prueba que un artículo sea de baja calidad, pero sugiere que debe investigarse más a fondo.

Entre las editoriales con más artículos de alto riesgo, destaca Hindawi, un sello ahora cerrado, subsidiario de Wiley, con más de 10.000 retractaciones en dos años (alrededor del 4% de su cartera en la última década). Aunque Wiley ha limpiado una gran parte de su catálogo, Argos señala que todavía persisten más de 1.000 artículos de alto riesgo. Otras editoriales, como Elsevier, MDPI y Springer Nature, también figuran con miles de artículos sospechosos, pero con proporciones más bajas en relación a su volumen de publicaciones.

Argos es parte de una creciente cantidad de herramientas diseñadas para detectar señales de alerta en la integridad científica, como Papermill Alarm y Signals, que ayudan a identificar posibles fraudes en manuscritos. Aunque algunas editoriales han implementado tecnologías para detectar irregularidades, la proporción de artículos problemáticos aún es considerable. Las editoriales Impact Journals, Spandidos e Ivyspring presentan las mayores proporciones de artículos de alto riesgo, con cifras superiores al 0.6%.

Además de analizar la situación a nivel de editorial, Argos también proporciona datos sobre revistas específicas. La revista Scientific Reports de Springer Nature, por ejemplo, cuenta con 450 artículos de alto riesgo y 231 retractaciones, lo que representa el 0.3% de su producción total. Otras revistas con grandes brechas entre artículos retractados y sospechosos son Sustainability de MDPI y Materials Today Proceedings de Elsevier.

El crecimiento del fraude científico se debe en parte a la proliferación de «fábricas de artículos» y contenido generado por inteligencia artificial. Las editoriales están aumentando su inversión en supervisión humana y tecnología para enfrentar estos desafíos.

Argos se apoya en datos abiertos, como la base de datos de Retraction Watch, y también rastrea redes de autores con antecedentes de mala conducta. No obstante, una de las dificultades más grandes que enfrentan las herramientas de integridad es la correcta distinción entre autores con nombres similares, lo que puede sesgar los resultados.

Hacia una IA ética y justa en la investigación educativa

Barnes, T., Danish, J., Finkelstein, S., Molvig, O., Burriss, S., Humburg, M., Reichert, H., Limke, A. Toward Ethical and Just AI in Education Research. Community for Advancing Discovery Research in Education (CADRE). Education Development Center, 2024

Texto completo

El documento «Toward Ethical and Just AI in Education Research» discute el creciente uso de la inteligencia artificial en la educación, particularmente en las áreas de ciencia, tecnología, ingeniería y matemáticas (STEM). Los avances en la investigación y desarrollo de inteligencia artificial en educación (AIED) están transformando la enseñanza y el aprendizaje, generando una mezcla de entusiasmo y preocupación.

Los autores, miembros de la Community for Advancing Discovery Research in Education (CADRE), reconocen que, aunque la AI tiene el potencial de revolucionar la educación, también puede perpetuar sesgos existentes y afectar negativamente la práctica educativa. Este informe es el primero de una serie de tres que aborda enfoques éticos en la investigación y aplicación de la AIED en STEM, impulsado por la necesidad de considerar cuidadosamente cómo se diseñan y utilizan estas tecnologías.

Los investigadores subrayan la importancia de adoptar políticas que prioricen la ética, la equidad y la justicia en el desarrollo de tecnologías AIED en educación K-12. En este sentido, proponen un marco ético y herramientas que fomentan la reflexión continua y la comunicación para mejorar la investigación y el desarrollo inclusivos y equitativos.

Además, hacen hincapié en que las tecnologías AI reflejan tanto los sesgos intencionados como los no intencionados de sus diseñadores y de la sociedad. Por lo tanto, abogan por un enfoque integral que incorpore principios éticos establecidos, lo que permitirá que las buenas intenciones de los investigadores y desarrolladores se traduzcan en decisiones de diseño positivas y en la creación de productos tecnológicos inclusivos.

Un sitio web de noticias impulsado por IA acusa accidentalmente de asesinato al fiscal del distrito

«AI-Powered News Site Accidentally Accuses District Attorney of Murder», Futurism. 18 de octubre de 2024. https://futurism.com/ai-accuses-district-attorney-of-murder.

Un controvertido sitio de noticias local impulsado por inteligencia artificial, Hoodline San José, cometió un grave error al acusar accidentalmente a un fiscal del distrito de asesinato. Un artículo publicado por este medio, que forma parte de una red de sitios de noticias locales en EE. UU., tenía el impactante título: «FISCAL DEL CONDADO DE SAN MATEO ACUSADO DE ASESINATO EN MEDIO DE LA BÚSQUEDA DE LOS RESTOS DE LA VÍCTIMA». Sin embargo, la realidad es que, aunque hubo un asesinato, el fiscal no fue el autor; simplemente había presentado cargos contra el verdadero sospechoso.

El error se originó cuando el sistema de inteligencia artificial de Hoodline interpretó incorrectamente un tuit de la oficina del fiscal del distrito de San Mateo, que anunciaba que un hombre local había sido acusado de asesinato. La IA distorsionó la información de tal manera que hizo parecer que el propio fiscal había cometido el crimen. Este tipo de acusaciones, sobre todo contra un funcionario público, es de suma gravedad en el periodismo.

Después de que el sitio fue señalado por Techdirt, se publicó una nota del editor que intentó explicar el error como un «error tipográfico» que cambió el significado del contenido y creó confusión entre el fiscal y el acusado, que son personas diferentes. Este incidente pone en tela de juicio la promesa de Hoodline de que su contenido editorial cuenta con un nivel significativo de supervisión humana, dado que el sitio utiliza abiertamente inteligencia artificial para generar «noticias» de manera sintética.

Además, el artículo firmado por Eileen Vargas, una de las muchas identidades de reporteros generadas por IA del sitio. Esta práctica ha sido objeto de crítica por pretender mostrar una diversidad racial que no refleja la realidad de la industria periodística, que es mayoritariamente blanca y masculina.

El error también podría tener implicaciones para Google, ya que la acusación falsa apareció en su sección de noticias. La situación plantea preguntas sobre cuánta libertad debería darse a un sitio de noticias que claramente carece de estándares editoriales y si se puede confiar en los algoritmos para filtrar contenido generado por IA.

Lo que queda claro es que errores como este, que un periodista humano bajo un proceso editorial adecuado probablemente no cometería, podrían volverse más comunes a medida que los editores deleguen el control a sistemas de IA económicos y poco supervisados.