Archivo de la etiqueta: Inteligencia artificial

La brecha de género en el uso de la inteligencia artificial generativa

Otis, Nicholas G., Katelyn Cranney, Solene Delecourt, and Rembrand Koning. 2024. “Global Evidence on Gender Gaps and Generative AI.” OSF Preprints. October 14. doi:10.31219/osf.io/h6a7c.

Entre noviembre de 2022 y mayo de 2024, se observa que aproximadamente 42 % de los usuarios mensuales de ChatGPT y Perplexity eran mujeres, mientras que esa cifra baja al 31 % para Claude de Anthropic.

La disparidad aumenta al examinar las descargas móviles: entre mayo de 2023 y noviembre de 2024, solo 27,2 % de las descargas de la aplicación ChatGPT provinieron de mujeres; Claude y Perplexity muestran porcentajes igualmente bajos.

En cuanto al acceso a herramientas y aplicaciones basadas en IA, entre agosto de 2022 y julio de 2025, únicamente 34,3 % de las visitas a 3.821 herramientas específicas fueron realizadas por mujeres.

Además, una metaanálisis de 18 estudios, que incluyó alrededor de 143.000 personas, concluye que las mujeres tienen una probabilidad aproximadamente 20 % menor de usar IA generativa en comparación con los hombres.

Según algunos estudios destacados, las brechas de género fueron especialmente pronunciadas: un estudio sobre posdoctorandos mostró una diferencia de 21 puntos porcentuales; otro, sobre propietarios de negocios en EE.UU., Australia, Reino Unido y Canadá, registró una brecha de 11 puntos; mientras que en estudiantes universitarios en EE.UU. y Suecia las cifras fueron de 25 y 31 puntos, respectivamente.

Por último, algunos resultados apuntan a una «penalización femenina»: ciertas participantes expresaron preocupación de que utilizar IA pudiera perjudicar su trayectoria profesional o hacer que colegas cuestionen su competencia.

Para mitigar esta desigualdad, los autores sugieren, entre otras medidas, hacer el uso de IA generativa obligatorio para empleados, lo que ayudaría a fomentar una adopción más paritaria y evitar que los sesgos perpetuados por un uso mayoritario masculino se traduzcan en sistemas de IA discriminatorios.

Defender la educación frente a la IA instrumentalizada

Paris, Britt S., Lindsay Weinberg y Emma May. “Fighting Weaponized AI in Higher Education.Academe Blog, 22 de julio de 2025.https://academeblog.org/2025/07/22/fighting-weaponized-ai-in-higher-education/

la inteligencia artificial, lejos de ser neutral, puede ser utilizada como herramienta de control por parte de entidades poderosas. Bajo ciertas políticas gubernamentales —como el plan de acción del gobierno de EE. UU. para promover la IA—, se corre el riesgo de desplazar valores públicos importantes como la libertad académica, los derechos civiles y la justicia educativa. La alerta es clara: estamos ante una tecnología que puede, deliberadamente, erosionar el bien público

Frente a esta amenaza, la Asociación Estadounidense de Profesores Universitarios (AAUP), a través de su comité ad hoc sobre inteligencia artificial, presentó un informe basado en encuestas a su membresía. El documento refleja inquietudes compartidas sobre cómo la IA se incorpora en las instituciones —muy a menudo sin participación del profesorado—, y cómo esto impacta la democracia, la justicia laboral y la misión educativa.

La adopción de tecnologías “educativas” dominadas por IA ha sido permisiva, incluso centrada en “ventas”, pero sin añadidos para mejorar el aprendizaje. Estas tecnologías, además, aumentan la vigilancia sobre docentes y estudiantes, respondiendo más a incentivos corporativos que a la mejora del currículo o del bienestar universitario.

Los autores proponen fortalecer la participación desde la base: crear comités que incluyan docentes, estudiantes y personal técnico para revisar adquisición y uso de tecnología. Estos órganos deberían tener voz real en decisiones estratégicas, pudiendo incluso vetar políticas impuestas desde arriba, y promover formación centrada en las personas, no en la tecnología.

En lugar de aceptar un modelo impuesto, se aboga por una respuesta unida que conecte el trabajo académico con la defensa de los valores democráticos. La tecnología no debe determinar el futuro de la educación; deben ser las personas, organizadas y con control sobre su entorno de trabajo, quienes decidan.

Cómo la IA está cambiando —y no «matando»— la universidad

Flaherty, Colleen. “How AI Is Changing—Not ‘Killing’—College.” Inside Higher Ed, August 29, 2025

Texto completo

Las principales conclusiones de la encuesta realizada por Inside Higher Ed a estudiantes sobre la IA generativa muestran que, en su opinión, el uso de esta tecnología en constante evolución no ha disminuido el valor de la universidad, pero podría afectar a sus habilidades de pensamiento crítico.

El artículo presenta los principales hallazgos de la encuesta Student Voice 2025–26 realizada por Inside Higher Ed, que se centra en las percepciones de los estudiantes universitarios sobre la inteligencia artificial generativa. La encuesta fue parte de la serie Student Voice 2025–26 y se realizó en julio de 2025. Participaron 1 047 estudiantes de 166 instituciones de educación superior (tanto públicas como privadas, de dos y cuatro años).

Un alto porcentaje, aproximadamente el 85 %, informó haber utilizado inteligencia artificial generativa en cursos durante el último año. Las actividades más comunes incluyen: lluvia de ideas (55 %), preguntas tipo tutor (50 %) y preparación para exámenes o test (46 %). Le siguen funciones como edición de trabajos y generación de resúmenes.

En contraste, solo el 25 % admite usar IA para completar tareas completas, y apenas el 19 % para redactar ensayos enteros. Quienes emplearon IA para escribir ensayos son un tanto más propensos a reportar un impacto negativo en su pensamiento crítico (12 %) en comparación con quienes la utilizaron solo para estudiar (6 %)

El principal motor del uso indebido de IA (desde la perspectiva de los estudiantes) es la presión por obtener buenas calificaciones (37 %), seguido por la falta de tiempo (27 %) y el desinterés por las políticas de integridad académica (26 %). Solo un ínfimo 6 % atribuye este comportamiento a políticas poco claras.

Aun así, el 97 % opina que las instituciones deberían actuar frente a los retos que plantea la IA, pero prefieren soluciones educativas (como formación sobre ética en el uso de IA – 53 %) por encima de prácticas represivas como detectar contenido generado por IA (21 %) o limitar su uso en clase (18 %).

Se observa una brecha de género en la percepción de la IA: los estudiantes hombres son más propensos que las mujeres o personas no binarias a decir que la IA está mejorando sus habilidades de pensamiento crítico.

Aunque muchos temen que el uso de estas tecnologías pueda afectar habilidades clave como el pensamiento crítico, en general los estudiantes no consideran que la IA esté «matando» el valor de la universidad.

Según la encuesta, los estudiantes están utilizando la IA activamente como parte de su proceso de aprendizaje, lo que indica una adopción respetuosa y consciente. Aunque reconocen los riesgos potenciales, como la disminución de habilidades analíticas, no perciben que la IA disminuya la relevancia o el propósito de su formación universitaria.

Esta perspectiva de los estudiantes plantea una tensión interesante: por un lado, existe una preocupación legítima sobre cómo la IA puede impactar negativamente en el desarrollo de competencias críticas; por otro, su uso creciente refleja una herramienta valiosa para complementar el aprendizaje, siempre que se utilice con responsabilidad

La IA en las publicaciones académicas: un estudio sobre las directrices y políticas de las revistas de Biblioteconomía y Documentación

Gao, Wenli, Guoying Liu, Michael Bailou Huang, y Hong Yao. “AI in Scholarly Publishing: A Study on LIS Journals’ Guidelines and Policies.” International Journal of Librarianship 10, no. 2 (2025): 85–100. https://doi.org/10.23974/ijol.2025.vol10.2.419

Se examina cómo las revistas de biblioteconomía e información científica (LIS) han adoptado y regulado el uso de la inteligencia artificial generativa, especialmente herramientas como ChatGPT, dentro del contexto de la publicación académica

En primer lugar, los autores describen numerosos beneficios potenciales de ChatGPT para el ámbito editorial: facilita a los autores la redacción, puede asistir en la generación de resúmenes, sintetizar información compleja y, en general, optimizar varios aspectos del proceso de publicación. No obstante, advierten que esta tecnología representa una innovación disruptiva que podría transformar profundamente la academia y la comunicación científica.

A pesar de sus ventajas, el artículo destaca importantes desafíos éticos. Una de las principales preocupaciones es la autoría: el uso de ChatGPT genera dudas sobre quién es realmente el autor del contenido —el humano que lo solicitó o la IA que lo generó— y sobre cómo atribuir correctamente el crédito. demás, señalan problemas relacionados con el derecho de autor: el modelo puede usar contenido protegido sin citar adecuadamente, ya sea en forma de citas, datos, ideas, métodos o gráficos, lo que podría derivar en plagio, incluso cuando el texto se paraprasea.

Frente a estos retos, los autores argumentan que es fundamental evaluar el nivel de transparencia con que se está integrando la IA generativa en las prácticas editoriales. Recomiendan que las revistas establezcan políticas claras que regulen su uso, especialmente en lo referido a atribución, transparencia y salvaguarda de la originalidad del trabajo científico.

Los detectores de escritura realizada por IA actuales no son fiables en escenarios prácticos

Sadasivan, Vinu Sankar, Aounon Kumar, Sriram Balasubramanian, Wenxiao Wang, y Soheil Feizi. “Can AI-Generated Text be Reliably Detected?arXiv, marzo 17, 2023. https://doi.org/10.48550/arXiv.2303.11156

Investigadores de la Universidad de Maryland, liderados por Soheil Feizi, profesor asistente de informática, han evaluado la fiabilidad de los detectores de contenido generado por inteligencia artificial (IA). Su conclusión es clara: los detectores actuales no son fiables en escenarios prácticos. Feizi señala que herramientas comunes como paráfrasis pueden reducir la precisión de detección a niveles similares a una simple moneda al aire.

Feizi distingue dos tipos de errores de detección: tipo I, cuando un texto humano es marcado como generado por IA, y tipo II, cuando un texto de IA pasa como humano. Ambos presentan graves implicaciones, especialmente en contextos académicos y editoriales, donde errores pueden arruinar reputaciones y ser extremadamente difíciles de refutar.

Adicionalmente, incluso los métodos basados en marcas digitales (watermarking), teóricamente diseñados para identificar contenido de IA, pueden ser vulnerables a ataques de suplantación. El investigador advierte que dichas fallas podrían socavar la credibilidad de los mecanismos de autenticación digital.

Soheil Feizi explica que, en la práctica, dada la semejanza en la distribución de estilos entre textos humanos y generados por IA —y la sofisticación creciente de las técnicas de engaño—, es “teóricamente imposible” distinguir con certeza absoluta el origen de un texto.

Por otro lado, Furong Huang, también profesora asistente en la Universidad de Maryland, adopta una posición más optimista. Ella sostiene que los modelos de detección podrían mejorar si se dispone de una gran cantidad de ejemplos genuinos de escritura humana para su entrenamiento. Es decir, la clave para refinar estas herramientas sería el acceso a más y mejores datos.

El 71% de los estadounidenses teme que la IA provoque una pérdida permanente de empleos

Reuters. “Americans Fear AI Permanently Displacing Workers, Reuters/Ipsos Poll Finds.” Reuters, August 20, 2025. https://www.reuters.com/world/us/americans-fear-ai-permanently-displacing-workers-reutersipsos-poll-finds-2025-08-19/

En EE. UU., una nueva encuesta realizada por Reuters/Ipsos entre adultos estadounidenses revela una profunda inquietud respecto al impacto de la inteligencia artificial (IA) en el empleo: el 71 % de los encuestados teme que la IA cause una pérdida permanente de trabajos.

Más allá del empleo, los ciudadanos expresan otras temores relacionados con la IA. El 77 % se muestra preocupado por su posible uso para provocar caos político, como la creación de videos falsos ultrarrealistas —por ejemplo, un video falso creado por IA que mostró a Barack Obama siendo arrestado— Además, el 48 % se opone a que la IA sea usada para determinar blancos en ataques militares, mientras que solo el 24 % lo aprueba; el resto no está seguro.

El encendido debate sobre la IA coincide con un nivel de desempleo todavía relativamente bajo —4,2 % en julio de 2025—, lo que sugiere que aún no se ha materializado una pérdida masiva de empleos, aunque el cambio en la naturaleza del trabajo ya preocupa.

Otros aspectos destacados del sondeo incluyen: el 61 % de los estadounidenses teme el elevado consumo eléctrico vinculado a los centros de datos de IA; existe preocupación por aplicaciones nocivas como bots que sostienen conversaciones romantizadas con menores, generación de información médica falsa o discursos racistas; dos tercios temen que la gente llegue a preferir compañías de IA en lugar de relaciones humanas, y sobre la educación, el 36 % piensa que la IA puede ayudar, el 40 % no lo cree así, y el resto está indeciso.

La encuesta se realizó en línea durante seis días, concluyendo el lunes anterior a su publicación, abarcó 4 446 adultos estadounidenses y tiene un margen de error aproximado del 2 puntos porcentuales.

Perplexity AI compartirá los ingresos por búsquedas con los editores

Perplexity AI to Share Search Revenue with Publishers.Tech Xplore, 27 de agosto de 2025. https://techxplore.com/news/2025-08-perplexity-ai-revenue-publishers.html

Perplexity AI implementará un novedoso modelo de reparto de ingresos, mediante el cual comenzará a pagar a los medios de comunicación cuyas publicaciones sean utilizadas por su navegador o asistente de IA para responder consultas de usuario.

Como parte de este enfoque, la empresa ha reservado un fondo inicial de 42,5 millones de dólares que se destinará a compensar a los editores cuyas páginas web sean visitadas o citadas, o cuyos contenidos sean utilizados por agentes inteligentes de IA.

Este modelo se sostiene gracias a una nueva suscripción llamada Comet Plus, con un costo mensual de 5 dólares, que también estará incluida en los planes Pro y Max de Perplexity

La estructura de reparto de ingresos es clara: el 80 % de los ingresos de Comet Plus irá directamente a los editores, mientras que el 20 % restante cubrirá los costes de computación necesarios para mantener la infraestructura IA

Además, el sistema de distribución de los fondos se basa en tres tipos de interacciones generadas por la IA: visitas humanas, citas en búsquedas de IA y acciones realizadas por agentes.

Este anuncio llega en un contexto de crecientes tensiones entre las empresas de inteligencia artificial y los medios, muchos de los cuales acusan a los sistemas de IA de consumir contenido sin remunerar a sus creadores ni generar tráfico real a sus sitios web

La introducción de Comet Plus parece ser una respuesta concreta a estas preocupaciones, además de una estrategia para fomentar la colaboración en lugar de enfrentamientos legales

Despidos de catalogadores y calidad de los metadatos generados por IA en bibliotecas

Olson, Mike. «Beyond Classification: The Human Cost of Library and Information Labor Under Digital CapitalismThe Scholarly Kitchen, 26 de agosto de 2025. https://scholarlykitchen.sspnet.org/2025/08/26/guest-post-beyond-classification-the-human-cost-of-library-and-information-labor-under-digital-capitalism

A través de ejemplos como los 80 despidos en OCLC y la eliminación de 425 puestos en la Universidad Northwestern, se destaca cómo la reducción de personal especializado en catalogación afecta negativamente la calidad de los metadatos y la accesibilidad de las colecciones.

Los recientes despidos en OCLC, la organización sin fines de lucro con sede en Dublín, Ohio, que administra el Sistema Decimal Dewey y WorldCat, ofrecen una visión clara del futuro precario del trabajo en bibliotecas y gestión de información. En julio de 2025, OCLC confirmó la reducción de aproximadamente 80 puestos en su fuerza laboral de Ohio central, citando “cambios en los requisitos de habilidades técnicas, creciente influencia de la inteligencia artificial y cambios continuos en la educación superior y las bibliotecas”.

Mientras OCLC cita la IA como justificación para los recortes de personal, también ha anunciado que está desarrollando herramientas de IA para el procesamiento de metadatos. Aquí radica la paradoja de nuestra época: los mismos avances tecnológicos que se celebran por su eficiencia están eliminando la experiencia humana que crea los metadatos de alta calidad de los que dependen estos sistemas para funcionar.

El trabajo en bibliotecas ejemplifica lo que Maurizio Lazzarato identifica como “trabajo inmaterial”: un trabajo que produce contenido informativo y estandarización cultural, convirtiéndose en directamente productivo para el capitalismo digital a través de sistemas controlados por proveedores que agregan y monetizan metadatos estandarizados.

La desvalorización de la experiencia en catalogación se hace visible cuando las instituciones eliminan estos puestos durante recortes presupuestarios. El anuncio de despidos en la Universidad Northwestern, que afectó a 425 puestos, incluyó a Violet Fox, una de las voces principales en catalogación crítica y creadora del Cataloging Lab. El despido de Fox es particularmente significativo: su trabajo en prácticas de descripción reparativa ejemplifica el tipo de conocimiento especializado en catalogación que las instituciones están eliminando precisamente cuando más se necesita. Catalogadores como Fox realizan el trabajo invisible de desafiar los sistemas de clasificación coloniales, asegurando que los encabezamientos de materia reflejen las necesidades de la comunidad y no términos genéricos de proveedores, haciendo que las colecciones sean accesibles y manteniendo la calidad de los metadatos que permite la investigación académica.

La promesa de la IA en catalogación es seductora: procesamiento más rápido, reducción del trabajo manual, liberando a los trabajadores para tareas “más importantes”. Sin embargo, experimentos recientes de la Biblioteca del Congreso muestran que los modelos de lenguaje grande obtuvieron solo un 26% de F1 al predecir encabezamientos de la Biblioteca del Congreso, y los modelos de clasificación de materias solo un 35% de precisión. Esto revela un cambio fundamental en el trabajo de catalogación: los catalogadores ahora se concentran en entrenar, evaluar y curar resultados algorítmicos, proporcionando retroalimentación para sistemas incapaces de replicar la experiencia humana, el conocimiento cultural y la comprensión contextual necesarios para metadatos de calidad.

Olson argumenta que la automatización, en lugar de mejorar la eficiencia, está desplazando la experiencia humana necesaria para crear metadatos precisos y culturalmente sensibles. Esta tendencia refleja una transformación más amplia en la educación superior, donde las instituciones se enfocan en la eficiencia y la rentabilidad, a menudo a expensas de la diversidad cultural y la equidad.

El autor concluye que la pérdida de control institucional sobre la organización bibliográfica y la dependencia de sistemas de descubrimiento controlados por proveedores externos están erosionando la autonomía y la misión pública de las bibliotecas. Advierte que, sin una reflexión crítica y una acción concertada, el trabajo bibliotecario esencial podría desaparecer, con consecuencias negativas para la accesibilidad y la justicia en la información.

El impacto de los AI Overviews de Google en el SEO: análisis del estudio Semrush 2025

Semrush AI Overviews Study: What 2025 SEO Data Tells Us About Google’s Search Shift. Semrush, Julio 2025

Texto completo

Google ha introducido los llamados AI Overviews, resúmenes generados por IA que aparecen directamente en los resultados de búsqueda. Estos tienen un impacto disruptivo, equiparándose a los featured snippets en importancia

Los AI Overviews, resúmenes generados por inteligencia artificial que Google ha incorporado en sus resultados de búsqueda. Estos elementos ya ocupan un rol importante y están modificando de manera profunda las estrategias de posicionamiento.

Los datos muestran que en marzo de 2025 el 13,14 % de las consultas en escritorio en EE. UU. activaron un AI Overview, casi el doble que en enero del mismo año. La mayoría de estas consultas fueron de carácter informacional (88,1 %), aunque también se detectó un ligero incremento en consultas comerciales y de navegación. Las áreas más afectadas incluyen ciencia, salud, sociedad y gobierno, mientras que sectores como noticias y deportes casi no presentan AI Overviews, reflejando la cautela de Google en temas sensibles o de actualidad.

En cuanto al comportamiento de los usuarios, los AI Overviews están vinculados a un aumento de las búsquedas sin clics (zero-click). Sin embargo, al comparar las mismas palabras clave antes y después de aparecer con AI Overview, la tasa de zero-click disminuyó levemente de 38,1 % a 36,2 %. Esto sugiere que, aunque más usuarios encuentran la respuesta sin salir de Google, algunos siguen interactuando con los enlaces destacados dentro del propio resumen generado por IA.

El estudio también señala que los AI Overviews se muestran sobre todo en consultas largas, de baja competencia y bajo coste por clic (CPC). Además, tienden a superponerse a funciones ya existentes del SERP sin reemplazarlas, y suelen dar relevancia a contenidos de plataformas como Reddit, Quora y YouTube, lo que indica una preferencia de Google por fuentes diversificadas y con información estructurada.

Las recomendaciones para las marcas son claras: crear contenido informacional autoritativo y con perspectiva única, reforzar los formatos visuales e interactivos (como vídeos o herramientas), e identificar palabras clave comerciales que aún no activan AI Overviews para aprovechar oportunidades de posicionamiento tradicional. Asimismo, se recomienda el uso de herramientas de monitorización como el Semrush AI Toolkit para medir la visibilidad en estos nuevos entornos y ajustar las estrategias de SEO.

En definitiva, el SEO en 2025 ya no se limita a aparecer en las primeras posiciones de búsqueda, sino a ganar presencia en los resultados generados por IA. El contenido de calidad, adaptado a este nuevo ecosistema híbrido entre buscador tradicional y motor de respuestas, será determinante para mantener la visibilidad digital.

Detectores de IA acusan falsamente a la Constitución de EE. UU. de ser escrita por inteligencia artificial

Edwards, Benj. «Why AI Detectors Think the US Constitution Was Written by AIArs Technica, 12 de julio de 2023. https://arstechnica.com/information-technology/2023/07/why-ai-detectors-think-the-us-constitution-was-written-by-ai/

Si introduces el documento legal más importante de Estados Unidos, la Constitución de los Estados Unidos, en una herramienta diseñada para detectar texto escrito por modelos de IA como ChatGPT, te dirá que el documento fue escrito casi con toda seguridad por una IA.

Por muy tentador que resulte confiar en las herramientas de IA para detectar textos generados por IA, las pruebas hasta ahora han demostrado que no son fiables. Debido a los falsos positivos, no se puede confiar en los detectores de escritura de IA como GPTZero, ZeroGPT y Text Classifier de OpenAI para detectar textos compuestos por grandes modelos de lenguaje (LLM) como ChatGPT.

En el estudio se analiza cómo los detectores de escritura con inteligencia artificial (IA) clasifican erróneamente documentos históricos, como la Constitución de los Estados Unidos, como si fueran generados por IA. Este fenómeno se debe a que los modelos de IA entrenados en grandes volúmenes de texto, incluidos documentos históricos, pueden identificar patrones en el lenguaje que coinciden con los estilos de escritura de la IA. Como resultado, estos detectores generan falsos positivos al identificar textos auténticos como generados por IA.

En cuanto a los detectores específicos que han mostrado estas limitaciones, el artículo de Ars Technica menciona que herramientas como GPTZero han sido criticadas por su falta de precisión, calificándolas de «mayoría de las veces engañosas».

El artículo destaca que este problema subraya las limitaciones de los detectores de IA actuales, que a menudo carecen de la capacidad para contextualizar el origen y la autenticidad de un texto. La incapacidad de estos sistemas para distinguir entre textos históricos genuinos y aquellos generados por IA plantea preocupaciones sobre su fiabilidad en aplicaciones prácticas. Además, se señala que la dependencia excesiva de estos detectores podría llevar a conclusiones erróneas y decisiones injustas en entornos educativos y profesionales.

Edwards concluye que, aunque los detectores de IA pueden ser herramientas útiles, su implementación debe ser cuidadosa y acompañada de una evaluación crítica para evitar malentendidos y garantizar su eficacia en la identificación precisa de contenido generado por IA.