Archivo de la etiqueta: Inteligencia artificial

La investigación empresarial sobre fiabilidad y seguridad de la IA ignora los riesgos del mundo

«How Corporate AI Research on Reliability and Safety Ignores Real-World Risks» Asimov’s Addendum (Substack),

El informe advierte sobre serias carencias en la investigación sobre gobernanza y seguridad de la inteligencia artificial generativa, especialmente en su aplicación práctica. El análisis se basa en la revisión de 9.439 artículos publicados entre 2020 y 2025 por cinco de las principales corporaciones tecnológicas (OpenAI, Google DeepMind, Meta, Microsoft y Anthropic) y seis destacadas instituciones académicas de Estados Unidos.

Uno de los hallazgos más alarmantes es que menos del 5 % de los estudios realizados por empresas abordan los riesgos derivados del uso real de estos sistemas por parte de usuarios y empresas, dejando sin atención aspectos fundamentales como errores en los resultados, sesgos, desinformación, violaciones de derechos de autor y consecuencias sociales.

El informe subraya que los laboratorios corporativos están marcando la agenda global de investigación en IA, enfocándose en fases previas al despliegue, como el entrenamiento, alineamiento y pruebas de modelos, mientras descuidan el análisis de su comportamiento en entornos reales. Esto resulta especialmente problemático en sectores de alto riesgo como la salud, las finanzas, la educación, la publicidad y la política, donde los sistemas de IA pueden amplificar desigualdades, inducir errores graves o facilitar la manipulación. La falta de investigación también contrasta con el creciente número de litigios relacionados con daños causados por IA generativa, como casos de difamación, uso indebido de datos o generación de contenido engañoso.

Como respuesta, el informe propone medidas concretas para mejorar la transparencia y la supervisión de la IA. Estas incluyen el fortalecimiento de mecanismos de observación independientes, la apertura de datos de implementación para investigadores externos, la documentación de objetivos de entrenamiento y arquitecturas de modelos, así como la divulgación pública de fallos o riesgos potenciales. Además, se destaca la importancia de proteger a posibles denunciantes y facilitar la participación de las comunidades afectadas por estas tecnologías en los debates regulatorios y científicos.

Este informe se enmarca en un creciente movimiento internacional por una inteligencia artificial más ética y segura. Iniciativas como las de la organización Partnership on AI también han elaborado guías para promover un despliegue responsable de estos sistemas, y diversas instituciones académicas y medios como Time han alertado sobre la necesidad urgente de regular y auditar los usos cotidianos de la IA. En definitiva, el estudio del SSRC reitera que, sin una supervisión externa rigurosa y una investigación orientada al impacto real, los avances en IA podrían agravar problemas sociales existentes en lugar de resolverlos.

Algunos repositorios de acceso abierto han empezado a bloquear a los robots de inteligencia artificial

«Open Repositories Are Being Profoundly Impacted by AI Bots and Other Crawlers: Results of a COAR SurveyCOAR (blog), April 30, 2025. https://coar-repositories.org/news-updates/open-repositories-are-being-profoundly-impacted-by-ai-bots-and-other-crawlers-results-of-a-coar-survey/

Cada vez hay más bots de inteligencia artificial rastreando repositorios. Estos bots son lo suficientemente agresivos como para provocar interrupciones y cortes de servicio en los repositorios. Como consecuencia, algunos repositorios han empezado a bloquear el acceso de las máquinas a sus colecciones, lo que también está bloqueando inadvertidamente otros servicios de red deseados, como los agregadores académicos, los servicios de indexación y los directorios.

El impacto de los bots de inteligencia artificial (IA) y otros rastreadores en los repositorios de acceso abierto ha crecido considerablemente, lo que está afectando la estabilidad de los servicios y provocando interrupciones en las plataformas. En respuesta a esta situación, algunos repositorios han comenzado a bloquear el acceso de estas máquinas, lo que, de forma no intencionada, también bloquea otros servicios útiles como agregadores académicos, servicios de indexación y directorios.

Esta problemática no es exclusiva de los repositorios académicos. Según un informe de Axios, casi el 20% de los 1000 sitios web más visitados del mundo están bloqueando crawlers de IA debido a la falta de directrices legales claras sobre el uso de material con derechos de autor por parte de la IA. Por ejemplo, el bot GPTBot de OpenAI ha sido bloqueado por varios sitios, lo que refleja una creciente preocupación por el acceso automatizado a contenidos en línea.

Además, desarrolladores de software de código abierto han implementado medidas ingeniosas para combatir los bots de IA que no respetan las directrices de robots.txt. Herramientas como Anubis y Nepenthes han sido creadas para frustrar a los crawlers mediante pruebas de trabajo y contenido falso, respectivamente. Estas acciones subrayan la necesidad de proteger la infraestructura digital frente a accesos no deseados.

En respuesta a estos desafíos, COAR planea lanzar un grupo de trabajo para desarrollar acciones recomendadas que permitan a los repositorios mantener su acceso abierto mientras se protegen contra procesos disruptivos de máquinas.

Para comprender mejor el impacto de los bots y rastreadores en los repositorios, COAR (Confederation of Open Access Repositories) realizó una encuesta en abril de 2025, recibiendo 66 respuestas de miembros de diversas regiones del mundo. Los resultados muestran que más del 90% de los encuestados experimentan la presencia de bots de IA, generalmente más de una vez a la semana, lo que causa frecuentes interrupciones en los servicios. Para mitigar estos efectos, los repositorios emplean diversas estrategias, como la limitación de tasa, reglas de firewall, reglas de robots.txt y listas blancas compartidas.

COAR planea realizar un informe más detallado sobre los resultados de la encuesta en su sitio web y, posteriormente, formará un grupo de trabajo para desarrollar recomendaciones que permitan a los repositorios mantener su acceso abierto, protegiéndolos al mismo tiempo contra procesos disruptivos de máquinas.

La inteligencia artificial es cada vez más potente, pero sus alucinaciones son cada vez peores

Miller, Claire Cain. «A.I. Is Getting More Powerful, but Its HallucinationsThe New York Times, May 5, 2025. https://www.nytimes.com/2025/05/05/technology/ai-hallucinations-chatgpt-google.html

Una nueva oleada de sistemas de «razonamiento» de empresas como OpenAI está produciendo información incorrecta con mayor frecuencia. Ni siquiera las empresas saben por qué.

Se aborda el fenómeno de las «alucinaciones» en la inteligencia artificial, un problema crítico que afecta a modelos de lenguaje como ChatGPT y Bard de Google. Estas alucinaciones se refieren a respuestas generadas por IA que, aunque suenan plausibles, son incorrectas o completamente inventadas. Por ejemplo, en una prueba llamada PersonQA, el sistema más potente de OpenAI, denominado o3, presentó una tasa de alucinaciones del 33%, más del doble que su predecesor o1. El modelo o4-mini mostró una tasa aún mayor, alcanzando el 48%. En otra prueba, SimpleQA, las tasas de alucinaciones fueron del 51% para o3 y del 79% para o4-mini

Las alucinaciones son una consecuencia inherente a la manera en que los modelos de lenguaje están diseñados. Estos sistemas funcionan mediante el análisis de grandes volúmenes de datos y el aprendizaje de patrones estadísticos en el lenguaje. Para generar respuestas, no realizan una búsqueda de información en tiempo real ni verifican la precisión de los datos con fuentes externas, sino que se basan en los datos con los que fueron entrenados. Esta falta de verificación en tiempo real, unida a la complejidad de los procesos de generación de texto, puede llevar a que el modelo produzca información que, aunque coherente en su estructura, sea incorrecta o completamente ficticia.

Además, los modelos de lenguaje son inherentemente probabilísticos, lo que significa que seleccionan la «respuesta más probable» en función del contexto, pero no siempre tienen en cuenta si esa respuesta es veraz. En este sentido, las alucinaciones ocurren cuando el modelo «adivina» una respuesta que, aunque sea lingüísticamente plausible, carece de sustancia factual. Por ejemplo, en lugar de verificar hechos o proporcionar citas precisas, el modelo puede generar información coherente pero errónea debido a que los patrones previos en los datos entrenados sugieren que esa información tiene sentido dentro del contexto dado.

El fenómeno de las alucinaciones plantea una amenaza directa a la confiabilidad y utilidad de los sistemas de IA. A medida que estas tecnologías se adoptan en una variedad de sectores, desde el sector educativo hasta la atención médica y el asesoramiento empresarial, los usuarios se encuentran cada vez más en una posición vulnerable al confiar en respuestas generadas por máquinas que podrían ser incorrectas. En contextos como la medicina o el derecho, donde la precisión es crucial, las alucinaciones pueden tener consecuencias graves, desde diagnósticos incorrectos hasta consejos legales erróneos.

La preocupación por este problema es tal que algunos expertos temen que la confianza pública en las IA podría disminuir si las alucinaciones continúan sin control. La percepción de que los sistemas de IA no son completamente fiables podría desalentar a los usuarios de adoptar estas herramientas en áreas críticas. A su vez, esto podría ralentizar el progreso hacia la integración de la IA en sectores importantes de la sociedad, afectando su potencial para revolucionar industrias enteras.

Empresas como OpenAI y Google son conscientes de las limitaciones de sus modelos y están tomando medidas activas para mitigar el problema de las alucinaciones. Una de las estrategias es mejorar los algoritmos de verificación de hechos. Estos algoritmos buscan integrar fuentes de información más confiables y permitir que los modelos contrasten las respuestas generadas con bases de datos verificadas antes de ofrecer una respuesta final. Sin embargo, este proceso presenta desafíos técnicos significativos, ya que requiere una infraestructura adicional que permita a la IA verificar en tiempo real la información antes de presentarla al usuario.

Otra estrategia que se está explorando es la integración de sistemas de retroalimentación más robustos, donde los usuarios pueden señalar respuestas incorrectas y corregir la información. De esta manera, los modelos de IA no solo aprenden de los datos iniciales con los que fueron entrenados, sino también de las interacciones en el mundo real, lo que podría ayudar a disminuir la frecuencia de las alucinaciones con el tiempo. Aunque estas iniciativas son prometedoras, erradicar completamente las alucinaciones sigue siendo un desafío técnico y ético considerable.

A medida que la IA se utiliza en más ámbitos, se hace cada vez más evidente la necesidad de un enfoque más riguroso y transparente en su desarrollo. Es fundamental que los usuarios comprendan las limitaciones actuales de estas tecnologías y reconozcan que las respuestas generadas por IA no siempre son correctas. Esto implica educar al público sobre cómo funcionan estos modelos y la importancia de verificaciones adicionales por parte de los usuarios.

Además, las empresas deben adoptar una postura más abierta en cuanto a la metodología de entrenamiento de sus sistemas y las limitaciones inherentes a estos modelos. La transparencia en cómo se entrenan y actualizan los modelos, y el acceso a las fuentes utilizadas en su entrenamiento, puede ayudar a construir una relación de confianza con los usuarios y disminuir las preocupaciones sobre la exactitud de la información.

En resumen, las alucinaciones en la inteligencia artificial siguen siendo un obstáculo importante para su adopción generalizada y confianza pública. Aunque las empresas tecnológicas están haciendo esfuerzos significativos para mitigar este problema, es evidente que se requiere un enfoque multidisciplinario y más transparencia para abordar de manera efectiva este desafío. A medida que los modelos de IA continúan evolucionando, se espera que las soluciones a las alucinaciones también progresen, lo que permitirá un uso más confiable y preciso de estas tecnologías en una variedad de sectores.

El valor del talento humano en la Era de la Inteligencia Artificial: retos y oportunidades

Gershuny, Emily, y Steve Hatfield. «Why You Need an Employee Value Proposition for the Age of AI.» Deloitte Insights, 2025. https://www2.deloitte.com/us/en/insights/focus/human-capital-trends/2025/why-you-need-employee-value-proposition-for-age-of-ai.html.

La IA está revolucionando el trabajo. Se necesita una propuesta de valor humana para la era de la IA. La inteligencia artificial está reconfigurando el trabajo y la propuesta de valor trabajador-empleador. ¿Cómo pueden las organizaciones crear una propuesta de valor que haga de la IA un amigo en lugar de un enemigo?

La adopción acelerada de la IA, especialmente la generativa, ha superado a tecnologías anteriores como el ordenador personal o Internet. Este avance ha generado impactos silenciosos pero significativos en la experiencia laboral, alterando la naturaleza de las tareas y la forma en que se realizan. Por ejemplo, el 38% de los trabajadores teme que la IA reduzca las oportunidades de aprendizaje en el trabajo, y muchos ya perciben a la IA como un compañero de trabajo

El valor de la tecnología no procede de la sustitución de la mano de obra humana, sino que trabaja más estrechamente que nunca con los seres humanos, ampliando su capacidad para descubrir y aprovechar las oportunidades de innovación y crecimiento. A medida que la IA se entrelaza cada vez más con los trabajadores, está cambiando su experiencia, a menudo a través de impactos silenciosos y no intencionados en el trabajo que hacen y en la forma en que lo hacen. Una PVE actualizada para el mundo de la colaboración entre humanos y máquinas puede dar cuenta de esos cambios y apoyar una relación saludable y mutuamente beneficiosa entre las organizaciones y sus trabajadores.

Uno de los problemas más frecuentes es que la IA suele encargarse de las tareas repetitivas y fáciles, dejando para los humanos las más complejas y agotadoras. Esto puede disminuir la autonomía de los empleados —por ejemplo, cuando una IA decide qué ruta debe seguir un conductor— y reducir la interacción humana, generando sentimientos de soledad e aislamiento, como ocurre en algunos hospitales donde los robots preparan medicamentos y los farmacéuticos se limitan a tareas aisladas.

Además, diversos estudios han evidenciado que el uso de la IA puede contribuir al agotamiento laboral (burnout). Algunos trabajadores sienten que no solo deben hacer su trabajo, sino también enseñar a las máquinas a hacerlo, lo cual genera una carga extra. Otra consecuencia preocupante es la pérdida de oportunidades de aprendizaje. Cuando la IA asume funciones que antes realizaban trabajadores noveles, se eliminan roles de entrada fundamentales para el desarrollo profesional. Un caso citado es el de la codificación médica, donde los sistemas automatizados han reducido la necesidad de contratar a personal sin experiencia, limitando así la formación práctica.

Estas preocupaciones no son aisladas. En una encuesta informal realizada por Deloitte en diciembre de 2024 con cerca de 3.900 participantes —principalmente trabajadores y líderes de EE.UU.— surgieron inquietudes comunes sobre los límites cada vez más difusos entre humanos y tecnología, la privacidad y la pérdida de interacción humana, confirmando que tanto empleados como organizaciones están alerta ante los riesgos de una integración acrítica de la IA en el ámbito laboral.

En este nuevo entorno se debe abordar varios aspectos clave:

  • Compartir los beneficios de la IA: Es esencial que las organizaciones comuniquen claramente cómo la IA puede mejorar el trabajo, no solo en términos de eficiencia, sino también en oportunidades de desarrollo y bienestar para los empleados.
  • Fomentar el aprendizaje recíproco: La colaboración entre humanos y máquinas requiere una cultura de aprendizaje continuo, donde los empleados se sientan apoyados para adquirir nuevas habilidades y adaptarse a las tecnologías emergentes.
  • Promover la experimentación con IA: Las organizaciones deben alentar a sus empleados a explorar y experimentar con herramientas de IA, creando un entorno donde el error sea visto como una oportunidad de aprendizaje.
  • Reforzar la relación entre recursos humanos y tecnología: Una colaboración estrecha entre estos departamentos puede facilitar la integración de la IA de manera que beneficie tanto a la organización como a sus empleados.

Además, se debe reconocer y abordar las preocupaciones relacionadas con la equidad y la inclusión en el uso de la IA. Por ejemplo, un estudio en Australia reveló una brecha de confianza de género en el uso de la IA generativa, con solo el 50% de las mujeres confiando en estas tecnologías frente al 70% de los hombres

Futuros posibles de la inteligencia artificial: escenarios hacia 2030

Department for Science, Innovation and Technology. AI 2030 Scenarios. Londres: Government of the United Kingdom, 2024.

Texto completo

El informe AI 2030 Scenarios explora cinco posibles futuros sobre el impacto de la inteligencia artificial hasta 2030. Analiza riesgos como la pérdida de empleos, el uso indebido de tecnologías avanzadas o la desilusión por avances más lentos de lo esperado. Su objetivo es ayudar a gobiernos y sectores clave a prepararse ante la incertidumbre y diseñar políticas responsables.

El informe AI 2030 Scenarios Report, publicado por la Oficina de Ciencia del Gobierno del Reino Unido en abril de 2025, presenta cinco escenarios plausibles sobre cómo la inteligencia artificial (IA) podría transformar la sociedad para el año 2030. Este documento tiene como objetivo ayudar a responsables políticos, la industria y la sociedad civil a anticipar riesgos, identificar oportunidades y diseñar políticas resilientes frente a las incertidumbres tecnológicas, económicas y sociales que plantea la evolución de la IA.

Escenario 1: Avances incrementales en la IA

En este escenario, la IA evoluciona de manera gradual, mejorando las capacidades existentes sin cambios disruptivos. Las herramientas de IA se integran en diversos sectores, aumentando la eficiencia y productividad, pero sin reemplazar completamente el trabajo humano. La gobernanza y las regulaciones se adaptan lentamente, lo que permite una adopción controlada y supervisada de la tecnología.

Escenario 2: IA especializada y dominante

Aquí, la IA alcanza niveles de especialización que le permiten superar a los humanos en tareas específicas y bien definidas. Aunque estas herramientas son altamente eficientes en sus dominios, carecen de la capacidad para integrar múltiples tareas o adaptarse a contextos complejos sin supervisión humana. La dependencia de la IA en sectores críticos plantea desafíos éticos y de seguridad, requiriendo marcos regulatorios más robustos.

Escenario 3: IA generalizada y autónoma

Este escenario contempla el desarrollo de sistemas de IA con capacidades generales que igualan o superan las habilidades humanas en una amplia gama de tareas cognitivas. La automatización se extiende a numerosos campos, desde la investigación científica hasta la toma de decisiones estratégicas. La rápida adopción de estas tecnologías genera tensiones en el empleo y plantea interrogantes sobre la responsabilidad y el control de sistemas autónomos.

Escenario 4: Fragmentación tecnológica y geopolítica

En este contexto, las diferencias en el desarrollo y la implementación de la IA entre países y regiones conducen a una fragmentación tecnológica. Las disparidades en recursos, regulaciones y acceso a datos crean brechas significativas, afectando la cooperación internacional y exacerbando las desigualdades económicas y sociales. La competencia geopolítica por el liderazgo en IA intensifica estas divisiones.

Escenario 5: Rechazo social y regulaciones restrictivas

Ante preocupaciones sobre la privacidad, el empleo y la ética, la sociedad responde con escepticismo y resistencia al avance de la IA. Los gobiernos implementan regulaciones estrictas que limitan el desarrollo y la aplicación de tecnologías de IA. Esta cautela ralentiza la innovación, pero busca proteger valores fundamentales y prevenir impactos negativos no deseados.

El informe destaca la importancia de considerar estos escenarios para desarrollar políticas públicas que equilibren la promoción de la innovación con la protección de los derechos individuales y colectivos. Asimismo, subraya la necesidad de una gobernanza inclusiva y adaptativa que permita maximizar los beneficios de la IA mientras se mitigan sus riesgos potenciales.

La IA generativa en la enseñanza superior: adopción y retos para profesores e investigadores

Baytas, Claire, y Dylan Ruediger. 2025. Making AI Generative for Higher Education: Adoption and Challenges Among Instructors and Researchers. Ithaka S+R. Publicado el 1 de mayo de 2025.

Texto completo

Desde la aparición de ChatGPT en noviembre de 2022, la inteligencia artificial generativa (IA generativa) se ha convertido en un tema central en la educación superior. Más de dos años después, las instituciones todavía están explorando cómo esta tecnología está transformando la enseñanza, el aprendizaje y la investigación. La preocupación inicial se centraba en el plagio estudiantil y la integridad académica, pero el debate ha evolucionado hacia una evaluación más matizada sobre los beneficios, riesgos éticos, y desafíos institucionales que presenta la IA generativa.

El informe de Ithaka S+R es el resultado de una investigación colaborativa iniciada en 2023 con 19 universidades de Estados Unidos y Canadá. Su objetivo fue comprender cómo docentes e investigadores están adoptando esta tecnología, qué dificultades enfrentan y qué tipo de apoyos necesitan. A través de entrevistas realizadas en la primavera de 2024, se recogieron testimonios de profesorado, estudiantes de posgrado y otros actores implicados en la educación superior.

Uno de los principales hallazgos es la gran variabilidad en el nivel de familiaridad con la IA generativa. Si bien algunos usuarios tienen experiencia avanzada, otros apenas están comenzando a explorar sus aplicaciones. Sin embargo, incluso quienes tienen menor experiencia reconocen la importancia de mejorar su alfabetización digital en IA. Muchos docentes están tratando de incorporar habilidades básicas de IA en las actividades del aula, aunque todavía existe incertidumbre sobre cómo adaptar los objetivos de aprendizaje a estas nuevas herramientas.

Los instructores demandan más orientación institucional, especialmente en lo relativo a la integridad académica y la inclusión formal de la alfabetización en IA en los planes de estudios generales. Por otro lado, la mayoría de los investigadores han probado la IA generativa, pero son pocos los que han encontrado maneras sostenibles de integrarla en sus procesos de investigación a largo plazo. Existe una preocupación extendida por la falta de estándares éticos claros que garanticen la calidad y la integridad del trabajo académico asistido por IA.

Además, tanto docentes como investigadores identifican una carencia de recursos de apoyo específicos para cada disciplina. También expresan inquietudes sobre la seguridad, la asequibilidad y el acceso a herramientas de IA, así como sobre la necesidad de entender mejor el creciente panorama de productos tecnológicos diseñados para la educación superior.

El informe también destaca que, si bien muchas universidades han creado grupos de trabajo sobre IA, redactado políticas modelo para sus planes de estudio y ofrecido talleres de alfabetización digital, persisten obstáculos institucionales que dificultan una implementación efectiva. Las estructuras descentralizadas y la falta de coordinación entre departamentos hacen que sea difícil ofrecer un apoyo integral y coherente. Además, los costos asociados con la adopción masiva de estas tecnologías aún no están claros.

En definitiva, el informe subraya la necesidad de seguir investigando, compartiendo prácticas efectivas y diseñando estrategias institucionales colaborativas para incorporar la IA generativa de forma ética, responsable y pedagógicamente útil en la educación superior.

Los temas clave del informe Making AI Generative for Higher Education de Ithaka S+R (2025) son los siguientes:


1. Adopción desigual y experimental de la IA generativa

  • Los niveles de uso y familiaridad con herramientas como ChatGPT varían ampliamente entre docentes e investigadores.
  • Muchos han experimentado con estas herramientas, pero su uso sistemático en docencia e investigación es todavía limitado.

2. Alfabetización en IA como necesidad urgente

  • Profesores e investigadores reconocen que deben comprender mejor la IA generativa para usarla de manera crítica, ética y efectiva.
  • Existe interés en integrar competencias en IA en la enseñanza, pero falta claridad sobre cómo hacerlo.

3. Falta de políticas institucionales claras

  • Las universidades aún no ofrecen directrices suficientemente concretas sobre el uso aceptable de la IA generativa.
  • Persisten dudas sobre cómo abordar la integridad académica en este nuevo contexto.

4. Preocupaciones sobre ética, sesgos y precisión

  • Inquietud por la calidad, fiabilidad y sesgos de las respuestas generadas por IA.
  • Preocupación por el uso de datos sensibles o malinterpretación de fuentes en contextos académicos.

5. Impacto en la pedagogía universitaria

  • La IA está provocando que los docentes reconsideren sus objetivos educativos, métodos de evaluación y estrategias de aprendizaje.
  • Se debate si la IA debe ser prohibida, regulada o integrada activamente en el aula.

6. Falta de apoyo disciplinar específico

  • Escasez de recursos adaptados a las distintas áreas de conocimiento para usar la IA generativa de forma efectiva y ética.
  • Necesidad de materiales y formación más ajustados a los contextos profesionales y metodológicos de cada disciplina.

7. Desconocimiento del ecosistema de productos IA

  • Muchos académicos no conocen la variedad de herramientas de IA disponibles ni sus diferencias, lo que limita su capacidad para adoptarlas con criterio.

8. Demanda de una respuesta institucional coordinada

  • Profesores e investigadores piden que las universidades lideren el proceso de integración de la IA con formación, políticas claras y acceso seguro a herramientas tecnológicas.

Confianza, actitudes y uso de la inteligencia artificial. Un estudio global 2025

Gillespie, N., Lockey, S., Ward, T., Macdade, A., & Hassed, G. Trust, attitudes and use of artificial intelligence: A global study 2025. The University of Melbourne and KPMG, 2025. DOI 10.26188/28822919.

Texto completo

El informe global de 2025 sobre IA destaca el aumento de su uso y aceptación, aunque persisten preocupaciones sobre su confianza, riesgos y gobernanza. Mientras que los beneficios de la IA son evidentes, como mayor eficiencia y mejora en decisiones, también existen preocupaciones sobre privacidad, desempleo y deshumanización. Se requiere una regulación más fuerte y formación para garantizar un uso responsable y ético de la IA en el trabajo y la educación.

Se explora cómo las personas perciben la inteligencia artificial (IA), su uso y las implicaciones sociales, económicas y éticas que trae consigo. Publicado por la Universidad de Melbourne y KPMG, este estudio global recoge las opiniones de más de 48,000 personas de 47 países, proporcionando un análisis exhaustivo sobre la confianza y la aceptación de la IA, sus riesgos y beneficios, y las expectativas sobre su regulación. Estudio global realizado por la Universidad de Melbourne y KPMG, que analiza las actitudes, el uso y la confianza en la inteligencia artificial a nivel mundial.

Confianza y aceptación de la IA

A pesar del uso generalizado de la IA, más de la mitad de las personas (54%) no confían plenamente en ella. La gente es más escéptica respecto a la seguridad, el impacto social y la privacidad de la IA, pero tiende a confiar en su capacidad técnica. En los países avanzados, la desconfianza y la aceptación son más bajas en comparación con los países emergentes.

Uso y comprensión de la IA

Dos de cada tres personas usan IA regularmente, pero más de la mitad (61%) no han recibido formación en IA y tienen un conocimiento limitado sobre cómo funciona. Los países emergentes muestran un uso y comprensión de la IA más elevados que los países avanzados, lo que refleja diferencias en la accesibilidad y educación sobre estas tecnologías.

Beneficios y riesgos de la IA

La IA aporta beneficios claros como la mejora de la eficiencia, la toma de decisiones y la innovación, pero también genera preocupaciones sobre la privacidad, la ciberseguridad, la pérdida de empleos y la deshumanización de las interacciones laborales y educativas. En los países avanzados, existe una mayor división de opiniones sobre si los beneficios superan los riesgos.

Regulación y gobernanza de la IA

El 70% de las personas cree que es necesario regular la IA, aunque solo el 43% considera que las leyes actuales son suficientes. La mayoría de las personas prefieren una regulación internacional y gubernamental, así como una co-regulación con la industria. Además, el 87% considera que las leyes deben abordar la desinformación generada por la IA.

IA en el lugar de trabajo

El 58% de los empleados usa IA regularmente en su trabajo, aunque el uso de herramientas gratuitas y públicas como ChatGPT es más común que las opciones proporcionadas por los empleadores. Aunque la IA mejora la eficiencia y calidad del trabajo, también tiene efectos negativos, como la reducción de la interacción humana y el riesgo de reemplazar trabajos. Muchos empleados informan un uso inapropiado de la IA que contraviene las políticas de la empresa, lo que destaca la falta de gobernanza adecuada en muchas organizaciones.

Uso de la IA por estudiantes

La mayoría de los estudiantes (83%) utiliza la IA en sus estudios, destacando beneficios como la personalización del aprendizaje y la reducción de la carga de trabajo. Sin embargo, también existen preocupaciones sobre la dependencia excesiva de la IA y su impacto en el pensamiento crítico y la equidad en las evaluaciones. Solo la mitad de las instituciones educativas proporcionan políticas o formación para el uso responsable de la IA.

Conclusiones

El informe subraya que, aunque la adopción de la IA ha traído beneficios tangibles en diversas áreas, las organizaciones y gobiernos deben centrarse en una gobernanza responsable de la IA, implementando políticas claras y proporcionando formación para evitar el uso inapropiado y garantizar una integración ética en la sociedad.

Cifras clave

  • 54 % de la población desconfía de los sistemas de IA.
  • 66 % usa IA regularmente, pero 61 % no ha recibido formación en IA.
  • 72 % de las personas aceptan el uso de IA, aunque también sienten preocupación.
  • En economías emergentes: 80 % usan IA regularmente, frente al 58 % en economías avanzadas.
  • 70 % cree necesaria la regulación de la IA, pero solo 43 % considera que las leyes actuales son adecuadas.
  • 83 % de los estudiantes (principalmente universitarios) usan IA habitualmente.
  • 58 % de los empleados usan IA en el trabajo, aunque 2 de cada 5 creen que sus puestos pueden ser reemplazados por IA.
  • 1 de cada 2 empleados usa IA sin decirlo y sin evaluar sus resultados, generando errores y riesgos.

Declaración de posición de Wiley sobre el uso ilegal de contenidos con derechos de autor por parte de desarrolladores de IA

Wiley Position Statement on Illegal Scraping of Copyrighted Content by AI Developers. Última modificación en 2024. https://www.wiley.com/en-us/terms-of-use/ai-principles/wiley-statement-illegal-scraping-ai-copyright.

En Wiley, defendemos el valor de la propiedad intelectual y de quienes la crean. Como pioneros en la creación y difusión del conocimiento durante más de dos siglos, estamos comprometidos a garantizar que las obras de los autores sean respetadas y adecuadamente licenciadas en el cambiante entorno digital. La colaboración entre autores, sociedades científicas y académicas, y desarrolladores de IA garantiza un uso responsable de esta tecnología para avanzar en la investigación y el descubrimiento, al tiempo que se preserva la libertad académica, esencial para el progreso científico.

Reafirmamos esta postura. Creemos en el potencial transformador de la inteligencia artificial para impulsar la investigación y el descubrimiento. Este avance debe basarse en el respeto a los derechos de propiedad intelectual, incluida la compensación y atribución acordadas para los creadores de contenido. Nos posicionamos firmemente junto a nuestros autores y socios editoriales para exigir prácticas éticas y legales en la obtención de datos en la industria de la IA, y alentamos la adopción generalizada de prácticas de licenciamiento adecuadas, como ya hacen algunos desarrolladores de IA.

Para mayor claridad:

  • Los desarrolladores y empresas de IA deben obtener autorización antes de usar contenido de Wiley, o contenido que publicamos para nuestros socios, para el desarrollo, entrenamiento o implementación de IA.
  • Wiley ha reservado de forma constante y pública todos los derechos sobre sus materiales protegidos por derechos de autor; no existe permiso implícito sin una licencia adecuada.
  • La atribución transparente y la trazabilidad de los datos son componentes esenciales del desarrollo ético de la IA.
  • Para demostrar nuestro compromiso con la innovación responsable, hemos desarrollado marcos de licenciamiento que ofrecen condiciones flexibles y justas adaptadas a distintos usos y necesidades de desarrollo.

Se han alcanzado numerosos acuerdos reconocidos entre desarrolladores de IA y editoriales académicas y comerciales, incluidos nuestros propios acuerdos exitosos con desarrolladores de IA que comparten nuestro compromiso con el uso ético del contenido. Esto demuestra claramente que existe un mercado de licencias para IA que funciona eficazmente.

Este mercado de licencias también permite fundamentar la IA en contenido autorizado. La colaboración activa con la comunidad de IA incluye la incorporación de expectativas y estándares en los acuerdos sobre transparencia, citación, atribución y procedencia de datos, con el fin de fomentar la confianza de los usuarios en los sistemas de IA.

A través de alianzas con autores, socios editoriales, investigadores y desarrolladores de IA éticos, podemos crear un ecosistema sostenible que valore tanto el avance tecnológico como las contribuciones humanas únicas de autores e investigadores.

¿Están preparados los profesores universitarios para la inteligencia artificial generativa? La ansiedad del profesorado en la era ChatGPT

Verano-Tacoronte, Domingo, Alicia Bolívar-Cruz, y Silvia Sosa-Cabrera. 2025. “Are university teachers ready for generative artificial intelligence? Unpacking faculty anxiety in the ChatGPT era.Education and Information Technologies. https://doi.org/10.1007/s10639-025-13585-7

Este estudio investiga cómo la ansiedad tecnológica influye en la intención de los docentes universitarios de adoptar ChatGPT. Se identifican tres tipos de ansiedad: sobre el futuro de la profesión académica, sobre el uso indebido de la herramienta y sobre el impacto negativo en el aprendizaje estudiantil. Los resultados muestran que la ansiedad relacionada con el aprendizaje estudiantil y el uso indebido de la herramienta afectan negativamente la intención de uso, mientras que la ansiedad sobre el futuro de la profesión no tiene un efecto significativo. Los hallazgos sugieren que para facilitar la integración de ChatGPT en la educación superior, es necesario combinar formación técnica con intervenciones específicas para gestionar la ansiedad tecnológica y mejorar las percepciones sobre la utilidad y facilidad de uso de la herramienta.​

Este estudio analiza cómo el profesorado universitario está adoptando el uso de ChatGPT en su trabajo diario. Para ello, se encuestó a un grupo amplio de docentes, que en su mayoría tienen entre 41 y 60 años, llevan más de 20 años trabajando en la universidad y tienen un contrato a tiempo completo. Se buscó representar tanto a hombres como a mujeres por igual.

En la primera parte del análisis, se confirmó que todos los datos recogidos eran fiables. Es decir, las preguntas estaban bien diseñadas y agrupaban correctamente las ideas que se querían estudiar: la ansiedad de los profesores ante ChatGPT, su intención de usarlo, cómo lo están usando en realidad y lo que esperan obtener de esa experiencia. También se comprobó que cada uno de estos aspectos era diferente de los demás y no se solapaban entre sí.

La segunda parte del análisis fue clave para entender cómo influyen las emociones y percepciones del profesorado en su decisión de usar o no ChatGPT. Se observó que dos tipos de miedos o ansiedades afectan negativamente a las ganas de usar la herramienta: uno relacionado con el mal uso que puedan hacer los estudiantes, por ejemplo copiando trabajos con ayuda de la IA, y otro con el uso inadecuado que el propio profesorado pueda hacer sin querer. Sin embargo, el miedo a que herramientas como ChatGPT cambien el papel de los docentes o su futuro profesional no tuvo un impacto importante. Una posible explicación es que, al tratarse de un profesorado con contratos estables, no temen tanto perder su trabajo o cambiar de rol por la llegada de nuevas tecnologías.

Por otro lado, se confirmó que cuanto más dispuesto está el profesorado a usar ChatGPT, más lo incorpora realmente en su trabajo. Es decir, la intención se traduce en acción. Y esa intención mejora si la persona percibe que la herramienta es fácil de usar y que le aporta beneficios reales. Estas dos percepciones —la facilidad y la utilidad— actúan como un «puente» entre las emociones negativas (como la ansiedad) y la decisión de usar o no la herramienta. Si el profesorado siente que ChatGPT le va a ayudar y que no le va a suponer demasiado esfuerzo, entonces el miedo pierde fuerza. De hecho, se vio que la utilidad esperada es incluso más importante que la facilidad de uso a la hora de tomar esta decisión.

En cuanto a otras variables como el género, la edad o los años de experiencia, se vio que las mujeres mostraban una intención algo menor de usar ChatGPT, al igual que lo usaban menos en la práctica. Sin embargo, ni la edad ni el tiempo que llevaban trabajando influyeron significativamente, lo que sugiere que el uso de estas herramientas no depende tanto de la experiencia profesional como de otras percepciones y emociones.

Este trabajo aporta dos ideas importantes. La primera es que la ansiedad que siente el profesorado ante el uso de inteligencia artificial, sobre todo en cuanto a un posible uso inapropiado por parte de estudiantes o incluso de ellos mismos, puede frenar su adopción. Y la segunda es que estas preocupaciones se pueden reducir si los docentes ven claramente que la herramienta les resulta útil y no les va a complicar la vida. Por eso, es fundamental ofrecerles formación, espacios de reflexión y recursos que les ayuden a entender mejor para qué sirve ChatGPT, cómo usarlo y qué riesgos reales conlleva.

En definitiva, el estudio nos recuerda que para que la inteligencia artificial se integre bien en la universidad no basta con introducir la tecnología: también hay que cuidar cómo se sienten los docentes frente a ella, aclarar dudas, reducir miedos y mostrarles el valor que puede tener en su práctica educativa diaria.

IA y derechos de autor: El entrenamiento de la IA de propósito general

European Parliamentary Research Service. 2025. AI and Copyright: The Training of General-Purpose AI. Brussels: European Parliament. https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/769585/EPRS_ATA(2025)769585_EN.pdf

El informe analiza los desafíos legales que plantea el uso de obras protegidas por derechos de autor en el entrenamiento de modelos de inteligencia artificial de propósito general (GPAI, por sus siglas en inglés), como los de OpenAI o DeepSeek. A pesar de que existen normas como la Directiva de Derechos de Autor de la UE (2019/790) y la Ley de Inteligencia Artificial (IA) europea, persisten importantes limitaciones y ambigüedades legales que preocupan tanto a los investigadores como a los titulares de derechos.

IA y derechos de autor: la formación de la inteligencia artificial de propósito general

Para entrenar sus modelos, los proveedores de inteligencia artificial de propósito general (IAPG) necesitan grandes conjuntos de datos, que pueden incluir materiales protegidos por derechos de autor. A pesar de la Directiva de la UE 2019/790 sobre derechos de autor y la Ley de Inteligencia Artificial (IA) de la UE, los investigadores han identificado limitaciones legales e incertidumbre en el uso de materiales con derechos de autor para el entrenamiento de IAPG.

Entrenamiento de IAPG

Los modelos de IA capaces de realizar una amplia gama de tareas distintas, como los modelos GPT de OpenAI, se conocen como inteligencia artificial de propósito general (IAPG) y se entrenan con una gran cantidad de datos. La Ley de IA europea define legalmente la IAPG utilizando factores como sus capacidades, características y número de usuarios finales. Esta definición abarca lo que también se conoce como modelos generativos o modelos fundacionales. Los modelos más recientes de IAPG son multimodales, lo que significa que pueden trabajar con diferentes tipos de contenido. Además, las IAPG más avanzadas se denominan «modelos de razonamiento», ya que son capaces de «razonar» paso a paso. Los modelos o3-mini de OpenAI y R1 de DeepSeek son ejemplos de modelos de razonamiento lanzados recientemente.

Los modelos IAPG se basan en técnicas de aprendizaje profundo, que implican el entrenamiento de los parámetros internos del modelo utilizando datos. La construcción de conjuntos de datos para el entrenamiento comienza con la fase de recopilación. En la práctica, esto suele depender de materiales disponibles gratuitamente en línea. El modelo GPT-4o de OpenAI se entrenó utilizando datos, incluidos los de acceso público. El modelo 7b de Mistral también se entrenó con datos extraídos de la web. Los proveedores, en general, han mantenido la confidencialidad sobre los datos exactos utilizados para entrenar sus modelos, considerándolos una parte clave de su ventaja competitiva. Por otro lado, los titulares de derechos temen perder el control sobre su contenido. Existen diversas demandas pendientes fuera de la UE, señaladas por los investigadores, que afirman que los datos utilizados en el entrenamiento de IAPG contienen materiales con derechos de autor.

La legislación de derechos de autor en la UE y la Ley de IA

Para encontrar datos públicos en la web con los que entrenar IAPG, los proveedores utilizan rastreadores web (web crawlers): programas que navegan automáticamente por la web para realizar un conjunto definido de acciones. Los rastreadores de OpenAI se conocen como GPTBot. Los rastreadores se han usado durante años por empresas como Google, cuyos Googlebots rastrean la web para indexar contenido en su buscador. Como señalan los investigadores, el surgimiento de la web «creó desafíos y oportunidades sin precedentes para los titulares de derechos de autor», aunque el derecho internacional de autor se ha modificado en cierta medida para adaptarse a la era digital.

La legislación de derechos de autor otorga derechos económicos y morales exclusivos a los autores, como el derecho a reproducir, distribuir, comunicar al público y poner a disposición del público sus obras. Con la Directiva sobre la Sociedad de la Información (Directiva 2001/29), la UE creó una excepción para los actos temporales de reproducción como parte de un proceso tecnológico (artículo 5.1). La Directiva sobre derechos de autor de la UE (Directiva 2019/790) añadió dos nuevas excepciones para fines de “minería de textos y datos” (TDM, por sus siglas en inglés) (artículos 3 y 4). TDM se define como “cualquier técnica analítica automatizada destinada a analizar textos y datos en formato digital para generar información que incluye, entre otras cosas, patrones, tendencias y correlaciones”. Las excepciones permiten, bajo condiciones específicas, la reproducción y extracción de obras protegidas con fines de TDM. Realizar tales actos, de otro modo, constituiría una infracción de ciertos derechos bajo la legislación sobre derechos de autor y bases de datos.

La Ley de IA europea contiene dos disposiciones relacionadas con los derechos de autor (artículo 53.1(c) y (d)). La primera exige a los proveedores de IAPG que cumplan con la legislación sobre derechos de autor y con la excepción de exclusión voluntaria de la Directiva de derechos de autor, que autoriza la TDM siempre que los titulares de derechos no hayan expresado su negativa. Afecta a cualquier proveedor que comercialice una IAPG en el mercado de la UE, “independientemente de la jurisdicción en la que tengan lugar los actos relevantes en materia de derechos de autor que sustentan el entrenamiento de esos modelos de IA de propósito general” (considerando 106). La segunda disposición exige que los proveedores de IAPG hagan público un resumen suficientemente detallado explicando el contenido utilizado para el entrenamiento. Estos requisitos se aplican a los proveedores de IAPG con o sin riesgos sistémicos. Para facilitar el cumplimiento de la normativa, la Comisión tiene previsto publicar un Código de Buenas Prácticas para la IAPG en mayo de 2025.

Problema del uso de materiales con derechos de autor en el entrenamiento de IAPG

Según los investigadores, la legislación de la UE aún no aborda completamente los problemas relacionados con los modelos de IA y el derecho de propiedad intelectual. El problema principal es la posible presencia de materiales protegidos por derechos de autor en los conjuntos de datos utilizados para entrenar IAPG. Por ello, los investigadores han intentado determinar en qué medida las excepciones al derecho de autor permiten la reproducción de obras con fines de entrenamiento de IAPG. Consideran que las excepciones para TDM de la Directiva actual sobre derechos de autor no son lo suficientemente claras, por lo que las limitaciones legales y la incertidumbre siguen siendo problemáticas.

Incertidumbre y limitaciones del marco legal

Las dos excepciones de TDM solo cubren ciertos derechos protegidos por la ley de propiedad intelectual. Sin embargo, podrían necesitarse excepciones adicionales para otros derechos, como el de comunicación al público. De hecho, los investigadores argumentan que el derecho de comunicación al público podría activarse al permitir el acceso público a modelos de IAPG que generen contenidos que incluyan partes sustanciales de obras protegidas.

En cuanto a las dos excepciones en sí, los investigadores han identificado incertidumbres legales en su aplicación al entrenamiento de IAPG con materiales protegidos. La primera excepción, que autoriza la reproducción y extracción de obras, permite a organizaciones de investigación e instituciones de patrimonio cultural realizar TDM con fines de investigación científica y bajo acceso legal (artículo 3 de la Directiva). Hay dos problemas para invocar esta excepción en el entrenamiento de IAPG. Primero, los investigadores han expresado dudas sobre su aplicabilidad técnica. De hecho, los titulares de derechos pueden aplicar medidas tecnológicas de protección (TPM), como interfaces de programación restrictivas, para controlar la TDM, lo que impediría a los investigadores ejercer plenamente su derecho. Segundo, la ambigüedad del requisito de “acceso legal” complica aún más la aplicación práctica de la excepción. En este contexto, los interesados podrían optar por acuerdos de licencia en lugar de confiar en la excepción. Como han señalado varios agentes, algunos Estados miembros han ampliado el marco legal para la investigación científica en su transposición de la Directiva, incluyendo también el derecho de comunicación al público, además de la reproducción y extracción.

La segunda excepción permite la TDM siempre que “no haya sido expresamente reservada por sus titulares de derechos de forma adecuada, como mediante medios legibles por máquina…” (artículo 4 de la Directiva). Esto se conoce como la excepción de exclusión voluntaria (“opt-out”). Los interesados han debatido la definición de “legible por máquina” y la duración durante la cual pueden conservarse las reproducciones de obras. En cuanto a “legible por máquina”, los proveedores de IAPG apoyan la adopción de un archivo estandarizado de fácil acceso, como robots.txt. Un tribunal alemán dictaminó recientemente que incluir el opt-out en lenguaje natural (por ejemplo, en los términos de uso) cuenta como exclusión legible por máquina. Los expertos señalaron que esta decisión podría ser apelada “dado los problemas jurídicos fundamentales involucrados y la ambigüedad de la ley…”. Los investigadores añadieron que el mecanismo de opt-out probablemente falle cuando los titulares de derechos no tengan derechos administrativos sobre la página web que muestra sus obras, ya que no pueden añadir ellos mismos la exclusión. En cuanto a la duración durante la que se pueden conservar las reproducciones, la excepción lo permite mientras sea necesario para la TDM. Sin embargo, los proveedores de IAPG pueden necesitarlas para procesos posteriores como la evaluación de modelos.

Posibles próximos pasos

Varios Estados miembros crearon un Grupo de Trabajo sobre Infraestructura de Derechos de Autor en 2023 para ayudar a la Comisión a encontrar soluciones. Mientras tanto, el Consejo de la UE publicó un resumen en diciembre de 2024 con las opiniones de los Estados miembros sobre el asunto. Varios de ellos afirman que “los usos de contenidos protegidos por derechos de autor para el entrenamiento de IA van más allá del alcance de la excepción de TDM”. La mayoría considera que no es necesario introducir un nuevo instrumento legislativo en esta etapa, y prioriza la implementación y el seguimiento del marco legal existente.

La comisaria Henna Virkkunen sugirió en octubre de 2024 que la Comisión debería investigar si mecanismos de licenciamiento específicos facilitarían la firma de licencias entre las industrias creativas y las empresas de IA. A diferencia de los requisitos de la Directiva de derechos de autor para ciertos usos de contenidos protegidos por servicios en línea, la Ley de IA no menciona los acuerdos de licencia en el contexto del entrenamiento de IAPG.

Si bien el Código de Buenas Prácticas para la IAPG no tendrá el mandato de cambiar el marco jurídico de los derechos de autor de la UE, esta guía podría ser un paso intermedio antes de la revisión de la Directiva de derechos de autor, prevista legalmente para junio de 2026. Una versión revisada de la Directiva podría abordar las limitaciones e incertidumbres identificadas en el entrenamiento de IAPG con obras protegidas por derechos de autor.