Necesidad de una Alfabetización en IA

OpenAI. 2025. Building an AI-Ready Workforce: A Look at College Student ChatGPT Adoption in the US. https://cdn.openai.com/global-affairs/openai-edu-ai-ready-workforce.pdf

El informe subraya la necesidad urgente de integrar la educación en inteligencia artificial en el sistema educativo para preparar adecuadamente a los estudiantes para un mercado laboral cada vez más influenciado por la tecnología. La adopción desigual de herramientas como ChatGPT y la falta de formación formal en IA podrían ampliar las brechas económicas y de habilidades entre diferentes regiones y grupos demográficos.

El informe ofrece un análisis detallado sobre cómo los estudiantes universitarios en Estados Unidos están adoptando herramientas de inteligencia artificial, especialmente ChatGPT, y cómo esta tendencia influye en la preparación de la futura fuerza laboral.

Según el informe, más de un tercio de los jóvenes de 18 a 24 años en EE. UU. utilizan ChatGPT, y aproximadamente una cuarta parte de sus interacciones con la herramienta están relacionadas con el aprendizaje, la tutoría y el trabajo académico. Los estudiantes emplean ChatGPT para iniciar trabajos y proyectos, resumir textos extensos, explorar temas, revisar escritos y obtener ayuda en programación.

La adopción de ChatGPT varía significativamente entre los estados. California, Virginia, Nueva Jersey y Nueva York presentan las tasas más altas de uso entre los jóvenes de 18 a 24 años, mientras que Wyoming, Alaska, Montana y Virginia Occidental muestran tasas considerablemente más bajas. Estas diferencias podrían generar disparidades en la preparación de la fuerza laboral y en el desarrollo económico futuro.

El informe destaca que tres de cada cuatro estudiantes universitarios desean formación en inteligencia artificial, pero solo una de cada cuatro instituciones educativas la ofrece actualmente. Esta falta de formación formal lleva a muchos estudiantes a aprender sobre IA de manera autodidacta o a través de sus compañeros, lo que puede resultar en una comprensión desigual y en posibles problemas de integridad académica.

OpenAI propone varias acciones para abordar estas brechas:

  • Mejorar la alfabetización en IA: Integrar la educación en inteligencia artificial en los planes de estudio para que los estudiantes comprendan cómo utilizar estas herramientas de manera efectiva y ética.
  • Ampliar el acceso a herramientas de IA: Asegurar que todos los estudiantes, independientemente de su ubicación o situación económica, tengan acceso a tecnologías de IA como ChatGPT.
  • Establecer políticas claras sobre el uso de IA: Desarrollar directrices institucionales que definan cómo y cuándo es apropiado utilizar herramientas de IA en contextos educativos.

En una reciente entrevista durante el evento AI Ascent de Sequoia Capital, el CEO de OpenAI, Sam Altman, destacó que muchos jóvenes no toman decisiones importantes en su vida sin consultar antes con ChatGPT. Para esta generación, la herramienta no es solo un asistente de tareas o un recurso para resolver dudas, sino una especie de confidente digital presente en casi todos los aspectos de su vida cotidiana. En concreto afirmó

«Las personas mayores utilizan ChatGPT como sustituto de Google. Quizá los veinteañeros y treintañeros lo utilicen como un asesor de vida. Y luego, la gente en la universidad lo usa como un sistema operativo».

Según San Al Altman muchos jóvenes no toman decisiones importantes en su vida sin consultar antes con ChatGPT

Carroll, Shannon. 2025. “Sam Altman’s Gen Z Brag: ‘They Don’t Really Make Life Decisions without Asking ChatGPT’.Gizmodo, 13 de mayo. https://gizmodo.com/sam-altman-chatgpt-gen-z-life-decisions-openai-1851482444

En una reciente entrevista durante el evento AI Ascent de Sequoia Capital, el CEO de OpenAI, Sam Altman, destacó que muchos jóvenes no toman decisiones importantes en su vida sin consultar antes con ChatGPT. Para esta generación, la herramienta no es solo un asistente de tareas o un recurso para resolver dudas, sino una especie de confidente digital presente en casi todos los aspectos de su vida cotidiana.

Altman explicó que los usuarios más jóvenes no interactúan con ChatGPT de forma casual. Por el contrario, crean complejos flujos de trabajo, configuran el sistema para conectarlo con diversos archivos, y memorizan o guardan prompts sofisticados para reutilizarlos. Según él, algunos lo usan como si fuera un verdadero sistema operativo personal. Esta integración tan profunda marca una diferencia notable con otras generaciones. Mientras las personas mayores tienden a utilizar la IA como sustituto de Google, los jóvenes de entre 20 y 30 años la ven como un asesor de vida, y los estudiantes universitarios directamente la convierten en el eje central de su rutina tecnológica.

«Las personas mayores utilizan ChatGPT como sustituto de Google. Quizá los veinteañeros y treintañeros lo utilicen como un asesor de vida. Y luego, la gente en la universidad lo usa como un sistema operativo».

Los datos respaldan esta percepción. Un informe de OpenAI publicado en febrero reveló que los estudiantes universitarios estadounidenses no solo son los más numerosos entre los usuarios, sino también los más comprometidos. Más de un tercio de los jóvenes entre 18 y 24 años en Estados Unidos usa ChatGPT, lo que confirma su papel como el grupo etario más activo en la plataforma. Además, una encuesta de Pew Research de enero de 2024 indicó que el 26 % de los adolescentes de entre 13 y 17 años utilizaban ChatGPT para hacer tareas escolares, duplicando el porcentaje del año anterior. Estos datos revelan que la IA no solo está presente, sino que se ha naturalizado como parte del entorno educativo y personal de los jóvenes.

Sin embargo, esta rápida adopción también ha generado preocupación. Algunos legisladores en California han propuesto normativas que obliguen a las empresas de inteligencia artificial a recordar a los menores que están interactuando con una máquina y no con una persona real. Por su parte, un informe publicado por Common Sense Media y la Universidad de Stanford en abril recomienda que los niños no usen servicios de IA como compañeros emocionales, debido a los riesgos que esto podría implicar para su desarrollo.

En el podcast de Lex Fridman, Altman reflexiona sobre el futuro de la relación entre los usuarios y la IA. Subraya la importancia de construir modelos que evolucionen con el tiempo y se adapten a las necesidades personales de cada individuo. Según él, lo que la gente realmente desea es una inteligencia artificial que los conozca, que entienda su contexto personal y que se vuelva cada vez más útil y relevante a medida que la relación se profundiza.

La Generación Z no solo está utilizando la inteligencia artificial, sino que la está incorporando a su vida diaria de una forma sin precedentes. Esta transformación plantea oportunidades prometedoras, pero también desafíos éticos, educativos y sociales que deben ser abordados con responsabilidad. La figura del chatbot como asesor digital se consolida, y con ella, una nueva forma de convivir con la tecnología.

Estado del compromiso bibliotecario en la comunicación y educación sobre el clima (IFLA)

Aaron Redman, State of Library Engagement in Climate Communication and Education (La Haya: International Federation of Library Associations and Institutions [IFLA], 2025), https://repository.ifla.org/handle/20.500.14598/394

Key Findings and Executive Summary

Full Text Report

El informe resalta el papel fundamental de las bibliotecas como agentes de cambio en la lucha contra el cambio climático. Gracias a su rol como espacios de confianza y aprendizaje dentro de las comunidades, las bibliotecas tienen un enorme potencial para sensibilizar, educar y movilizar a la ciudadanía en favor de un futuro más sostenible y resiliente.

Este informe de la Federación Internacional de Asociaciones de Bibliotecarios y Bibliotecas (IFLA), publicado el 11 de mayo de 2025, presenta un panorama global sobre el compromiso de las bibliotecas en la comunicación y educación sobre el cambio climático (CCE). Basado en una encuesta mundial que reunió las respuestas de cerca de 600 asociaciones e instituciones bibliotecarias, el documento analiza el nivel de implicación de estas entidades en temas relacionados con el clima y la sostenibilidad.

Uno de los principales hallazgos es que las bibliotecas, en general, desarrollan más actividades relacionadas con la sostenibilidad que con el cambio climático específicamente. En este contexto, las bibliotecas públicas lideran la participación en programas de CCE, por encima de las bibliotecas escolares o académicas. Aunque las bibliotecas de mayor tamaño tienden a tener una implicación algo mayor, el estudio demuestra que instituciones de todos los tamaños están aportando a esta causa.

El informe señala que muchas bibliotecas inician su compromiso ofreciendo recursos informativos sobre el cambio climático —como libros, paneles o exposiciones— antes de avanzar hacia actividades más activas como programas educativos y alianzas comunitarias. La colaboración con gobiernos locales, organizaciones de la sociedad civil y centros educativos se identifica como un factor clave para ampliar y fortalecer este tipo de programación.

Otro aspecto relevante es que numerosas bibliotecas están adoptando medidas para reducir su impacto ambiental mediante mejoras en infraestructuras y operaciones más sostenibles. Sin embargo, el apoyo por parte de asociaciones bibliotecarias a este esfuerzo aún es limitado y requiere fortalecimiento.

Entre sus recomendaciones, la IFLA insta a las asociaciones bibliotecarias a ofrecer recursos adaptados a los contextos locales, apoyar la transformación ecológica de las bibliotecas y fomentar actividades relacionadas con el clima. A su vez, anima a las bibliotecas individuales a crear alianzas con actores locales y centrarse en problemáticas climáticas específicas de su entorno. Por último, hace un llamado a los responsables políticos, tanto locales como nacionales, para que reconozcan y fortalezcan el papel estratégico de las bibliotecas en la difusión de información climática y la promoción de acciones sostenibles.

Recomendaciones

Para las asociaciones de bibliotecas: Proporcionar activamente a las bibliotecas recursos traducidos y relevantes a nivel local sobre el cambio climático, apoyar a las bibliotecas miembros en la ecologización de sus operaciones e infraestructuras y organizar programas relacionados con el clima que incluyan a las bibliotecas miembros.

Para bibliotecas individuales: Establecer asociaciones con las administraciones locales, las organizaciones de la sociedad civil y las escuelas para ampliar la programación de la ECC, utilizar las colecciones de libros y las exposiciones para iniciar el compromiso y centrarse en los aspectos locales del cambio climático para aumentar el interés y el impacto en la comunidad.

Para los responsables políticos locales: Reconocer a las bibliotecas públicas y comunitarias como socios valiosos para llegar a los residentes en cuestiones climáticas y de sostenibilidad, aprovechar las bibliotecas para proporcionar recursos e información específicos y colaborar con las bibliotecas escolares y universitarias.

Para los responsables políticos nacionales: Colaborar con las bibliotecas nacionales -que se encuentran entre los tipos de bibliotecas más activos en iniciativas sobre clima y sostenibilidad-, asociarse con las bibliotecas para difundir materiales sobre cambio climático relevantes a nivel local y utilizar las bibliotecas como centros de divulgación comunitaria para la acción climática.

Las páginas webs más visitadas del mundo

Visual Capitalist. «Ranked: The Most Visited Websites in the WorldVisual Capitalist, May 6, 2025. https://www.visualcapitalist.com/most-visited-websites-in-the-world/?utm_source=flipboard&utm_content=topic/google

El artículo de Visual Capitalist proporciona un análisis detallado de los sitios web más visitados del mundo según los datos de tráfico de noviembre de 2024. Google sigue siendo el sitio más visitado a nivel global, con más de 136 mil millones de visitas mensuales. Su dominio se debe a su función como motor de búsqueda más utilizado y su integración con otros servicios como Gmail, Google Maps y Google Drive. YouTube, propiedad de Google, ocupa el segundo lugar, reflejando el crecimiento del consumo de videos en línea como fuente de entretenimiento y aprendizaje. Con más de 35 mil millones de visitas mensuales, YouTube se consolida como un referente de video en la web.

Las redes sociales tienen una presencia destacada, con plataformas como Facebook, X (anteriormente Twitter) e Instagram entre los sitios más visitados. Facebook, aunque sigue siendo el tercero en la lista, ha experimentado una desaceleración en su crecimiento, mientras que plataformas como Instagram y TikTok continúan ganando popularidad, especialmente entre audiencias más jóvenes. TikTok, con su formato de videos cortos, ha experimentado un crecimiento explosivo y se ha convertido en una de las plataformas más influyentes, con 3.2 mil millones de visitas mensuales. Estas plataformas han transformado el consumo de contenido y están dominando la interacción digital en la actualidad.

Además, el artículo resalta el auge de las plataformas basadas en inteligencia artificial, como OpenAI y Character.AI, que están ganando popularidad a medida que la IA se convierte en una herramienta integral en la interacción digital. Este fenómeno subraya cómo la IA está cambiando la forma en que las personas consumen contenido y se relacionan con la tecnología. La creciente integración de la IA en la web muestra una clara tendencia hacia la automatización de las interacciones en línea, desde la creación de contenido hasta la personalización de experiencias.

Las plataformas de streaming, como Netflix y YouTube, también se destacan en términos de tráfico web. Netflix sigue siendo una de las principales fuentes de entretenimiento en línea, mientras que TikTok se impone como un competidor fuerte en la creación y consumo de contenido en video. A pesar de la competencia de nuevas plataformas, estos gigantes del entretenimiento siguen siendo esenciales para el tráfico web global.

En el ámbito del comercio electrónico, Amazon continúa siendo un sitio de alto tráfico, aunque no lidera la lista de los más visitados. A pesar de su éxito en el comercio en línea, las plataformas de búsqueda y redes sociales tienen una mayor cantidad de visitas. Este fenómeno refleja el cambio en los hábitos de los usuarios, que cada vez más priorizan la interacción social y el consumo de contenido sobre las compras en línea.

Por último, el artículo señala cómo la localización influye en el tráfico web global. A pesar de la dominancia de los sitios de EE.UU., plataformas de otros países, como WeChat y Baidu en China, también están ganando terreno, aunque el acceso a estas plataformas puede verse afectado por la censura en algunas regiones. El panorama global del tráfico web sigue siendo dinámico y está moldeado por las tendencias emergentes en IA, redes sociales, y entretenimiento en video.

Monthly VisitsUnique Monthly Visitors
Google136B6.3B
YouTube72.8B3.6B
Facebook12.7B2.0B
Wikipedia6.9B1.5B
Instagram6.8B1.5B
Reddit6.0B1.0B
Pornhub5.3B928M
Bing5.2B679M
ChatGPT4.8B566M
X4.3B842M

El análisis de los datos de visitas mensuales y visitantes únicos mensuales de los sitios web más populares del mundo revela varias tendencias interesantes sobre la dinámica digital global.

X (anteriormente Twitter), con 4.3 mil millones de visitas y 842 millones de visitantes únicos, sigue siendo una plataforma importante para debates en tiempo real y noticias. Aunque ha enfrentado dificultades con cambios en su estructura, sigue siendo una fuente clave de información y conversación en línea.

Dominio de Google y YouTube:

Google lidera el ranking con una impresionante cifra de 136 mil millones de visitas mensuales y 6.3 mil millones de visitantes únicos. Esto demuestra la hegemonía de Google en la búsqueda y en una serie de otros servicios (como Gmail, Google Maps, etc.), lo que lo convierte en la plataforma más utilizada por la mayor parte de los usuarios en todo el mundo.

YouTube, con 72.8 mil millones de visitas mensuales y 3.6 mil millones de visitantes únicos, sigue como la principal plataforma de videos en línea. El alto número de visitas y usuarios únicos destaca el dominio de YouTube como plataforma de contenido visual y su capacidad para atraer a una amplia audiencia en una variedad de categorías, desde entretenimiento hasta educación.

Redes Sociales:

Facebook se mantiene en una sólida posición, con 12.7 mil millones de visitas mensuales y 2 mil millones de visitantes únicos, aunque ha visto una ligera disminución en su crecimiento en comparación con años anteriores. A pesar de la competencia de otras plataformas como Instagram, Facebook sigue siendo un gigante social, especialmente en términos de usuarios activos.

Instagram y Reddit presentan cifras competitivas. Instagram, con 6.8 mil millones de visitas y 1.5 mil millones de visitantes únicos, sigue siendo una de las principales plataformas sociales centradas en lo visual, mientras que Reddit, con 6.0 mil millones de visitas y 1.0 mil millones de visitantes únicos, destaca por su capacidad para atraer a comunidades muy específicas y discusiones de nicho.

Plataformas de entretenimiento y contenidos adultos:

Pornhub ocupa el séptimo lugar con 5.3 mil millones de visitas y 928 millones de visitantes únicos. Aunque está muy lejos de los gigantes de búsqueda y redes sociales, sigue siendo una de las plataformas más visitadas del mundo, lo que refleja la gran demanda de contenido adulto en línea.

Bing, con 5.2 mil millones de visitas y 679 millones de visitantes únicos, muestra que el motor de búsqueda de Microsoft todavía tiene una base significativa de usuarios, aunque está muy por detrás de Google.

Inteligencia Artificial y Nuevas Tecnologías:

ChatGPT, con 4.8 mil millones de visitas y 566 millones de visitantes únicos, es un indicador claro del crecimiento de la inteligencia artificial y las herramientas conversacionales. La alta cantidad de visitas subraya el impacto de los modelos de lenguaje de IA en la interacción de los usuarios con la tecnología, proporcionando respuestas, soluciones y asistencia de manera eficiente.

Pinterest comienza a etiquetar imágenes generadas con inteligencia artificial para combatir su proliferación

Weatherbed, Jess. “Pinterest Is Finally Doing Something about Its AI Infestation.” The Verge, May 1, 2025. https://www.theverge.com/news/659485/pinterest-ai-image-label-filter-features

Pinterest ha anunciado nuevas funciones para etiquetar automáticamente las imágenes generadas o editadas con inteligencia artificial (IA) en su plataforma. Estas etiquetas, que aparecerán como un sello de “Modificado con IA” en la parte inferior izquierda de los pines al hacer clic en ellos, buscan ayudar a los usuarios a identificar este tipo de contenido y tomar decisiones más informadas.

La detección se basará tanto en metadatos (como SynthID de Google o Content Credentials de Adobe) como en clasificadores desarrollados por Pinterest, incluso si la imagen no tiene marcadores visibles. Además, los usuarios podrán apelar si consideran que su contenido fue mal etiquetado.

Pinterest también implementará pronto una función experimental que permitirá filtrar imágenes con IA en categorías como belleza y arte, usando una opción de “ver menos” en el menú de cada pin. La compañía planea ampliar este filtro a más categorías, aunque aún no está claro cuánta IA se podrá bloquear.

Estas medidas responden a críticas por la proliferación de imágenes generadas con IA que dificultan la búsqueda de referencias reales y útiles en la plataforma.

El impacto transformador de la inteligencia artificial en la medicina

Walker-Wawrzycki, Alexandra. 2025. “From Data to Diagnosis – How AI Is Changing the World of Medicine.” Cosmos Magazine, May 7, 2025. https://cosmosmagazine.com/technology/ai/ai-in-medicine-data-diagnosis

La inteligencia artificial (IA) está revolucionando el ámbito de la medicina al automatizar procesos repetitivos y complejos, lo que permite a los profesionales sanitarios centrarse más en la atención directa al paciente.

Entre las aplicaciones actuales más destacadas se encuentra el uso de escribas digitales, programas que transcriben automáticamente las observaciones del médico en tiempo real durante la consulta. Estos sistemas, como Lyrebird, eliminan la grabación y el texto después de ser descargados, garantizando así la privacidad del paciente. Según un estudio de la Universidad de Pensilvania, su uso incrementa en un 20 % el tiempo cara a cara con los pacientes y reduce en un 30 % el tiempo extra dedicado a papeleo.

Otro uso relevante es el análisis de imágenes médicas, como radiografías, tomografías y resonancias magnéticas. Mediante algoritmos entrenados con miles de imágenes normales y patológicas, la IA puede detectar anomalías con gran precisión. No obstante, la calidad del entrenamiento depende en gran medida de la diversidad y representatividad de los datos. Investigadores de la Universidad de Lovaina advierten que errores o sesgos en los datos pueden afectar directamente al rendimiento clínico del modelo, con consecuencias graves, como desigualdades de género o raciales.

También se destaca el análisis de biomarcadores, donde la IA examina grandes volúmenes de datos de pacientes para identificar patrones y predecir enfermedades, reacciones adversas o respuestas a medicamentos. Estos sistemas usan modelos predictivos para anticipar riesgos de forma proactiva.

Se presentan ejemplos concretos, como el programa SWIFT en el hospital Lyell McEwin de Adelaida, que utiliza notas médicas y datos clínicos (frecuencia cardíaca, análisis de sangre) para predecir si un paciente puede ser dado de alta en las siguientes 48 horas. El sistema emplea dos algoritmos: uno analiza texto clínico y el otro traduce variables numéricas en una puntuación de alta, conocida como Adelaide Score.

Los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés), como los que utiliza ChatGPT, también están empezando a aplicarse en la medicina. Estos modelos convierten información en secuencias numéricas y predicen la siguiente entrada más probable, que luego se traduce en lenguaje natural. Son especialmente útiles para gestionar registros electrónicos o incluso para escribir informes clínicos.

En cuanto a la seguridad, se subraya la preocupación por el manejo de datos sensibles. En Australia del Sur, por ejemplo, las leyes impiden que los datos sanitarios se compartan con redes internacionales, obligando a que todo el procesamiento ocurra localmente. Esto limita la exposición y asegura que los datos no se utilicen para entrenar otros modelos, a diferencia de servicios comerciales como ChatGPT.

Paradójicamente, la IA también refuerza la ciberseguridad. Gracias a su capacidad de análisis, puede detectar comportamientos anómalos en redes, identificar accesos sospechosos y actuar preventivamente. Además, analiza patrones de uso y detecta si una cuenta ha sido usada por alguien que no es su usuario habitual.

Sin embargo, persisten preguntas éticas sobre la responsabilidad legal: si un sistema de IA comete un error que afecta al paciente, ¿quién es el responsable? Por ahora, estos sistemas siguen siendo supervisados por profesionales humanos que toman la última decisión, y por tanto, también asumen la responsabilidad.

En el campo emergente de la medicina de precisión, la IA ya predice fallos técnicos antes de que ocurran, lo que permite realizar mantenimientos preventivos y garantiza un funcionamiento seguro del equipamiento médico.

En conclusión, la IA tiene el potencial de hacer la sanidad más económica y accesible, al asumir tareas administrativas previas a la consulta y liberar tiempo para la atención médica directa. Esto podría reducir la necesidad de personal sin sacrificar calidad, mejorar la eficiencia y aumentar la satisfacción profesional del personal sanitario.

¿Automatizará la IA su puesto de trabajo?

Hausenloy, Jason. 2025. Will AI Automate Away Your Job?Commonplace, March 20, 2025. https://commonplace.org/2025/03/20/will-ai-automate-away-your-job/

los trabajos más susceptibles a la automatización son aquellos que consisten en tareas pequeñas y repetitivas, como los de los centros de llamadas o algunos servicios freelance. Aunque muchas veces se piensa que los trabajos de «conocimiento» son inmunes a la automatización, también corren riesgo. Los ingenieros y programadores de Silicon Valley, por ejemplo, crean tareas de codificación estandarizadas que pueden ser replicadas fácilmente por IA. En cambio, roles como el de un CEO, que requieren años de experiencia y contexto, son más difíciles de automatizar debido a la complejidad de sus responsabilidades.

El artículo explora en profundidad el impacto de la inteligencia artificial (IA) en el futuro del empleo, alejándose de los tópicos más habituales y proponiendo una herramienta conceptual interesante: el modelo del horizonte temporal. Este modelo plantea que la vulnerabilidad de un trabajo ante la automatización no depende tanto del nivel de conocimientos técnicos o del estatus del puesto, sino del marco temporal en el que se desarrollan sus tareas principales. Es decir, cuanto más breves, discretas y estandarizadas sean las tareas, más probable es que una IA pueda realizarlas de manera efectiva. Por el contrario, aquellas actividades que requieren contexto, juicio experiencial o se extienden en el tiempo, resultan más difíciles de replicar mediante sistemas automatizados.

El autor ejemplifica esta lógica comparando dos roles dentro del mismo campo profesional, el de las tecnologías de la información. Por un lado, presenta al especialista en soporte técnico, cuya jornada laboral se compone de tareas cortas, tales como resolver problemas de conectividad, restablecer contraseñas o responder dudas básicas. Son acciones repetitivas y bien documentadas, muchas veces resueltas siguiendo protocolos establecidos. Estas características hacen que este tipo de puesto sea altamente susceptible a la automatización, ya que los sistemas de IA pueden entrenarse con facilidad en este tipo de flujos de trabajo predecibles. Por otro lado, el artículo describe al arquitecto de sistemas, una figura profesional que se dedica a diseñar soluciones tecnológicas complejas, tomando en cuenta las necesidades específicas de distintas áreas de una empresa. Esta persona necesita una visión holística, capacidades interpersonales y un conocimiento profundo del contexto empresarial. Las decisiones que toma no pueden descomponerse fácilmente en tareas simples, lo que las hace mucho más difíciles de automatizar.

Este patrón se repite en muchas otras industrias, desde el periodismo hasta el derecho. Los redactores que simplemente reescriben artículos o producen contenido estandarizado corren más riesgo que quienes investigan en profundidad o desarrollan enfoques únicos. En el ámbito jurídico, los paralegales que redactan contratos estándar también están más expuestos que los abogados que negocian acuerdos complejos o desarrollan estrategias legales. Así, la clave no está necesariamente en qué industria se trabaja, sino en cómo están estructuradas las tareas que se realizan en el día a día. La IA avanza rápidamente en todos los frentes y ya es capaz de desempeñar tareas que requieren razonamiento, empatía e incluso creatividad en algunos casos. Por ello, el modelo del horizonte temporal ofrece un marco útil para reflexionar sobre el futuro del trabajo en la era de la automatización.

Paradójicamente, uno de los grupos profesionales más vulnerables según este análisis son los propios desarrolladores de software y programadores de Silicon Valley, quienes están entrenando a las IA que podrían sustituirlos. Si su trabajo consiste en escribir fragmentos de código modulares, bien estructurados y documentados —algo muy común en entornos colaborativos como GitHub—, entonces están produciendo exactamente el tipo de tareas que la IA puede aprender a ejecutar de forma autónoma. Este fenómeno pone en entredicho la idea, sostenida durante años, de que los “trabajadores del conocimiento” estaban a salvo de la automatización. En realidad, no lo están más que cualquier otro sector: todo depende de la forma y del contenido de sus actividades.

En definitiva, Hausenloy advierte que la inteligencia artificial no solo impactará en los trabajos de baja cualificación o en el sector manufacturero, como tradicionalmente se ha pensado. Más bien, la disrupción alcanzará incluso a profesiones altamente cualificadas si sus tareas pueden descomponerse en unidades de trabajo cortas, rutinarias o estructuradas. Por tanto, la protección ante la automatización no reside tanto en el título profesional como en la complejidad, la diversidad y el horizonte temporal de las responsabilidades laborales. Ante este escenario, la capacidad de adaptación, el aprendizaje continuo y el desarrollo de habilidades menos replicables por la IA serán factores clave para mantener la relevancia laboral en los próximos años.

Palabras que podrían indicar que un texto ha sido escrito con una Inteligencia Artificial

Juzek, Tom S., y Zina B. Ward. 2025. “Why Does ChatGPT ‘Delve’ So Much? Exploring the Sources of Lexical Overrepresentation in Large Language Models.” En Proceedings of the 31st International Conference on Computational Linguistics, 6397–6411. Abu Dhabi, UAE: Association for Computational Linguistics. https://aclanthology.org/2025.coling-main.426/

En los últimos años se ha detectado un aumento notable en el uso de ciertos términos como «delve», «explore» o «tapestry», asociados a la redacción con inteligencia artificial. Este fenómeno, conocido como sobrerrepresentación léxica, sugiere una creciente influencia de modelos como ChatGPT en los textos académicos. Aunque no implica plagio, plantea dudas sobre la originalidad y el rigor en la producción científica.

Según el estudio de Juzek y Ward (2024), ha habido un notable aumento en el uso de términos como «indagar», «intrincado» y «subrayar» en comparación con hace solo unos años. Además de «delve», otras palabras que ChatGPT tiende a utilizar con mayor frecuencia incluyen «explore», «tapestry», «testament» y «leverage»

Estas palabras son empleadas de manera excesiva por modelos de lenguaje como ChatGPT. Los autores señalan que estas palabras tienden a aparecer con una frecuencia desproporcionada en resúmenes científicos, lo que sugiere que su proliferación podría deberse al uso extendido de estos modelos para la redacción de textos académicos.

Nguyen, Jeremy. Are medical studies being written with ChatGPT?

Esta tendencia se conoce como sobrerrepresentación léxica, y es parte de un fenómeno lingüístico más amplio en el que la inteligencia artificial está comenzando a influir activamente en el lenguaje humano, especialmente en registros formales como el académico.

No obstante, es importante señalar que la sobrerrepresentación léxica no necesariamente indica plagio, aunque sí puede ser un indicio de que un texto no es completamente original. El análisis de este fenómeno debe ser parte de una investigación más exhaustiva sobre la autenticidad de un texto. Nguyen subraya que, aunque el uso aislado de la palabra «delve» no demuestra por sí mismo la intervención de inteligencia artificial, su repetida aparición en artículos científicos podría señalar la influencia de herramientas como ChatGPT en la escritura académica. Este patrón sugiere que muchos investigadores están recurriendo a estas tecnologías para optimizar y acelerar el proceso de redacción de sus trabajos.

Este fenómeno ha generado preocupación en la comunidad científica, ya que podría afectar la calidad y la originalidad de la investigación publicada. Algunos expertos advierten sobre el riesgo de que el lenguaje artificialmente elaborado se infiltre en la redacción científica, diluyendo la autenticidad y el rigor académico

Un abogado presenta en un juicio citas legales falsas tras haber consultado una Inteligencia artificial

Carrick, Damien, y Sophie Kesteven. 2023. “This US Lawyer Used ChatGPT to Research a Legal Brief—with Embarrassing Results. We Could All Learn from His Error.” UNSW Newsroom, 24 de junio de 2023. https://www.unsw.edu.au/news/2023/06/this-us-lawyer-used-chatgpt-to-research-a-legal-brief-with-embar

El abogado estadounidense Steven A. Schwartz, junto con su colega Peter LoDuca y el bufete Levidow, Levidow & Oberman, fue multado con 5.000 dólares por presentar citas legales falsas en un caso judicial. El error se debió a que Schwartz utilizó ChatGPT para investigar jurisprudencia en un caso de lesiones personales sin verificar la autenticidad de los fallos citados.

El caso implicaba a un cliente, Roberto Mata, que demandaba a la aerolínea Avianca por una lesión en la rodilla causada por un carrito de servicio durante un vuelo. Schwartz recurrió a ChatGPT para buscar precedentes legales similares, pero las sentencias que presentó en el escrito eran completamente inventadas por la inteligencia artificial.

Aunque Schwartz preguntó a ChatGPT si los casos eran reales y recibió respuestas afirmativas, no hizo ninguna comprobación adicional en bases de datos legales. Esta falta de diligencia llevó al juez P. Kevin Castel a calificar las acciones como un abandono de las responsabilidades profesionales, al presentar opiniones judiciales inexistentes con citas y frases falsas. Incluso, el juez leyó en voz alta parte del texto generado y lo calificó de «galimatías legal».

Castel aclaró que no está mal usar IA en el trabajo legal, pero que los abogados siguen teniendo el deber de verificar la veracidad de la información que presentan en la corte.

La profesora Lyria Bennett Moses, experta en la relación entre derecho y tecnología, señaló que el caso muestra un malentendido fundamental sobre el funcionamiento de herramientas como ChatGPT, que no tiene filtros de verdad y no funciona como un buscador, sino como un generador de texto basado en probabilidades.

El bufete involucrado negó haber actuado de mala fe, alegando que fue un error cometido de buena fe, al confiar erróneamente en la herramienta. Sin embargo, el caso ha generado una amplia repercusión internacional y ha dejado en evidencia los riesgos de utilizar inteligencia artificial sin el debido criterio profesional.

Análisis de las alucinaciones en los principales modelos de Inteligencia Artificial

Berenstein, David. “Good Answers Are Not Necessarily Factual Answers: An Analysis of Hallucination in Leading LLMs.” Hugging Face. Accedido el 12 de mayo de 2025. https://huggingface.co/blog/davidberenstein1957/phare-analysis-of-hallucination-in-leading-llms

Se analiza los errores de alucinación en los principales modelos de lenguaje mediante el uso del benchmark Phare (Potential Harm Assessment & Risk Evaluation). Este estudio pone el foco en un problema central: los modelos pueden ofrecer respuestas que suenan convincentes pero que contienen información falsa o inventada, lo que representa un riesgo real en su uso cotidiano.

Uno de los hallazgos principales del análisis es que más de un tercio de los errores detectados en sistemas de IA desplegados públicamente se deben a alucinaciones. Estas no solo son comunes, sino que además suelen ser difíciles de detectar, porque los modelos presentan esas respuestas con un alto grado de confianza. Esto puede confundir fácilmente a los usuarios, especialmente si no tienen el conocimiento necesario para evaluar la veracidad de lo que están leyendo.

La evaluación se llevó a cabo con el marco Phare, que analiza el rendimiento de los modelos a través de varias etapas: recolección de contenido auténtico y representativo, creación de ejemplos de prueba, revisión humana para asegurar la calidad y, finalmente, evaluación del comportamiento de los modelos. Dentro del módulo de alucinación, se valoraron cuatro tareas clave: la precisión factual, la capacidad para resistirse a la desinformación, la habilidad para desmentir bulos o teorías conspirativas, y la fiabilidad en el uso de herramientas externas como bases de datos o APIs.

Un aspecto especialmente relevante que destaca el estudio es la desconexión entre popularidad y fiabilidad. Es decir, que los modelos más valorados por los usuarios en términos de experiencia de uso no siempre son los más precisos en cuanto a la información que generan. Esto sugiere que una buena interacción no garantiza una buena calidad factual, y que es necesario avanzar en métricas que evalúen la veracidad con más rigor.

En conclusión el estudio muestra que las alucinaciones son un problema estructural de los modelos actuales y que su impacto es especialmente delicado en contextos donde la precisión es crítica, como la medicina, el derecho o la educación. Por ello, el artículo concluye que identificar y reducir estos errores debe ser una prioridad para mejorar la seguridad y fiabilidad de los modelos de lenguaje de gran escala.