Archivo de la categoría: Tecnologías de la información

Transformar el aprendizaje con IA generativa: de las percepciones de los estudiantes al diseño de una solución educativa

Mirea, Corina-Marina, Răzvan Bologa, Andrei Toma, Antonio Clim, Dimitrie-Daniel Plăcintă, and Andrei Bobocea. 2025. «Transforming Learning with Generative AI: From Student Perceptions to the Design of an Educational Solution» Applied Sciences 15, no. 10: 5785. https://doi.org/10.3390/app15105785

Se explora cómo la inteligencia artificial generativa, específicamente herramientas como ChatGPT-3.5 y ChatGPT-4, está transformando el proceso de aprendizaje desde la perspectiva de los estudiantes hasta el diseño de soluciones educativas adaptativas.

El estudio se centra en comprender cómo los estudiantes perciben el uso de herramientas de IA generativa en su proceso de aprendizaje y cómo estas herramientas pueden integrarse en sistemas educativos adaptativos para mejorar los resultados académicos.

Los investigadores realizaron una encuesta entre estudiantes para recopilar datos sobre sus experiencias y percepciones al utilizar ChatGPT en sus estudios. Además, analizaron arquitecturas de plataformas de aprendizaje existentes para proponer una nueva arquitectura de sistema de aprendizaje adaptativo que incorpore IA generativa.

El objetivo principal del estudio es doble: por un lado, evaluar cómo los estudiantes perciben el uso de herramientas de IA generativa en su proceso de aprendizaje; por otro, diseñar una arquitectura de sistema de aprendizaje adaptativo que aproveche estas herramientas para crear entornos educativos más eficaces. La investigación parte de un enfoque empírico basado en encuestas a estudiantes universitarios, complementado con un análisis técnico de plataformas de aprendizaje digital existentes. Con base en estos dos pilares —la percepción de los usuarios y el estado del arte tecnológico— los autores desarrollan una propuesta concreta de solución educativa basada en IA.

Los resultados de la encuesta reflejan que una mayoría significativa de estudiantes percibe beneficios concretos en el uso de herramientas como ChatGPT. Entre los aspectos más valorados se encuentran la ayuda para la comprensión de conceptos complejos, el apoyo en la redacción de textos y la posibilidad de resolver dudas de manera inmediata y personalizada. Muchos estudiantes afirmaron que estas interacciones habían tenido un efecto positivo en su rendimiento académico.

También se identificaron algunos riesgos y desafíos, como la dependencia excesiva de la IA, la posibilidad de recibir información incorrecta o sesgada y la disminución del pensamiento crítico si no se usan las herramientas de forma consciente y reflexiva. No obstante, los estudiantes demostraron una actitud crítica y madura, reconociendo que la IA es una herramienta de apoyo y no un sustituto del aprendizaje activo.

A partir de los hallazgos, los autores proponen una arquitectura de sistema de aprendizaje adaptativo que integra IA generativa como núcleo funcional. Esta arquitectura se basa en varios módulos: gestión del conocimiento, personalización del aprendizaje, interacción con el usuario, seguimiento del progreso, evaluación formativa y retroalimentación continua. La IA generativa se utiliza principalmente para generar contenidos personalizados, explicar conceptos según el nivel del estudiante, ofrecer ejercicios prácticos y simular escenarios de aprendizaje.

El sistema está diseñado para aprender del comportamiento y las respuestas del estudiante, adaptándose dinámicamente a sus necesidades, intereses y ritmo de aprendizaje. Esto permite una experiencia educativa más personalizada, motivadora y eficaz. Además, el modelo considera la necesidad de incorporar mecanismos éticos y de verificación de la información generada por la IA.

Guía del estudiante sobre inteligencia artificial

AAC&U (American Association of Colleges and Universities). 2025. «New Student Guide to Artificial Intelligence Provides Expanded Resources for Navigating College in the AI Age.» AAC&U, May 6, 2025.

Texto completo

La Asociación Estadounidense de Universidades y Colegios (AAC&U) y la Universidad de Elon han publicado la segunda entrega de la serie Student Guide to Artificial Intelligence. Al igual que la primera edición, este recurso es gratuito y está disponible para estudiantes e instituciones a través de su sitio web y el de la AAC&U.

La nueva guía está diseñada para ayudar a los estudiantes a prepararse para el uso de la IA en sus estudios. Está organizada en torno a cinco competencias clave:

  • Investigación, recopilación de información y resumen
  • Escritura
  • Trabajo creativo
  • Análisis de datos y números
  • Apoyo al estudio y al aprendizaje

Además, incluye capítulos dedicados a la integridad académica, la ética de la IA, la planificación profesional y la creación de un portafolio con proyectos asistidos por IA.

El contenido fue desarrollado con la colaboración de expertos en inteligencia artificial y profesores universitarios de 14 países, incluidos Estados Unidos, España, Francia, Alemania, Japón y Venezuela, así como con aportaciones de estudiantes y usuarios de la primera edición.

El impacto de la inteligencia artificial generativa en el periodismo: relaciones entre plataformas y editores según el informe Journalism Zero

Brown, Peter, y Klaudia Jaźwińska. 2025. Journalism Zero: How Platforms and Publishers Are Navigating AI. Tow Center for Digital Journalism, Columbia Journalism School. https://towcenter.columbia.edu/sites/towcenter.columbia.edu/files/content/Journalism%20Zero_%20How%20Platforms%20and%20Publishers%20are%20Navigating%20AI.pdf.

Texto completo

La inteligencia artificial generativa está reconfigurando las relaciones entre las plataformas tecnológicas y los medios de comunicación.

Este documento se enmarca dentro de una línea de investigación que el Tow Center lleva desarrollando desde 2015, la cual ya había señalado en 2019, en su informe “The End of an Era”, que la estrategia dominante en la era de las redes sociales —la de depender de plataformas como Facebook, Twitter o Google para llegar a las audiencias— había sido errónea para el periodismo.

Con la llegada de ChatGPT y otras herramientas de IA generativa, se marca un nuevo punto de inflexión en esta relación. El informe destaca que estas tecnologías se están integrando en el periodismo de múltiples maneras. Por un lado, están siendo usadas en tareas internas y de apoyo, como el análisis de grandes volúmenes de datos, la generación de titulares y resúmenes, la traducción de contenidos, la adaptación de formatos o la redacción de informes y publicaciones para redes sociales. Este uso, aunque significativo, no es el foco principal del estudio.

El núcleo del informe se centra más bien en una cuestión polémica y estructural: el uso de contenido periodístico ya publicado —sin autorización— para entrenar los modelos de lenguaje que dan vida a estas herramientas. Un ejemplo destacado es el del periódico The New York Times, cuyo contenido representó un 1,2 % de una versión recreada del conjunto de datos que entrenó ChatGPT-2. Los modelos generativos como Perplexity prometen ofrecer respuestas instantáneas con fuentes citadas, sin necesidad de que el usuario acceda a las páginas originales, lo que mina los modelos de negocio de los medios al reducir el tráfico hacia sus sitios web.

Esta dinámica representa un giro sustancial respecto a la era de las redes sociales. Si bien en esa etapa las plataformas dependían del contenido de los medios para atraer usuarios —y los medios esperaban obtener a cambio visitas y visibilidad—, en esta nueva era las plataformas usan los contenidos periodísticos directamente como materia prima para entrenar sus modelos y, posteriormente, los integran en productos que muchas veces sustituyen la visita directa a los medios.

El informe señala que las compañías tecnológicas necesitan datos verificados y confiables para entrenar sus modelos, y que el periodismo profesional cumple perfectamente con ese requisito. Jessica Lessin, fundadora de The Information, lo resume con contundencia: “Resulta que las noticias precisas y bien escritas son una de las fuentes más valiosas para estos modelos, que han estado absorbiendo la producción intelectual humana sin permiso”.

El último gran desafío de los agentes de IA: la autorización para actuar por nosotros

Rosenbush, Steven. 2025.AI Agents Face One Last, Big Obstacle.The Wall Street Journal, May 17, 2025. https://www.wsj.com/articles/ai-agents-face-one-last-big-obstacle-ef3ea7f5

¿Pueden los agentes de IA reservar un vuelo por ti?. Aún no. El desarrollo de agentes de inteligencia artificial (IA) capaces de realizar tareas complejas en nombre de los usuarios está avanzando rápidamente, pero aún enfrenta un gran obstáculo: obtener permisos para actuar.

Aunque los modelos de lenguaje actuales (LLM, por sus siglas en inglés) son suficientemente potentes para llevar a cabo una amplia gama de funciones, su utilidad depende cada vez más de su capacidad para conectarse con herramientas externas como aplicaciones, sitios web y APIs. Esta conexión es esencial para que los agentes puedan realizar tareas del mundo real, como reservar un vuelo, pedir un Uber o gestionar el correo electrónico.

Un ejemplo que ilustra el potencial de estos agentes fue presentado en una conferencia de Apple, donde se imaginó a Siri realizando una serie de acciones encadenadas: consultar el estado de un vuelo a partir de un correo electrónico, revisar mensajes de texto para conocer los planes de comida con una persona, y calcular el tiempo necesario para llegar del aeropuerto al restaurante. Sin embargo, para que este tipo de asistentes funcione realmente, es imprescindible resolver cómo otorgarles autorización para acceder de forma segura a cuentas personales y datos sensibles. Los humanos usan contraseñas o reconocimiento biométrico, pero los agentes de IA requieren métodos distintos, ya que actúan como intermediarios.

Uno de los líderes en abordar este desafío es Alex Salazar, CEO de la startup Arcade.dev. Su empresa, ubicada en el área de San Francisco, está creando herramientas que permiten a los agentes firmar sesiones y obtener permisos de acceso a servicios externos. Arcade.dev ya trabaja con compañías como Shortwave para conectar agentes de correo con plataformas como Notion. En marzo, la empresa consiguió una ronda de financiación de 12 millones de dólares para impulsar este desarrollo, lo que muestra el interés del mercado en este tipo de soluciones.

Una iniciativa destacada en este ámbito fue la introducción del Model Context Protocol (MCP) por parte de Anthropic, la empresa detrás del chatbot Claude. Este protocolo busca estandarizar la forma en que los modelos de IA se conectan con herramientas externas, tal como el conector USB-C estandarizó la conexión de dispositivos físicos. Esta estandarización es vista como un paso necesario para que los agentes puedan operar de forma segura y eficiente en distintos entornos digitales.

De cara al futuro, Salazar prevé que, en los próximos dos años, los agentes de IA asumirán tareas cada vez más complejas como redactar correos electrónicos o planificar itinerarios, aunque todavía necesitarán confirmación humana antes de ejecutar acciones. Posteriormente, se espera que empiecen a operar de manera completamente autónoma en tareas de bajo riesgo. Una vez superados los principales desafíos técnicos, se anticipa un cambio radical en la forma en que las personas interactúan con la tecnología, comparable al impacto que tuvo la llegada de las tiendas de aplicaciones en 2008. La aparición de agentes autónomos podría marcar el inicio de una nueva era en la automatización y asistencia digital.

El desarrollo de políticas sobre inteligencia artificial generativa en las universidades británicas

Wilson, Thomas D. 2025. «The Development of Policies on Generative Artificial Intelligence in UK UniversitiesIFLA Journal. https://doi.org/10.1177/03400352251333796

El artículo examina cómo las universidades del Reino Unido han reaccionado ante el auge de la inteligencia artificial generativa (IAg) y cómo están desarrollando políticas para regular su uso en el ámbito académico. En particular, se enfoca en las instituciones del Russell Group, un conjunto de universidades líderes en investigación que han adoptado principios comunes para guiar la integración de estas tecnologías.

El artículo analiza en profundidad cómo las universidades del Reino Unido están respondiendo al auge de la inteligencia artificial generativa (IAg) —como ChatGPT, Claude, Copilot, entre otras— y cómo esta tecnología está reconfigurando la educación superior. En particular, se centra en la forma en que las instituciones académicas, y más concretamente las pertenecientes al Russell Group (grupo de élite de universidades centradas en la investigación), han comenzado a desarrollar políticas formales para regular y aprovechar el uso de estas herramientas. El trabajo también incluye un examen comparativo con instituciones que no pertenecen al grupo y que enfrentan mayores retos para implementar marcos normativos debido a la falta de recursos.

La expansión de la IAg ha sido rápida, y su impacto en el sector educativo es profundo. Su adopción ha generado oportunidades pedagógicas —como personalización del aprendizaje, apoyo a estudiantes con necesidades especiales, mejora de la escritura académica y eficiencia en la retroalimentación docente—, pero también preocupaciones críticas:

  • Plagio y trampas asistidas por IA
  • Transformación de la evaluación
  • Brechas en la equidad digital
  • Necesidad de formación docente
  • Cambios en la naturaleza de la autoría y la originalidad académica

El estudio de Wilson toma como punto de partida la declaración de principios publicada por el Russell Group en 2023, donde se establecieron cinco ejes para la incorporación de la IAg en las universidades:

  1. Fomentar la alfabetización en IA entre el personal y el alumnado.
  2. Equipar al profesorado para acompañar a los estudiantes en el uso responsable de la tecnología.
  3. Revisar modelos de evaluación para mantener la integridad sin limitar el aprendizaje innovador.
  4. Preservar el rigor académico y la ética en la producción de conocimiento.
  5. Colaborar entre instituciones para compartir prácticas efectivas.

El artículo identifica variaciones sustanciales en la adopción e implementación de estas políticas, incluso entre las universidades del Russell Group. Algunas han creado marcos institucionales completos, con líneas claras sobre:

  • Qué usos de la IAg están permitidos o prohibidos.
  • Cómo citar contenido generado por IA.
  • Qué procedimientos aplicar en casos de mala praxis.
  • Cómo adaptar tareas evaluativas para reducir el riesgo de trampa.

Otras, sin embargo, aún están en etapas incipientes de desarrollo normativo, limitándose a recomendaciones generales o esperando una posición nacional más consolidada.

En universidades fuera del Russell Group, se observa una mayor dificultad para articular políticas, debido a la falta de recursos técnicos, de personal capacitado y de liderazgo en el tema. Esto puede generar desigualdades entre instituciones en términos de preparación ante los desafíos éticos y prácticos de la IAg.

¿Cómo funcionan los detectores de IA?

Kumar, Himanshu. 2025. “How Do AI Detectors Work? (And What They Miss).” Medium, 14 de mayo de 2025. https://medium.com/illumination/how-do-ai-detectors-work-2d7341891f0a

Más sobre  Detectores

Un detector de IA es una herramienta diseñada para estimar si un texto ha sido redactado por un ser humano o generado por una IA. Estas herramientas se utilizan comúnmente por docentes y plataformas de contenido para verificar la autenticidad de textos y prevenir el uso indebido de tecnologías de generación automática.

Estas herramientas se han popularizado en entornos educativos, profesionales y editoriales para tratar de identificar cuándo un texto ha sido escrito por una IA como ChatGPT, lo que genera un nuevo panorama en la evaluación de contenidos.

Los detectores de IA funcionan, principalmente, mediante el análisis estadístico y lingüístico de los textos. Una de las técnicas más comunes es la medición de la “perplejidad”, que evalúa cuán predecibles son las palabras en una oración. Los textos generados por IA tienden a tener una perplejidad baja porque siguen patrones muy estructurados. Otra métrica importante es la “variabilidad” (o “burstiness”), que analiza la mezcla de oraciones largas y cortas: los humanos suelen escribir con más variedad, mientras que los sistemas de IA producen frases de longitud más constante.

Además de estos métodos, algunos detectores se basan en clasificadores entrenados mediante aprendizaje automático. Estos modelos se alimentan con grandes cantidades de texto humano y de IA para aprender a reconocer patrones distintivos. También se recurre al análisis semántico para detectar inconsistencias lógicas en los textos generados por IA, y a la estilometría, que intenta encontrar “marcas de agua” ocultas o señales características que puedan revelar su origen artificial.

Grammarly, en particular, cuenta con herramientas que van más allá del simple análisis estadístico, como Grammarly Authorship, que analiza el estilo personal del usuario para verificar si un texto coincide con su forma habitual de escribir. También utiliza detección de plagio para identificar si partes del texto coinciden con fuentes existentes, lo que puede ayudar a descubrir fragmentos generados artificialmente que han sido copiados de la web.

Sin embargo, estas herramientas no son infalibles. Una de sus principales limitaciones es la presencia de falsos positivos: textos auténticamente humanos, especialmente aquellos escritos en un estilo formal o por hablantes no nativos, pueden ser identificados erróneamente como escritos por IA. Del mismo modo, pueden producirse falsos negativos si el texto generado por IA ha sido modificado o editado, lo que complica su detección.

Entre las herramientas más populares de detección de IA se encuentran GPTZero, diseñada específicamente para el ámbito educativo; Originality.AI, utilizada en marketing y contenido web; Turnitin, que ha incorporado capacidades de detección de IA junto con el análisis de plagio; Writer AI Detector, que es gratuito pero variable en precisión; y Copyleaks, que ofrece informes detallados especialmente en contextos académicos.

Si bien las herramientas de detección de textos generados por IA han mejorado en precisión, aún enfrentan desafíos significativos, especialmente en la identificación de textos modificados y en la equidad hacia diversos grupos de usuarios. Es esencial utilizar estas herramientas como apoyo y no como única fuente de verificación, complementándolas con el juicio humano y considerando el contexto de cada caso.

Necesidad de una Alfabetización en IA

OpenAI. 2025. Building an AI-Ready Workforce: A Look at College Student ChatGPT Adoption in the US. https://cdn.openai.com/global-affairs/openai-edu-ai-ready-workforce.pdf

El informe subraya la necesidad urgente de integrar la educación en inteligencia artificial en el sistema educativo para preparar adecuadamente a los estudiantes para un mercado laboral cada vez más influenciado por la tecnología. La adopción desigual de herramientas como ChatGPT y la falta de formación formal en IA podrían ampliar las brechas económicas y de habilidades entre diferentes regiones y grupos demográficos.

El informe ofrece un análisis detallado sobre cómo los estudiantes universitarios en Estados Unidos están adoptando herramientas de inteligencia artificial, especialmente ChatGPT, y cómo esta tendencia influye en la preparación de la futura fuerza laboral.

Según el informe, más de un tercio de los jóvenes de 18 a 24 años en EE. UU. utilizan ChatGPT, y aproximadamente una cuarta parte de sus interacciones con la herramienta están relacionadas con el aprendizaje, la tutoría y el trabajo académico. Los estudiantes emplean ChatGPT para iniciar trabajos y proyectos, resumir textos extensos, explorar temas, revisar escritos y obtener ayuda en programación.

La adopción de ChatGPT varía significativamente entre los estados. California, Virginia, Nueva Jersey y Nueva York presentan las tasas más altas de uso entre los jóvenes de 18 a 24 años, mientras que Wyoming, Alaska, Montana y Virginia Occidental muestran tasas considerablemente más bajas. Estas diferencias podrían generar disparidades en la preparación de la fuerza laboral y en el desarrollo económico futuro.

El informe destaca que tres de cada cuatro estudiantes universitarios desean formación en inteligencia artificial, pero solo una de cada cuatro instituciones educativas la ofrece actualmente. Esta falta de formación formal lleva a muchos estudiantes a aprender sobre IA de manera autodidacta o a través de sus compañeros, lo que puede resultar en una comprensión desigual y en posibles problemas de integridad académica.

OpenAI propone varias acciones para abordar estas brechas:

  • Mejorar la alfabetización en IA: Integrar la educación en inteligencia artificial en los planes de estudio para que los estudiantes comprendan cómo utilizar estas herramientas de manera efectiva y ética.
  • Ampliar el acceso a herramientas de IA: Asegurar que todos los estudiantes, independientemente de su ubicación o situación económica, tengan acceso a tecnologías de IA como ChatGPT.
  • Establecer políticas claras sobre el uso de IA: Desarrollar directrices institucionales que definan cómo y cuándo es apropiado utilizar herramientas de IA en contextos educativos.

En una reciente entrevista durante el evento AI Ascent de Sequoia Capital, el CEO de OpenAI, Sam Altman, destacó que muchos jóvenes no toman decisiones importantes en su vida sin consultar antes con ChatGPT. Para esta generación, la herramienta no es solo un asistente de tareas o un recurso para resolver dudas, sino una especie de confidente digital presente en casi todos los aspectos de su vida cotidiana. En concreto afirmó

«Las personas mayores utilizan ChatGPT como sustituto de Google. Quizá los veinteañeros y treintañeros lo utilicen como un asesor de vida. Y luego, la gente en la universidad lo usa como un sistema operativo».

El impacto transformador de la inteligencia artificial en la medicina

Walker-Wawrzycki, Alexandra. 2025. “From Data to Diagnosis – How AI Is Changing the World of Medicine.” Cosmos Magazine, May 7, 2025. https://cosmosmagazine.com/technology/ai/ai-in-medicine-data-diagnosis

La inteligencia artificial (IA) está revolucionando el ámbito de la medicina al automatizar procesos repetitivos y complejos, lo que permite a los profesionales sanitarios centrarse más en la atención directa al paciente.

Entre las aplicaciones actuales más destacadas se encuentra el uso de escribas digitales, programas que transcriben automáticamente las observaciones del médico en tiempo real durante la consulta. Estos sistemas, como Lyrebird, eliminan la grabación y el texto después de ser descargados, garantizando así la privacidad del paciente. Según un estudio de la Universidad de Pensilvania, su uso incrementa en un 20 % el tiempo cara a cara con los pacientes y reduce en un 30 % el tiempo extra dedicado a papeleo.

Otro uso relevante es el análisis de imágenes médicas, como radiografías, tomografías y resonancias magnéticas. Mediante algoritmos entrenados con miles de imágenes normales y patológicas, la IA puede detectar anomalías con gran precisión. No obstante, la calidad del entrenamiento depende en gran medida de la diversidad y representatividad de los datos. Investigadores de la Universidad de Lovaina advierten que errores o sesgos en los datos pueden afectar directamente al rendimiento clínico del modelo, con consecuencias graves, como desigualdades de género o raciales.

También se destaca el análisis de biomarcadores, donde la IA examina grandes volúmenes de datos de pacientes para identificar patrones y predecir enfermedades, reacciones adversas o respuestas a medicamentos. Estos sistemas usan modelos predictivos para anticipar riesgos de forma proactiva.

Se presentan ejemplos concretos, como el programa SWIFT en el hospital Lyell McEwin de Adelaida, que utiliza notas médicas y datos clínicos (frecuencia cardíaca, análisis de sangre) para predecir si un paciente puede ser dado de alta en las siguientes 48 horas. El sistema emplea dos algoritmos: uno analiza texto clínico y el otro traduce variables numéricas en una puntuación de alta, conocida como Adelaide Score.

Los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés), como los que utiliza ChatGPT, también están empezando a aplicarse en la medicina. Estos modelos convierten información en secuencias numéricas y predicen la siguiente entrada más probable, que luego se traduce en lenguaje natural. Son especialmente útiles para gestionar registros electrónicos o incluso para escribir informes clínicos.

En cuanto a la seguridad, se subraya la preocupación por el manejo de datos sensibles. En Australia del Sur, por ejemplo, las leyes impiden que los datos sanitarios se compartan con redes internacionales, obligando a que todo el procesamiento ocurra localmente. Esto limita la exposición y asegura que los datos no se utilicen para entrenar otros modelos, a diferencia de servicios comerciales como ChatGPT.

Paradójicamente, la IA también refuerza la ciberseguridad. Gracias a su capacidad de análisis, puede detectar comportamientos anómalos en redes, identificar accesos sospechosos y actuar preventivamente. Además, analiza patrones de uso y detecta si una cuenta ha sido usada por alguien que no es su usuario habitual.

Sin embargo, persisten preguntas éticas sobre la responsabilidad legal: si un sistema de IA comete un error que afecta al paciente, ¿quién es el responsable? Por ahora, estos sistemas siguen siendo supervisados por profesionales humanos que toman la última decisión, y por tanto, también asumen la responsabilidad.

En el campo emergente de la medicina de precisión, la IA ya predice fallos técnicos antes de que ocurran, lo que permite realizar mantenimientos preventivos y garantiza un funcionamiento seguro del equipamiento médico.

En conclusión, la IA tiene el potencial de hacer la sanidad más económica y accesible, al asumir tareas administrativas previas a la consulta y liberar tiempo para la atención médica directa. Esto podría reducir la necesidad de personal sin sacrificar calidad, mejorar la eficiencia y aumentar la satisfacción profesional del personal sanitario.

¿Automatizará la IA su puesto de trabajo?

Hausenloy, Jason. 2025. Will AI Automate Away Your Job?Commonplace, March 20, 2025. https://commonplace.org/2025/03/20/will-ai-automate-away-your-job/

los trabajos más susceptibles a la automatización son aquellos que consisten en tareas pequeñas y repetitivas, como los de los centros de llamadas o algunos servicios freelance. Aunque muchas veces se piensa que los trabajos de «conocimiento» son inmunes a la automatización, también corren riesgo. Los ingenieros y programadores de Silicon Valley, por ejemplo, crean tareas de codificación estandarizadas que pueden ser replicadas fácilmente por IA. En cambio, roles como el de un CEO, que requieren años de experiencia y contexto, son más difíciles de automatizar debido a la complejidad de sus responsabilidades.

El artículo explora en profundidad el impacto de la inteligencia artificial (IA) en el futuro del empleo, alejándose de los tópicos más habituales y proponiendo una herramienta conceptual interesante: el modelo del horizonte temporal. Este modelo plantea que la vulnerabilidad de un trabajo ante la automatización no depende tanto del nivel de conocimientos técnicos o del estatus del puesto, sino del marco temporal en el que se desarrollan sus tareas principales. Es decir, cuanto más breves, discretas y estandarizadas sean las tareas, más probable es que una IA pueda realizarlas de manera efectiva. Por el contrario, aquellas actividades que requieren contexto, juicio experiencial o se extienden en el tiempo, resultan más difíciles de replicar mediante sistemas automatizados.

El autor ejemplifica esta lógica comparando dos roles dentro del mismo campo profesional, el de las tecnologías de la información. Por un lado, presenta al especialista en soporte técnico, cuya jornada laboral se compone de tareas cortas, tales como resolver problemas de conectividad, restablecer contraseñas o responder dudas básicas. Son acciones repetitivas y bien documentadas, muchas veces resueltas siguiendo protocolos establecidos. Estas características hacen que este tipo de puesto sea altamente susceptible a la automatización, ya que los sistemas de IA pueden entrenarse con facilidad en este tipo de flujos de trabajo predecibles. Por otro lado, el artículo describe al arquitecto de sistemas, una figura profesional que se dedica a diseñar soluciones tecnológicas complejas, tomando en cuenta las necesidades específicas de distintas áreas de una empresa. Esta persona necesita una visión holística, capacidades interpersonales y un conocimiento profundo del contexto empresarial. Las decisiones que toma no pueden descomponerse fácilmente en tareas simples, lo que las hace mucho más difíciles de automatizar.

Este patrón se repite en muchas otras industrias, desde el periodismo hasta el derecho. Los redactores que simplemente reescriben artículos o producen contenido estandarizado corren más riesgo que quienes investigan en profundidad o desarrollan enfoques únicos. En el ámbito jurídico, los paralegales que redactan contratos estándar también están más expuestos que los abogados que negocian acuerdos complejos o desarrollan estrategias legales. Así, la clave no está necesariamente en qué industria se trabaja, sino en cómo están estructuradas las tareas que se realizan en el día a día. La IA avanza rápidamente en todos los frentes y ya es capaz de desempeñar tareas que requieren razonamiento, empatía e incluso creatividad en algunos casos. Por ello, el modelo del horizonte temporal ofrece un marco útil para reflexionar sobre el futuro del trabajo en la era de la automatización.

Paradójicamente, uno de los grupos profesionales más vulnerables según este análisis son los propios desarrolladores de software y programadores de Silicon Valley, quienes están entrenando a las IA que podrían sustituirlos. Si su trabajo consiste en escribir fragmentos de código modulares, bien estructurados y documentados —algo muy común en entornos colaborativos como GitHub—, entonces están produciendo exactamente el tipo de tareas que la IA puede aprender a ejecutar de forma autónoma. Este fenómeno pone en entredicho la idea, sostenida durante años, de que los “trabajadores del conocimiento” estaban a salvo de la automatización. En realidad, no lo están más que cualquier otro sector: todo depende de la forma y del contenido de sus actividades.

En definitiva, Hausenloy advierte que la inteligencia artificial no solo impactará en los trabajos de baja cualificación o en el sector manufacturero, como tradicionalmente se ha pensado. Más bien, la disrupción alcanzará incluso a profesiones altamente cualificadas si sus tareas pueden descomponerse en unidades de trabajo cortas, rutinarias o estructuradas. Por tanto, la protección ante la automatización no reside tanto en el título profesional como en la complejidad, la diversidad y el horizonte temporal de las responsabilidades laborales. Ante este escenario, la capacidad de adaptación, el aprendizaje continuo y el desarrollo de habilidades menos replicables por la IA serán factores clave para mantener la relevancia laboral en los próximos años.

Un abogado presenta en un juicio citas legales falsas tras haber consultado una Inteligencia artificial

Carrick, Damien, y Sophie Kesteven. 2023. “This US Lawyer Used ChatGPT to Research a Legal Brief—with Embarrassing Results. We Could All Learn from His Error.” UNSW Newsroom, 24 de junio de 2023. https://www.unsw.edu.au/news/2023/06/this-us-lawyer-used-chatgpt-to-research-a-legal-brief-with-embar

El abogado estadounidense Steven A. Schwartz, junto con su colega Peter LoDuca y el bufete Levidow, Levidow & Oberman, fue multado con 5.000 dólares por presentar citas legales falsas en un caso judicial. El error se debió a que Schwartz utilizó ChatGPT para investigar jurisprudencia en un caso de lesiones personales sin verificar la autenticidad de los fallos citados.

El caso implicaba a un cliente, Roberto Mata, que demandaba a la aerolínea Avianca por una lesión en la rodilla causada por un carrito de servicio durante un vuelo. Schwartz recurrió a ChatGPT para buscar precedentes legales similares, pero las sentencias que presentó en el escrito eran completamente inventadas por la inteligencia artificial.

Aunque Schwartz preguntó a ChatGPT si los casos eran reales y recibió respuestas afirmativas, no hizo ninguna comprobación adicional en bases de datos legales. Esta falta de diligencia llevó al juez P. Kevin Castel a calificar las acciones como un abandono de las responsabilidades profesionales, al presentar opiniones judiciales inexistentes con citas y frases falsas. Incluso, el juez leyó en voz alta parte del texto generado y lo calificó de «galimatías legal».

Castel aclaró que no está mal usar IA en el trabajo legal, pero que los abogados siguen teniendo el deber de verificar la veracidad de la información que presentan en la corte.

La profesora Lyria Bennett Moses, experta en la relación entre derecho y tecnología, señaló que el caso muestra un malentendido fundamental sobre el funcionamiento de herramientas como ChatGPT, que no tiene filtros de verdad y no funciona como un buscador, sino como un generador de texto basado en probabilidades.

El bufete involucrado negó haber actuado de mala fe, alegando que fue un error cometido de buena fe, al confiar erróneamente en la herramienta. Sin embargo, el caso ha generado una amplia repercusión internacional y ha dejado en evidencia los riesgos de utilizar inteligencia artificial sin el debido criterio profesional.