Las universidades recurren a la IA para controlar los exámenes en línea ante la preocupación de posibles trampas con los modelos generativos

CBC News. 2025. “Universities Turn to AI to Monitor Exams Amid ChatGPT Concerns.” CBC News, 22 de junio de 2025. https://www.cbc.ca/news/canada/university-ai-exams-1.7551617.

Las universidades canadienses están usando inteligencia artificial para supervisar exámenes y prevenir el uso no autorizado de herramientas como ChatGPT, pero esto genera preocupaciones sobre la privacidad y posibles errores en la detección. Algunas instituciones buscan alternativas menos invasivas para equilibrar integridad académica y derechos estudiantiles. Este debate refleja el desafío de integrar IA en la educación de manera ética y efectiva.

Las universidades canadienses están adoptando cada vez más herramientas de inteligencia artificial (IA) para la supervisión de exámenes, con el objetivo de prevenir el uso de tecnologías como ChatGPT por parte de los estudiantes. Instituciones como la Universidad de Toronto, la Universidad de Columbia Británica y la Universidad McMaster han implementado sistemas de monitoreo basados en IA que analizan el comportamiento de los estudiantes durante las evaluaciones en línea. Estos sistemas pueden detectar patrones inusuales, como la falta de interacción con el teclado o movimientos sospechosos, lo que podría indicar el uso de dispositivos no autorizados.

Sin embargo, esta tendencia ha generado preocupaciones entre estudiantes y defensores de la privacidad. Estudios indican que las herramientas de detección de IA, como las utilizadas por Turnitin, pueden no ser precisas y, en algunos casos, pueden identificar erróneamente trabajos legítimos como generados por IA, lo que podría llevar a acusaciones injustas de plagio

En respuesta a estas preocupaciones, algunas universidades están revisando sus políticas de monitoreo y buscando un equilibrio entre la integridad académica y la protección de la privacidad de los estudiantes. Se están considerando alternativas como la implementación de evaluaciones en persona o el uso de tecnologías menos invasivas para supervisar los exámenes en línea.

Nature ha anunciado que comenzará a publicar automáticamente los archivos de revisión por pares junto con los artículos científicos

Hernández, María (editora). 2025. “Nature Looks to Open Up ‘Black Box’ of Science by Publishing Peer‑Review Files.” NBC News, 18 de junio de 2025. https://www.nbcnews.com/science/science-news/nature-looks-open-black-box-science-publishing-peer-review-files-rcna213359.

La revista Nature, una de las más influyentes del mundo científico, ha decidido dar un paso crucial hacia la transparencia editorial: comenzará a publicar automáticamente los archivos de revisión por pares de los artículos aceptados.

Esta medida implica que los informes de los revisores, junto con la respuesta de los autores y las decisiones editoriales, estarán disponibles para el público como parte del registro científico. Aunque los revisores seguirán siendo anónimos, su trabajo será visible, lo que representa un cambio significativo en una práctica tradicionalmente cerrada.

Esta iniciativa responde a las críticas recurrentes sobre la opacidad del sistema de revisión por pares, un pilar esencial en la validación del conocimiento científico. Según un estudio publicado en PLOS ONE, el 64 % de los investigadores encuestados considera que el sistema necesita más apertura. Publicaciones como eLife o F1000Research ya aplican modelos transparentes de revisión, lo que ha incrementado la confianza en sus procesos.

Además, Nature forma parte de Springer Nature, grupo editorial que impulsa la ciencia abierta (Open Science). Esta nueva política alinea la revista con estándares como los de la Iniciativa FAIR (Findable, Accessible, Interoperable, Reusable), promovidos por la Comisión Europea para mejorar la reproducibilidad y reutilización del conocimiento científico.

Sin embargo, la medida también genera debate. Algunos revisores temen que la exposición de sus comentarios, incluso de forma anónima, pueda llevar a represalias o influir en su libertad de crítica. Otros señalan que su labor, aún siendo central, no recibe suficiente reconocimiento. En ese sentido, plataformas como Publons y ORCID buscan mejorar la visibilidad del trabajo de los revisores, una tarea muchas veces no remunerada.

Otra preocupación emergente es la posible utilización de estos archivos como datasets para entrenar modelos de inteligencia artificial, lo que plantea desafíos éticos en cuanto al consentimiento y al uso de datos sensibles. Algunos expertos, como Jonas Heller, señalan que el acceso masivo a estos textos puede alimentar sistemas de IA que emulen el proceso de revisión sin intervención humana, lo que plantea un nuevo escenario para la publicación científica.

En conjunto, la decisión de Nature marca un cambio histórico que puede transformar la relación entre autores, editores y lectores, acercando la ciencia a un modelo más participativo, accesible y confiable.

Microsoft presenta un avance médico revolucionario en inteligencia artificial que logra diagnosticar correctamente el 85,5 % de los casos

King, Dominic, y Harsha Nori. 2025. “The Path to Medical Superintelligence.” Microsoft AI Blog, 30 de junio de 2025. https://shorturl.at/NXj3Y

Microsoft ha presentado MAI‑DxO (Microsoft AI Diagnostic Orchestrator), un sistema de IA médica que ha alcanzado una precisión de 85,5 % en el diagnóstico de 304 casos clínicamente complejos extraídos del New England Journal of Medicine (NEJM)

A diferencia de sistemas anteriores basados en un solo modelo, MAI‑DxO simula un panel virtual de especialistas: usa agentes con funciones específicas (como formular hipótesis, ordenar pruebas, controlar costos y verificar razonamientos), que interactúan en una cadena de debate iterativa . Esta técnica, también llamada “chain of debate” o “Sequential Diagnosis Benchmark (SDBench)”, permite formular preguntas, ordenar pruebas, revisar costos y confirmar los pasos antes de emitir el diagnóstico final

Además de su alto rendimiento en precisión, MAI‑DxO demostró ser más eficiente económicamente. En una configuración se redujeron los costos de pruebas hasta un 20-50 %, sin sacrificar la calidad diagnóstica. Esta eficiencia es particularmente relevante en EE. UU., donde el gasto sanitario representa cerca del 20 % del PIB, y entre el 20 y el 25 % se estima que es desperdiciado por pruebas innecesarias

A pesar del entusiasmo, este sistema todavía no está listo para su uso clínico real. Los estudios se llevaron a cabo en un entorno controlado, y no han sido revisados por pares ni validados con pacientes reales . Además, los médicos participantes trabajaron en aislamiento, sin los recursos habituales, lo que podría haber afectado sus desempeños. Se requieren ensayos clínicos, supervisión regulatoria y pruebas en escenarios cotidianos antes de su adopción generalizada.

Microsoft y expertos coinciden en que MAI‑DxO es una herramienta para asistir a los médicos, no un reemplazo: la relación médico-paciente, la empatía y el juicio ante situaciones ambiguas siguen siendo esenciales. Mustafa Suleyman, CEO de la división AI de Microsoft, lo describió como un paso hacia la “superinteligencia médica”, con potencial para aliviar la escasez de personal sanitario. Expertos como el Dr. Eric Topol resaltan su potencial, pero subrayan que se debe continuar con estudios rigurosos en entornos clínicos

La incorporación de Knowledge Unlatched a Wiley y sus implicaciones para el acceso abierto y la sostenibilidad editorial

Annual Reviews. «Knowledge Unlatched Finds a New Home with Annual Reviews.» Annual Reviews, 26 de junio de 2025. https://www.annualreviews.org/pb-assets/assets/documents/press-release/ar_knowledge_unlatched_6_26_25.pdf.

Annual Reviews anunció la adquisición de Knowledge Unlatched (KU) en un acuerdo con Wiley, el propietario actual de KU desde 2021.

Knowledge Unlatched (KU) es una iniciativa global dedicada a hacer que los libros académicos, especialmente en humanidades y ciencias sociales, estén disponibles en acceso abierto (Open Access). Fue fundada en 2012 por Frances Pinter, con el objetivo de transformar el modelo tradicional de publicación académica.

Esta transacción marca un hito en la evolución de KU, que comenzó en 2012 como una iniciativa independiente para financiar libros académicos de acceso abierto mediante un modelo de crowdfunding bibliotecario. Con el respaldo de Wiley, Knowledge Unlatched (KU) ha ampliado su alcance y ahora se integra plenamente en el ecosistema editorial de Annual Reviews, una organización sin fines de lucro dedicada a la publicación de revisiones académicas en diversas disciplinas.

La incorporación de KU a Annual Reviews representa un paso significativo hacia la consolidación de modelos sostenibles de publicación de acceso abierto en las ciencias sociales y humanas. KU ha facilitado la financiación colectiva de libros académicos mediante su plataforma KU Open Funding, colaborando con editoriales como Berghahn Books, Duke University Press y Taylor & Francis. Con el apoyo de Annual Reviews, se espera que KU continúe desempeñando un papel crucial en la transición hacia un modelo de acceso abierto más equitativo y accesible para la comunidad académica global.

La administración Trump cancela contratos de suscripción con Springer Nature por valor de millones de dólares

Inside Higher Ed. «Trump Admin Cuts NIH’s Springer Nature Subscriptions.» Inside Higher Ed, 27 de junio de 2025. https://www.insidehighered.com/news/quick-takes/2025/06/27/trump-admin-cuts-nihs-springer-nature-subscriptions.

La administración Trump ha cancelado contratos por millones de dólares con Springer Nature, una gigante editorial científica de propiedad alemana que durante mucho tiempo recibió pagos por suscripciones de los Institutos Nacionales de Salud y otras agencias.

La administración Trump ha decidido cancelar millones de dólares en contratos de suscripción con Springer Nature, una importante editorial científica alemana que provee contenido para agencias como los Institutos Nacionales de Salud (NIH) de Estados Unidos. Esta medida se produjo tras cuestionamientos del Departamento de Justicia sobre las prácticas editoriales de Springer, acusándola de adoptar posiciones partidistas en debates científicos y de promover ciertos puntos de vista de manera indebida.

A principios de este año, el Departamento de Justicia envió una carta a una publicación de Springer cuestionando sus prácticas editoriales. La carta también planteaba preguntas sobre los supuestos vínculos de Springer con China, financiación del Partido Comunista Chino (PCCh) y reclamaciones relacionadas con la censura.

Al menos otra revista científica, Chest, también recibió una carta sobre la toma de partido en debates científicos, como informó The Washington Post en abril.

Springer Nature tiene más de 3.000 revistas y publicaciones, y su portafolio incluye Nature y Scientific American. El contenido editorial abarca desde noticias científicas y médicas hasta artículos de investigación revisados por pares escritos por científicos.

La empresa salió a bolsa en octubre de 2024, y esta controversia refleja las tensiones actuales entre la administración estadounidense y ciertas entidades científicas internacionales.

¿Son mejores las ideas de investigación generadas por Inteligencia Artificial o las creadas por humanos?

Si, Chenglei, Tatsunori Hashimoto y Diyi Yang. The Ideation-Execution Gap: Execution Outcomes of LLM-Generated versus Human Research Ideas. arXiv, 25 de junio de 2025. https://arxiv.org/abs/2506.20803

Los resultados mostraron que las ideas generadas por LLM recibieron puntuaciones significativamente más bajas que las ideas humanas en todos los criterios evaluados: novedad, entusiasmo, efectividad y puntuación general. Este fenómeno, denominado «brecha ideación-ejecución», sugiere que, aunque los LLM pueden generar ideas originales, su capacidad para traducir esas ideas en resultados de investigación efectivos es limitada.

El estudio investiga la diferencia entre la generación de ideas de investigación por modelos de lenguaje grande (LLM, Large Language Models) y la capacidad real de esas ideas para traducirse en resultados concretos y efectivos cuando se llevan a la práctica. Aunque investigaciones anteriores han señalado que los LLM pueden producir ideas originales e innovadoras, el presente estudio se enfoca en la llamada “brecha ideación-ejecución” para determinar si estas ideas realmente tienen éxito cuando se implementan en proyectos de investigación reales.

Para evaluar esta cuestión, los autores diseñaron un experimento riguroso en el que 43 investigadores expertos en procesamiento de lenguaje natural recibieron ideas de investigación generadas tanto por humanos como por LLM. Cada investigador trabajó durante más de 100 horas en la ejecución de una de estas ideas, desarrollando proyectos completos documentados en informes detallados de cuatro páginas. Estos informes fueron luego evaluados de manera anónima por otros expertos para medir la calidad y el impacto de los resultados obtenidos.

Los resultados revelaron que, en múltiples dimensiones evaluadas —incluyendo la novedad de la idea, el entusiasmo generado, la efectividad del proyecto y la valoración general—, los proyectos derivados de ideas humanas superaron claramente a los derivados de ideas generadas por LLM. En otras palabras, aunque los LLM son capaces de ofrecer propuestas creativas y novedosas, su capacidad para traducir esas ideas en investigaciones exitosas y aplicables es significativamente menor.

Este hallazgo tiene implicaciones importantes para el uso de la inteligencia artificial en la investigación científica. Sugiere que, aunque la IA puede ser una herramienta valiosa para inspirar ideas o asistir en la fase inicial de generación conceptual, la supervisión humana y la experiencia siguen siendo cruciales para asegurar que las ideas puedan concretarse en resultados tangibles y de calidad. El estudio enfatiza la necesidad de evaluar no solo la creatividad o novedad de las ideas producidas por IA, sino también su factibilidad y capacidad de ejecución.

Finalmente, los autores invitan a reflexionar sobre cómo integrar de manera efectiva las capacidades de los modelos de lenguaje en el proceso de investigación, proponiendo un enfoque colaborativo entre humanos e IA que maximice las fortalezas de cada uno, minimizando las limitaciones observadas.

ChatGPT en la escritura académica: un análisis cienciométrico de la literatura publicada entre 2022 y 2023

Lendvai GF. ChatGPT in Academic Writing: A Scientometric Analysis of Literature Published Between 2022 and 2023Journal of Empirical Research on Human Research Ethics. 2025;0(0). doi:10.1177/15562646251350203

El artículo analiza cómo la literatura académica ha percibido la herramienta de inteligencia artificial ChatGPT en el contexto de la escritura académica. Utilizando un enfoque cientométrico, los autores examinan la evolución de las publicaciones académicas que abordan el uso de ChatGPT en la redacción de textos científicos, identificando tendencias, patrones y áreas de interés en la investigación.

El estudio se centra en el análisis de 171 artículos académicos revisados por pares, extraídos de la base de datos Scopus, que abordan el uso de ChatGPT en la escritura académica. Utilizando el software CiteSpace, los autores realizaron un análisis de co-citación de documentos para mapear la estructura temática e intelectual del discurso sobre ChatGPT en la producción de conocimiento académico.

Se identificaron diez clusters temáticos principales, entre los que destacan:

  1. Riesgos éticos: Incluye preocupaciones sobre la autoría, el plagio y la integridad académica.
  2. Aplicaciones prácticas: Uso de ChatGPT para la redacción de textos, generación de resúmenes y asistencia en la escritura.
  3. Innovaciones pedagógicas: Integración de ChatGPT en entornos educativos para mejorar la enseñanza y el aprendizaje.

El análisis también destacó una creciente aceptación de ChatGPT como herramienta para mejorar la escritura y apoyar marcos educativos innovadores, especialmente entre hablantes no nativos de inglés. Sin embargo, persisten preocupaciones sobre referencias inventadas, plagio, ética de la autoría y la fiabilidad de las herramientas de detección de IA.

El estudio destaca el creciente interés en la aplicación de ChatGPT en diversos aspectos de la escritura académica, incluyendo la generación de contenido, la asistencia en la redacción y la mejora de la calidad del texto. Además, se analizan las implicaciones éticas y metodológicas de utilizar herramientas de IA en la producción académica, considerando aspectos como la autoría, la originalidad y la integridad de la investigación.

A través de este análisis, los autores proporcionan una visión detallada de cómo la comunidad académica está incorporando ChatGPT en sus prácticas de escritura y los desafíos que esto implica. El estudio también sugiere áreas para futuras investigaciones y el desarrollo de directrices para el uso ético y efectivo de la inteligencia artificial en la redacción académica.

El estudio enfatiza la necesidad de una supervisión proactiva y el desarrollo de políticas para garantizar una integración responsable de la IA generativa en la investigación y la educación. Se sugiere que las instituciones académicas implementen directrices claras sobre el uso de herramientas como ChatGPT, promoviendo prácticas éticas y transparentes en la producción académica.

Guía práctica para una investigación ética y responsable con inteligencia artificial

UK Research Integrity Office. (2025, 27 de junio). Embracing AI with integrity: A practical guide for researchers. UKRIO. https://ukrio.org/wp-content/uploads/Embracing-AI-with-integrity.pdf

El documento proporciona una guía clara, práctica y accesible para que los investigadores integren herramientas de inteligencia artificial (IA) en su trabajo de forma ética y responsable.

Reconociendo que la IA ya forma parte del ecosistema académico —desde la escritura de textos hasta el análisis de datos—, el objetivo principal de esta guía es proteger la integridad de la investigación, asegurando que el uso de la IA no comprometa la transparencia, la responsabilidad ni la originalidad del trabajo científico.

La guía se estructura en torno a cinco áreas clave de riesgo relacionadas con el uso de la IA en la investigación. La primera de ellas es el cumplimiento legal y regulatorio, que incluye aspectos como el respeto a los derechos de autor, la protección de datos personales y el cumplimiento de los requisitos de las agencias financiadoras. En segundo lugar, se abordan las consideraciones éticas, como la equidad, la eliminación de sesgos, el consentimiento informado y el respeto por los participantes en la investigación, especialmente en estudios con seres humanos.

El tercer aspecto señalado es la necesidad de proteger el registro de la investigación, lo que implica documentar de forma clara cuándo, cómo y con qué herramientas de IA se ha trabajado. Esto favorece la trazabilidad y permite que otros comprendan y repliquen el proceso investigativo. La cuarta área de atención es la divulgación y presentación de resultados, en la que se destaca la importancia de indicar si se han utilizado herramientas de IA en la redacción, el análisis o la elaboración de gráficos, asegurando que la autoría humana esté bien diferenciada y que la contribución de la IA esté correctamente citada o reconocida.

Finalmente, la guía subraya el riesgo de que el uso extensivo de la IA pueda debilitar habilidades humanas esenciales como el pensamiento crítico, la creatividad y el juicio profesional. Aunque la IA puede ser una gran aliada, el documento recomienda evitar la dependencia excesiva de estas tecnologías, especialmente en etapas formativas o en tareas que requieren discernimiento ético o análisis complejo.

Embracing AI with Integrity también incluye recomendaciones prácticas para investigadores, instituciones y responsables de políticas científicas. A los investigadores se les insta a reflexionar críticamente sobre el uso que hacen de estas herramientas, a reconocer sus limitaciones, y a documentar su uso en sus publicaciones y proyectos. A las instituciones, se les recomienda desarrollar políticas claras, ofrecer formación continua y fomentar una cultura de uso ético de la IA.

La guía responde a una necesidad detectada en una encuesta previa realizada por UKRIO en 2024, que reveló una gran preocupación en la comunidad científica por la falta de directrices claras respecto al uso de estas tecnologías. Como resultado, muchas universidades y centros de investigación no contaban aún con políticas definidas, lo que generaba incertidumbre entre académicos y estudiantes. Con esta publicación, UKRIO busca llenar ese vacío y fomentar un diálogo abierto sobre el uso responsable de la IA en la ciencia.

¿Cómo son las carreras de investigación en los distintos países? Una nueva base de datos mundial ofrece algunas respuestas

Science.org. (2025, junio 30). How do research careers compare across countries? New global database has some answers. Science. https://www.science.org/content/article/how-do-research-careers-compare-across-countries-new-global-database-has-some-answers

El observatorio ReICO representa un paso importante hacia una comprensión global y comparativa de las carreras de investigación. Al ofrecer datos detallados y contextualizados, permite a los responsables políticos y a las instituciones científicas tomar decisiones más informadas para mejorar la sostenibilidad, equidad y atractivo de la profesión investigadora en todo el mundo.

Un nuevo observatorio internacional creado por la OCDE, llamado Research and Innovation Careers Observatory (ReICO), busca proporcionar datos comparativos y fiables sobre las trayectorias profesionales de los investigadores en distintos países. Esta herramienta es un avance clave para quienes diseñan políticas científicas, ya que permite visualizar y analizar cómo varían las condiciones laborales, los patrones de movilidad, la distribución sectorial del empleo y los obstáculos estructurales que enfrentan los científicos a lo largo de sus carreras.

Uno de los hallazgos destacados del informe es el crecimiento en el número de personas con doctorado en los países de la OCDE. Entre 2014 y 2022, la proporción de la población activa con doctorado pasó de 0,9 % a 1,3 %. Aunque países como Eslovenia y Suiza presentan porcentajes superiores al 3 %, en otros como México, Costa Rica e Indonesia la cifra no supera el 0,2 %. Esta disparidad refleja desequilibrios importantes en la inversión en educación superior avanzada y en las oportunidades de desarrollo científico.

Sin embargo, a pesar del aumento en la formación de doctores, las condiciones laborales siguen siendo frágiles, sobre todo en las primeras etapas de la carrera investigadora. Según los datos recogidos, aproximadamente el 75 % de los investigadores menores de 34 años tienen contratos temporales. Esta precariedad, combinada con la presión por publicar y conseguir financiación, hace que muchos científicos abandonen la carrera académica o busquen oportunidades fuera del ámbito público.

El informe también muestra un cambio estructural significativo: cada vez más investigadores trabajan fuera de la academia, especialmente en el sector empresarial. Entre los años 2000 y 2021, la proporción de científicos empleados en empresas pasó del 60 % al 66 %. Este crecimiento refleja no solo la expansión de la I+D en el ámbito privado, sino también una adaptación de los perfiles científicos a necesidades del mercado, lo cual plantea nuevos desafíos y oportunidades para la formación doctoral.

Otro aspecto que destaca el observatorio es la dificultad para rastrear las trayectorias profesionales, especialmente cuando los investigadores cambian de sector, país o dejan de publicar artículos científicos. Esta falta de información dificulta a los jóvenes investigadores imaginar trayectorias profesionales sostenibles y contribuye a la incertidumbre sobre las salidas laborales tras el doctorado.

Finalmente, el ReICO también aborda las brechas de género persistentes en la ciencia. Las mujeres tienen más probabilidades de tener contratos temporales en todas las etapas de su carrera y están subrepresentadas en los puestos de mayor jerarquía. El informe recomienda a los países diversificar sus criterios de evaluación del rendimiento científico, apoyarse más en trayectorias variadas y aplicar políticas activas de inclusión y equidad.

Los ataques de gobierno de EE.UU. a la ciencia y la investigación son «un gran regalo para China» en materia de inteligencia artificial

Hern, Alex. «US Attacks on Science and Research ‘a Great Gift to China’ on Artificial Intelligence, Former OpenAI Board Member Says.» The Guardian, June 9, 2025. https://www.theguardian.com/technology/2025/jun/09/us-attacks-on-science-and-research-a-great-gift-to-china-on-artificial-intelligence-former-openai-board-member-says.

Helen Toner, exmiembro del consejo de administración de OpenAI y actual directora de estrategia del Centro de Seguridad y Tecnología Emergente (CSET) de la Universidad de Georgetown, ha advertido que las actuales políticas de Estados Unidos en relación con la ciencia, la investigación y el talento extranjero están debilitando seriamente su liderazgo global en inteligencia artificial.

En una entrevista con The Guardian, Toner afirmó que los ataques políticos a la comunidad científica, junto con las restricciones a la entrada de estudiantes e investigadores internacionales, representan un “gran regalo para China”, que sigue avanzando en su propia carrera tecnológica.

Toner sostiene que gran parte del talento en investigación en Estados Unidos proviene del extranjero, especialmente de países como China. Las medidas restrictivas del gobierno estadounidense —como el endurecimiento de visados, los controles de exportación de chips avanzados y los recortes a la financiación pública— podrían provocar una fuga de cerebros y una desventaja competitiva en áreas estratégicas. Mientras tanto, China continúa desarrollando tecnologías punteras, como los modelos de lenguaje de gran escala, a pesar de los esfuerzos estadounidenses por frenarla mediante sanciones.

La exconsejera de OpenAI también se refirió a los efectos sociales de la inteligencia artificial, advirtiendo sobre un riesgo gradual de «desempoderamiento» colectivo. Según Toner, podríamos estar delegando funciones cada vez más críticas —en el gobierno, en las empresas y en la vida diaria— a sistemas algorítmicos, sin mecanismos adecuados de supervisión o responsabilidad. Aunque todavía hay incertidumbre sobre los plazos, los expertos coinciden en que muchas tareas profesionales, especialmente las realizadas por empleados jóvenes o en formación, ya están siendo desplazadas por herramientas de IA.

Sin embargo, Toner no niega el enorme potencial positivo de estas tecnologías. Mencionó, por ejemplo, los avances en medicina, donde la IA podría acelerar el descubrimiento de medicamentos, o en el transporte, con vehículos autónomos como los desarrollados por Waymo, que podrían reducir significativamente las muertes por accidentes de tráfico. El desafío, según ella, es garantizar un desarrollo ético y responsable, que combine innovación con regulaciones efectivas.

La figura de Helen Toner ha cobrado notoriedad en el ámbito tecnológico y mediático tras su papel clave en la crisis institucional de OpenAI en 2023, cuando el entonces CEO Sam Altman fue destituido y luego reincorporado. Su participación en este episodio ha despertado tanto el interés periodístico como cinematográfico: el director Luca Guadagnino está preparando una película sobre estos acontecimientos, en la que una actriz reconocida interpretará a Toner. En 2024, la revista Time la incluyó entre las 100 personas más influyentes del mundo en el campo de la inteligencia artificial.