Archivo de la categoría: Noticias

ChatGPT en cifras: más uso personal que profesional

Dellinger, AJ. “OpenAI Reveals How (and Which) People Are Using ChatGPT.Gizmodo, 15 de septiembre de 2025. https://gizmodo.com/openai-how-people-use-chatgpt-2000658906

OpenAI, en colaboración con el National Bureau of Economic Research (NBER), publicó un estudio reciente que revela cómo la gente está usando ChatGPT, descubriendo que la mayor parte del uso no es profesional sino personal. Aproximadamente el 80 % de todas las interacciones con ChatGPT se agrupan en tres grandes categorías: guía práctica (como tutorías, consejos sobre cómo hacer las cosas o generación de ideas creativas), búsqueda de información, y escritura (redacción, edición, traducción entre otros).

En cuanto al uso profesional, el informe muestra que la escritura constituye el tipo de uso laboral más común — alrededor del 40 % de los mensajes relacionados con trabajo — mientras que la programación representa solo un 4.2 %. Además, ha habido un cambio notable: en junio de 2024 casi la mitad de los mensajes (47 %) estaban relacionados con el trabajo, pero para mediados de 2025 este porcentaje había caído a cerca del 27 %, lo que refleja un aumento de las interacciones de índole personal, que subieron al 73 % de los mensajes.

Otro hallazgo interesante tiene que ver con los usos emocionales o sociales: aunque representan una pequeña parte del total, algunas personas usan ChatGPT como especie de apoyo emocional o compañía. Solo alrededor del 2 % de los mensajes son para eso; unas 0.4 % implican reflexiones personales o conversaciones sobre relaciones.

También se aprecia un cambio demográfico en los usuarios. Los más jóvenes (18-25 años) son quienes más utilizan ChatGPT para fines personales. En cuanto al género, se observa un cierre de la brecha: en 2022, la gran mayoría de los usuarios frecuentes tenían nombres identificados como masculinos (~80 %), pero para junio de 2025 ese porcentaje ha bajado hasta el 48 %, acercándose a la paridad con los supuestos usuarios con nombres “femeninos”.

Cómo ven los estadounidenses el impacto de la inteligencia artificial en la sociedad

Kennedy, Brian; Eileen Yam; Emma Kikuchi; Isabelle Pula; Javier Fuentes. How Americans View AI and Its Impact on People and Society. Pew Research Center, 17 septiembre 2025. https://www.pewresearch.org/science/2025/09/17/how-americans-view-ai-and-its-impact-on-people-and-society/

El informe del Pew Research Center, basado en una encuesta nacional realizada a más de cinco mil adultos en junio de 2025, ofrece una radiografía de cómo los estadounidenses perciben el impacto de la inteligencia artificial en la sociedad. Casi la totalidad de los encuestados afirma haber oído hablar de la IA, lo que revela el nivel de penetración del concepto en la cultura general. Sin embargo, ese conocimiento no se traduce necesariamente en entusiasmo: predominan las reservas, las dudas y una sensación de inquietud ante la velocidad de los cambios tecnológicos.

La mayoría de los participantes señalan que se siente más preocupados que esperanzados respecto a la expansión de la IA en la vida cotidiana. Concretamente, la mitad de los encuestados declara experimentar más ansiedad que ilusión frente a estos avances, mientras que solo una pequeña minoría expresa una actitud mayoritariamente optimista. Esta percepción se refleja en el balance entre riesgos y beneficios: más del 50 % cree que los riesgos sociales asociados al desarrollo de la IA son elevados, frente a apenas una cuarta parte que considera igual de significativos los beneficios.

En el ámbito de las capacidades humanas, los encuestados tienden a pensar que la IA puede deteriorar más que potenciar habilidades esenciales. Muchos temen que la creatividad individual, la capacidad de pensamiento crítico y las relaciones interpersonales puedan verse mermadas en un contexto donde las máquinas asumen un papel cada vez más protagónico. Aunque existe un sector que reconoce que la IA puede aportar ventajas en la resolución de problemas complejos, el pesimismo sigue siendo mayoritario.

Donde sí se observa una mayor aceptación es en los usos más técnicos y analíticos de la IA. La ciudadanía se muestra más abierta a su incorporación en campos como la predicción meteorológica, la detección de fraudes financieros o la investigación médica. Sin embargo, rechaza con contundencia la idea de que la inteligencia artificial sustituya a las personas en esferas íntimas y de carácter moral o emocional, como el acompañamiento religioso, la terapia psicológica o la búsqueda de pareja. La distinción entre lo “técnico” y lo “humano” resulta clave: los estadounidenses parecen dispuestos a confiar en los algoritmos cuando se trata de cálculos y datos, pero no cuando se trata de valores, creencias o vínculos afectivos.

Otro hallazgo relevante del estudio es la preocupación por la transparencia en la producción de contenidos. Una gran mayoría considera imprescindible que exista un mecanismo claro para diferenciar el material generado por humanos del producido por sistemas de IA. No obstante, al mismo tiempo, muchos reconocen sentirse incapaces de identificar esa diferencia por sí mismos, lo que genera un clima de desconfianza e incertidumbre. La demanda de regulación y control externo aparece aquí con fuerza, como una forma de proteger tanto la integridad de la información como la autonomía de los individuos frente a una tecnología que, en gran medida, aún se percibe como opaca.

En conjunto, los resultados muestran una ciudadanía dividida entre la aceptación pragmática de la IA en campos de utilidad pública y la resistencia a su penetración en aspectos más personales y sociales. Estados Unidos se encuentra, por tanto, en una fase de negociación cultural: la inteligencia artificial ya forma parte del día a día, pero todavía despierta más temores que entusiasmos. Entre el escepticismo, la cautela y la esperanza, los estadounidenses reclaman garantías de seguridad, transparencia y regulación antes de conceder a la IA un papel más central en la vida social.

Datos clave:

  • Conocimiento generalizado: 95 % de los adultos en EE. UU. ha oído hablar de la inteligencia artificial.
  • Preocupación vs entusiasmo: 50 % se siente más preocupado que ilusionado por la IA; solo 10 % está más entusiasmado; 38 % tiene sentimientos mixtos.
  • Riesgos vs beneficios sociales: 57 % percibe altos riesgos sociales; apenas 25 % percibe altos beneficios.
  • Deseo de control: ~60 % quiere más control sobre cómo la IA afecta sus vidas; solo 17 % está conforme con el control actual.
  • Creatividad: 53 % cree que la IA empeorará la capacidad de pensar creativamente; 16 % piensa que la mejorará.
  • Relaciones humanas: 50 % cree que la IA empeorará la capacidad de formar relaciones significativas; solo 5 % dice que la mejorará.
  • Resolución de problemas: 38 % cree que la IA lo empeorará; 29 % que lo mejorará.
  • Toma de decisiones difíciles: 40 % opina que la IA empeorará esta capacidad; 19 % que la mejorará.Transparencia en contenidos: 76 % cree que es muy importante distinguir entre contenido humano y generado por IA; 53 % no confía en poder hacerlo.
  • Aceptación de roles técnicos: mayoría apoya IA en pronósticos meteorológicos (74 %), detección de fraudes financieros (70 %), control de ayudas gubernamentales (70 %) y desarrollo de medicamentos (66 %).
  • Rechazo en roles íntimos/morales: 73 % rechaza que la IA aconseje sobre fe; 66 % rechaza que evalúe compatibilidad romántica.
  • Edad: jóvenes menores de 30 años son más propensos a pensar que la IA empeorará la creatividad (61 %) y las relaciones (58 %), más que los mayores.
  • Educación: 73 % considera importante que la población entienda qué es la IA; la cifra sube entre personas con estudios universitarios.

Inteligencia artificial y enseñanza universitaria: desafíos, riesgos y oportunidades según la AAUP

AAUP. Artificial Intelligence and Academic Professions. American Association of University Professors, 2025

Texto completo

El informe Artificial Intelligence and Academic Professions de la American Association of University Professors (AAUP) analiza de manera exhaustiva el impacto potencial de la inteligencia artificial (IA) en la educación superior y en las profesiones académicas.

El documento subraya que la adopción de la IA en entornos universitarios no debe ser meramente instrumental o tecnológica, sino que requiere un enfoque crítico, ético y participativo. Los autores advierten que el uso indiscriminado de la IA podría alterar la naturaleza misma del trabajo académico, afectando tanto la autonomía profesional como la libertad académica.

Uno de los puntos centrales del informe es que la IA puede automatizar numerosas tareas docentes y administrativas, desde la corrección de exámenes hasta la generación de materiales educativos o la asistencia en la investigación. Si bien esto puede aumentar la eficiencia, también existe un riesgo significativo de deshumanización de la educación, pérdida de empleos y precarización laboral. La AAUP enfatiza que las herramientas de IA no deben reemplazar la labor humana, sino complementarla, asegurando que el juicio, la experiencia y la creatividad de los académicos sigan siendo insustituibles en la enseñanza y la investigación.

El informe también aborda la participación activa del profesorado en la implementación de estas tecnologías. La AAUP recomienda que las universidades involucren a docentes y personal académico en la selección, supervisión y evaluación de herramientas de IA, evitando decisiones unilaterales por parte de la administración. Esto se considera clave para proteger la integridad académica, garantizar la transparencia en los procesos y fomentar un uso responsable de los datos estudiantiles y de investigación.

Otro tema destacado es el impacto ético y social de la IA en la educación superior. Los académicos deben cuestionar cómo estas tecnologías pueden reproducir sesgos, afectar la equidad educativa y cambiar la naturaleza de la interacción docente-estudiante. El informe enfatiza la necesidad de políticas institucionales claras que promuevan un enfoque ético, incluyendo la protección de la privacidad, la equidad en el acceso y la transparencia en la toma de decisiones algorítmicas.

Por último, el informe de la AAUP subraya que la IA representa tanto oportunidades como desafíos. Por un lado, puede facilitar la enseñanza personalizada, optimizar procesos administrativos y apoyar la investigación. Por otro, plantea riesgos significativos si se implementa sin supervisión ni participación académica. La recomendación final es que las universidades adopten un enfoque equilibrado, reflexivo y regulado, donde la innovación tecnológica se integre respetando los valores fundamentales de la educación superior y la profesionalidad de los docentes.

¿Logrará la IA superar el umbral del pensamiento humano?

Nosta, John. “AI’s Cognitive March Toward Thought.Psychology Today, June 21, 2025. https://www.psychologytoday.com/us/blog/the-digital-self/202506/ais-cognitive-march-toward-thought

La inteligencia artificial (IA) se aproxima a lo que entendemos como pensamiento humano, aunque sin alcanzarlo completamente. Utilizando la analogía matemática de una serie que se acerca infinitamente a un valor sin llegar a él.

Los modelos de lenguaje a gran escala (LLMs) simulan el razonamiento paso a paso, pero su lógica es predictiva, no secuencial como la humana. Modelos recientes emplean el concepto de “pensamiento continuo”, que permite considerar múltiples caminos de razonamiento simultáneamente antes de colapsar en una sola respuesta, lo que mejora la eficiencia en la resolución de problemas complejos.

Aunque la IA se aproxima cada vez más a lo que podríamos llamar pensamiento humano en apariencia, la brecha entre simulación y cognición real persiste. La analogía matemática de la asintota ilustra cómo la IA se acerca infinitamente a la cognición humana, pero nunca la alcanza: sus capacidades se parecen cada vez más al razonamiento, pero no implican conciencia, intención ni experiencia subjetiva.

El autor advierte sobre el riesgo de atribuir cualidades humanas a sistemas que, aunque sofisticados, siguen siendo herramientas de manipulación semántica a gran escala. La tentación de considerar estos sistemas como inteligentes o incluso conscientes puede llevar a malentendidos y expectativas erróneas sobre sus capacidades.

Este comportamiento plantea un desafío filosófico y social: aunque los sistemas puedan parecer pensantes y generar respuestas confiables o incluso convincentes, siguen siendo herramientas de manipulación semántica a gran escala. La ilusión de cognición puede llevar a interpretaciones erróneas sobre su inteligencia o supuesta conciencia, pero la distinción entre apariencia de razonamiento y pensamiento real es crucial.

Se invita a reflexionar sobre la naturaleza de la cognición y la inteligencia, reconociendo los avances de la IA sin caer en la ilusión de que ha alcanzado el pensamiento humano genuino. La diferencia fundamental radica en que, mientras la IA puede simular el razonamiento, solo los seres humanos lo viven y lo experimentan.

La nueva función de detección de Turnitin ayuda a identificar el uso de herramientas de humanización de IA

Kelly, Rhea. “New Turnitin Bypasser Detection Feature Helps Identify Use of AI Humanizer Tools.” THE Journal, 2 de septiembre de 2025. https://thejournal.com/articles/2025/09/02/new-turnitin-bypasser-detection-feature-helps-identify-use-of-ai-humanizer-tools.aspx

Turnitin lanzó una función para detectar textos modificados por herramientas “humanizadoras” de IA, evitando que los estudiantes oculten contenido generado artificialmente. Esto fortalece la integridad académica al identificar fácilmente el uso indebido de IA en los trabajos.

Turnitin ha ampliado sus capacidades de detección de escritura con inteligencia artificial (IA) mediante la incorporación de una nueva función denominada «detección de bypassers». Esta herramienta está diseñada para identificar textos que han sido modificados por programas conocidos como «humanizadores«, los cuales alteran contenido generado por IA para que parezca escrito por humanos.

La disponibilidad de estos humanizadores representa una amenaza creciente para la integridad académica, ya que permite a los estudiantes ocultar el uso de IA, dificultando la verificación de la originalidad de los trabajos entregados. La nueva función de detección de bypassers se integra dentro de la función general de detección de escritura de Turnitin, permitiendo a los usuarios verificar automáticamente si un texto contiene contenido generado por IA o modificado por humanizadores, todo desde la misma plataforma, sin necesidad de integraciones adicionales o herramientas externas. Actualmente, esta función está limitada a interacciones en inglés.

Annie Chechitelli, directora de productos de Turnitin, destacó que, aunque el plagio siempre ha sido una preocupación para los educadores, con el auge de la IA ha surgido una nueva categoría de proveedores de trampas que se benefician del mal uso de la IA por parte de los estudiantes, proporcionando acceso fácil y gratuito a humanizadores para ocultar contenido generado por IA. En respuesta a este desafío emergente, Turnitin ha actualizado su software para detectar las principales modificaciones realizadas por bypassers de IA, permitiendo a los educadores mantener la integridad académica.

El problema de la “endogamia” en la IA: modelos que se retroalimentan a sí mismos

Lavoué, Alix. “AI Inbreeding: The Phenomenon Threatening Artificial Intelligence.” Worldcrunch, 7 de septiembre de 2025. https://worldcrunch.com/tech-science/ai-inbreeding-the-phenomenon-threatening-artificial-intelligence/

La «endogamia» en la inteligencia artificial ocurre cuando los modelos se entrenan utilizando contenido generado por otros modelos de IA, en lugar de datos originales creados por humanos. Este ciclo de retroalimentación puede llevar a una degradación progresiva de la calidad y diversidad de los resultados producidos por los modelos.

La endogamia de la IA, o colapso del modelo, se produce cuando un modelo de IA generativa se entrena con datos que han sido generados por una IA, lo que provoca una degradación de la calidad, la precisión y la diversidad de los resultados futuros del modelo, lo que a menudo da lugar a contenidos sin sentido, repetitivos o sesgados.

Lo que conlleva a que los sesgos se amplifiquen, la diversidad de información se colapse y las respuestas se vuelvan cada vez más ruidosas e imprecisas. Un ejemplo de este fenómeno se observó en un estudio publicado en la revista Nature, donde investigadores británicos y canadienses entrenaron un modelo de IA para dibujar números manuscritos basándose en un conjunto de datos real. Al repetir el proceso utilizando los números generados por la IA en cada etapa, se observó que después de 20 generaciones, los números se volvían borrosos, y después de 30 generaciones, convergían en una forma indistinta. Este estudio demuestra que en solo cinco generaciones de entrenamiento con datos autogenerados, los sesgos y fallos del sistema ya se amplifican, disminuyendo la variación y la precisión de las respuestas.

Este proceso degenerativo se debe a la falta de diversidad en los datos de entrenamiento, lo que lleva a que el sistema se enfoque en respuestas promedio y elimine las excepciones. Esto se conoce como colapso temprano, seguido de un colapso tardío, donde las respuestas se vuelven agotadas y, a veces, muy alejadas de la realidad.

El problema es que los atajos sintéticos no solo amplían la cantidad de datos, sino que los distorsionan. Cuando un sistema se entrena principalmente con su propio output, termina siendo una versión “promedio potenciada” de sí mismo: segura, insípida y progresivamente incorrecta. Para las empresas que dependen de mejoras continuas de modelos, esto significa que cada nueva generación puede resultar menos confiable. Al mismo tiempo, las compañías con grandes reservas de datos originales podrían convertirse en los únicos guardianes reales de la ventaja competitiva.

Para mitigar este problema, es esencial diversificar las fuentes de datos utilizadas para entrenar los modelos de IA, asegurando que incluyan una variedad de perspectivas y contextos. Además, se deben implementar técnicas de validación y monitoreo para

Detección del uso de inteligencia artificial en artículos científicos y revisiones por pares: el caso de la AACR

Naddaf, Miryam. “AI Tool Detects LLM-Generated Text in Research Papers and Peer Reviews.” Nature, 11 de septiembre de 2025. https://doi.org/10.1038/d41586-025-02936-6

Un análisis reciente realizado por la American Association for Cancer Research (AACR) ha revelado un fuerte aumento en el uso de texto generado mediante modelos de lenguaje grande (LLMs) en artículos de investigación y revisiones por pares, particularmente desde la aparición pública de ChatGPT en noviembre de 2022

Se examinó un conjunto de más de 46.500 resúmenes, 46.000 secciones de métodos y cerca de 30.000 comentarios de revisores, usando una herramienta de detección desarrollada por Pangram Labs. Esta herramienta identificó que en 2024 el 23 % de los resúmenes de manuscritos y el 5 % de los informes de revisión contenían texto que probablemente fue generado por LLMs.

Pese a que la política de la AACR obliga a los autores a declarar el uso de inteligencia artificial en sus manuscritos, menos de una cuarta parte de quienes usaron LLMs lo hicieron.

Además, los autores de instituciones en países no anglófonos fueron más propensos a usar LLMs para mejorar el lenguaje en secciones como los métodos, aunque esto conlleva riesgos de introducir errores si se modifican descripciones técnicas.

En cuanto a las revisiones por pares, se observó que tras la prohibición del uso de LLMs para revisores por parte de la AACR, a finales de 2023 disminuyó la detección de texto generado por IA en comentarios de revisión; sin embargo, a comienzos de 2024 la presencia de estos textos volvió a aumentar significativamente.

El declive de la lectura por placer a lo largo de 20 años

Sullivan, John L., et al. «The Decline in Reading for Pleasure over 20 Years of the American Time Use SurveyiScience 28, no. 10 (2025): 105149. https://doi.org/10.1016/j.isci.2025.105149

Un estudio publicado en iScience analiza la disminución de la lectura por placer en Estados Unidos durante un período de 20 años, utilizando datos representativos a nivel nacional del American Time Use Survey (ATUS) entre 2003 y 2023. La investigación se centra en dos comportamientos clave: la lectura por placer de adultos y la lectura conjunta con niños.

Los resultados muestran una disminución significativa en ambos comportamientos a lo largo de las dos décadas. La lectura por placer ha disminuido en todas las edades adultas, con una caída más pronunciada en mujeres y personas con niveles educativos más bajos. Además, la lectura conjunta con niños también ha experimentado una disminución, lo que podría tener implicaciones para el desarrollo del lenguaje y la alfabetización infantil.

Entre 2003 y 2023, un total de 236,270 personas completaron la Encuesta de Uso del Tiempo en Estados Unidos (ATUS), excluyendo 2020 debido a interrupciones por la pandemia de COVID-19. Los participantes tenían 15 años o más, con una edad promedio de 45,14 años. Tras ponderar los datos, el 52 % eran mujeres, el 53 % estaban casados, el 63 % empleados y el 81 % se identificaban como blancos. El resto se distribuía entre afroamericanos (12 %), asiáticos (4 %) y otras razas (2 %). La educación, ingresos y estado laboral mostraron variaciones importantes, y la mayoría vivía en áreas metropolitanas (84 %)

Respecto a la lectura por placer, en 2023 los participantes dedicaban en promedio 16 minutos diarios a esta actividad, aunque solo el 16 % leía en el día registrado. Quienes leían pasaban en promedio 1 hora y 37 minutos. A lo largo del periodo 2003–2023, la tasa de participación en la lectura por placer mostró un descenso gradual del 3 % anual, alcanzando su punto más bajo en 2023. No obstante, el tiempo promedio invertido por quienes leían aumentó 0,62 minutos por año, indicando que los lectores activos dedicaban más tiempo individualmente.

En cuanto a la lectura con niños, la participación era muy baja: en 2023, solo el 2 % de los participantes leyeron con niños, con un promedio de 28 minutos entre quienes participaron. A diferencia de la lectura por placer, no hubo cambios significativos en la lectura con niños a lo largo de los 20 años. La mayoría de la lectura por placer se realizaba sola (67 %), mientras que la lectura con niños ocurría casi siempre en compañía (99 %). Asimismo, la lectura se concentraba principalmente en el hogar (94 % para lectura por placer y 99 % con niños).

Las características individuales influyeron notablemente en la lectura por placer. En 2023, las mujeres, los adultos mayores, quienes tenían mayor educación y mayores ingresos familiares eran más propensos a leer. Los participantes afroamericanos y aquellos con discapacidad mostraron menor prevalencia de lectura. La brecha entre grupos se amplió con el tiempo: para 2023, los lectores con educación de posgrado leían casi tres veces más que quienes tenían educación secundaria o menor, y los participantes afroamericanos leían un 49 % menos que los blancos. La ubicación metropolitana comenzó a mostrar diferencias emergentes, con mayor prevalencia de lectura en áreas urbanas.

Respecto al tiempo dedicado a la lectura, las diferencias entre grupos fueron menos marcadas. En 2023, las mujeres y los adultos mayores leían más tiempo, mientras que los afroamericanos y los participantes con mayores ingresos leían menos tiempo. No se encontraron diferencias consistentes según educación, área metropolitana o discapacidad. La lectura con niños mostró variaciones más limitadas debido al bajo tamaño de muestra, y los resultados completos se presentan en materiales suplementarios.

El estudio destaca la importancia de estos comportamientos en el bienestar individual y en la transmisión intergeneracional de la cultura escrita. Los autores sugieren que esta tendencia podría estar relacionada con el aumento del uso de dispositivos digitales y la disponibilidad de contenido en línea que compite por el tiempo de ocio de las personas.

Se subraya la necesidad de políticas públicas y estrategias educativas que fomenten la lectura por placer y la lectura conjunta con niños, con el fin de contrarrestar esta tendencia y promover una sociedad más alfabetizada y culturalmente rica.

¿Es realmente posible detectar con precisión el contenido generado por inteligencia artificial?

Edwards, Benj. “Why AI Detectors Think the US Constitution Was Written by AI.” Ars Technica, 14 de julio de 2023.

Los expertos en inteligencia artificial de la UMD, Soheil Feizi y Furong Huang, comparten sus últimas investigaciones sobre los grandes modelos lingüísticos como ChatGPT, las posibles implicaciones de su uso y lo que nos depara el futuro.

Los detectores actuales se han convertido en herramientas populares en entornos educativos y profesionales, pero la evidencia muestra que su fiabilidad es muy limitada. En muchos casos, un texto auténticamente humano puede ser clasificado como artificial, mientras que uno generado por IA puede pasar inadvertido. Este margen de error refleja que los algoritmos todavía no cuentan con mecanismos suficientemente sólidos para distinguir entre los matices del lenguaje humano y los patrones que produce una máquina.

Una de las principales dificultades radica en que los detectores suelen basarse en métricas lingüísticas como la “perplejidad”, que miden la complejidad o previsibilidad de un texto. Sin embargo, la escritura humana no siempre responde a un mismo patrón: puede ser sencilla o repetitiva, como ocurre en exámenes, informes técnicos o incluso documentos históricos. Este es el motivo por el que se han dado casos llamativos, como el de la Constitución de Estados Unidos, que fue identificada erróneamente como un texto creado por inteligencia artificial. Este tipo de fallos no solo muestran las limitaciones técnicas, sino también los riesgos de utilizar estas herramientas como árbitros definitivos de la autenticidad textual.

El artículo también menciona que las estrategias de detección basadas en marcas de agua digitales, que se presentan como una alternativa, tampoco están libres de problemas. Aunque permiten incrustar señales invisibles en los textos generados por IA para poder rastrearlos, estas señales pueden ser eliminadas o modificadas mediante técnicas de reescritura o edición, lo que vuelve a poner en entredicho la seguridad del sistema. Así, tanto los detectores tradicionales como las técnicas más recientes pueden ser engañados con relativa facilidad.

A pesar de estas limitaciones, hay un horizonte de mejora. Investigadores apuntan que la fiabilidad de los detectores podría aumentar si se entrenan con más datos de referencia de escritura humana y si, en lugar de analizar frases o fragmentos cortos, se valoran textos completos en los que se puedan identificar patrones más amplios. De este modo, aunque hoy la detección de IA se perciba como una tarea frágil y llena de falsos positivos, aún existe la posibilidad de desarrollar métodos más precisos y robustos que permitan distinguir con mayor seguridad entre lo humano y lo artificial.

Evaluación de la eficacia de las herramientas de detección de contenido generado por IA

Elkhatat, Ahmed M., Khaled Elsaid y Saeed Almeer. «Evaluating the efficacy of AI content detection tools in differentiating between human and AI-generated text.» International Journal for Educational Integrity 19, artículo 17 (2023). https://doi.org/10.1007/s40979-023-00140-5.

Se evalúa la eficacia de diversas herramientas de detección de contenido generado por inteligencia artificial (IA), como OpenAI, Writer, Copyleaks, GPTZero y CrossPlag, para diferenciar entre textos escritos por humanos y generados por IA.

Para la investigación, se generaron 15 párrafos con el modelo ChatGPT 3.5, 15 con el modelo 4 y 5 respuestas de control escritas por humanos, todas sobre el tema de torres de enfriamiento en procesos de ingeniería. Las herramientas evaluadas incluyeron OpenAI, Writer, Copyleaks, GPTZero y CrossPlag.

Los resultados indicaron que las herramientas de detección fueron más precisas al identificar contenido generado por GPT-3.5 que por GPT-4. Sin embargo, al aplicarlas a las respuestas de control escritas por humanos, las herramientas mostraron inconsistencias, produciendo falsos positivos y clasificaciones inciertas. Estos hallazgos subrayan la necesidad de desarrollar y perfeccionar las herramientas de detección de contenido generado por IA, ya que el contenido generado por IA se vuelve más sofisticado y difícil de distinguir del texto escrito por humanos.

Aunque las herramientas de detección de IA ofrecen una funcionalidad valiosa, su fiabilidad y precisión actuales son limitadas. Es crucial abordar estos desafíos para garantizar una evaluación justa y precisa en diversos contextos académicos y profesionales.