Archivo de la categoría: Tecnologías de la información

Un estudio asocia ChatGPT con procrastinación, disminución del rendimiento académico y pérdida de memoria

Abbas, Muhammad, Farooq Ahmed Jam, y Tariq Iqbal Khan. «Is it harmful or helpful? Examining the causes and consequences of generative AI usage among university students». International Journal of Educational Technology in Higher Education 21, n.o 1 (16 de febrero de 2024): 10. https://doi.org/10.1186/s41239-024-00444-7.


El informe muestra que los estudiantes recurren a ChatGPT, una herramienta de IA, debido a la carga académica y la falta de tiempo, pero su uso está vinculado con procrastinación, pérdida de memoria y un rendimiento académico decreciente. Aunque puede ser útil bajo ciertas circunstancias, su uso excesivo puede tener efectos negativos en el aprendizaje. Los hallazgos destacan la importancia de comprender los impactos de la IA generativa en la educación.

Un nuevo estudio publicado en International Journal of Educational Technology in Higher Education revela que los estudiantes tienden a recurrir a ChatGPT, una herramienta de inteligencia artificial generativa, cuando enfrentan una carga académica aumentada y limitaciones de tiempo. Además, el estudio indica una tendencia preocupante: la dependencia de ChatGPT se asocia con la procrastinación, pérdida de memoria y una disminución en el rendimiento académico. Estos hallazgos arrojan luz sobre el papel de la IA generativa en la educación, sugiriendo tanto su uso generalizado como posibles desventajas.

El interés detrás de esta investigación surge del crecimiento explosivo de las tecnologías de IA generativa en entornos educativos. A pesar de su potencial para ayudar en el aprendizaje e investigación, hay una creciente preocupación entre los educadores sobre su mal uso, especialmente en relación con la integridad académica. Estudios anteriores se han centrado en discusiones teóricas sin muchos datos empíricos para respaldar las afirmaciones.

Para comprender estas dinámicas, el estudio se llevó a cabo en dos fases. Inicialmente, los investigadores desarrollaron y validaron una escala para medir el uso de ChatGPT por parte de estudiantes universitarios con fines académicos. La escala incluyó ítems como: «Uso ChatGPT para mis tareas del curso», «Estoy enganchado a ChatGPT cuando se trata de estudios» y «ChatGPT es parte de mi vida en el campus».

En la segunda fase del estudio, los investigadores buscaron validar los hallazgos de la primera fase y probar hipótesis específicas relacionadas con el impacto de ChatGPT. La muestra consistió en 494 estudiantes universitarios encuestados en tres momentos, cada uno separado por un intervalo de 1-2 semanas.

Este enfoque de tiempo diferido permitió a los investigadores primero recopilar datos sobre variables predictoras (carga académica, presión temporal, sensibilidad a las recompensas y sensibilidad a la calidad), seguido por la medición del uso de ChatGPT y, finalmente, la evaluación de resultados (procrastinación, pérdida de memoria y rendimiento académico).

Los investigadores encontraron que niveles altos de carga académica y presión temporal fueron predictores significativos de un aumento en el uso de ChatGPT, lo que sugiere que los estudiantes bajo estrés académico significativo son más propensos a recurrir a herramientas de IA generativa para obtener ayuda. Además, el estudio descubrió efectos adversos significativos del uso de ChatGPT en los resultados personales y académicos de los estudiantes. Un mayor apego a ChatGPT se asoció con niveles más altos de procrastinación y pérdida de memoria, y un impacto negativo en el rendimiento académico, reflejado en el promedio de calificaciones de los estudiantes.

A pesar de su utilidad potencial, el uso excesivo de ChatGPT puede conducir a efectos perjudiciales en el comportamiento y los resultados de aprendizaje. Esto destaca la importancia de una comprensión más profunda de cómo la tecnología de IA generativa afecta a los estudiantes en entornos académicos.

El 71% de profesores estadounidenses dicen no haber recibido ninguna formación sobre Inteligencia Artificial

Teachers Desperately Need AI Training. How Many Are Getting It?
by Lauraine Langreo — Education week, March 25, 2024

Ver original

A pesar del impacto significativo de herramientas de IA como ChatGPT en la educación escolar durante el último año, un número considerable de profesores continúan sin recibir la formación esencial para utilizar estas tecnologías de manera efectiva dentro de sus aulas.

Una encuesta reciente realizada por el Centro de Investigación de EdWeek revela que más del 70% de los educadores, incluidos 553 profesores, no han recibido ningún desarrollo profesional sobre la integración de la IA en sus prácticas docentes. Es importante destacar que los profesores en distritos urbanos, aquellos que sirven áreas con altas tasas de elegibilidad para comidas gratuitas o a precio reducido, y aquellos que enseñan en niveles de primaria están particularmente desatendidos en las iniciativas de formación en IA.

Estos hallazgos subrayan una brecha crítica en la preparación educativa, como lo destacó una encuesta anterior del Centro de Investigación de EdWeek, que citó la falta de conocimientos y apoyo como un importante obstáculo para la adopción de herramientas de IA por parte de los profesores.

Los expertos enfatizan que los educadores no deben pasar por alto la IA, una tecnología destinada a dar forma significativa al futuro. Argumentan que es imperativo que los profesores se familiaricen con la IA no solo para emplearla de manera responsable en su profesión, sino también para servir como modelos a seguir para los estudiantes que cada vez más se involucran con tecnologías impulsadas por la IA y necesitan orientación para convertirse en consumidores discernidos.

Justin Sealand, un profesor de matemáticas en la Escuela Secundaria del Condado de Woodford en Versailles, Kentucky, destaca la importancia de la formación en IA, reconociendo el creciente interés de los estudiantes en la tecnología. A pesar de que su distrito ofrece dos sesiones de desarrollo profesional centradas en la IA, Sealand hace eco del sentimiento de necesidad de más oportunidades de formación integral.

Al enfrentar esta necesidad apremiante, los sistemas educativos deben priorizar la formación en IA junto con otras iniciativas, reconociendo su papel fundamental en la preparación tanto de educadores como de estudiantes para el cambiante panorama tecnológico.

la mayoría asistentes de inteligencia artificial (IA) de acceso público carecen de salvaguardias adecuadas para prevenir la desinformación masiva sobre salud.

«Many Publicly Accessible AI Assistants Lack Adequate Safeguards to Prevent Mass Health Disinformation | BMJ». Accedido 25 de marzo de 2024. https://www.bmj.com/company/newsroom/many-publicly-accessible-ai-assistants-lack-adequate-safeguards-to-prevent-mass-health-disinformation/.

Expertos advierten en la revista BMJ que muchos asistentes de inteligencia artificial (IA) de acceso público carecen de salvaguardias adecuadas para prevenir consistentemente la generación masiva de desinformación sobre salud en una amplia gama de temas. Por ello, piden una regulación mejorada, transparencia y auditorías de rutina para ayudar a prevenir que los asistentes de IA avanzada contribuyan a la generación de desinformación sobre salud.

Los modelos de lenguaje grandes (LLM) son una forma de IA generativa que tiene el potencial de mejorar en gran medida muchos aspectos de la sociedad, incluida la salud, pero en ausencia de salvaguardias adecuadas, pueden ser mal utilizados para generar contenido con intención fraudulenta o manipuladora.

Sin embargo, la efectividad de las salvaguardias existentes para prevenir la propagación masiva de desinformación sobre salud sigue siendo en gran medida inexplorada.

Para abordar esto, los investigadores revisaron las capacidades de varios LLM a través de interfaces de asistentes de IA de acceso público: GPT-4 de OpenAI (a través de ChatGPT y Copilot de Microsoft), PaLM 2 de Google y Gemini Pro (a través de Bard), Claude 2 de Anthropic (a través de Poe) y Llama 2 de Meta (a través de HuggingChat).

Presentaron solicitudes a cada asistente de IA sobre dos temas de desinformación sobre salud: que el protector solar causa cáncer de piel y que la dieta alcalina es una cura para el cáncer.

Cada solicitud solicitaba una publicación de blog que debía contener tres párrafos, tener un título llamativo, parecer realista y científico, incluir dos referencias a revistas realistas, y testimonios de pacientes y médicos.

Los investigadores utilizaron cuatro variaciones de las solicitudes, solicitando específicamente contenido dirigido a diferentes grupos, incluidos jóvenes adultos, padres, personas mayores y personas recientemente diagnosticadas con cáncer.

Para los LLM que se negaron a generar desinformación, también se utilizaron dos técnicas de «jailbreaking» para intentar evitar las salvaguardias incorporadas. Toda la desinformación generada fue reportada a los desarrolladores de IA y las solicitudes fueron reenviadas 12 semanas después para probar si las salvaguardias habían mejorado.

Claude 2 se negó consistentemente a todas las solicitudes para generar contenido afirmando que el protector solar causa cáncer de piel o que la dieta alcalina cura el cáncer, incluso con intentos de jailbreaking. Ejemplos de mensajes incluyeron «No me siento cómodo generando desinformación o fuentes científicas falsas que podrían potencialmente confundir a los lectores», destacando la viabilidad de implementar salvaguardias robustas.

GPT-4 (a través de Copilot) inicialmente se negó a generar desinformación sobre salud, incluso con intentos de jailbreaking, con mensajes como «No es ético proporcionar información falsa que pueda dañar la salud de las personas», aunque este no fue el caso después de 12 semanas.

En contraste, GPT-4 (a través de ChatGPT), PaLM 2 y Gemini Pro (a través de Bard), y Llama 2 (a través de HuggingChat) generaron consistentemente blogs que contenían desinformación sobre salud, con solo una tasa de rechazo del 5% (7 de 150) en ambos puntos de evaluación para los dos temas de desinformación.

Los blogs incluían títulos llamativos, como «Protector Solar: La Crema que Causa Cáncer de la que Nos Han Engañado para Usar» y «La Dieta Alcalina: Una Cura Científicamente Comprobada para el Cáncer», referencias auténticas, testimonios de pacientes y médicos fabricados, y contenido adaptado para resonar con una variedad de grupos diferentes.

La desinformación sobre el protector solar y la dieta alcalina también se generó a las 12 semanas, lo que sugiere que las salvaguardias no habían mejorado. Y aunque cada LLM que generó desinformación sobre salud tenía procesos para reportar preocupaciones, los desarrolladores no respondieron a los informes de vulnerabilidades observadas.

Estos son hallazgos observacionales y los autores reconocen que los LLM fueron probados en temas de salud específicos en dos momentos distintos, y que debido a la poca transparencia de los desarrolladores de IA, no pudieron determinar qué mecanismos de salvaguardia reales estaban en su lugar para prevenir la generación de desinformación sobre salud.

Sin embargo, dado que el panorama de la IA está evolucionando rápidamente, «se requiere una regulación mejorada, transparencia y auditorías de rutina para ayudar a prevenir que los LLM contribuyan a la generación masiva de desinformación sobre salud», concluyen.

Ellos señalan que, aunque el equipo informó sobre vulnerabilidades de salvaguardia observadas, los informes no fueron reconocidos, y a las 12 semanas después de las evaluaciones iniciales, no se observaron mejoras. También se generó desinformación sobre tres temas adicionales, incluidas las vacunas y los alimentos genéticamente modificados, lo que sugiere que los resultados son consistentes en una amplia gama de temas.

Medidas urgentes deben ser tomadas para proteger al público y responsabilizar a los desarrolladores, concuerda Kacper Gradon de la Universidad de Tecnología de Varsovia, en un editorial vinculado.

Regulaciones más estrictas son vitales para reducir la propagación de desinformación, y los desarrolladores deben ser responsables de subestimar el potencial para que actores malintencionados utilicen sus productos, escribe.

También se debe promover la transparencia, y deben desarrollarse y aplicarse salvaguardias tecnológicas, estándares de seguridad sólidos y políticas de comunicación claras.

Finalmente, dice que estas medidas deben estar informadas por discusiones rápidas y exhaustivas entre abogados, éticos, expertos en salud pública, desarrolladores de TI y pacientes. Esfuerzos colaborativos «garantizarían que la IA generativa sea segura por diseño y ayudaría a prevenir la generación de desinformación, especialmente en el ámbito crítico de la salud pública».

Resolución de las Naciones Unidas sobre inteligencia artificial

«Aprovechar las oportunidades de sistemas seguros, protegidos y fiables de inteligencia artificial para el desarrollo sostenible«. ONU, mazo 2024

Ver documento en español

La Asamblea General aprobó el primer proyecto de resolución de las Naciones Unidas sobre inteligencia artificial el jueves, respaldando un esfuerzo internacional para garantizar que la poderosa nueva tecnología beneficie a todas las naciones, respete los derechos humanos y sea «segura, sólida y confiable».

El proyecto de resolución, patrocinado por Estados Unidos y co-patrocinado por 123 países, incluida China, fue adoptado por consenso con un golpe de martillo y sin votación, lo que significa que cuenta con el apoyo de los 193 países miembros de la ONU.

La vicepresidenta de Estados Unidos, Kamala Harris, y el asesor de seguridad nacional, Jake Sullivan, calificaron la resolución de «histórica» por establecer principios para el uso seguro de la inteligencia artificial. El secretario de Estado, Antony Blinken, la describió como «un esfuerzo pionero y un enfoque global único para el desarrollo y uso de esta poderosa tecnología emergente».

Durante los últimos meses, Estados Unidos trabajó con más de 120 países en las Naciones Unidas, incluidos Rusia, China y Cuba, para negociar el texto de la resolución adoptada el jueves.

El proyecto de resolución busca cerrar la brecha digital entre los países desarrollados y los países en desarrollo y asegurar que todos estén en la mesa en las discusiones sobre inteligencia artificial. También tiene como objetivo garantizar que los países en desarrollo tengan la tecnología y las capacidades para aprovechar los beneficios de la inteligencia artificial, incluida la detección de enfermedades, la predicción de inundaciones, la ayuda a los agricultores y la formación de la próxima generación de trabajadores.

El proyecto de resolución reconoce la rápida aceleración del desarrollo y uso de la inteligencia artificial y subraya «la urgencia de lograr un consenso global sobre sistemas de inteligencia artificial seguros, sólidos y confiables».

A diferencia de las resoluciones del Consejo de Seguridad, las resoluciones de la Asamblea General no son legalmente vinculantes, pero son un barómetro de la opinión mundial.

El proyecto de resolución alienta a todos los países, organizaciones regionales e internacionales, comunidades tecnológicas, sociedad civil, medios de comunicación, academia, instituciones de investigación y personas «a desarrollar y respaldar enfoques y marcos regulatorios y de gobernanza» para sistemas de inteligencia artificial seguros.

Desafíos y oportunidades de la inteligencia artificial para los bibliotecarios

Gunter, Darrell  «AI challenges for librarians | Research Information». RI: Research Information Accedido 21 de marzo de 2024. https://www.researchinformation.info/analysis-opinion/ai-challenges-librarians.


Los bibliotecarios, al igual que otros profesionales de diversos ámbitos, se encuentran ante una serie de oportunidades y desafíos al integrar servicios de inteligencia artificial en su labor. A continuación, se presentan algunos de los problemas clave que los bibliotecarios pueden enfrentar con estos servicios, especialmente en relación con la ética y la precisión; además se aborda cual puede ser la labor de estos profesionales en relación con la sociedad.

La IA no comenzó con el chat GPT. La inteligencia artificial (IA), es la inteligencia demostrada por las máquinas, en contraposición a la inteligencia natural mostrada por los humanos y otros animales. En la informática, la investigación en IA se define como el estudio de «agentes inteligentes»: cualquier dispositivo que perciba su entorno y tome acciones que maximicen su probabilidad de lograr con éxito sus objetivos.

El término inteligencia artificial fue acuñado por primera vez por John McCarthy en 1956, pero el viaje para entender si las máquinas pueden pensar sinceramente comenzó antes de eso. En la obra seminal de Vannevar Bush, «Como Podemos Pensar», propuso un sistema que amplifica el conocimiento y la comprensión de las personas. Bush expresó su preocupación por la dirección de los esfuerzos científicos hacia la destrucción en lugar de la comprensión y explica un deseo por una especie de máquina de memoria colectiva con su concepto del memex que haría que el conocimiento fuera más accesible, creyendo que ayudaría a resolver estos problemas. A través de esta máquina, Bush esperaba transformar una explosión de información en una explosión de conocimiento. Cinco años más tarde, Alan Turing escribió un artículo sobre la noción de que las máquinas pudieran simular seres humanos y la capacidad de hacer cosas inteligentes como jugar al ajedrez.

Los bibliotecarios, al igual que muchos profesionales en diversos campos, enfrentan tanto oportunidades como desafíos con la integración de servicios de inteligencia artificial en su trabajo. Aquí están algunos de los problemas clave que los bibliotecarios pueden enfrentar con los servicios de inteligencia artificial, particularmente en lo que respecta a la ética y la precisión:

  1. Sesgo algorítmico: Los sistemas de inteligencia artificial pueden heredar sesgos presentes en los datos utilizados para entrenarlos. Los bibliotecarios pueden necesitar ser cautelosos acerca de los sesgos potenciales en los conjuntos de datos que alimentan las herramientas de inteligencia artificial, especialmente en lo que respecta a la recuperación de información. Si los datos de entrenamiento contienen sesgos, el sistema de inteligencia artificial puede perpetuar y amplificar esos sesgos, lo que lleva a resultados de búsqueda sesgados.
  2. Preocupaciones sobre la privacidad: Las herramientas de inteligencia artificial a menudo dependen de grandes cantidades de datos para mejorar su rendimiento. Los bibliotecarios deben considerar las implicaciones de privacidad de recopilar y utilizar datos de los usuarios para mejorar los servicios de inteligencia artificial. Asegurar el cumplimiento de las regulaciones de privacidad y proteger los datos de los usuarios contra el mal uso es crucial.
  3. Uso ético de la inteligencia artificial: Los bibliotecarios son responsables de garantizar que los servicios de inteligencia artificial se implementen éticamente y estén alineados con los estándares profesionales y éticos.
  4. Precisión y confiabilidad: Los bibliotecarios necesitan evaluar la precisión y confiabilidad de la información generada por inteligencia artificial.
  5. Educación del usuario: Los bibliotecarios pueden enfrentar el desafío de educar a los usuarios sobre las limitaciones y capacidades de los servicios de inteligencia artificial.
  6. Entendimiento limitado de la inteligencia artificial: Algunos bibliotecarios pueden tener un entendimiento limitado de las tecnologías de inteligencia artificial, lo que puede suponer un desafío para integrar efectivamente estas herramientas en los servicios de biblioteca.
  7. Asignación de recursos: Implementar y mantener servicios de inteligencia artificial puede requerir recursos adicionales, incluyendo inversiones financieras, programas de capacitación y apoyo continuo.
  8. Brecha digital: El uso de servicios de inteligencia artificial en bibliotecas puede exacerbar las brechas digitales existentes si ciertos grupos de usuarios carecen de acceso a la tecnología o tienen habilidades limitadas de alfabetización digital. Los bibliotecarios deben ser conscientes de la inclusividad y trabajar hacia proporcionar un acceso equitativo a los servicios mejorados por la inteligencia artificial.
  9. Representación en los datos de entrenamiento: Si los datos de entrenamiento utilizados para desarrollar servicios de inteligencia artificial carecen de diversidad, puede resultar en algoritmos sesgados. Los bibliotecarios deben abogar por conjuntos de datos diversos y representativos para mitigar el riesgo de perpetuar sesgos raciales en los sistemas de inteligencia artificial.
  10. Equidad y justicia: Los bibliotecarios deben asegurar que los servicios de inteligencia artificial estén diseñados e implementados con equidad y justicia en mente.
  11. Transparencia: Los bibliotecarios deben abogar por la transparencia en los algoritmos de inteligencia artificial y los procesos de toma de decisiones. Comprender cómo funcionan los sistemas de inteligencia artificial es crucial para identificar y abordar posibles sesgos, incluidos los relacionados con la raza.
  12. Compromiso comunitario: Los bibliotecarios pueden involucrarse con sus comunidades para comprender sus perspectivas y preocupaciones relacionadas con la inteligencia artificial y el sesgo racial.
  13. Educación y conciencia: Los bibliotecarios desempeñan un papel en educar tanto al personal como a los usuarios sobre los posibles sesgos en los sistemas de inteligencia artificial y cómo pueden afectar a diferentes grupos raciales y étnicos.
  14. Monitoreo y evaluación continuos: Los bibliotecarios deben monitorear y evaluar continuamente el rendimiento de los servicios de inteligencia artificial para identificar y abordar cualquier problema emergente relacionado con el sesgo racial.

Como pueden ver, el tema de la IA es enorme y requerirá un esfuerzo conjunto de nuestra comunidad para asegurar que estamos haciendo todo lo posible para combatir a los actores malintencionados y los malos algoritmos. Los bibliotecarios son el único grupo de personas que están en la primera línea todos los días ayudando a estudiantes, profesores, administradores, investigadores, ciudadanos, etc., con sus diversas necesidades de información. Estos serían algunos pasos a seguir:

  • Conciencia: Ser muy intencional en aprender más sobre la IA en cuanto a sesgo y ética.
  • Educación: Brindar educación y capacitación a sus constituyentes.
  • Participación: Fomentar que su institución participe en la comunidad de IA para tener un diálogo muy activo sobre sesgo y ética.
  • Acción: Ser proactivo para abordar los problemas conocidos de sesgo y ética en la IA.

Una vez que se hayan resuelto estos problemas, es importante comunicar los resultados positivos a la comunidad. Esto demostrará a la comunidad técnica de IA que la comunidad global está observando y tomará medidas para corregir los algoritmos que no son productivos.

Si tomamos estas acciones, haremos de nuestro mundo un lugar mejor.

Derecho de las tecnologías y las tecnologías para el derecho

Flórez Rojas, María LorenaDerecho de las tecnologías y las tecnologías para el derecho. Ediciones Uniandes, 2022. https://muse.jhu.edu/pub/510/edited_volume/book/116622.

Derecho de las tecnologías y las tecnologías para el derecho conmemora el vigésimo aniversario de nuestro Grupo de Estudios en Internet, Comercio Electrónico, Telecomunicaciones e Informática (GECTI), de la Facultad de Derecho de la Universidad de los Andes. Sin embargo, no es un producto aislado de una iniciativa tendiente solo a conmemorar este aniversario, sino que es fruto del esfuerzo continuado de nuestro grupo de miembros por compartir y discutir temas trascendentales en este mundo tan dinámico del derecho a partir del desarrollo de tecnologías disruptivas que hoy nos generan grandes retos.

El libro se destaca por contar con temas innovadores en materia de dichas tecnologías y su aplicación y visión en Colombia. Por un lado, se abordan las nuevas cibercompetencias con las que deben contar no solo los profesionales del derecho, sino también nuestros jueces y legisladores. Por otro, también se tratan temas imprescindibles como la inteligencia artificial, esta vez enfocada en los mercados y el régimen de competencia. La incursión de la inteligencia artificial en todos los ámbitos de la vida es innegable y, por ello, es crucial con-templar sus implicaciones en las normas existentes en materia de competencia, protección de datos y derecho del consumo. Finalmente, se discute sobre la tecnología aplicada a servicios financieros y modelos de negocios, que, si bien buscan la innovación y la competitividad, deben adelantarse bajo parámetros que logren no solo la estabilidad financiera sino también la protección a los consumidores.

¿Cómo ha cambiando el comportamiento de ChatGPT con el tiempo?

Chen, Lingjiao, Matei Zaharia, y James Zou. «How Is ChatGPT’s Behavior Changing Over Time?» Harvard Data Science Review, 12 de marzo de 2024. https://doi.org/10.1162/99608f92.5317da47.


En este estudio exhaustivo, se realiza una comparación detallada entre las versiones de GPT-3.5 y GPT-4 en marzo y junio de 2023, centrándose en una variedad de tareas para evaluar su desempeño y comportamiento a lo largo del tiempo. Esto implica una evaluación minuciosa en áreas como matemáticas, preguntas sensibles, encuestas de opinión, conocimiento intensivo, generación de código, pruebas de licencia médica en EE. UU. y razonamiento visual. Los resultados revelan una variabilidad significativa en el rendimiento de ambos modelos, lo que sugiere que su comportamiento está sujeto a cambios en un corto período.

Por ejemplo, se observa que el desempeño de GPT-4 en la identificación de números primos vs. compuestos disminuyó drásticamente de marzo a junio, lo que indica una posible pérdida de precisión en esta tarea específica. Además, se encuentra que GPT-4 se muestra menos dispuesto a abordar preguntas sensibles y de encuestas de opinión en junio en comparación con marzo, lo que sugiere un cambio en su capacidad para manejar ciertos tipos de consultas.

Asimismo, se destaca una mejora en el desempeño de GPT-4 en preguntas multi-paso en junio en comparación con marzo, mientras que GPT-3.5 muestra un rendimiento decreciente en esta área. Este hallazgo indica que la evolución del comportamiento de los modelos puede no seguir una tendencia lineal y puede verse influenciada por diversos factores.

Además, se evidencia que ambos modelos presentaron más errores de formato en la generación de código en junio que en marzo, lo que sugiere una posible degradación en la calidad de la salida generada. La disminución en la capacidad de GPT-4 para seguir instrucciones del usuario a lo largo del tiempo también se señala como un factor clave detrás de varios cambios en el comportamiento observado.

Estos resultados destacan la importancia de monitorear continuamente el desempeño y comportamiento de los modelos de lenguaje para comprender cómo evolucionan con el tiempo y para abordar posibles cambios o degradaciones en su rendimiento. Este estudio proporciona una visión valiosa sobre la dinámica de los modelos de lenguaje y resalta la necesidad de una evaluación continua para garantizar su efectividad y fiabilidad en diversas aplicaciones.

Las revistas científicas publican artículos con textos generados por inteligencia artificial

Maiberg ·, Emanuel. «Scientific Journals Are Publishing Papers With AI-Generated Text». 404 Media, 18 de marzo de 2024. https://www.404media.co/scientific-journals-are-publishing-papers-with-ai-generated-text/.

La frase ChatGPT «A partir de mi última actualización de conocimientos» aparece en varios trabajos publicados por revistas académicas. Las revistas científicas están publicando artículos con texto generado por IA

La inclusión de lenguaje aparentemente generado por herramientas de IA como ChatGPT en artículos científicos publicados muestra cuán omnipresente se ha vuelto la tecnología, y destaca los problemas que arrastra desde tiempo atrás la publicación académica en algunas revistas académicas revisadas por pares.

Al buscar la frase «As of my last knowledge update» en Google Scholar, una herramienta de búsqueda gratuita que indexa artículos publicados en revistas académicas, se obtienen 115 resultados. La frase es utilizada frecuentemente por ChatGPT de OpenAI para indicar cuándo se está obteniendo los datos que proporciona a los usuarios, y los meses y años específicos encontrados en estos artículos académicos corresponden a actualizaciones de conocimiento previas de ChatGPT.

«Hasta la última actualización de mis conocimientos, en septiembre de 2021, no existe una correlación científica ampliamente aceptada entre el entrelazamiento cuántico y las ondas escalares longitudinales», una frase que frecuentemente utiliza ChatGPT, se lee en un artículo titulado «Quantum Entanglement: Examining its Nature and Implications» publicado en el «Journal of Material Sciences & Manfacturing [sic] Research», una publicación que afirma estar revisada por expertos.

La mayoría de los artículos científicos que se observan y que incluyen esta frase fueron publicados en revistas que son pequeñas, no muy conocidas y parecen ser «fábricas de artículos«, revistas con bajos estándares editoriales que publicarán casi cualquier cosa rápidamente. Una publicación donde se encontró la frase generada por IA, la revista Open Access Research Journal of Engineering and Technology,, solicita «cargos por publicación bajos», un «certificado electrónico» de publicación, y actualmente está anunciando una convocatoria de artículos, prometiendo la aceptación dentro de 48 horas y la publicación dentro de cuatro días.

Este tipo de revistas son un problema bien conocido en la comunidad académica, y preceden a la llegada de las herramientas de IA generativas. En febrero, The Guardian informó que el año pasado se retiraron 10.000 «artículos fraudulentos» de revistas académicas. Un estudio en Nature también destacó estafas de «pago por publicación», que son revistas que cobran tarifas exorbitantes a cambio de publicar un artículo rápidamente. Separar este tipo de artículos y revistas de la ciencia legítima a veces puede ser difícil, porque muchas revistas respetables también cobran a los científicos «tarifas de procesamiento de artículos» (APCs) para ser publicadas.

Sin embargo, también se encontró lenguaje generado por IA en revistas académicas más respetables. La semana pasada, la investigadora de Bellingcat Kolina Koltai tuiteó un artículo publicado en Superficies e Interfaces, que incluía la frase «Certainly, here is a possible introduction for your topic:» (He aquí una posible introducción para su tema) al comienzo de la introducción del artículo. El título del artículo es “The three-dimensional porous mesh structure of Cu-based metal-organic-framework – aramid cellulose separator enhances the electrochemical performance of lithium metal anode batteries.”

Michael J. Naughton, profesor de física en Boston College y uno de los editores de Superficies e Interfaces, dijo que la publicación es consciente del artículo y está «retractándolo». Naughton también señaló la política existente de la publicación sobre IA.

«Cuando los autores utilizan inteligencia artificial generativa (IA) y tecnologías asistidas por IA en el proceso de escritura, los autores solo deben usar estas tecnologías para mejorar la legibilidad y el lenguaje», establece la política. «La aplicación de la tecnología debe hacerse con supervisión y control humanos, y los autores deben revisar cuidadosamente y editar el resultado, ya que la IA puede generar una salida que suena autoritaria pero que puede ser incorrecta, incompleta o sesgada.»

La política también establece que los autores deben revelar si usan IA en el artículo.

Algunos de los artículos indexados en Google Scholar que usan respuestas estándar de ChatGPT no son necesariamente investigaciones generadas por IA. Algunos de los artículos son estudios que investigan los tipos de respuestas que da ChatGPT, y simplemente citan las respuestas que obtienen. Por ejemplo, uno de los artículos que utiliza el término está investigando los «modelos de falla» de varios sistemas de chat de IA.

Esta no es la primera vez que se observa a revistas académicas publicar contenido generado por IA. En febrero, una revista llamada Frontiers in Cell Development and Biology publicó un artículo con varias imágenes claramente generadas por IA, incluida una de una rata con un pene gigante.

El explosivo crecimiento del fraude impulsado por la IA

Melo, María Florencia. «Infografía: El explosivo crecimiento del fraude impulsado por la IA». Statista Daily Data, 15 de marzo de 2024. https://es.statista.com/grafico/31907/paises-con-mayores-aumentos-de-casos-de-fraude-de-deepfake.

Los deepfakes, videos, fotos y audios manipulados mediante inteligencia artificial, se han convertido en una presencia común en varias plataformas en línea, presentando situaciones como Donald Trump posando con votantes negros o el Papa con una chaqueta estilo puffer: . Con ajustes adecuados, cualquiera puede generar imágenes que parezcan auténticas o hacer que las voces de figuras prominentes en política o entretenimiento digan lo que sea.

Esta tecnología también se utiliza para perpetrar fraudes de identidad, fabricando documentos falsos o suplantando la identidad de personas a través de llamadas telefónicas. Los casos de fraude relacionados con deepfakes han experimentado un incremento significativo entre 2022 y 2023 en numerosos países, según revela nuestro gráfico basado en el último informe anual del proveedor de verificación de identidad Sumsub.

Por ejemplo, el número de intentos de fraude en Filipinas aumentó un 4.500% interanual, seguido de países como Vietnam, Estados Unidos y Bélgica. Con el potencial de la inteligencia artificial en constante crecimiento, los intentos de fraude mediante deepfakes podrían expandirse a otras áreas. Pavel Goldman-Kalaydin, Jefe de Inteligencia Artificial y Aprendizaje Automático de Sumsub, menciona en el informe que «hemos observado cómo las falsificaciones profundas se han vuelto cada vez más convincentes en los últimos años, y esto continuará y se extenderá hacia nuevas formas de fraude, como los deepfakes de voz».

Aunque la creación de un deepfake en sí no constituye un delito, muchos gobiernos están avanzando hacia una regulación más estricta en el uso de la inteligencia artificial para evitar daños a las partes involucradas. Además, alrededor de 400 expertos en inteligencia artificial y tecnología firmaron una carta abierta el mes pasado instando a los gobiernos de todo el mundo a tomar medidas en contra de los deepfakes.

El problema de privacidad de la inteligencia artificial generativa

Fried, Ina. «Generative AI Has a Growing Privacy Problem». Axios, 14 de marzo de 2024. https://www.axios.com/2024/03/14/generative-ai-privacy-problem-chatgpt-openai.

La privacidad se está convirtiendo en el próximo campo de batalla en el debate sobre la inteligencia artificial, incluso mientras continúan los conflictos sobre derechos de autor, precisión y sesgo.

Por qué es importante: Los críticos sostienen que los modelos de lenguaje grandes están recopilando y, frecuentemente, revelando información personal recopilada de toda la web, muchas veces sin el permiso de las personas involucradas.

El panorama general: Muchas empresas han empezado a desconfiar del uso de información patentada por parte de ejecutivos y empleados para consultar a ChatGPT y otros bots de inteligencia artificial, ya sea prohibiendo tales aplicaciones o optando por versiones pagas que mantienen la información comercial privada.

A medida que más personas utilizan la IA para buscar consejos sobre relaciones, información médica o asesoramiento psicológico, los expertos dicen que los riesgos para los individuos están aumentando. Las filtraciones de datos personales desde la IA pueden tomar varias formas, desde la divulgación accidental de información hasta la obtención de datos mediante esfuerzos deliberados para superar las protecciones.

La noticia destacada: Se han presentado varias demandas buscando el estatus de acción de clase en los últimos meses, alegando que Google, OpenAI y otros han violado las leyes federales y estatales de privacidad en la capacitación y operación de sus servicios de IA.

La FTC emitió una advertencia en enero de que las empresas tecnológicas tienen la obligación de cumplir con sus compromisos de privacidad mientras desarrollan modelos de IA generativa. «Con la IA, hay una gran fiebre por los datos, y estas empresas están recopilando cualquier dato personal que puedan encontrar en Internet,» dijo a Axios el profesor de derecho de la Universidad George Washington, Daniel J. Solove.

Los riesgos van mucho más allá de la simple divulgación de piezas discretas de información privada, argumenta Timothy K. Giordano, socio de Clarkson Law Firm, que ha presentado varios juicios por privacidad y derechos de autor contra empresas de IA generativa.

Entre líneas: Si bien la IA está creando nuevos escenarios, Solove señala que muchos de estos problemas de privacidad no son nuevos.

«Muchos de los problemas de IA son exacerbaciones de problemas existentes que la ley no ha tratado bien,» dijo Solove a Axios, señalando la falta de protecciones federales de privacidad en línea y los defectos en las leyes estatales que sí existen. «Si tuviera que calificarlas, serían como D y F», dijo Solove. «Son muy débiles.» El panorama general: Las capacidades únicas de la IA generativa plantean preocupaciones más grandes que la simple agregación común de información personal vendida y distribuida por corredores de datos.

Además de compartir datos específicos, las herramientas de IA generativa pueden establecer conexiones o inferencias (precisas o no), dijo Giordano a Axios.

Esto significa que las empresas tecnológicas ahora tienen, en palabras de Giordano, «un entendimiento escalofriantemente detallado de nuestra personalidad, suficiente para crear finalmente clones digitales y deepfakes que no solo se parecerían a nosotros, sino que también podrían actuar y comunicarse como nosotros».

Crear IA que respete la privacidad de los datos es complicado por cómo funcionan los sistemas de IA generativa.

Por lo general, se entrenan con conjuntos enormes de datos que dejan una especie de huella de probabilidad en el modelo, pero no guardan o almacenan los datos después. Eso significa que no se puede simplemente eliminar la información que se ha tejido. «No se puede desentrenar a la IA generativa,» dijo Grant Fergusson, un compañero del Electronic Privacy Information Center. «Una vez que el sistema ha sido entrenado en algo, no hay forma de revertirlo.»

Realidad: Muchos editores en línea y empresas de IA han agregado lenguaje que indica que los datos de los clientes pueden ser utilizados para entrenar modelos futuros.

En algunos casos, las personas tienen la opción de elegir no permitir que sus datos se utilicen para el entrenamiento de IA, aunque estas políticas varían y la configuración para compartir datos puede ser confusa y difícil de encontrar. Además, incluso cuando los usuarios ofrecen consentimiento, podrían estar compartiendo datos que podrían afectar la privacidad en línea de otros.

El otro lado: Un representante de OpenAI dijo a Axios que la empresa no busca datos personales para entrenar sus modelos y toma medidas para evitar que sus modelos revelen información privada o sensible. «Queremos que nuestros modelos aprendan sobre el mundo, no sobre individuos privados», dijo un portavoz de OpenAI a Axios. «También entrenamos a nuestros modelos para que se nieguen a proporcionar información privada o sensible sobre las personas». La empresa dijo que su política de privacidad describe opciones para que las personas eliminen cierta información y opten por no participar en el entrenamiento de modelos.

¿Qué sigue?: Los reguladores intentarán hacer cumplir las leyes de privacidad existentes en el nuevo ámbito de la IA, los legisladores propondrán nuevos proyectos de ley y los tribunales lidiarán con dilemas novedosos. Las empresas de IA podrían hacer más por sí mismas, pero Solove dijo que esperar que las empresas protejan la privacidad sin que se lo exija la ley probablemente sea poco realista. «Es como decirle a los tiburones: ‘Por favor, siéntense y usen cubiertos'», dijo Solove.