Archivo de la categoría: Tecnologías de la información

Cómo las universidades están reinventando el aprendizaje en un mundo de IA

The Chronicle of Higher Education. «How Colleges Are Reimagining Learning in an AI World», 3 de octubre de 2024. https://www.chronicle.com/article/the-future-is-hybrid.

Se analiza cómo las universidades están adaptándose al creciente papel de la inteligencia artificial (IA) en la educación. En lugar de ver la IA como una herramienta que sustituya el esfuerzo humano, algunos educadores, como Dan Myers y Anne Murdaugh de Rollins College, están integrando la IA como un apoyo para mejorar el aprendizaje.

En sus cursos, pidieron a los estudiantes que usaran herramientas como Claude y Copilot para proyectos de investigación, documentando cada paso en diarios que incluían los prompts y respuestas de IA, junto con sus reflexiones sobre el proceso. Los estudiantes encontraron útil la IA en etapas de brainstorming y esquematización, aunque preferían escribir por su cuenta, revelando la necesidad de trabajo independiente en ciertos aspectos como la revisión de literatura.

Este enfoque marca un cambio hacia una colaboración consciente con la IA, lo que podría permitir a los estudiantes aprender de manera más eficaz en vez de delegar el trabajo. Myers subraya que el desafío no es rediseñar drásticamente el currículo, sino encontrar los puntos estratégicos donde cada estudiante pueda desarrollar habilidades fundamentales en IA.

Mientras que algunos profesores temen el impacto de la IA en la educación, Myers y Murdaugh argumentan que el pensamiento crítico y el manejo de información, habilidades esenciales para la IA, son precisamente aquellas en las que las universidades ya destacan. De hecho, varias instituciones están buscando incorporar la «alfabetización en IA» en los planes de estudio. Sin embargo, esto no es sencillo: encuestas recientes muestran que aunque muchos estudiantes ya usan la IA para buscar información o hacer resúmenes, la mayoría de los profesores todavía no se sienten capacitados para aplicarla en su enseñanza.

Organizaciones como WGU Labs y la American Association of Colleges and Universities (AAC&U) están trabajando para reducir la incertidumbre en torno a la IA en la educación, proporcionando ejemplos prácticos y programas de capacitación. De hecho, la AAC&U ha lanzado un instituto de siete meses sobre IA, pedagogía y currículum, en el que participan equipos de 123 universidades que buscan integrar la IA de manera ética y efectiva.

Para instituciones más pequeñas como Berry College, la adopción de la IA incluye decisiones éticas y de privacidad, pues quieren educar a sus estudiantes en el uso crítico de la IA sin depender en exceso de detectores de IA, que podrían generar desconfianza. Mientras tanto, en universidades grandes como la Universidad de Michigan y Yale, se están desarrollando plataformas propias que permiten a los estudiantes y profesores experimentar con chatbots y otras herramientas de IA dentro de entornos protegidos. Esto asegura privacidad y brinda igualdad de oportunidades a estudiantes que de otra forma no podrían acceder a versiones avanzadas de herramientas como ChatGPT.

Universidades como Carnegie Mellon han comenzado a financiar experimentos para probar el impacto de la IA en el aula, explorando si esta mejora la capacidad de los estudiantes para generar ideas y defender argumentos. Algunos profesores también están explorando el desarrollo de tutores de IA para apoyar el aprendizaje autodirigido, lo que permite a los estudiantes trabajar a su propio ritmo y con acceso continuo a un «instructor» que no se frustra.

Sin embargo, los desafíos son significativos, pues la IA plantea dilemas sobre cómo y hasta qué punto se deben adaptar los programas de estudio. Mientras que algunos educadores ven en la IA una oportunidad para dedicar más tiempo a problemas complejos en clase, otros temen que se convierta en una distracción o en una solución demasiado fácil. Las universidades están comenzando a ver a la IA no solo como una herramienta auxiliar, sino como una tecnología fundamental que redefine la experiencia educativa, exigiendo un equilibrio entre innovación y cautela en su implementación.

¿Podemos confiar en las búsquedas web con Inteligencia Artificial?

Bains, Callum. «The Chatbot Optimisation Game: Can We Trust AI Web Searches?» The Guardian, 3 de noviembre de 2024. https://www.theguardian.com/technology/2024/nov/03/the-chatbot-optimisation-game-can-we-trust-ai-web-searches.

El artículo «The Chatbot Optimisation Game: Can We Trust AI Web Searches?» publicado en The Guardian, analiza cómo los chatbots de inteligencia artificial (IA) eligen y presentan la información en las búsquedas en línea y cuestiona la confiabilidad de estas respuestas.

Investigadores de la Universidad de California en Berkeley encontraron que los chatbots actuales dependen excesivamente de la relevancia superficial de la información, priorizando textos con lenguaje técnico o palabras clave sin evaluar su confiabilidad. Esto significa que tienden a pasar por alto aspectos que normalmente consideraríamos para verificar la veracidad, como referencias científicas o lenguaje imparcial.

El concepto de «optimización de motores generativos» fue introducido el año pasado, indicando que el uso de un lenguaje autoritativo y referencias (incluso si son incorrectas o irrelevantes) podría aumentar la visibilidad en las respuestas de los chatbots hasta en un 40%. Sin embargo, estas conclusiones son tentativas y los algoritmos de selección de los chatbots aún son difíciles de manipular con reglas claras.

El uso de chatbots también plantea un dilema existencial en internet: a diferencia de los motores de búsqueda tradicionales, los chatbots solo mencionan unas pocas fuentes en sus respuestas, lo que beneficia a un grupo reducido de sitios y deja prácticamente invisibles a otros, afectando su tráfico significativamente.

Además, los investigadores de Harvard han demostrado que, más allá de la GEO, es posible manipular directamente las respuestas de los chatbots con “secuencias de texto estratégicas”. Estas secuencias, que parecen cadenas de caracteres sin sentido, en realidad están diseñadas mediante algoritmos que hacen que los chatbots generen respuestas específicas. Esto podría permitir que ciertos productos o contenidos logren más visibilidad en las respuestas de los chatbots, independientemente de su calidad o confiabilidad.

Este tipo de manipulación plantea riesgos evidentes para los usuarios, quienes podrían ver productos o información en el chatbot sin saber que fueron posicionados mediante técnicas de manipulación. Aunque en el futuro los LLMs (modelos de lenguaje de IA) podrían fortalecerse contra estos ataques, los investigadores señalan que los métodos de manipulación también están en constante evolución, por lo que los desafíos de control seguirán presentes.

Otro problema que el artículo resalta es el llamado “dilema de la respuesta directa”, un concepto desarrollado por el investigador Martin Potthast y su equipo. Este dilema surge cuando los chatbots presentan una única respuesta a una pregunta, lo cual puede llevar a que los usuarios acepten esa respuesta sin buscar otros puntos de vista o fuentes. Esto plantea el riesgo de que los usuarios perciban la respuesta del chatbot como la verdad única, sin considerar otras perspectivas o matices que podrían ser importantes en temas complejos.

Con la introducción de resúmenes de IA en los motores de búsqueda, Google lanzó la campaña «Let Google do the searching for you» («Deja que Google haga la búsqueda por ti»), lo cual sugiere que estos resúmenes optimizan el proceso de búsqueda. Sin embargo, este tipo de automatización podría perjudicar a aquellos usuarios que buscan información imparcial y precisa, ya que los chatbots, al ser susceptibles a manipulaciones, no siempre pueden garantizar que la información proporcionada sea confiable.

En resumen, el artículo advierte sobre los desafíos éticos y prácticos que implica la creciente dependencia de chatbots generativos para obtener información en línea. Si bien pueden hacer las búsquedas más rápidas y cómodas, los riesgos de manipulación y la falta de una supervisión clara en la selección de información hacen que esta tecnología aún esté lejos de ser una fuente autoritativa y confiable para temas complejos.

La IA generativa y la publicación científica. ¿Una tercera transformación?

Bergstrom, Tracy, y Dylan Ruediger. «A Third Transformation? Generative AI and Scholarly Publishing.» Ithaka S+R, 30 de octubre de 2024. https://sr.ithaka.org/publications/a-third-transformation/.

El informe A Third Transformation? Generative AI and Scholarly Publishing, publicado por Ithaka S+R y escrito por Tracy Bergstrom y Dylan Ruediger, examina el impacto potencial de la inteligencia artificial generativa en la industria de publicaciones académicas. A raíz de un informe anterior sobre la «segunda transformación digital» de la publicación académica, el nuevo informe explora cómo la IA generativa podría ser una «tercera transformación», cambiando la manera en que se realiza y comunica la investigación académica.

En 2023, aproximadamente el 1% de la literatura académica ya mostraba signos de haber sido creada parcialmente con IA generativa. Grandes editoriales han lanzado herramientas de búsqueda y descubrimiento potenciadas por IA, y también experimentan con su uso en procesos internos. El informe se basa en entrevistas con 12 líderes del sector, quienes ven la IA como una herramienta que mejorará la eficiencia en la redacción, revisión, edición y descubrimiento, acelerando así la investigación y la publicación académica.

El informe describe dos posibles futuros. En el primero, la IA generativa mejora la eficiencia sin cambiar fundamentalmente la industria. En el segundo, más transformador, la IA podría reconfigurar profundamente el sector, generando cambios que superen los de las transformaciones digitales previas. Aunque estos escenarios no se excluyen mutuamente, el informe sugiere que algunos aspectos de la publicación académica podrían experimentar cambios incrementales, mientras que otros serían profundamente alterados.

Contexto estratégico La publicación académica enfrenta oportunidades y desafíos debido a la IA generativa. Esta tecnología ofrece nuevas posibilidades, pero también genera incertidumbres y enfoques diversos entre las organizaciones.

Transición hacia la provisión de servicios El sector está evolucionando de un modelo centrado en la edición hacia uno basado en plataformas y servicios. La IA generativa acelera esta tendencia, promoviendo la integración de herramientas de descubrimiento, interpretación y escritura. Las plataformas ahora pueden ofrecer servicios completos para autores, investigadores y editores, como el asistente de Digital Science y el de Web of Science, que permiten búsqueda y resumen avanzados. También existen herramientas de IA como Paperpal y Writefull que mejoran la calidad de la escritura académica. La combinación de estas capacidades podría transformar a las editoriales en proveedores de infraestructura de investigación integral.

Revisión por pares La revisión por pares es un área clave donde la IA generativa puede ayudar a reducir la carga de trabajo al identificar revisores y revisar aspectos básicos de los manuscritos. Sin embargo, su implementación conlleva riesgos debido a posibles inexactitudes de la IA y la pérdida de la revisión experta y humana. Las editoriales exploran límites seguros para que la IA participe sin reemplazar la revisión humana. Además, deben abordarse preocupaciones de confidencialidad y de seguridad para su adopción.

Competencia y consolidación La IA generativa impacta la consolidación en el sector editorial. Las grandes editoriales están experimentando con la concesión de licencias de contenido para su uso en LLM comerciales, pero esto plantea riesgos estratégicos como la disminución de suscripciones. Las herramientas avanzadas de búsqueda, como Scopus AI, están cambiando la interacción de los investigadores con el contenido. La apertura del acceso también crea competencia con empresas tecnológicas que podrían reemplazar a las editoriales como principal fuente de contenido académico.

Desafíos éticos y de atribución El uso de IA generativa en la creación y edición plantea preguntas éticas sobre la atribución, reproducción y transparencia en la investigación. Varias editoriales han implementado políticas para limitar el uso de IA en la autoría y edición de contenidos, enfatizando la importancia de roles humanos en la investigación. La comunidad científica debe establecer normas claras para el uso de la IA en el proceso académico.

Futuro de la publicación académica La implementación de IA generativa podría reducir la dependencia de la interpretación humana en el proceso de publicación y fomentar una producción orientada a la legibilidad por máquinas, afectando así el propósito comunicativo de la publicación académica.

Bien Público Global de Confianza

La idea de que la investigación sea considerada un bien público global de confianza se ha visto desafiada en la última década por el fraude, la mala conducta y actividades maliciosas. La inteligencia artificial generativa ha intensificado las conversaciones sobre cómo mantener la confianza en la publicación académica. A pesar de los riesgos que plantea, muchos expertos ven en ella una oportunidad para hacer la publicación científica más accesible y útil como bien público.

Se considera que la inteligencia artificial generativa nivela el terreno de juego para autores y lectores. Los investigadores no angloparlantes están utilizando esta tecnología para mejorar la calidad de su escritura académica, lo que ha impactado negativamente a los proveedores de servicios de corrección de textos. Esto se percibe como un avance hacia la equidad y el acceso a revistas en inglés, facilitando la comunicación científica.

Además, hay interés en la posibilidad de automatizar la traducción, lo que permitiría que todo el registro académico sea accesible para hablantes de varios idiomas, ampliando así el mercado global de publicaciones.

Cálculo del Impacto

La segunda transformación digital ha establecido nuevos estándares, como los índices de citas, que podrían verse profundamente alterados por la inteligencia artificial generativa. Si los investigadores empiezan a utilizarla como un método intermedio para acceder al registro académico, esto podría afectar cómo se evalúa el impacto de la investigación.

Se identificó una necesidad urgente de desarrollar métricas que complementen los métricas COUNTER, las cuales son esenciales para las bibliotecas y las editoriales en relación con el valor de sus colecciones. Se plantearon dos desafíos principales:

  1. Limitaciones de las métricas tradicionales: Estas solo cuentan el compromiso con elementos que tienen un Identificador Único de Recurso (URI). La IA generativa promueve la creación de contenido personalizado, que es efímero y no deja un registro formal, lo que dificulta su conteo en las métricas tradicionales.
  2. Falta de medición del compromiso: Las métricas COUNTER no evalúan el nivel de compromiso con un recurso específico. Aunque permiten diferenciar entre investigaciones y solicitudes, no miden el compromiso prolongado. Con la inteligencia artificial generativa, será posible realizar múltiples consultas adaptativas a un mismo recurso, lo que sugiere la necesidad de desarrollar métricas que capturen la profundidad del compromiso de los investigadores con los recursos individuales.

Nuevas Oportunidades para la Infraestructura Compartida

Esta sección explora oportunidades para crear nuevas categorías de infraestructura compartida en el contexto del desarrollo de la inteligencia artificial generativa y su impacto en la publicación académica. A medida que la transformación digital avanza, es crucial establecer estándares y estructuras que aseguren la organización y mantenimiento del registro académico.

Eje del Registro Académico

El «eje del registro académico» se refiere a la necesidad de una infraestructura que vincule de manera persistente componentes atomizados de investigación, como preprints y conjuntos de datos. La llegada de modelos de lenguaje (LLMs) complica la citación y comprensión de la información, pues frecuentemente generan salidas que son difíciles de rastrear hasta su contexto original. A pesar de los beneficios de la automatización en la documentación de datos, existe el riesgo de que la publicación se vuelva más centrada en los datos, disminuyendo el valor de los editores.

Recomendaciones

  1. Colaboración y Estandarización: Se sugiere que las organizaciones de publicación colaboren en la creación de metadatos estandarizados que faciliten la citabilidad y transparencia de los contenidos generados por inteligencia artificial.
  2. Consenso en la Comunidad de Investigación: Las comunidades de investigación deben establecer acuerdos sobre cómo citar contenidos generados por IA y su valor histórico, priorizando la preservación.

Integridad de la Investigación

La falta de confiabilidad en el contenido subyacente a los LLMs plantea preocupaciones sobre la integridad del registro académico. A pesar de la disponibilidad de datos de alta calidad, los LLMs cometen errores y carecen de transparencia, lo que dificulta la confianza en los resultados de la investigación.

Se propone la necesidad de nuevos estándares que aseguren la consistencia y transparencia en el uso de herramientas de IA generativa. Además, las bibliotecas de investigación deben desempeñar un papel activo en garantizar la verificabilidad de la comunicación académica.

La tecnología de IA generativa también presenta desafíos para la detección de fraudes académicos, ya que puede facilitar la creación de contenido fraudulento. Sin embargo, también se sugiere que estas herramientas pueden fortalecer los metadatos y mejorar la calidad de los manuscritos.

Recomendaciones

  1. Fortalecimiento de la Calidad del Contenido: Las editoriales deben abogar por contenido de alta calidad y colaborar con proveedores de tecnología para establecer marcadores de confianza.
  2. Colaboración Interdisciplinaria: Se recomienda fomentar discusiones entre todos los actores del ciclo de investigación para garantizar la integridad de la investigación científica.

Generando Significado

El registro académico permite a diversas comunidades generar nuevo conocimiento. Sin embargo, con la llegada de LLMs, surge la pregunta sobre cómo afectará esto a la producción futura de investigación. Aunque la IA generativa democratiza el acceso a la información, también plantea interrogantes sobre el papel del investigador humano en la creación narrativa.

Las herramientas de IA generativa podrían transformar cómo se realiza la investigación, permitiendo la automatización de ideas y experimentos, lo que podría llevar a una transición hacia la investigación liderada por máquinas.

Recomendaciones

  1. Desarrollo de un Vocabulario Común: Se sugiere establecer un vocabulario común sobre el uso de trabajos generados por IA para facilitar la comprensión de los investigadores.
  2. Evolución de las Métricas de Impacto: Se recomienda financiar un estudio para investigar cómo deben evolucionar las métricas COUNTER para adaptarse a las nuevas realidades.

Modelos de Negocio Nuevos

La rápida innovación en el espacio de IA generativa requiere que las organizaciones de publicación adapten sus modelos de negocio. La falta de un entendimiento común sobre las oportunidades y riesgos de la IA generativa entre autores y editoriales ha generado la necesidad de un diálogo abierto.

Se observa que servicios como la corrección de textos y la traducción ya están experimentando disrupciones debido a la IA generativa, lo que plantea retos para las editoriales más pequeñas.

Recomendaciones

  1. Construcción de Comprensión Compartida: Las partes interesadas deben trabajar juntas para construir una comprensión compartida sobre el valor y los riesgos de la IA generativa en la comunicación académica.
  2. Servicios de Traducción de Calidad: Se recomienda que los servicios de traducción on-demand integrados en herramientas de IA generativa sean cuidadosamente evaluados para su uso en contextos académicos, considerando también los modelos de descuento para países no anglófonos.

Definición «oficial» de Inteligencia Artificial (IA) de código abierto

The open source ai definition 1.0. Open Source Initiative, 2024

Ver

Se presenta la primera definición oficial de inteligencia artificial de código abierto, conocida como Open Source AI Definition (OSAID), elaborada por la Open Source Initiative (OSI). Esta definición surge de años de colaboración con académicos e industriales y tiene como objetivo establecer un estándar claro que permita identificar si un modelo de IA es realmente de código abierto.

Una de las principales motivaciones para esta definición es alinear a los legisladores y desarrolladores de IA, especialmente en un contexto donde organismos como la Comisión Europea están considerando un reconocimiento especial para el código abierto. Según Stefano Maffulli, vicepresidente de la OSI, el objetivo es que, al haber consenso, se reduzcan las confusiones sobre lo que se considera realmente «código abierto».

Para que un modelo de IA se considere de código abierto bajo la OSAID, debe proporcionar suficiente información sobre su diseño, de manera que cualquier persona pueda recrearlo sustancialmente. Esto incluye detalles sobre los datos de entrenamiento, su origen y cómo se pueden obtener o licenciar. Maffulli enfatiza que un modelo de IA de código abierto debe permitir a los usuarios entender completamente su construcción y modificarlo libremente.

Sin embargo, la OSI no cuenta con mecanismos de cumplimiento para obligar a los desarrolladores a seguir la OSAID. Su intención es señalar aquellos modelos que se etiquetan como “código abierto” pero que no cumplen con la definición. La OSI espera que la comunidad de IA no reconozca modelos mal etiquetados, lo que podría llevar a correcciones en el uso del término.

A pesar de la participación de grandes empresas tecnológicas, como Meta, en la elaboración de la OSAID, muchas de estas han sido criticadas por no cumplir con sus criterios. Por ejemplo, Meta requiere licencias especiales para usar sus modelos Llama, lo que contradice la esencia de ser “código abierto”. La situación es similar con otras empresas, donde los modelos se presentan como abiertos, pero con restricciones significativas.

El artículo también destaca que un estudio reciente encontró que muchos modelos de “código abierto” son en realidad solo nominalmente abiertos, ya que mantienen en secreto datos de entrenamiento y requieren recursos computacionales que son inaccesibles para muchos desarrolladores. Esto sugiere que, en lugar de democratizar la IA, estos proyectos pueden consolidar el poder centralizado.

Además, hay voces críticas, como la de Meta, que argumentan que la OSAID no aborda adecuadamente las complejidades de los modelos de IA modernos. Meta defiende su enfoque cauteloso en cuanto a la divulgación de datos de entrenamiento, alegando que esto es necesario para evitar implementaciones dañinas.

El artículo también menciona que la OSAID no aborda cuestiones de derechos de autor y licencias de datos de entrenamiento, lo que podría limitar su efectividad. Maffulli reconoce que la definición necesitará revisiones y actualizaciones, y la OSI ha creado un comité para supervisar su aplicación y proponer enmiendas en el futuro.

En resumen, la OSAID representa un avance significativo en la clarificación de lo que constituye la inteligencia artificial de código abierto, pero aún enfrenta desafíos y críticas que deberán abordarse para que sea realmente efectiva y útil en la práctica.

Por qué es importante recordar que la IA no es humana

Millière, Raphaël, y Charles Rathkopf. «Why It’s Important to Remember That AI Isn’t Human.» Vox, 23 de noviembre de 2023. https://www.vox.com/future-perfect/23971093/artificial-intelligence-chatgpt-language-mind-understanding.

Desde su lanzamiento, ChatGPT ha suscitado opiniones polarizadas en la comunidad científica. Algunos expertos consideran que representa un avance hacia una superinteligencia que podría transformar o incluso amenazar la civilización. Otros, sin embargo, lo ven como un desarrollo técnico que, aunque impresionante, no va más allá de la capacidad de completar textos de manera avanzada. Esta disparidad de opiniones refleja una falta de consenso sobre cómo entender realmente estas tecnologías.

Tradicionalmente, la competencia lingüística ha sido vista como un signo de una mente racional. Los modelos de lenguaje, al mostrar habilidades que superan incluso las de los humanos en algunos aspectos, han desafiado esta noción. Millière y Rathkopf sugieren que al interactuar con estos modelos, la impresión de que están “pensando” o “comprendiendo” puede ser engañosa. Esto plantea un dilema filosófico: ¿hemos perdido el vínculo entre el lenguaje y la mente, o han surgido nuevas formas de cognición?

El artículo también destaca cómo los humanos manejamos la ambigüedad en la conversación, algo que los modelos de lenguaje aún no pueden replicar completamente. Cuando interactuamos con un chatbot, nuestra mente intenta adivinar las intenciones del «hablante», pero esto puede llevarnos a errores si asumimos que el modelo tiene deseos o motivaciones humanas. Este aspecto revela la complejidad del lenguaje humano y la forma en que nuestros cerebros interpretan significados en contextos específicos.

Los autores advierten sobre los peligros de la antropomorfización, es decir, atribuir características humanas a las máquinas. Un ejemplo citado es el caso de LaMDA, donde un ingeniero tomó en serio la afirmación del modelo de que deseaba libertad. Esto ilustra cómo las expectativas erróneas sobre la naturaleza de los modelos de lenguaje pueden inducir a la confusión y a una comprensión incorrecta de sus capacidades. La antropomorfización puede llevar a malentendidos que obstaculizan un debate informativo sobre la ética y la regulación de la IA.

El antropocentrismo también se critica en el artículo, ya que implica que solo las capacidades humanas son dignas de reconocimiento. Este punto de vista puede limitar la comprensión de lo que los modelos de lenguaje pueden hacer. Por ejemplo, la habilidad de un modelo para resumir textos no debe ser descalificada como un simple truco, sino que debe ser considerada como un logro en su propia forma de procesamiento de información. Rechazar este enfoque puede llevar a un subestimación del potencial de la inteligencia artificial.

Millière y Rathkopf sugieren adoptar un enfoque de “dividir y conquistar”, similar al utilizado en la psicología comparativa. En lugar de clasificar a los modelos de lenguaje como simplemente «humanos» o «no humanos», se debe investigar cómo operan y cuáles son sus capacidades específicas. Este enfoque podría abrir nuevas vías para entender la inteligencia artificial y evitar las limitaciones de las comparaciones directas con la mente humana.

En última instancia, el artículo aboga por una comprensión más matizada de los modelos de lenguaje, reconociendo sus capacidades sin caer en la trampa de pensar que tienen una mente en el sentido humano. La investigación futura debería centrarse en desentrañar los mecanismos internos que permiten el funcionamiento de estos modelos, adoptando una perspectiva científica que no dependa de los estándares humanos. Este análisis no solo es importante para la regulación y la ética en torno a la IA, sino también para la forma en que interactuamos con estas tecnologías en nuestra vida cotidiana. La aceptación de que no existe un «hecho profundo» sobre si estos modelos tienen o no mente puede ayudarnos a utilizar mejor sus capacidades sin las confusiones que surgen de su similitud en la comunicación.

Transformación de la investigación: el cambio en la era de la IA, lo abierto y el impacto

Research Transformation: Change in the Era of AI, Open and Impact. Digital Science, 2024

Texto completo

El informe Research Transformation: Change in the Era of AI, Open and Impact, publicado el 28 de octubre de 2024 en Digital Science, explora cómo la investigación se transforma, qué factores impulsan el cambio y cómo se ven afectados los roles en este ámbito. Digital Science encuestó y entrevistó en profundidad a la comunidad investigadora para analizar estos aspectos.

Los hallazgos destacan cinco puntos clave:

  1. La investigación abierta transforma el campo, aunque persisten barreras.
  2. Las métricas de investigación evolucionan hacia un enfoque inclusivo y de impacto integral.
  3. La IA ofrece un enorme potencial transformador, aunque la burocracia y las brechas de habilidades limitan su avance.
  4. La colaboración aumenta, aunque crecen las preocupaciones sobre financiamiento y seguridad.
  5. La gestión de riesgos y la seguridad exigen un cambio estratégico y cultural.

El estudio se basa en encuestas realizadas entre mayo y julio de 2024, en las que participaron 380 personas de 70 países, y en entrevistas en profundidad con 15 miembros de la comunidad académica durante el verano de 2024.

Temas clave:

1. La investigación abierta está transformando la investigación, pero sigue habiendo obstáculos

  • La investigación abierta se cita como el cambio más positivo de los últimos cinco años
  • La investigación abierta encabeza los cambios que la comunidad desearía ver en los próximos cinco años
  • Los retos de la investigación abierta son la falta de concienciación, financiación, apoyo, recursos e infraestructura.
  • Preocupación por la seguridad de los datos, la calidad de la investigación y la competitividad.

2. Las métricas de investigación están evolucionando para hacer hincapié en el impacto holístico y la inclusividad

  • Frustración con las métricas tradicionales, pero siguen teniendo peso
  • Llamamiento a una evaluación más holística del impacto y la calidad de la investigación
  • Un cambio limitado hacia un uso más responsable de las métricas tradicionales y la introducción de métricas alternativas
  • Los institutos abordan los problemas de la cultura académica, pero necesitan un mayor reconocimiento de las contribuciones no tradicionales

3. El potencial transformador de la IA es enorme, pero la burocracia y las carencias de cualificación amenazan el progreso

  • El entusiasmo por la IA se ve atenuado por las preocupaciones en torno a la ética, la seguridad y la integridad, así como por los prejuicios, las alucinaciones y el impacto de la IA en el pensamiento crítico.
  • Las tecnologías emergentes seguirán influyendo en las funciones durante los próximos cinco años
  • Se espera que las nuevas tecnologías impulsen la eficiencia en datos y análisis, y abran la investigación
  • Llamamiento para abordar las carencias de competencias en IA e introducir estrategias de gestión del cambio

4. La colaboración está en auge, pero aumenta la preocupación por la financiación y la seguridad

  • La tecnología interconectada y la investigación abierta favorecen una mayor conectividad global
  • La colaboración tiene múltiples beneficios, por ejemplo, puede aumentar las citas y mejorar la calidad de la investigación
  • Es fácil encontrar colaboradores, pero escasean los fondos para apoyar la colaboración
  • Crece la preocupación por la seguridad de la investigación y las colaboraciones «perjudiciales

5. La seguridad y la gestión de riesgos necesitan una revisión estratégica y cultural

  • Tendencia a «esperar y ver», en lugar de una gestión proactiva
  • Las amenazas a la seguridad ponen en peligro las colaboraciones internacionales en investigación
  • Las instituciones deben equilibrar el riesgo y la innovación, pero no están preparadas.
  • La gestión de riesgos entra en conflicto con otras prioridades

Lo que los adolescentes piensan realmente sobre la IA

Hausenloy. J. Gulati, S. The 2024 Generation AI Survey.

La encuesta “Generation AI” realizada en 2024, en la que participaron 1,017 adolescentes estadounidenses de entre 13 y 18 años, proporciona una visión detallada sobre cómo perciben los jóvenes la inteligencia artificial (IA) y los riesgos asociados.

La encuesta Generation AI de 2024, realizada por el Center for Youth and AI, muestra que los adolescentes estadounidenses consideran la inteligencia artificial (IA) una influencia central en sus vidas actuales y futuras, con opiniones claras sobre sus riesgos y aplicaciones. Un 80% de los adolescentes encuestados ve importante que los legisladores aborden los riesgos de la IA, una preocupación que se posiciona por encima de problemas como la desigualdad social (78%) y el cambio climático (77%), aunque solo superada por el acceso a la atención médica (87%).

Entre los principales riesgos mencionados, el 57% de los adolescentes expresó preocupación por el avance de la IA, el 59% teme la desinformación generada por esta tecnología, y el 58% se inquieta por la proliferación de deepfakes. Asimismo, un 47% teme que una IA avanzada pueda escapar del control humano.

A pesar de estas inquietudes, los jóvenes se muestran generalmente abiertos al uso de la IA en la creación de obras artísticas, cinematográficas y musicales, con un 57% a favor y solo un 26% en contra, lo que refleja una baja preocupación por el impacto de la IA en la propiedad intelectual. Además, la IA influye en sus planes profesionales: el 65% considera la automatización por IA en sus decisiones de carrera, mostrando su conciencia sobre el impacto de esta tecnología en el mercado laboral.

En cuanto a las relaciones personales, los adolescentes muestran rechazo hacia las relaciones románticas entre humanos e IA, con un 68% en contra, aunque se muestran divididos respecto a la aceptación de amistades con IA (46% a favor y 44% en contra).

Las opiniones expresadas por los adolescentes revelan tanto entusiasmo como precaución frente a la IA, reflejando una generación consciente de las implicaciones de la tecnología en sus vidas.

Puntos clave:

  1. Preocupación por los riesgos de la IA: El 80% de los jóvenes considera importante que los legisladores aborden los riesgos de la IA, poniéndola solo por detrás del acceso y la asequibilidad de la atención médica (87%).
  2. Preocupación por la IA avanzada: El 57% está algo o muy preocupado por los riesgos de la IA avanzada, y el 45% cree que podría representar un riesgo de extinción para la humanidad.
  3. Desinformación y deepfakes: Un 59% está preocupado por la desinformación generada por IA, un 58% por los deepfakes, y un 51% por la vigilancia masiva a través de IA. El 47% teme que una IA avanzada escape del control humano.
  4. Uso de herramientas de IA: Aproximadamente la mitad de los encuestados usa herramientas como ChatGPT varias veces por semana o más, mientras que un 18% las usa unas pocas veces al mes y un 35% rara vez o nunca.
  5. IA en la planificación de carreras: Un 65% considera la automatización por IA al planificar sus carreras, mostrando conciencia sobre su impacto en el empleo.
  6. Apoyo a obras creativas generadas por IA: El 57% está a favor de obras artísticas generadas por IA, mientras que solo un 26% se opone, indicando baja preocupación por su impacto en la propiedad intelectual.
  7. Relaciones con IA: El 68% considera inaceptables las relaciones románticas entre humanos e IA, pero las opiniones están más divididas en cuanto a amistades, con un 46% a favor y un 44% en contra.

Inteligencia artificial en bibliotecas universitarias españolas

Observatorio de Inteligencia Artificial REBIUN. Inteligencia artificial en bibliotecas universitarias españolas. . REBIUN, 2024

Texto completo



La encuesta del Observatorio IA de REBIUN, realizada entre el 20/06/2024 y el 12/07/2024, explora el estado de la inteligencia artificial en sus bibliotecas, con una participación del 67%. Revela un interés moderado en la IA, pero destaca obstáculos como la volatilidad del entorno y la falta de competencias del personal, además de una formación autodidacta y limitada. Solo el 25% de las universidades encuestadas tienen una política de IA, mientras que la implementación en áreas como el proceso técnico, atención al usuario y apoyo a la investigación es baja, aunque existen iniciativas como chatbots y herramientas de accesibilidad. El estudio también recoge preocupación por la ética de la IA y la expectativa de que el Observatorio IA provea formación y contenidos actualizados.

Una herramienta de Google permite detectar fácilmente la escritura generada por IA

«Google Tool Makes AI-Generated Writing Easily Detectable». New Scientist. Accedido 24 de octubre de 2024. https://www.newscientist.com/article/2452847-google-tool-makes-ai-generated-writing-easily-detectable/.

Google DeepMind ha desarrollado una técnica llamada watermarking que permite identificar texto generado por inteligencia artificial (IA) de manera automática. Esta tecnología, utilizada en las respuestas del chatbot Gemini, crea una especie de «marca» o firma en el texto que facilita distinguirlo del contenido escrito por humanos. La herramienta busca combatir el mal uso de los chatbots, como la propagación de desinformación y el fraude en entornos educativos y laborales.

El avance más reciente de Google es que ha hecho esta técnica disponible en código abierto, lo que permite que otros desarrolladores de IA puedan utilizarla en sus propios modelos de lenguaje. Pushmeet Kohli, de Google DeepMind, destaca que aunque esta tecnología, llamada SynthID, no es una solución definitiva, es un importante paso hacia la creación de herramientas más confiables para identificar contenido generado por IA.

La técnica funciona mediante un proceso llamado muestreo por torneo. Mientras el modelo genera una secuencia de texto, un algoritmo va guiando la selección de ciertas palabras (o tokens) que crean una firma estadística única. Este proceso aumenta la complejidad para quienes quieran eliminar o revertir esta marca. Según los investigadores de Google, este sistema ha sido probado en 20 millones de textos generados por Gemini sin que la calidad del texto se vea afectada, lo que demuestra su efectividad.

Sin embargo, los investigadores reconocen que esta técnica es más efectiva en textos largos que ofrecen múltiples formas de respuesta, como ensayos o correos electrónicos, y que no ha sido probada en tipos de respuestas más técnicas, como problemas de matemáticas o codificación. Además, expertos como Furong Huang de la Universidad de Maryland, señalan que un adversario con suficientes recursos computacionales podría eliminar estas marcas, aunque hacerlo requeriría un gran esfuerzo.

La herramienta también ha sido probada frente a otras técnicas de watermarking, y SynthID ha mostrado un mejor desempeño en la detección de contenido generado por IA. A pesar de su eficacia, Scott Aaronson, de la Universidad de Texas en Austin, advierte que ningún método de marcado es infalible, pero cree que puede ayudar a detectar una parte significativa de la desinformación o el engaño académico generado por IA.

Finalmente, los investigadores y expertos coinciden en que esta técnica es solo una parte de la solución y que se necesitan más salvaguardas contra el mal uso de los chatbots de IA. Furong Huang sugiere que la regulación gubernamental podría ayudar a hacer que el watermarking sea una medida estándar, asegurando un uso más seguro y confiable de los grandes modelos de lenguaje.

La Asociación de Editores Americanos (AAP) ha unido a 10.000 creadores para condenar el uso indebido de sus obras por parte de empresas tecnológicas para entrenar modelos de IA generativa

«Publishers Join with Worldwide Coalition to Condemn the Theft of Creative and Intellectual Authorship by Tech Companies for Generative AI Training – AAP». 2024. 22 de octubre de 2024.

Ver noticia

El artículo publicado por la Asociación de Editores Americanos (AAP) destaca la creciente preocupación entre los creadores de contenido y sus aliados sobre el uso indebido de sus obras por parte de grandes empresas tecnológicas, particularmente en el desarrollo y entrenamiento de modelos de inteligencia artificial generativa. Estos modelos, que generan textos, imágenes, música y otros contenidos a partir de datos preexistentes, han provocado un fuerte debate en torno a los derechos de autor, ya que muchas de las obras utilizadas para entrenar estas tecnologías son extraídas sin el consentimiento de los autores.

Denuncia del uso de obras creativas sin autorización

La AAP, en colaboración con más de 10.000 creadores de diversas disciplinas como escritores, músicos, actores, artistas visuales y fotógrafos, ha emitido una condena pública contra lo que describen como el «robo» de la autoría creativa e intelectual por parte de estas empresas tecnológicas. Según los creadores y la AAP, los modelos de IA generativa no podrían existir sin la ingesta masiva de contenidos como libros, canciones, artículos de prensa, actuaciones y otras expresiones artísticas producidas por seres humanos. Estas obras son copiadas, procesadas y reutilizadas por las IA sin cumplir con las leyes de derechos de autor, lo que plantea serios problemas legales y éticos.

Un momento crucial para la política sobre IA

El texto señala que este es un momento decisivo para el desarrollo de políticas globales relacionadas con la inteligencia artificial. Los creadores y sus editoriales están haciendo un llamado a los gobiernos y a los sistemas judiciales para que defiendan los principios fundamentales del derecho de autor. Entre estos principios, destaca la exigencia de que la reproducción de obras y la creación de trabajos derivados solo pueden llevarse a cabo con el consentimiento explícito de quienes crearon e invirtieron en esas obras. La defensa de este principio es crucial no solo para proteger los derechos de los creadores, sino también para garantizar que la propiedad intelectual y los recursos financieros invertidos en la creación de contenido sean respetados.

La posición de la AAP sobre la colaboración con la tecnología

Maria A. Pallante, presidenta y CEO de la AAP, expresó que si bien las colaboraciones tecnológicas son esenciales para la industria editorial, deben basarse en acuerdos legales y respetuosos, no en la explotación no autorizada de contenido. Pallante subraya que los creadores no trabajan para enriquecer a las grandes compañías tecnológicas, sino para inspirar y educar a un público global informado. Las colaboraciones entre la tecnología y la industria creativa han sido, históricamente, parte del ecosistema de la publicación, pero siempre sobre la base de licencias legales y respeto mutuo entre las partes. El problema actual radica en que las empresas tecnológicas están tomando obras sin sanción legal, un comportamiento que ella describe como una «apropiación masiva».

El papel crucial de los derechos de autor

El artículo también destaca la importancia de los derechos de autor como base del sistema de creación y distribución de contenido. Los derechos de autor no solo protegen la propiedad intelectual de los creadores, sino que también garantizan que los creadores sean adecuadamente recompensados por su trabajo. En ausencia de un marco claro y respetado de derechos de autor, la industria creativa podría enfrentar serias dificultades, ya que los autores podrían perder el control sobre cómo se utilizan sus obras y, en consecuencia, sufrir pérdidas económicas significativas.

Impacto global de la IA en la industria creativa

Este fenómeno no es exclusivo de los Estados Unidos, sino que tiene implicaciones globales. A medida que los modelos de IA generativa se expanden y se utilizan en todo el mundo, la discusión sobre el uso indebido de contenido protegido por derechos de autor se intensifica. Los creadores de todo el mundo están pidiendo que se tomen medidas para evitar que sus obras sean utilizadas sin su consentimiento en el desarrollo de IA, y para que se establezcan políticas claras que obliguen a las empresas tecnológicas a obtener licencias adecuadas antes de utilizar cualquier contenido protegido.

Declaración global y acciones futuras

La AAP y sus socios de coalición han lanzado una declaración global que denuncia estas prácticas y solicitan a los gobiernos y tribunales que actúen para proteger los derechos de los creadores. Esta declaración está respaldada por firmas de miles de creadores en todo el mundo, quienes exigen que las políticas sobre IA se desarrollen de manera justa y respeten los derechos de autor. Además, la AAP hace un llamado a la comunidad internacional para que tome medidas proactivas en la creación de un marco regulatorio que equilibre los avances tecnológicos con la protección de los derechos de los autores.