Archivo de la etiqueta: Inteligencia artificial

La IA generativa y la publicación científica. ¿Una tercera transformación?

Bergstrom, Tracy, y Dylan Ruediger. «A Third Transformation? Generative AI and Scholarly Publishing.» Ithaka S+R, 30 de octubre de 2024. https://sr.ithaka.org/publications/a-third-transformation/.

El informe A Third Transformation? Generative AI and Scholarly Publishing, publicado por Ithaka S+R y escrito por Tracy Bergstrom y Dylan Ruediger, examina el impacto potencial de la inteligencia artificial generativa en la industria de publicaciones académicas. A raíz de un informe anterior sobre la «segunda transformación digital» de la publicación académica, el nuevo informe explora cómo la IA generativa podría ser una «tercera transformación», cambiando la manera en que se realiza y comunica la investigación académica.

En 2023, aproximadamente el 1% de la literatura académica ya mostraba signos de haber sido creada parcialmente con IA generativa. Grandes editoriales han lanzado herramientas de búsqueda y descubrimiento potenciadas por IA, y también experimentan con su uso en procesos internos. El informe se basa en entrevistas con 12 líderes del sector, quienes ven la IA como una herramienta que mejorará la eficiencia en la redacción, revisión, edición y descubrimiento, acelerando así la investigación y la publicación académica.

El informe describe dos posibles futuros. En el primero, la IA generativa mejora la eficiencia sin cambiar fundamentalmente la industria. En el segundo, más transformador, la IA podría reconfigurar profundamente el sector, generando cambios que superen los de las transformaciones digitales previas. Aunque estos escenarios no se excluyen mutuamente, el informe sugiere que algunos aspectos de la publicación académica podrían experimentar cambios incrementales, mientras que otros serían profundamente alterados.

Contexto estratégico La publicación académica enfrenta oportunidades y desafíos debido a la IA generativa. Esta tecnología ofrece nuevas posibilidades, pero también genera incertidumbres y enfoques diversos entre las organizaciones.

Transición hacia la provisión de servicios El sector está evolucionando de un modelo centrado en la edición hacia uno basado en plataformas y servicios. La IA generativa acelera esta tendencia, promoviendo la integración de herramientas de descubrimiento, interpretación y escritura. Las plataformas ahora pueden ofrecer servicios completos para autores, investigadores y editores, como el asistente de Digital Science y el de Web of Science, que permiten búsqueda y resumen avanzados. También existen herramientas de IA como Paperpal y Writefull que mejoran la calidad de la escritura académica. La combinación de estas capacidades podría transformar a las editoriales en proveedores de infraestructura de investigación integral.

Revisión por pares La revisión por pares es un área clave donde la IA generativa puede ayudar a reducir la carga de trabajo al identificar revisores y revisar aspectos básicos de los manuscritos. Sin embargo, su implementación conlleva riesgos debido a posibles inexactitudes de la IA y la pérdida de la revisión experta y humana. Las editoriales exploran límites seguros para que la IA participe sin reemplazar la revisión humana. Además, deben abordarse preocupaciones de confidencialidad y de seguridad para su adopción.

Competencia y consolidación La IA generativa impacta la consolidación en el sector editorial. Las grandes editoriales están experimentando con la concesión de licencias de contenido para su uso en LLM comerciales, pero esto plantea riesgos estratégicos como la disminución de suscripciones. Las herramientas avanzadas de búsqueda, como Scopus AI, están cambiando la interacción de los investigadores con el contenido. La apertura del acceso también crea competencia con empresas tecnológicas que podrían reemplazar a las editoriales como principal fuente de contenido académico.

Desafíos éticos y de atribución El uso de IA generativa en la creación y edición plantea preguntas éticas sobre la atribución, reproducción y transparencia en la investigación. Varias editoriales han implementado políticas para limitar el uso de IA en la autoría y edición de contenidos, enfatizando la importancia de roles humanos en la investigación. La comunidad científica debe establecer normas claras para el uso de la IA en el proceso académico.

Futuro de la publicación académica La implementación de IA generativa podría reducir la dependencia de la interpretación humana en el proceso de publicación y fomentar una producción orientada a la legibilidad por máquinas, afectando así el propósito comunicativo de la publicación académica.

Bien Público Global de Confianza

La idea de que la investigación sea considerada un bien público global de confianza se ha visto desafiada en la última década por el fraude, la mala conducta y actividades maliciosas. La inteligencia artificial generativa ha intensificado las conversaciones sobre cómo mantener la confianza en la publicación académica. A pesar de los riesgos que plantea, muchos expertos ven en ella una oportunidad para hacer la publicación científica más accesible y útil como bien público.

Se considera que la inteligencia artificial generativa nivela el terreno de juego para autores y lectores. Los investigadores no angloparlantes están utilizando esta tecnología para mejorar la calidad de su escritura académica, lo que ha impactado negativamente a los proveedores de servicios de corrección de textos. Esto se percibe como un avance hacia la equidad y el acceso a revistas en inglés, facilitando la comunicación científica.

Además, hay interés en la posibilidad de automatizar la traducción, lo que permitiría que todo el registro académico sea accesible para hablantes de varios idiomas, ampliando así el mercado global de publicaciones.

Cálculo del Impacto

La segunda transformación digital ha establecido nuevos estándares, como los índices de citas, que podrían verse profundamente alterados por la inteligencia artificial generativa. Si los investigadores empiezan a utilizarla como un método intermedio para acceder al registro académico, esto podría afectar cómo se evalúa el impacto de la investigación.

Se identificó una necesidad urgente de desarrollar métricas que complementen los métricas COUNTER, las cuales son esenciales para las bibliotecas y las editoriales en relación con el valor de sus colecciones. Se plantearon dos desafíos principales:

  1. Limitaciones de las métricas tradicionales: Estas solo cuentan el compromiso con elementos que tienen un Identificador Único de Recurso (URI). La IA generativa promueve la creación de contenido personalizado, que es efímero y no deja un registro formal, lo que dificulta su conteo en las métricas tradicionales.
  2. Falta de medición del compromiso: Las métricas COUNTER no evalúan el nivel de compromiso con un recurso específico. Aunque permiten diferenciar entre investigaciones y solicitudes, no miden el compromiso prolongado. Con la inteligencia artificial generativa, será posible realizar múltiples consultas adaptativas a un mismo recurso, lo que sugiere la necesidad de desarrollar métricas que capturen la profundidad del compromiso de los investigadores con los recursos individuales.

Nuevas Oportunidades para la Infraestructura Compartida

Esta sección explora oportunidades para crear nuevas categorías de infraestructura compartida en el contexto del desarrollo de la inteligencia artificial generativa y su impacto en la publicación académica. A medida que la transformación digital avanza, es crucial establecer estándares y estructuras que aseguren la organización y mantenimiento del registro académico.

Eje del Registro Académico

El «eje del registro académico» se refiere a la necesidad de una infraestructura que vincule de manera persistente componentes atomizados de investigación, como preprints y conjuntos de datos. La llegada de modelos de lenguaje (LLMs) complica la citación y comprensión de la información, pues frecuentemente generan salidas que son difíciles de rastrear hasta su contexto original. A pesar de los beneficios de la automatización en la documentación de datos, existe el riesgo de que la publicación se vuelva más centrada en los datos, disminuyendo el valor de los editores.

Recomendaciones

  1. Colaboración y Estandarización: Se sugiere que las organizaciones de publicación colaboren en la creación de metadatos estandarizados que faciliten la citabilidad y transparencia de los contenidos generados por inteligencia artificial.
  2. Consenso en la Comunidad de Investigación: Las comunidades de investigación deben establecer acuerdos sobre cómo citar contenidos generados por IA y su valor histórico, priorizando la preservación.

Integridad de la Investigación

La falta de confiabilidad en el contenido subyacente a los LLMs plantea preocupaciones sobre la integridad del registro académico. A pesar de la disponibilidad de datos de alta calidad, los LLMs cometen errores y carecen de transparencia, lo que dificulta la confianza en los resultados de la investigación.

Se propone la necesidad de nuevos estándares que aseguren la consistencia y transparencia en el uso de herramientas de IA generativa. Además, las bibliotecas de investigación deben desempeñar un papel activo en garantizar la verificabilidad de la comunicación académica.

La tecnología de IA generativa también presenta desafíos para la detección de fraudes académicos, ya que puede facilitar la creación de contenido fraudulento. Sin embargo, también se sugiere que estas herramientas pueden fortalecer los metadatos y mejorar la calidad de los manuscritos.

Recomendaciones

  1. Fortalecimiento de la Calidad del Contenido: Las editoriales deben abogar por contenido de alta calidad y colaborar con proveedores de tecnología para establecer marcadores de confianza.
  2. Colaboración Interdisciplinaria: Se recomienda fomentar discusiones entre todos los actores del ciclo de investigación para garantizar la integridad de la investigación científica.

Generando Significado

El registro académico permite a diversas comunidades generar nuevo conocimiento. Sin embargo, con la llegada de LLMs, surge la pregunta sobre cómo afectará esto a la producción futura de investigación. Aunque la IA generativa democratiza el acceso a la información, también plantea interrogantes sobre el papel del investigador humano en la creación narrativa.

Las herramientas de IA generativa podrían transformar cómo se realiza la investigación, permitiendo la automatización de ideas y experimentos, lo que podría llevar a una transición hacia la investigación liderada por máquinas.

Recomendaciones

  1. Desarrollo de un Vocabulario Común: Se sugiere establecer un vocabulario común sobre el uso de trabajos generados por IA para facilitar la comprensión de los investigadores.
  2. Evolución de las Métricas de Impacto: Se recomienda financiar un estudio para investigar cómo deben evolucionar las métricas COUNTER para adaptarse a las nuevas realidades.

Modelos de Negocio Nuevos

La rápida innovación en el espacio de IA generativa requiere que las organizaciones de publicación adapten sus modelos de negocio. La falta de un entendimiento común sobre las oportunidades y riesgos de la IA generativa entre autores y editoriales ha generado la necesidad de un diálogo abierto.

Se observa que servicios como la corrección de textos y la traducción ya están experimentando disrupciones debido a la IA generativa, lo que plantea retos para las editoriales más pequeñas.

Recomendaciones

  1. Construcción de Comprensión Compartida: Las partes interesadas deben trabajar juntas para construir una comprensión compartida sobre el valor y los riesgos de la IA generativa en la comunicación académica.
  2. Servicios de Traducción de Calidad: Se recomienda que los servicios de traducción on-demand integrados en herramientas de IA generativa sean cuidadosamente evaluados para su uso en contextos académicos, considerando también los modelos de descuento para países no anglófonos.

Definición «oficial» de Inteligencia Artificial (IA) de código abierto

The open source ai definition 1.0. Open Source Initiative, 2024

Ver

Se presenta la primera definición oficial de inteligencia artificial de código abierto, conocida como Open Source AI Definition (OSAID), elaborada por la Open Source Initiative (OSI). Esta definición surge de años de colaboración con académicos e industriales y tiene como objetivo establecer un estándar claro que permita identificar si un modelo de IA es realmente de código abierto.

Una de las principales motivaciones para esta definición es alinear a los legisladores y desarrolladores de IA, especialmente en un contexto donde organismos como la Comisión Europea están considerando un reconocimiento especial para el código abierto. Según Stefano Maffulli, vicepresidente de la OSI, el objetivo es que, al haber consenso, se reduzcan las confusiones sobre lo que se considera realmente «código abierto».

Para que un modelo de IA se considere de código abierto bajo la OSAID, debe proporcionar suficiente información sobre su diseño, de manera que cualquier persona pueda recrearlo sustancialmente. Esto incluye detalles sobre los datos de entrenamiento, su origen y cómo se pueden obtener o licenciar. Maffulli enfatiza que un modelo de IA de código abierto debe permitir a los usuarios entender completamente su construcción y modificarlo libremente.

Sin embargo, la OSI no cuenta con mecanismos de cumplimiento para obligar a los desarrolladores a seguir la OSAID. Su intención es señalar aquellos modelos que se etiquetan como “código abierto” pero que no cumplen con la definición. La OSI espera que la comunidad de IA no reconozca modelos mal etiquetados, lo que podría llevar a correcciones en el uso del término.

A pesar de la participación de grandes empresas tecnológicas, como Meta, en la elaboración de la OSAID, muchas de estas han sido criticadas por no cumplir con sus criterios. Por ejemplo, Meta requiere licencias especiales para usar sus modelos Llama, lo que contradice la esencia de ser “código abierto”. La situación es similar con otras empresas, donde los modelos se presentan como abiertos, pero con restricciones significativas.

El artículo también destaca que un estudio reciente encontró que muchos modelos de “código abierto” son en realidad solo nominalmente abiertos, ya que mantienen en secreto datos de entrenamiento y requieren recursos computacionales que son inaccesibles para muchos desarrolladores. Esto sugiere que, en lugar de democratizar la IA, estos proyectos pueden consolidar el poder centralizado.

Además, hay voces críticas, como la de Meta, que argumentan que la OSAID no aborda adecuadamente las complejidades de los modelos de IA modernos. Meta defiende su enfoque cauteloso en cuanto a la divulgación de datos de entrenamiento, alegando que esto es necesario para evitar implementaciones dañinas.

El artículo también menciona que la OSAID no aborda cuestiones de derechos de autor y licencias de datos de entrenamiento, lo que podría limitar su efectividad. Maffulli reconoce que la definición necesitará revisiones y actualizaciones, y la OSI ha creado un comité para supervisar su aplicación y proponer enmiendas en el futuro.

En resumen, la OSAID representa un avance significativo en la clarificación de lo que constituye la inteligencia artificial de código abierto, pero aún enfrenta desafíos y críticas que deberán abordarse para que sea realmente efectiva y útil en la práctica.

Por qué es importante recordar que la IA no es humana

Millière, Raphaël, y Charles Rathkopf. «Why It’s Important to Remember That AI Isn’t Human.» Vox, 23 de noviembre de 2023. https://www.vox.com/future-perfect/23971093/artificial-intelligence-chatgpt-language-mind-understanding.

Desde su lanzamiento, ChatGPT ha suscitado opiniones polarizadas en la comunidad científica. Algunos expertos consideran que representa un avance hacia una superinteligencia que podría transformar o incluso amenazar la civilización. Otros, sin embargo, lo ven como un desarrollo técnico que, aunque impresionante, no va más allá de la capacidad de completar textos de manera avanzada. Esta disparidad de opiniones refleja una falta de consenso sobre cómo entender realmente estas tecnologías.

Tradicionalmente, la competencia lingüística ha sido vista como un signo de una mente racional. Los modelos de lenguaje, al mostrar habilidades que superan incluso las de los humanos en algunos aspectos, han desafiado esta noción. Millière y Rathkopf sugieren que al interactuar con estos modelos, la impresión de que están “pensando” o “comprendiendo” puede ser engañosa. Esto plantea un dilema filosófico: ¿hemos perdido el vínculo entre el lenguaje y la mente, o han surgido nuevas formas de cognición?

El artículo también destaca cómo los humanos manejamos la ambigüedad en la conversación, algo que los modelos de lenguaje aún no pueden replicar completamente. Cuando interactuamos con un chatbot, nuestra mente intenta adivinar las intenciones del «hablante», pero esto puede llevarnos a errores si asumimos que el modelo tiene deseos o motivaciones humanas. Este aspecto revela la complejidad del lenguaje humano y la forma en que nuestros cerebros interpretan significados en contextos específicos.

Los autores advierten sobre los peligros de la antropomorfización, es decir, atribuir características humanas a las máquinas. Un ejemplo citado es el caso de LaMDA, donde un ingeniero tomó en serio la afirmación del modelo de que deseaba libertad. Esto ilustra cómo las expectativas erróneas sobre la naturaleza de los modelos de lenguaje pueden inducir a la confusión y a una comprensión incorrecta de sus capacidades. La antropomorfización puede llevar a malentendidos que obstaculizan un debate informativo sobre la ética y la regulación de la IA.

El antropocentrismo también se critica en el artículo, ya que implica que solo las capacidades humanas son dignas de reconocimiento. Este punto de vista puede limitar la comprensión de lo que los modelos de lenguaje pueden hacer. Por ejemplo, la habilidad de un modelo para resumir textos no debe ser descalificada como un simple truco, sino que debe ser considerada como un logro en su propia forma de procesamiento de información. Rechazar este enfoque puede llevar a un subestimación del potencial de la inteligencia artificial.

Millière y Rathkopf sugieren adoptar un enfoque de “dividir y conquistar”, similar al utilizado en la psicología comparativa. En lugar de clasificar a los modelos de lenguaje como simplemente «humanos» o «no humanos», se debe investigar cómo operan y cuáles son sus capacidades específicas. Este enfoque podría abrir nuevas vías para entender la inteligencia artificial y evitar las limitaciones de las comparaciones directas con la mente humana.

En última instancia, el artículo aboga por una comprensión más matizada de los modelos de lenguaje, reconociendo sus capacidades sin caer en la trampa de pensar que tienen una mente en el sentido humano. La investigación futura debería centrarse en desentrañar los mecanismos internos que permiten el funcionamiento de estos modelos, adoptando una perspectiva científica que no dependa de los estándares humanos. Este análisis no solo es importante para la regulación y la ética en torno a la IA, sino también para la forma en que interactuamos con estas tecnologías en nuestra vida cotidiana. La aceptación de que no existe un «hecho profundo» sobre si estos modelos tienen o no mente puede ayudarnos a utilizar mejor sus capacidades sin las confusiones que surgen de su similitud en la comunicación.

Transformación de la investigación: el cambio en la era de la IA, lo abierto y el impacto

Research Transformation: Change in the Era of AI, Open and Impact. Digital Science, 2024

Texto completo

El informe Research Transformation: Change in the Era of AI, Open and Impact, publicado el 28 de octubre de 2024 en Digital Science, explora cómo la investigación se transforma, qué factores impulsan el cambio y cómo se ven afectados los roles en este ámbito. Digital Science encuestó y entrevistó en profundidad a la comunidad investigadora para analizar estos aspectos.

Los hallazgos destacan cinco puntos clave:

  1. La investigación abierta transforma el campo, aunque persisten barreras.
  2. Las métricas de investigación evolucionan hacia un enfoque inclusivo y de impacto integral.
  3. La IA ofrece un enorme potencial transformador, aunque la burocracia y las brechas de habilidades limitan su avance.
  4. La colaboración aumenta, aunque crecen las preocupaciones sobre financiamiento y seguridad.
  5. La gestión de riesgos y la seguridad exigen un cambio estratégico y cultural.

El estudio se basa en encuestas realizadas entre mayo y julio de 2024, en las que participaron 380 personas de 70 países, y en entrevistas en profundidad con 15 miembros de la comunidad académica durante el verano de 2024.

Temas clave:

1. La investigación abierta está transformando la investigación, pero sigue habiendo obstáculos

  • La investigación abierta se cita como el cambio más positivo de los últimos cinco años
  • La investigación abierta encabeza los cambios que la comunidad desearía ver en los próximos cinco años
  • Los retos de la investigación abierta son la falta de concienciación, financiación, apoyo, recursos e infraestructura.
  • Preocupación por la seguridad de los datos, la calidad de la investigación y la competitividad.

2. Las métricas de investigación están evolucionando para hacer hincapié en el impacto holístico y la inclusividad

  • Frustración con las métricas tradicionales, pero siguen teniendo peso
  • Llamamiento a una evaluación más holística del impacto y la calidad de la investigación
  • Un cambio limitado hacia un uso más responsable de las métricas tradicionales y la introducción de métricas alternativas
  • Los institutos abordan los problemas de la cultura académica, pero necesitan un mayor reconocimiento de las contribuciones no tradicionales

3. El potencial transformador de la IA es enorme, pero la burocracia y las carencias de cualificación amenazan el progreso

  • El entusiasmo por la IA se ve atenuado por las preocupaciones en torno a la ética, la seguridad y la integridad, así como por los prejuicios, las alucinaciones y el impacto de la IA en el pensamiento crítico.
  • Las tecnologías emergentes seguirán influyendo en las funciones durante los próximos cinco años
  • Se espera que las nuevas tecnologías impulsen la eficiencia en datos y análisis, y abran la investigación
  • Llamamiento para abordar las carencias de competencias en IA e introducir estrategias de gestión del cambio

4. La colaboración está en auge, pero aumenta la preocupación por la financiación y la seguridad

  • La tecnología interconectada y la investigación abierta favorecen una mayor conectividad global
  • La colaboración tiene múltiples beneficios, por ejemplo, puede aumentar las citas y mejorar la calidad de la investigación
  • Es fácil encontrar colaboradores, pero escasean los fondos para apoyar la colaboración
  • Crece la preocupación por la seguridad de la investigación y las colaboraciones «perjudiciales

5. La seguridad y la gestión de riesgos necesitan una revisión estratégica y cultural

  • Tendencia a «esperar y ver», en lugar de una gestión proactiva
  • Las amenazas a la seguridad ponen en peligro las colaboraciones internacionales en investigación
  • Las instituciones deben equilibrar el riesgo y la innovación, pero no están preparadas.
  • La gestión de riesgos entra en conflicto con otras prioridades

Lo que los adolescentes piensan realmente sobre la IA

Hausenloy. J. Gulati, S. The 2024 Generation AI Survey.

La encuesta “Generation AI” realizada en 2024, en la que participaron 1,017 adolescentes estadounidenses de entre 13 y 18 años, proporciona una visión detallada sobre cómo perciben los jóvenes la inteligencia artificial (IA) y los riesgos asociados.

La encuesta Generation AI de 2024, realizada por el Center for Youth and AI, muestra que los adolescentes estadounidenses consideran la inteligencia artificial (IA) una influencia central en sus vidas actuales y futuras, con opiniones claras sobre sus riesgos y aplicaciones. Un 80% de los adolescentes encuestados ve importante que los legisladores aborden los riesgos de la IA, una preocupación que se posiciona por encima de problemas como la desigualdad social (78%) y el cambio climático (77%), aunque solo superada por el acceso a la atención médica (87%).

Entre los principales riesgos mencionados, el 57% de los adolescentes expresó preocupación por el avance de la IA, el 59% teme la desinformación generada por esta tecnología, y el 58% se inquieta por la proliferación de deepfakes. Asimismo, un 47% teme que una IA avanzada pueda escapar del control humano.

A pesar de estas inquietudes, los jóvenes se muestran generalmente abiertos al uso de la IA en la creación de obras artísticas, cinematográficas y musicales, con un 57% a favor y solo un 26% en contra, lo que refleja una baja preocupación por el impacto de la IA en la propiedad intelectual. Además, la IA influye en sus planes profesionales: el 65% considera la automatización por IA en sus decisiones de carrera, mostrando su conciencia sobre el impacto de esta tecnología en el mercado laboral.

En cuanto a las relaciones personales, los adolescentes muestran rechazo hacia las relaciones románticas entre humanos e IA, con un 68% en contra, aunque se muestran divididos respecto a la aceptación de amistades con IA (46% a favor y 44% en contra).

Las opiniones expresadas por los adolescentes revelan tanto entusiasmo como precaución frente a la IA, reflejando una generación consciente de las implicaciones de la tecnología en sus vidas.

Puntos clave:

  1. Preocupación por los riesgos de la IA: El 80% de los jóvenes considera importante que los legisladores aborden los riesgos de la IA, poniéndola solo por detrás del acceso y la asequibilidad de la atención médica (87%).
  2. Preocupación por la IA avanzada: El 57% está algo o muy preocupado por los riesgos de la IA avanzada, y el 45% cree que podría representar un riesgo de extinción para la humanidad.
  3. Desinformación y deepfakes: Un 59% está preocupado por la desinformación generada por IA, un 58% por los deepfakes, y un 51% por la vigilancia masiva a través de IA. El 47% teme que una IA avanzada escape del control humano.
  4. Uso de herramientas de IA: Aproximadamente la mitad de los encuestados usa herramientas como ChatGPT varias veces por semana o más, mientras que un 18% las usa unas pocas veces al mes y un 35% rara vez o nunca.
  5. IA en la planificación de carreras: Un 65% considera la automatización por IA al planificar sus carreras, mostrando conciencia sobre su impacto en el empleo.
  6. Apoyo a obras creativas generadas por IA: El 57% está a favor de obras artísticas generadas por IA, mientras que solo un 26% se opone, indicando baja preocupación por su impacto en la propiedad intelectual.
  7. Relaciones con IA: El 68% considera inaceptables las relaciones románticas entre humanos e IA, pero las opiniones están más divididas en cuanto a amistades, con un 46% a favor y un 44% en contra.

Inteligencia artificial en bibliotecas universitarias españolas

Observatorio de Inteligencia Artificial REBIUN. Inteligencia artificial en bibliotecas universitarias españolas. . REBIUN, 2024

Texto completo



La encuesta del Observatorio IA de REBIUN, realizada entre el 20/06/2024 y el 12/07/2024, explora el estado de la inteligencia artificial en sus bibliotecas, con una participación del 67%. Revela un interés moderado en la IA, pero destaca obstáculos como la volatilidad del entorno y la falta de competencias del personal, además de una formación autodidacta y limitada. Solo el 25% de las universidades encuestadas tienen una política de IA, mientras que la implementación en áreas como el proceso técnico, atención al usuario y apoyo a la investigación es baja, aunque existen iniciativas como chatbots y herramientas de accesibilidad. El estudio también recoge preocupación por la ética de la IA y la expectativa de que el Observatorio IA provea formación y contenidos actualizados.

Una herramienta de Google permite detectar fácilmente la escritura generada por IA

«Google Tool Makes AI-Generated Writing Easily Detectable». New Scientist. Accedido 24 de octubre de 2024. https://www.newscientist.com/article/2452847-google-tool-makes-ai-generated-writing-easily-detectable/.

Google DeepMind ha desarrollado una técnica llamada watermarking que permite identificar texto generado por inteligencia artificial (IA) de manera automática. Esta tecnología, utilizada en las respuestas del chatbot Gemini, crea una especie de «marca» o firma en el texto que facilita distinguirlo del contenido escrito por humanos. La herramienta busca combatir el mal uso de los chatbots, como la propagación de desinformación y el fraude en entornos educativos y laborales.

El avance más reciente de Google es que ha hecho esta técnica disponible en código abierto, lo que permite que otros desarrolladores de IA puedan utilizarla en sus propios modelos de lenguaje. Pushmeet Kohli, de Google DeepMind, destaca que aunque esta tecnología, llamada SynthID, no es una solución definitiva, es un importante paso hacia la creación de herramientas más confiables para identificar contenido generado por IA.

La técnica funciona mediante un proceso llamado muestreo por torneo. Mientras el modelo genera una secuencia de texto, un algoritmo va guiando la selección de ciertas palabras (o tokens) que crean una firma estadística única. Este proceso aumenta la complejidad para quienes quieran eliminar o revertir esta marca. Según los investigadores de Google, este sistema ha sido probado en 20 millones de textos generados por Gemini sin que la calidad del texto se vea afectada, lo que demuestra su efectividad.

Sin embargo, los investigadores reconocen que esta técnica es más efectiva en textos largos que ofrecen múltiples formas de respuesta, como ensayos o correos electrónicos, y que no ha sido probada en tipos de respuestas más técnicas, como problemas de matemáticas o codificación. Además, expertos como Furong Huang de la Universidad de Maryland, señalan que un adversario con suficientes recursos computacionales podría eliminar estas marcas, aunque hacerlo requeriría un gran esfuerzo.

La herramienta también ha sido probada frente a otras técnicas de watermarking, y SynthID ha mostrado un mejor desempeño en la detección de contenido generado por IA. A pesar de su eficacia, Scott Aaronson, de la Universidad de Texas en Austin, advierte que ningún método de marcado es infalible, pero cree que puede ayudar a detectar una parte significativa de la desinformación o el engaño académico generado por IA.

Finalmente, los investigadores y expertos coinciden en que esta técnica es solo una parte de la solución y que se necesitan más salvaguardas contra el mal uso de los chatbots de IA. Furong Huang sugiere que la regulación gubernamental podría ayudar a hacer que el watermarking sea una medida estándar, asegurando un uso más seguro y confiable de los grandes modelos de lenguaje.

La Asociación de Editores Americanos (AAP) ha unido a 10.000 creadores para condenar el uso indebido de sus obras por parte de empresas tecnológicas para entrenar modelos de IA generativa

«Publishers Join with Worldwide Coalition to Condemn the Theft of Creative and Intellectual Authorship by Tech Companies for Generative AI Training – AAP». 2024. 22 de octubre de 2024.

Ver noticia

El artículo publicado por la Asociación de Editores Americanos (AAP) destaca la creciente preocupación entre los creadores de contenido y sus aliados sobre el uso indebido de sus obras por parte de grandes empresas tecnológicas, particularmente en el desarrollo y entrenamiento de modelos de inteligencia artificial generativa. Estos modelos, que generan textos, imágenes, música y otros contenidos a partir de datos preexistentes, han provocado un fuerte debate en torno a los derechos de autor, ya que muchas de las obras utilizadas para entrenar estas tecnologías son extraídas sin el consentimiento de los autores.

Denuncia del uso de obras creativas sin autorización

La AAP, en colaboración con más de 10.000 creadores de diversas disciplinas como escritores, músicos, actores, artistas visuales y fotógrafos, ha emitido una condena pública contra lo que describen como el «robo» de la autoría creativa e intelectual por parte de estas empresas tecnológicas. Según los creadores y la AAP, los modelos de IA generativa no podrían existir sin la ingesta masiva de contenidos como libros, canciones, artículos de prensa, actuaciones y otras expresiones artísticas producidas por seres humanos. Estas obras son copiadas, procesadas y reutilizadas por las IA sin cumplir con las leyes de derechos de autor, lo que plantea serios problemas legales y éticos.

Un momento crucial para la política sobre IA

El texto señala que este es un momento decisivo para el desarrollo de políticas globales relacionadas con la inteligencia artificial. Los creadores y sus editoriales están haciendo un llamado a los gobiernos y a los sistemas judiciales para que defiendan los principios fundamentales del derecho de autor. Entre estos principios, destaca la exigencia de que la reproducción de obras y la creación de trabajos derivados solo pueden llevarse a cabo con el consentimiento explícito de quienes crearon e invirtieron en esas obras. La defensa de este principio es crucial no solo para proteger los derechos de los creadores, sino también para garantizar que la propiedad intelectual y los recursos financieros invertidos en la creación de contenido sean respetados.

La posición de la AAP sobre la colaboración con la tecnología

Maria A. Pallante, presidenta y CEO de la AAP, expresó que si bien las colaboraciones tecnológicas son esenciales para la industria editorial, deben basarse en acuerdos legales y respetuosos, no en la explotación no autorizada de contenido. Pallante subraya que los creadores no trabajan para enriquecer a las grandes compañías tecnológicas, sino para inspirar y educar a un público global informado. Las colaboraciones entre la tecnología y la industria creativa han sido, históricamente, parte del ecosistema de la publicación, pero siempre sobre la base de licencias legales y respeto mutuo entre las partes. El problema actual radica en que las empresas tecnológicas están tomando obras sin sanción legal, un comportamiento que ella describe como una «apropiación masiva».

El papel crucial de los derechos de autor

El artículo también destaca la importancia de los derechos de autor como base del sistema de creación y distribución de contenido. Los derechos de autor no solo protegen la propiedad intelectual de los creadores, sino que también garantizan que los creadores sean adecuadamente recompensados por su trabajo. En ausencia de un marco claro y respetado de derechos de autor, la industria creativa podría enfrentar serias dificultades, ya que los autores podrían perder el control sobre cómo se utilizan sus obras y, en consecuencia, sufrir pérdidas económicas significativas.

Impacto global de la IA en la industria creativa

Este fenómeno no es exclusivo de los Estados Unidos, sino que tiene implicaciones globales. A medida que los modelos de IA generativa se expanden y se utilizan en todo el mundo, la discusión sobre el uso indebido de contenido protegido por derechos de autor se intensifica. Los creadores de todo el mundo están pidiendo que se tomen medidas para evitar que sus obras sean utilizadas sin su consentimiento en el desarrollo de IA, y para que se establezcan políticas claras que obliguen a las empresas tecnológicas a obtener licencias adecuadas antes de utilizar cualquier contenido protegido.

Declaración global y acciones futuras

La AAP y sus socios de coalición han lanzado una declaración global que denuncia estas prácticas y solicitan a los gobiernos y tribunales que actúen para proteger los derechos de los creadores. Esta declaración está respaldada por firmas de miles de creadores en todo el mundo, quienes exigen que las políticas sobre IA se desarrollen de manera justa y respeten los derechos de autor. Además, la AAP hace un llamado a la comunidad internacional para que tome medidas proactivas en la creación de un marco regulatorio que equilibre los avances tecnológicos con la protección de los derechos de los autores.

¿Cuál es el futuro de la IA generativa?

«What is the future of Generative AI? | McKinsey». s. f. Accedido 24 de octubre de 2024. https://www.mckinsey.com/featured-insights/mckinsey-explainers/whats-the-future-of-generative-ai-an-early-view-in-15-charts.

El artículo de McKinsey sobre el futuro de la inteligencia artificial generativa (IA gen) ofrece una visión detallada de cómo esta tecnología ha evolucionado rápidamente y su posible impacto económico y social en los próximos años. Desde el lanzamiento de ChatGPT en noviembre de 2022, la IA generativa ha pasado de ser una novedad tecnológica a una herramienta crucial para muchas industrias. En apenas unos meses, se estima que la IA gen podría aportar hasta 4.4 billones de dólares anuales a la economía global, gracias a su capacidad para transformar sectores como las finanzas, la atención médica, el retail y la gestión de relaciones con clientes.

Principales cuestiones:

  1. Rápida Evolución de la Tecnología: La IA generativa ha avanzado a pasos agigantados desde finales de 2022, con nuevos desarrollos casi mensuales. A lo largo de los primeros meses de 2023, compañías como OpenAI, Microsoft, Google, Amazon y Meta lanzaron iteraciones importantes que mejoraron significativamente el rendimiento y ampliaron las capacidades de la IA generativa. Ejemplos de ello incluyen la integración de IA en aplicaciones empresariales como el Einstein GPT de Salesforce para la gestión de relaciones con clientes o Kosmos-1 de Microsoft, un modelo multimodal que responde tanto a imágenes y audio como a texto.
  2. Impacto Económico: La investigación de McKinsey estima que la IA generativa puede tener un impacto económico directo y masivo en sectores clave, proporcionando mejoras en la eficiencia, automatización de tareas, generación de contenido y optimización de procesos. Aunque la IA gen es revolucionaria, McKinsey señala que aún representa una porción del ecosistema de IA. Las tecnologías de análisis avanzado y aprendizaje automático tradicional siguen siendo vitales para la optimización de tareas en la mayoría de las industrias y no deben ser desatendidas.
  3. Empleos y Transformación del Mercado Laboral: La IA generativa plantea preguntas críticas sobre su impacto en el empleo. Si bien podría automatizar ciertas tareas y cambiar la forma en que muchos trabajos son realizados, también tiene el potencial de crear nuevas oportunidades laborales en sectores como el desarrollo de software, marketing y atención al cliente. Sin embargo, McKinsey advierte que la transición hacia una fuerza laboral más dependiente de la IA requiere una planificación cuidadosa y medidas de protección para evitar desigualdades en el mercado de trabajo.
  4. Industrias Más Afectadas: Algunas industrias se beneficiarán más que otras de la implementación de la IA generativa. Los sectores de servicios financieros, salud y tecnología son los que más rápidamente están adoptando estas herramientas para tareas como la creación de modelos financieros, la automatización de consultas médicas y la gestión de clientes. El uso de IA gen en la creación de contenido también es de gran interés para el marketing, el periodismo y el entretenimiento, donde ya está comenzando a automatizar la creación de texto, audio, imágenes y video.
  5. Adopción en las Organizaciones: McKinsey subraya que las empresas que están en proceso de transformación digital deben prestar atención al desarrollo de la IA generativa, ya que representa una herramienta poderosa para mejorar la productividad. Sin embargo, aconsejan que estas organizaciones no descarten las herramientas tradicionales de IA, ya que continúan siendo esenciales para la optimización de tareas más específicas y en una variedad de sectores.
  6. Desafíos Éticos y Salvaguardas: Uno de los temas más destacados es la necesidad de salvaguardas y medidas éticas para asegurar un uso responsable de la IA generativa. Entre las preocupaciones mencionadas están la generación de contenido falso, la falta de transparencia en la toma de decisiones automatizadas y la posible dependencia excesiva en la IA para tareas críticas. McKinsey señala que es fundamental que las organizaciones que implementan estas tecnologías establezcan marcos de seguridad y políticas claras para evitar abusos o consecuencias negativas no deseadas.

El futuro de la IA generativa es aún incierto, pero McKinsey prevé una continua aceleración en su adopción y desarrollo. A medida que más empresas integran estas herramientas en sus operaciones, la demanda de nuevas aplicaciones y mejoras crecerá, lo que conducirá a avances aún más significativos en el corto plazo. Sin embargo, la atención debe estar centrada en equilibrar los beneficios con los desafíos éticos y sociales, garantizando que la IA generativa se utilice de manera responsable y efectiva.

El artículo concluye señalando que, aunque la IA generativa está en una fase de crecimiento explosivo, las empresas deben ser prudentes y equilibrar su adopción con las tecnologías tradicionales de IA que siguen siendo altamente efectivas. El potencial de la IA gen es enorme, pero solo puede realizarse plenamente si se aborda con la estrategia adecuada, combinando innovación tecnológica con responsabilidad social y un enfoque sólido en la productividad y el valor a largo plazo.

Hacia una IA ética y justa en la investigación educativa

Barnes, T., Danish, J., Finkelstein, S., Molvig, O., Burriss, S., Humburg, M., Reichert, H., Limke, A. Toward Ethical and Just AI in Education Research. Community for Advancing Discovery Research in Education (CADRE). Education Development Center, 2024

Texto completo

El documento «Toward Ethical and Just AI in Education Research» discute el creciente uso de la inteligencia artificial en la educación, particularmente en las áreas de ciencia, tecnología, ingeniería y matemáticas (STEM). Los avances en la investigación y desarrollo de inteligencia artificial en educación (AIED) están transformando la enseñanza y el aprendizaje, generando una mezcla de entusiasmo y preocupación.

Los autores, miembros de la Community for Advancing Discovery Research in Education (CADRE), reconocen que, aunque la AI tiene el potencial de revolucionar la educación, también puede perpetuar sesgos existentes y afectar negativamente la práctica educativa. Este informe es el primero de una serie de tres que aborda enfoques éticos en la investigación y aplicación de la AIED en STEM, impulsado por la necesidad de considerar cuidadosamente cómo se diseñan y utilizan estas tecnologías.

Los investigadores subrayan la importancia de adoptar políticas que prioricen la ética, la equidad y la justicia en el desarrollo de tecnologías AIED en educación K-12. En este sentido, proponen un marco ético y herramientas que fomentan la reflexión continua y la comunicación para mejorar la investigación y el desarrollo inclusivos y equitativos.

Además, hacen hincapié en que las tecnologías AI reflejan tanto los sesgos intencionados como los no intencionados de sus diseñadores y de la sociedad. Por lo tanto, abogan por un enfoque integral que incorpore principios éticos establecidos, lo que permitirá que las buenas intenciones de los investigadores y desarrolladores se traduzcan en decisiones de diseño positivas y en la creación de productos tecnológicos inclusivos.