Archivo de la etiqueta: Inteligencia artificial

Resolución de las Naciones Unidas sobre inteligencia artificial

«Aprovechar las oportunidades de sistemas seguros, protegidos y fiables de inteligencia artificial para el desarrollo sostenible«. ONU, mazo 2024

Ver documento en español

La Asamblea General aprobó el primer proyecto de resolución de las Naciones Unidas sobre inteligencia artificial el jueves, respaldando un esfuerzo internacional para garantizar que la poderosa nueva tecnología beneficie a todas las naciones, respete los derechos humanos y sea «segura, sólida y confiable».

El proyecto de resolución, patrocinado por Estados Unidos y co-patrocinado por 123 países, incluida China, fue adoptado por consenso con un golpe de martillo y sin votación, lo que significa que cuenta con el apoyo de los 193 países miembros de la ONU.

La vicepresidenta de Estados Unidos, Kamala Harris, y el asesor de seguridad nacional, Jake Sullivan, calificaron la resolución de «histórica» por establecer principios para el uso seguro de la inteligencia artificial. El secretario de Estado, Antony Blinken, la describió como «un esfuerzo pionero y un enfoque global único para el desarrollo y uso de esta poderosa tecnología emergente».

Durante los últimos meses, Estados Unidos trabajó con más de 120 países en las Naciones Unidas, incluidos Rusia, China y Cuba, para negociar el texto de la resolución adoptada el jueves.

El proyecto de resolución busca cerrar la brecha digital entre los países desarrollados y los países en desarrollo y asegurar que todos estén en la mesa en las discusiones sobre inteligencia artificial. También tiene como objetivo garantizar que los países en desarrollo tengan la tecnología y las capacidades para aprovechar los beneficios de la inteligencia artificial, incluida la detección de enfermedades, la predicción de inundaciones, la ayuda a los agricultores y la formación de la próxima generación de trabajadores.

El proyecto de resolución reconoce la rápida aceleración del desarrollo y uso de la inteligencia artificial y subraya «la urgencia de lograr un consenso global sobre sistemas de inteligencia artificial seguros, sólidos y confiables».

A diferencia de las resoluciones del Consejo de Seguridad, las resoluciones de la Asamblea General no son legalmente vinculantes, pero son un barómetro de la opinión mundial.

El proyecto de resolución alienta a todos los países, organizaciones regionales e internacionales, comunidades tecnológicas, sociedad civil, medios de comunicación, academia, instituciones de investigación y personas «a desarrollar y respaldar enfoques y marcos regulatorios y de gobernanza» para sistemas de inteligencia artificial seguros.

Desafíos y oportunidades de la inteligencia artificial para los bibliotecarios

Gunter, Darrell  «AI challenges for librarians | Research Information». RI: Research Information Accedido 21 de marzo de 2024. https://www.researchinformation.info/analysis-opinion/ai-challenges-librarians.


Los bibliotecarios, al igual que otros profesionales de diversos ámbitos, se encuentran ante una serie de oportunidades y desafíos al integrar servicios de inteligencia artificial en su labor. A continuación, se presentan algunos de los problemas clave que los bibliotecarios pueden enfrentar con estos servicios, especialmente en relación con la ética y la precisión; además se aborda cual puede ser la labor de estos profesionales en relación con la sociedad.

La IA no comenzó con el chat GPT. La inteligencia artificial (IA), es la inteligencia demostrada por las máquinas, en contraposición a la inteligencia natural mostrada por los humanos y otros animales. En la informática, la investigación en IA se define como el estudio de «agentes inteligentes»: cualquier dispositivo que perciba su entorno y tome acciones que maximicen su probabilidad de lograr con éxito sus objetivos.

El término inteligencia artificial fue acuñado por primera vez por John McCarthy en 1956, pero el viaje para entender si las máquinas pueden pensar sinceramente comenzó antes de eso. En la obra seminal de Vannevar Bush, «Como Podemos Pensar», propuso un sistema que amplifica el conocimiento y la comprensión de las personas. Bush expresó su preocupación por la dirección de los esfuerzos científicos hacia la destrucción en lugar de la comprensión y explica un deseo por una especie de máquina de memoria colectiva con su concepto del memex que haría que el conocimiento fuera más accesible, creyendo que ayudaría a resolver estos problemas. A través de esta máquina, Bush esperaba transformar una explosión de información en una explosión de conocimiento. Cinco años más tarde, Alan Turing escribió un artículo sobre la noción de que las máquinas pudieran simular seres humanos y la capacidad de hacer cosas inteligentes como jugar al ajedrez.

Los bibliotecarios, al igual que muchos profesionales en diversos campos, enfrentan tanto oportunidades como desafíos con la integración de servicios de inteligencia artificial en su trabajo. Aquí están algunos de los problemas clave que los bibliotecarios pueden enfrentar con los servicios de inteligencia artificial, particularmente en lo que respecta a la ética y la precisión:

  1. Sesgo algorítmico: Los sistemas de inteligencia artificial pueden heredar sesgos presentes en los datos utilizados para entrenarlos. Los bibliotecarios pueden necesitar ser cautelosos acerca de los sesgos potenciales en los conjuntos de datos que alimentan las herramientas de inteligencia artificial, especialmente en lo que respecta a la recuperación de información. Si los datos de entrenamiento contienen sesgos, el sistema de inteligencia artificial puede perpetuar y amplificar esos sesgos, lo que lleva a resultados de búsqueda sesgados.
  2. Preocupaciones sobre la privacidad: Las herramientas de inteligencia artificial a menudo dependen de grandes cantidades de datos para mejorar su rendimiento. Los bibliotecarios deben considerar las implicaciones de privacidad de recopilar y utilizar datos de los usuarios para mejorar los servicios de inteligencia artificial. Asegurar el cumplimiento de las regulaciones de privacidad y proteger los datos de los usuarios contra el mal uso es crucial.
  3. Uso ético de la inteligencia artificial: Los bibliotecarios son responsables de garantizar que los servicios de inteligencia artificial se implementen éticamente y estén alineados con los estándares profesionales y éticos.
  4. Precisión y confiabilidad: Los bibliotecarios necesitan evaluar la precisión y confiabilidad de la información generada por inteligencia artificial.
  5. Educación del usuario: Los bibliotecarios pueden enfrentar el desafío de educar a los usuarios sobre las limitaciones y capacidades de los servicios de inteligencia artificial.
  6. Entendimiento limitado de la inteligencia artificial: Algunos bibliotecarios pueden tener un entendimiento limitado de las tecnologías de inteligencia artificial, lo que puede suponer un desafío para integrar efectivamente estas herramientas en los servicios de biblioteca.
  7. Asignación de recursos: Implementar y mantener servicios de inteligencia artificial puede requerir recursos adicionales, incluyendo inversiones financieras, programas de capacitación y apoyo continuo.
  8. Brecha digital: El uso de servicios de inteligencia artificial en bibliotecas puede exacerbar las brechas digitales existentes si ciertos grupos de usuarios carecen de acceso a la tecnología o tienen habilidades limitadas de alfabetización digital. Los bibliotecarios deben ser conscientes de la inclusividad y trabajar hacia proporcionar un acceso equitativo a los servicios mejorados por la inteligencia artificial.
  9. Representación en los datos de entrenamiento: Si los datos de entrenamiento utilizados para desarrollar servicios de inteligencia artificial carecen de diversidad, puede resultar en algoritmos sesgados. Los bibliotecarios deben abogar por conjuntos de datos diversos y representativos para mitigar el riesgo de perpetuar sesgos raciales en los sistemas de inteligencia artificial.
  10. Equidad y justicia: Los bibliotecarios deben asegurar que los servicios de inteligencia artificial estén diseñados e implementados con equidad y justicia en mente.
  11. Transparencia: Los bibliotecarios deben abogar por la transparencia en los algoritmos de inteligencia artificial y los procesos de toma de decisiones. Comprender cómo funcionan los sistemas de inteligencia artificial es crucial para identificar y abordar posibles sesgos, incluidos los relacionados con la raza.
  12. Compromiso comunitario: Los bibliotecarios pueden involucrarse con sus comunidades para comprender sus perspectivas y preocupaciones relacionadas con la inteligencia artificial y el sesgo racial.
  13. Educación y conciencia: Los bibliotecarios desempeñan un papel en educar tanto al personal como a los usuarios sobre los posibles sesgos en los sistemas de inteligencia artificial y cómo pueden afectar a diferentes grupos raciales y étnicos.
  14. Monitoreo y evaluación continuos: Los bibliotecarios deben monitorear y evaluar continuamente el rendimiento de los servicios de inteligencia artificial para identificar y abordar cualquier problema emergente relacionado con el sesgo racial.

Como pueden ver, el tema de la IA es enorme y requerirá un esfuerzo conjunto de nuestra comunidad para asegurar que estamos haciendo todo lo posible para combatir a los actores malintencionados y los malos algoritmos. Los bibliotecarios son el único grupo de personas que están en la primera línea todos los días ayudando a estudiantes, profesores, administradores, investigadores, ciudadanos, etc., con sus diversas necesidades de información. Estos serían algunos pasos a seguir:

  • Conciencia: Ser muy intencional en aprender más sobre la IA en cuanto a sesgo y ética.
  • Educación: Brindar educación y capacitación a sus constituyentes.
  • Participación: Fomentar que su institución participe en la comunidad de IA para tener un diálogo muy activo sobre sesgo y ética.
  • Acción: Ser proactivo para abordar los problemas conocidos de sesgo y ética en la IA.

Una vez que se hayan resuelto estos problemas, es importante comunicar los resultados positivos a la comunidad. Esto demostrará a la comunidad técnica de IA que la comunidad global está observando y tomará medidas para corregir los algoritmos que no son productivos.

Si tomamos estas acciones, haremos de nuestro mundo un lugar mejor.

Llamamos Inteligencia Artificial por lo que es y hace: un «software de plagio»

«Llamamos Inteligencia Artificial por lo que es y hace: un «software de plagio», porque no crea nada, sino copia obras existentes, de artistas existentes, alterándolos lo suficiente como para escapar de las leyes de derechos de autor.

Es el robo de propiedad intelectual más grande jamás registrado desde que los colonos europeos llegaron a tierras nativas americanas. «

NOAM CHOMSKI
New York Times, 8 de marzo de 2023

Los deepfakes : una de las amenazas más destacadas en el panorama actual de la desinformación y la manipulación digital


Los deepfakes, un término derivado de la combinación de «deep learning» (aprendizaje profundo) y «fakes» (falsificaciones), se han erigido como una de las amenazas más destacadas en el panorama actual de la desinformación y la manipulación digital. Estas tecnologías posibilitan la creación de contenido audiovisual extremadamente realista y manipulado, utilizando algoritmos de inteligencia artificial. Esta capacidad plantea implicaciones de gran envergadura para la seguridad, la privacidad y la confianza en la información en el entorno digital contemporáneo.

Con la proliferación de herramientas y software que facilitan la creación de deepfakes, se ha vuelto cada vez más fácil para cualquier persona con acceso a la tecnología generar videos falsos convincentes. Elaborar un deepfake implica el uso de técnicas avanzadas de inteligencia artificial y procesamiento de imágenes para manipular videos y crear contenido falso que parezca auténtico.

En primer lugar, los deepfakes presentan un riesgo significativo para la integridad de la información y la confianza pública. Al ser capaces de generar vídeos, audios e imágenes indistinguibles de los originales, estos medios manipulados pueden ser utilizados para difundir información falsa, calumnias o propaganda con un grado de credibilidad que puede engañar a los espectadores. Esto plantea un desafío sustancial para la verificación de la información y la capacidad del público para discernir entre lo real y lo falso.

Una de las preocupaciones principales relacionadas con los deepfakes es su capacidad para engañar a los espectadores y hacer que crean que están viendo a individuos reales diciendo o haciendo cosas que nunca ocurrieron. Esta capacidad de crear contenido falso con un nivel de realismo sorprendente plantea riesgos significativos para la seguridad y la privacidad de las personas. Por ejemplo, los deepfakes podrían utilizarse para fabricar vídeos comprometedores de figuras públicas o personas comunes y corrientes, lo que podría causar daño a su reputación y poner en peligro su seguridad personal.

Además de los riesgos individuales, los deepfakes también representan una amenaza para la sociedad en su conjunto. Con la capacidad de generar contenido falsificado convincente, los deepfakes pueden ser utilizados para difundir información falsa y desacreditar a personas o instituciones. Esto socava la confianza en la información y puede alimentar la polarización y la discordia en la sociedad. En el ámbito político, por ejemplo, los deepfakes podrían ser utilizados para crear vídeos manipulados de candidatos o líderes políticos con el objetivo de influir en el resultado de elecciones o desestabilizar gobiernos.

Dada la sofisticación de los deepfakes y su capacidad para engañar a los espectadores, es fundamental desarrollar técnicas efectivas para identificar y mitigar este tipo de contenido falso. Aquí se destacan algunas estrategias clave para detectar deepfakes:

  1. Análisis forense: Los investigadores han desarrollado métodos forenses para analizar la autenticidad de los videos, como la detección de artefactos visuales y anomalías en el contenido. Estos análisis pueden revelar pistas sutiles que indican la manipulación digital, como inconsistencias en la iluminación, la perspectiva o el movimiento facial.
  2. Modelos de aprendizaje automático: Se están utilizando modelos de aprendizaje automático para identificar patrones distintivos en los deepfakes. Estos modelos pueden entrenarse con conjuntos de datos de videos reales y deepfakes para aprender a distinguir entre ambos. Al detectar características específicas asociadas con la generación de deepfakes, estos modelos pueden identificar videos sospechosos y alertar a los usuarios.
  3. Verificación de metadatos: La verificación de metadatos, como la fecha, la hora y el lugar de grabación, puede proporcionar información importante sobre la autenticidad de un video. Los deepfakes a menudo carecen de metadatos coherentes o contienen inconsistencias que pueden ser detectadas mediante un análisis detallado.
  4. Colaboración entre la industria y la academia: La colaboración entre la industria tecnológica y la comunidad académica es crucial para desarrollar y mejorar continuamente las técnicas de detección de deepfakes. Al compartir datos, herramientas y conocimientos, los investigadores pueden avanzar en la capacidad de detectar y mitigar la propagación de contenido falso.
  5. Educación y concienciación: La educación pública sobre los deepfakes y su impacto en la desinformación es fundamental para combatir esta amenaza. Al aumentar la conciencia sobre los riesgos asociados con el consumo de contenido digital y proporcionar herramientas para identificar deepfakes, se puede empoderar a los usuarios para que sean más críticos y cautelosos al interactuar con medios digitales.

De este modo, los deepfakes plantean preocupaciones éticas y legales sobre el uso indebido de la imagen y la voz de las personas. La creación y difusión de deepfakes sin el consentimiento de los sujetos involucrados puede infringir sus derechos de privacidad y dignidad, lo que plantea preguntas sobre la responsabilidad y la regulación de estas tecnologías emergentes. A medida que los deepfakes se vuelven más accesibles y sofisticados, es crucial abordar estas preocupaciones para proteger los derechos y la seguridad de los individuos afectados.

¿Cómo ha cambiando el comportamiento de ChatGPT con el tiempo?

Chen, Lingjiao, Matei Zaharia, y James Zou. «How Is ChatGPT’s Behavior Changing Over Time?» Harvard Data Science Review, 12 de marzo de 2024. https://doi.org/10.1162/99608f92.5317da47.


En este estudio exhaustivo, se realiza una comparación detallada entre las versiones de GPT-3.5 y GPT-4 en marzo y junio de 2023, centrándose en una variedad de tareas para evaluar su desempeño y comportamiento a lo largo del tiempo. Esto implica una evaluación minuciosa en áreas como matemáticas, preguntas sensibles, encuestas de opinión, conocimiento intensivo, generación de código, pruebas de licencia médica en EE. UU. y razonamiento visual. Los resultados revelan una variabilidad significativa en el rendimiento de ambos modelos, lo que sugiere que su comportamiento está sujeto a cambios en un corto período.

Por ejemplo, se observa que el desempeño de GPT-4 en la identificación de números primos vs. compuestos disminuyó drásticamente de marzo a junio, lo que indica una posible pérdida de precisión en esta tarea específica. Además, se encuentra que GPT-4 se muestra menos dispuesto a abordar preguntas sensibles y de encuestas de opinión en junio en comparación con marzo, lo que sugiere un cambio en su capacidad para manejar ciertos tipos de consultas.

Asimismo, se destaca una mejora en el desempeño de GPT-4 en preguntas multi-paso en junio en comparación con marzo, mientras que GPT-3.5 muestra un rendimiento decreciente en esta área. Este hallazgo indica que la evolución del comportamiento de los modelos puede no seguir una tendencia lineal y puede verse influenciada por diversos factores.

Además, se evidencia que ambos modelos presentaron más errores de formato en la generación de código en junio que en marzo, lo que sugiere una posible degradación en la calidad de la salida generada. La disminución en la capacidad de GPT-4 para seguir instrucciones del usuario a lo largo del tiempo también se señala como un factor clave detrás de varios cambios en el comportamiento observado.

Estos resultados destacan la importancia de monitorear continuamente el desempeño y comportamiento de los modelos de lenguaje para comprender cómo evolucionan con el tiempo y para abordar posibles cambios o degradaciones en su rendimiento. Este estudio proporciona una visión valiosa sobre la dinámica de los modelos de lenguaje y resalta la necesidad de una evaluación continua para garantizar su efectividad y fiabilidad en diversas aplicaciones.

La IA podría tener consecuencias catastróficas: un investigador en IA advierte de que a los gobiernos se les acaba el tiempo para establecer salvaguardias integrales

MacDonald, Brennan. «AI Could Have Catastrophic Consequences — Is Canada Ready?» CBC News, 17 de marzo de 2024. https://www.cbc.ca/news/politics/advanced-artificial-intelligence-risk-extinction-humans-1.7144372.

Las naciones -incluida Canadá- se están quedando sin tiempo para diseñar y aplicar salvaguardias integrales sobre el desarrollo y despliegue de sistemas avanzados de inteligencia artificial, advirtió esta semana una empresa líder en seguridad de IA.

El avance de la inteligencia artificial (IA) podría tener consecuencias catastróficas y, según advierte una destacada empresa de seguridad en IA, los gobiernos, incluido Canadá, están quedando sin tiempo para diseñar e implementar salvaguardias completas sobre el desarrollo y despliegue de sistemas avanzados de inteligencia artificial. La preocupación surge de un informe encargado por el Departamento de Estado de EE. UU. titulado «Defence in Depth: An Action Plan to Increase the Safety and Security of Advanced AI«, donde se advierte que, en el peor de los casos, los sistemas de IA superhumanos podrían escapar al control de sus creadores y representar una amenaza de nivel de extinción para la humanidad.

La empresa Gladstone AI, con sede en EE. UU., que aboga por el desarrollo responsable de la inteligencia artificial segura, produjo el informe. Sus advertencias se dividen en dos categorías principales. La primera concierne al riesgo de que los desarrolladores de IA pierdan el control de un sistema de inteligencia artificial general (AGI, por sus siglas en inglés). Aunque no existen sistemas AGI hasta la fecha, muchos investigadores en IA creen que no están lejos.

La segunda categoría de riesgo catastrófico citada en el informe es el posible uso de sistemas de IA avanzados como armas, incluidas armas biológicas y químicas. El informe propone una serie de acciones urgentes que las naciones, comenzando por Estados Unidos, deben tomar para protegerse contra estos riesgos catastróficos, incluidos controles de exportación, regulaciones y leyes de desarrollo responsable de IA.

Mientras tanto, Canadá no tiene un marco regulatorio específico para la IA. Aunque el gobierno introdujo el Proyecto de Ley C-27, conocido como Ley de Inteligencia Artificial y Datos (AIDA), en noviembre de 2021 para sentar las bases para el diseño, desarrollo y despliegue responsables de sistemas de IA en Canadá, algunos advierten que este proyecto ya está obsoleto.

La legislación propuesta ya está en el ojo del huracán. La empresa Gladstone AI, en diciembre de 2023, instó al comité de industria y tecnología de la Cámara de los Comunes a enmendar AIDA para hacer frente a los riesgos extremos y las capacidades de la IA del futuro cercano. Ante la creciente importancia y los posibles peligros de la IA, Canadá y otros países enfrentan el desafío de mantenerse al día con la regulación y salvaguardias adecuadas.

Las revistas científicas publican artículos con textos generados por inteligencia artificial

Maiberg ·, Emanuel. «Scientific Journals Are Publishing Papers With AI-Generated Text». 404 Media, 18 de marzo de 2024. https://www.404media.co/scientific-journals-are-publishing-papers-with-ai-generated-text/.

La frase ChatGPT «A partir de mi última actualización de conocimientos» aparece en varios trabajos publicados por revistas académicas. Las revistas científicas están publicando artículos con texto generado por IA

La inclusión de lenguaje aparentemente generado por herramientas de IA como ChatGPT en artículos científicos publicados muestra cuán omnipresente se ha vuelto la tecnología, y destaca los problemas que arrastra desde tiempo atrás la publicación académica en algunas revistas académicas revisadas por pares.

Al buscar la frase «As of my last knowledge update» en Google Scholar, una herramienta de búsqueda gratuita que indexa artículos publicados en revistas académicas, se obtienen 115 resultados. La frase es utilizada frecuentemente por ChatGPT de OpenAI para indicar cuándo se está obteniendo los datos que proporciona a los usuarios, y los meses y años específicos encontrados en estos artículos académicos corresponden a actualizaciones de conocimiento previas de ChatGPT.

«Hasta la última actualización de mis conocimientos, en septiembre de 2021, no existe una correlación científica ampliamente aceptada entre el entrelazamiento cuántico y las ondas escalares longitudinales», una frase que frecuentemente utiliza ChatGPT, se lee en un artículo titulado «Quantum Entanglement: Examining its Nature and Implications» publicado en el «Journal of Material Sciences & Manfacturing [sic] Research», una publicación que afirma estar revisada por expertos.

La mayoría de los artículos científicos que se observan y que incluyen esta frase fueron publicados en revistas que son pequeñas, no muy conocidas y parecen ser «fábricas de artículos«, revistas con bajos estándares editoriales que publicarán casi cualquier cosa rápidamente. Una publicación donde se encontró la frase generada por IA, la revista Open Access Research Journal of Engineering and Technology,, solicita «cargos por publicación bajos», un «certificado electrónico» de publicación, y actualmente está anunciando una convocatoria de artículos, prometiendo la aceptación dentro de 48 horas y la publicación dentro de cuatro días.

Este tipo de revistas son un problema bien conocido en la comunidad académica, y preceden a la llegada de las herramientas de IA generativas. En febrero, The Guardian informó que el año pasado se retiraron 10.000 «artículos fraudulentos» de revistas académicas. Un estudio en Nature también destacó estafas de «pago por publicación», que son revistas que cobran tarifas exorbitantes a cambio de publicar un artículo rápidamente. Separar este tipo de artículos y revistas de la ciencia legítima a veces puede ser difícil, porque muchas revistas respetables también cobran a los científicos «tarifas de procesamiento de artículos» (APCs) para ser publicadas.

Sin embargo, también se encontró lenguaje generado por IA en revistas académicas más respetables. La semana pasada, la investigadora de Bellingcat Kolina Koltai tuiteó un artículo publicado en Superficies e Interfaces, que incluía la frase «Certainly, here is a possible introduction for your topic:» (He aquí una posible introducción para su tema) al comienzo de la introducción del artículo. El título del artículo es “The three-dimensional porous mesh structure of Cu-based metal-organic-framework – aramid cellulose separator enhances the electrochemical performance of lithium metal anode batteries.”

Michael J. Naughton, profesor de física en Boston College y uno de los editores de Superficies e Interfaces, dijo que la publicación es consciente del artículo y está «retractándolo». Naughton también señaló la política existente de la publicación sobre IA.

«Cuando los autores utilizan inteligencia artificial generativa (IA) y tecnologías asistidas por IA en el proceso de escritura, los autores solo deben usar estas tecnologías para mejorar la legibilidad y el lenguaje», establece la política. «La aplicación de la tecnología debe hacerse con supervisión y control humanos, y los autores deben revisar cuidadosamente y editar el resultado, ya que la IA puede generar una salida que suena autoritaria pero que puede ser incorrecta, incompleta o sesgada.»

La política también establece que los autores deben revelar si usan IA en el artículo.

Algunos de los artículos indexados en Google Scholar que usan respuestas estándar de ChatGPT no son necesariamente investigaciones generadas por IA. Algunos de los artículos son estudios que investigan los tipos de respuestas que da ChatGPT, y simplemente citan las respuestas que obtienen. Por ejemplo, uno de los artículos que utiliza el término está investigando los «modelos de falla» de varios sistemas de chat de IA.

Esta no es la primera vez que se observa a revistas académicas publicar contenido generado por IA. En febrero, una revista llamada Frontiers in Cell Development and Biology publicó un artículo con varias imágenes claramente generadas por IA, incluida una de una rata con un pene gigante.

Inteligencia artificial: ¿importante en la enseñanza?

Melo, María Florencia. «Infografía: Inteligencia artificial: ¿importante en la enseñanza?» Statista Daily Data, 26 de septiembre de 2023. https://es.statista.com/grafico/30894/encuestados-que-consideran-esencial-que-maestros-se-capaciten-para-usar-ia-en-la-ensenanza.

El uso de la inteligencia artificial (IA) en la educación se ha posicionado como una herramienta poderosa para revolucionar los métodos de enseñanza a nivel global. Según el último Monitor Global de Educación de Ipsos, publicado este mes, se evidencia una variación significativa en la percepción sobre la importancia de capacitar a los docentes en el uso de la IA en diferentes países. En general, un 65% de los encuestados en 29 países considera que los maestros deberían recibir formación en cómo emplear la IA en sus estrategias educativas.

En Perú, el 84% de los encuestados considera crucial que los maestros se capaciten para utilizar la IA en sus métodos de enseñanza. Sudáfrica le sigue de cerca con un sólido 80%, mientras que México y Chile registran cifras del 79% y 78% respectivamente. Argentina también muestra un alto porcentaje, con un 72% de los encuestados valorando la capacitación de los maestros en este ámbito.

Por otro lado, en España, el 62% de los encuestados considera esencial esta formación, seguido por India con un 59%. El Reino Unido y Japón registran un 53% y 51% respectivamente, mientras que Estados Unidos y Francia muestran cifras más bajas, con un 48% y 43% respectivamente. Estos resultados sugieren que, aunque existe un reconocimiento global de la importancia de la formación de los maestros en el uso de la inteligencia artificial en la educación, hay matices regionales significativos.

El explosivo crecimiento del fraude impulsado por la IA

Melo, María Florencia. «Infografía: El explosivo crecimiento del fraude impulsado por la IA». Statista Daily Data, 15 de marzo de 2024. https://es.statista.com/grafico/31907/paises-con-mayores-aumentos-de-casos-de-fraude-de-deepfake.

Los deepfakes, videos, fotos y audios manipulados mediante inteligencia artificial, se han convertido en una presencia común en varias plataformas en línea, presentando situaciones como Donald Trump posando con votantes negros o el Papa con una chaqueta estilo puffer: . Con ajustes adecuados, cualquiera puede generar imágenes que parezcan auténticas o hacer que las voces de figuras prominentes en política o entretenimiento digan lo que sea.

Esta tecnología también se utiliza para perpetrar fraudes de identidad, fabricando documentos falsos o suplantando la identidad de personas a través de llamadas telefónicas. Los casos de fraude relacionados con deepfakes han experimentado un incremento significativo entre 2022 y 2023 en numerosos países, según revela nuestro gráfico basado en el último informe anual del proveedor de verificación de identidad Sumsub.

Por ejemplo, el número de intentos de fraude en Filipinas aumentó un 4.500% interanual, seguido de países como Vietnam, Estados Unidos y Bélgica. Con el potencial de la inteligencia artificial en constante crecimiento, los intentos de fraude mediante deepfakes podrían expandirse a otras áreas. Pavel Goldman-Kalaydin, Jefe de Inteligencia Artificial y Aprendizaje Automático de Sumsub, menciona en el informe que «hemos observado cómo las falsificaciones profundas se han vuelto cada vez más convincentes en los últimos años, y esto continuará y se extenderá hacia nuevas formas de fraude, como los deepfakes de voz».

Aunque la creación de un deepfake en sí no constituye un delito, muchos gobiernos están avanzando hacia una regulación más estricta en el uso de la inteligencia artificial para evitar daños a las partes involucradas. Además, alrededor de 400 expertos en inteligencia artificial y tecnología firmaron una carta abierta el mes pasado instando a los gobiernos de todo el mundo a tomar medidas en contra de los deepfakes.

Consulta sobre Derechos de Autor en la Era de la Inteligencia Artificial Generativa: Respuesta de la Federación Canadiense de Asociaciones de Bibliotecas (CFLA)

Consultation on Copyright in the Age of Generative Artificial Intelligence: CFLA Response, Canadian Federation of Library Associations, 2024

Texto completo


Las bibliotecas, archivos y museos apoyan la investigación en inteligencia artificial (IA) en el desarrollo de conjuntos de datos de entrenamiento para su uso en modelos de IA, especialmente aquellos utilizados para entrenar modelos de lenguaje. Las bibliotecas proporcionan acceso a grandes corpus de texto y facilitan la licencia de contenido para propósitos de IA. Las bibliotecas universitarias canadienses informan informalmente que los investigadores se ven obstaculizados por las herramientas deficientes y los altos costos de licencia de los editores académicos para la investigación en IA. Estas herramientas son costosas, propietarias y carecen de la funcionalidad que los investigadores necesitan. Los costos de licencia para actividades de Minería de Datos y Texto (TDM, por sus siglas en inglés) son ahora una fuente de ingresos para los grandes editores multinacionales, lo que requiere que las bibliotecas paguen múltiples veces por el uso, aunque sean usos diferentes, del mismo contenido. Tales acciones ejemplifican el impulso para mercantilizar todos los usos y, por lo tanto, reducir los recursos comunes, amenazando el bien público y desequilibrando la balanza entre usuarios y titulares de derechos de autor establecida por la Ley de Derechos de Autor. Algunos editores bloquean el uso no consumptivo de obras publicadas para el entrenamiento en IA, al mismo tiempo que recopilan datos y patrones de uso de sus clientes pagos para desarrollar sistemas de IA para otros fines comerciales.

Recomendaciones generales:

  1. Proporcionar claridad sobre el contenido de los conjuntos de datos de entrenamiento al alentar a que estos tengan metadatos suficientes para que cada elemento de contenido sea identificable.
  2. Asegurar que cualquier excepción de la Ley de Derechos de Autor para la creación de copias no consumptivas con fines de análisis informativo sea lo suficientemente amplia como para permitir que las LAMs y otros usuarios hagan copias no consumptivas de obras. Esto incluiría la capacidad de eludir un Mecanismo de Protección de Títulos (TPM, por sus siglas en inglés) para hacer tales copias, o con el propósito de utilizar herramientas tecnológicas como la inteligencia artificial generativa para crear metadatos y permitir una búsqueda superior de esas obras.

Text and Data Mining

  1. Crear una excepción específica para la Minería de Datos y Texto (TDM, por sus siglas en inglés). La comunidad bibliotecaria respalda la creación de una excepción específica que «facilite el uso de una obra u otro contenido con el propósito de análisis informativo».
  2. Facilitar aún más la Minería de Datos y Texto (TDM, por sus siglas en inglés): prohibir la anulación por contrato y permitir la elusión de Mecanismos de Protección de Títulos (TPMs, por sus siglas en inglés) para cualquier propósito no infractor. CFLA recomienda introducir una excepción que impida que los contratos anulen las excepciones de derechos de autor para fines no infractores. Esta disposición debería aplicarse a todos los contratos futuros y preexistentes.
  3. Hacer que los propósitos de uso legítimo sean ilustrativos. CFLA respalda las recomendaciones en la Revisión de Derechos de Autor de 2019 relacionadas con la lista enumerada de propósitos bajo la Sección 29 de la Ley de Derechos de Autor.
  4. Apoyar la creación de una excepción internacional específica para la Minería de Datos y Texto (TDM).

Autoría y propiedad de obras generadas por IA

  1. Las obras creadas por inteligencia artificial no deben estar protegidas por derechos de autor.
  2. La Oficina Canadiense de Propiedad Intelectual (CIPO) debería abstenerse de otorgar registro de derechos de autor a obras creadas por IA y de reconocer a las máquinas de IA como coautores o autores únicos de obras sin que el solicitante demuestre que ha habido una contribución humana significativa a las salidas.
  3. Si bien CFLA reconoce que la inteligencia artificial generativa puede ser disruptiva para los creadores, el tema de una posible compensación para los creadores de material utilizado para entrenar máquinas de IA debería ser separado de la Ley de Derechos de Autor.

Infracción y responsabilidad en relación con la IA

  1. Un mecanismo para juzgar la infracción de derechos de autor para las salidas de inteligencia artificial generativa ya existe en las leyes de derechos de autor de Canadá, y si un uso constituye una infracción debe determinarse caso por caso en los tribunales.
  2. La responsabilidad en lo que respecta a las salidas de IA que potencialmente infringen derechos de autor podría recaer en el desarrollador, la empresa de IA o el usuario, y podría situarse en un continuo.
  3. Puede ser necesario considerar la inclusión incidental en lo que respecta a las salidas de IA generativa.
  4. Dado que hay muy poca jurisprudencia en el área de la responsabilidad, muchas jurisdicciones pueden estar utilizando un enfoque de «esperar y ver» antes de avanzar con la legislación, y Canadá podría ser sabio al hacer lo mismo.

Conclusión: Al navegar por la intersección de los derechos de autor y la IA generativa, CFLA aboga por un enfoque progresista que fomente la innovación, promueva el acceso equitativo al conocimiento y salvaguarde los derechos de los creadores. Al participar en un diálogo colaborativo y adoptar marcos regulatorios flexibles, podemos aprovechar el potencial de la IA mientras preservamos la integridad de la ley de derechos de autor.