Archivo de la categoría: Tecnologías de la información

Las falsas reescrituras de libros generadas por IA inundan Amazon

Knibbs, Kate. 2024 «Scammy AI-Generated Book Rewrites Are Flooding Amazon». Wired. Accedido 15 de enero de 2024. https://www.wired.com/story/scammy-ai-generated-books-flooding-amazon/.

Los reescritos de libros generados por IA que parecen ser fraudulentos están inundando Amazon. Los autores siguen descubriendo lo que parecen ser imitaciones generadas por IA y resúmenes de sus libros en Amazon. Hay poco que puedan hacer para frenar las copias fraudulentas.


La proliferación de reescrituras de libros generadas por inteligencia artificial que parecen fraudulentas está afectando significativamente a Amazon, y los autores siguen descubriendo lo que aparentan ser imitaciones y resúmenes generados por IA de sus libros en la plataforma. Este problema ha afectado a la investigadora de IA Melanie Mitchell y a otros profesionales, generando preocupaciones en la comunidad literaria. Aunque Amazon actuó retirando la imitación del libro de Mitchell, la presencia persistente de resúmenes de baja calidad generados por IA sigue siendo un desafío.

Mitchell notó que, al buscar su libro en Amazon, no solo encontraba su obra, sino también otro libro electrónico con el mismo título, publicado en septiembre pasado. Este tenía solo 45 páginas y reproducía las ideas de Mitchell en un lenguaje entrecortado y torpe. El autor listado, «Shumaila Majid», carecía de biografía, foto y presencia en internet, pero al hacer clic en ese nombre, aparecían numerosos libros similares resumiendo títulos recién publicados.

Este fenómeno afecta a diversos autores, entre ellos la pionera en ciencias de la computación Fei-Fei Li, cuyo nuevo libro tiene más de una docena de reescrituras aparentemente generadas por IA. Aunque algunos de estos resúmenes se presentan como tales, a menudo no aportan un valor significativo para los lectores. A diferencia del libro de Mitchell, los resúmenes de Li se anuncian como tales. Uno, titulado abiertamente «Resumen y Análisis de The Worlds I See», tiene una descripción del producto que comienza así: «¡DESCARGO DE RESPONSABILIDAD! ESTO NO ES UN LIBRO DE FEI-FEI LI, NI ESTÁ AFILIADO A ELLOS. ES UNA PUBLICACIÓN INDEPENDIENTE QUE RESUME EL LIBRO DE FEI-FEI LI EN DETALLES. ES UN RESUMEN». Defender analizó una muestra del libro de Resumen y Análisis y también encontró que probablemente fue generado por IA.

La aparición de resúmenes generados por IA ha aumentado significativamente, a pesar de que en septiembre de 2023, Amazon limitó a los autores a cargar un máximo de tres libros al día en su tienda. La escritora Sarah Stankorb es una de las afectadas. Este verano, publicó «Disobedient Women: How a Small Group of Faithful Women Exposed Abuse, Brought Down Powerful Pastors, and Ignited an Evangelical Reckoning». Los resúmenes aparecieron en Amazon en cuestión de días. Uno, que sospecha que se basó en una copia avanzada comúnmente distribuida a revisores, apareció el día antes de que saliera su libro.

Los resúmenes generados por IA vendidos como libros electrónicos han estado «aumentando dramáticamente en número», según Jane Friedman, experta en la industria editorial, quien también fue blanco de un esquema de libros generados por IA diferente. «Es común en este momento que un autor de no ficción celebre el lanzamiento de su libro y luego, en pocos días, descubra uno de estos resúmenes a la venta».

Este problema se agrava debido a las limitadas acciones de Amazon para abordar la situación. Aunque la compañía retiró la imitación del libro de Mitchell, no ha anunciado planes para monitorear proactivamente esta ola de resúmenes. La falta de medidas efectivas actualmente permite que los creadores de estos resúmenes continúen subiéndolos a la plataforma. Stankorb describe la situación como una nueva realidad y la resignación de la industria editorial ante este persistente problema.

IA para todo: Las tecnologías revolucionarias para 2024

IA para todo: 10 tecnologías revolucionarias para 2024

«AI for Everything: 10 Breakthrough Technologies 2024». s. f. MIT Technology Review. Accedido 12 de enero de 2024.

Ver original


Herramientas de IA generativa como ChatGPT han alcanzado una adopción masiva en un tiempo récord y han cambiado el rumbo de toda una industria.

Cada año, los reporteros y editores de MIT Technology Review buscan tecnologías prometedoras con el potencial de tener un impacto real en el mundo. Considerando avances en todos los campos, desde biotecnología e inteligencia artificial hasta computación, robótica y tecnología climática. Estas son las diez que creemos que son más relevantes en este momento.

Aquí tienes cinco de las 10 Tecnologías Innovadoras de 2024.

  • Vivimos ahora en la era de la inteligencia artificial. Cientos de millones de personas han interactuado directamente con herramientas generativas como ChatGPT, que producen texto, imágenes, videos y más a partir de indicaciones. Su popularidad ha remodelado la industria tecnológica, convirtiendo a OpenAI en un nombre familiar y llevando a Google, Meta y Microsoft a invertir fuertemente en la tecnología.
  • Nuevos tratamientos basados en CRISPR* han estado en desarrollo durante años. En las últimas semanas de 2023, uno de Vertex se convirtió en el primero en recibir aprobación regulatoria tanto en el Reino Unido como en EE. UU. por su capacidad para curar la enfermedad de células falciformes, una condición potencialmente mortal. No será el último.
  • Las supercomputadoras más rápidas del mundo ahora pueden realizar más de un exaflop de cálculos (un 1 seguido de 18 ceros). Nuevas máquinas que pueden procesar datos científicos a estas velocidades permitirán a los científicos realizar simulaciones más sofisticadas del clima, fisión nuclear, turbulencias y más.
  • No te dejes engañar por el nombre. Las bombas de calor son electrodomésticos eléctricos que pueden enfriar y calentar edificios, y su adopción generalizada podría reducir sustancialmente las emisiones. Las ventas han aumentado en todo el mundo; en EE. UU., han superado a los hornos de gas por primera vez. Nuevos tipos que funcionan a temperaturas más altas podrían ayudar a descarbonizar la industria.
  • Elon Musk compró el sitio ahora conocido como X en 2022, y prácticamente nada ha sido igual desde entonces. Despidió a la mayoría del personal y prescindió de la moderación de contenido, ahuyentando a anunciantes y usuarios por igual. Ahora, a medida que alternativas como Bluesky, Threads y otros ganan terreno, la plaza central ha dado paso a salas privadas.

* CRISPR es una familia de secuencias de ADN encontradas en los genomas de organismos procariotas como bacterias y arqueas. Estas secuencias se derivan de fragmentos de ADN de bacteriófagos que previamente habían infectado al procariota. Se utilizan para detectar y destruir el ADN de bacteriófagos similares durante infecciones posteriores.

Formas en que la Inteligencia Artificial Impacta a las Bibliotecas

«5 Ways Artificial Intelligence Impacts Libraries | AJE». s. f. Accedido 12 de enero de 2024. https://www.aje.com/arc/ways-artificial-intelligence-impacts-libraries/.

Este artículo destaca cinco formas fundamentales en que la inteligencia artificial impacta a las bibliotecas, explorando las intersecciones potenciales entre sus usos existentes y las posibilidades de aplicaciones adicionales.

Bibliotecas y profesionales bibliotecarios han sido durante mucho tiempo administradores conscientes de la información, resguardando su organización, acceso, colección y protección. Sin embargo, son conocidos por su lenta adopción de nuevas tecnologías, esperando a que el mercado esté saturado y el público exija acceso y educación antes de implementarlas.

  1. Profesionales de la información
    • La IA mejora la precisión en la búsqueda y recuperación de información, permitiendo a los bibliotecarios avanzar en sistemas de clasificación y analizar colecciones digitales.
    • Los profesionales bibliotecarios participarán en el diseño de herramientas de descubrimiento de conocimiento impulsadas por la IA, educando al público sobre su uso.
  2. Operaciones de Biblioteca
    • Las bibliotecas están adoptando la automatización de procesos mediante la robótica, como la automatización de tareas administrativas y sistemas de almacenamiento y recuperación automatizados.
    • El concepto de ‘Biblioteca Inteligente’ controlada remotamente mediante IA se perfila como el futuro, permitiendo interacciones a través de asistentes digitales y servicios sin personal directo.
  3. Servicios al Usuario
    • Las bibliotecas utilizan chatbots impulsados por IA para conectar a los usuarios con información altamente personalizada y eficiente.
    • Se implementan herramientas de IA en servicios de circulación para recomendaciones personalizadas basadas en búsquedas y patrones de préstamo anteriores.
  4. Alfabetización en Datos y IA
    • Junto con la alfabetización en datos, la IA requiere comprensión de su función, lógica, limitaciones e impactos potenciales.
    • Las bibliotecas están centrando sus esfuerzos en la alfabetización en IA, proporcionando a los usuarios las habilidades necesarias para participar en una sociedad cada vez más impulsada por la IA.
  5. Analítica de Bibliotecas
    • La IA se integra en la analítica bibliotecaria para identificar patrones en tiempo real, permitiendo estrategias de gestión y planificación para mejorar servicios.

Conclusiones Finales: A pesar de la tradicional lentitud en adoptar tecnologías emergentes, las bibliotecas abordan la IA de manera asertiva y deliberada. Profesionales, asociaciones bibliotecarias y usuarios participan en la incorporación ética y complementaria de la IA en los procesos y servicios bibliotecarios. Este artículo explora las posibles aplicaciones adicionales de la IA en bibliotecas, destacando su impacto actual y futuro.

Alfabetización en inteligencia artificial (IA) entre los empleados de bibliotecas universitarias

Lo, Leo S.. «Evaluating AI Literacy in Academic Libraries: A Survey Study with a Focus on U.S. Employees.» (2024). https://digitalrepository.unm.edu/ulls_fsp/203

Esta encuesta investiga la alfabetización en inteligencia artificial (IA) entre los empleados de bibliotecas académicas, predominantemente en Estados Unidos, con un total de 760 encuestados. Los resultados revelan una comprensión moderada de los conceptos de IA, una experiencia práctica limitada con herramientas de IA y lagunas notables en el debate de las implicaciones éticas y la colaboración en proyectos de IA.

A pesar de reconocer sus ventajas, los participantes parecen poco dispuestos a ponerla en práctica. Los encuestados subrayan la necesidad de una formación exhaustiva y del establecimiento de directrices éticas.

El estudio propone un marco que define los componentes básicos de la alfabetización en IA adaptados a las bibliotecas. Los resultados ofrecen ideas para orientar el desarrollo profesional y la formulación de políticas a medida que las bibliotecas integran cada vez más la IA en sus servicios y operaciones.

OpenAI lanza GPT Store, una tienda de aplicaciones para sus usuarios de ChatGPT Plus.

Ir a GPT Store

OpenAI ha lanzado GPT Store, una tienda de aplicaciones para sus usuarios de ChatGPT. Accesible para suscriptores de ChatGPT Plus (20$ al mes) y usuarios de los planes comerciales ChatGPT Team y Enterprise (que van desde 25$ hasta miles de dólares por usuario al mes), la tienda presenta GPTs (aplicaciones) a los usuarios.

OpenAI informa que más de 3 millones de usuarios han creado versiones personalizadas de ChatGPT desde noviembre. Los usuarios gratuitos de ChatGPT no tendrán acceso a las aplicaciones inicialmente. La Tienda GPT permite que cualquiera cree y publique un GPT en la web después de verificar su perfil.

El NIST identifica tipos de ciberataques que manipulan el comportamiento de los sistemas de inteligencia artificial (IA)

«NIST Identifies Types of Cyberattacks That Manipulate Behavior of AI Systems». 2024. NIST, enero. https://www.nist.gov/news-events/news/2024/01/nist-identifies-types-cyberattacks-manipulate-behavior-ai-systems.

La publicación, una colaboración entre el gobierno, la academia y la industria, tiene la intención de ayudar a los desarrolladores y usuarios de IA a comprender los tipos de ataques que podrían esperar, junto con enfoques para mitigarlos, con la comprensión de que no hay una solución única.

Los sistemas de IA han permeado la sociedad moderna, trabajando en capacidades que van desde conducir vehículos hasta ayudar a los médicos a diagnosticar enfermedades o interactuar con clientes como chatbots en línea. Para aprender a realizar estas tareas, se entrenan con vastas cantidades de datos: un vehículo autónomo podría mostrar imágenes de carreteras con señales de tráfico, por ejemplo, mientras que un chatbot basado en un modelo de lenguaje grande (LLM) podría exponerse a registros de conversaciones en línea. Estos datos ayudan a la IA a predecir cómo responder en una situación dada.

Un problema importante es que los datos en sí mismos pueden no ser confiables. Sus fuentes pueden ser sitios web e interacciones con el público. Hay muchas oportunidades para que actores malintencionados corrompan estos datos, tanto durante el período de entrenamiento de un sistema de IA como después, mientras la IA continúa refinando sus comportamientos al interactuar con el mundo físico. Esto puede hacer que la IA se comporte de manera indeseable. Por ejemplo, los chatbots pueden aprender a responder con lenguaje abusivo o racista cuando se sortean cuidadosamente las protecciones mediante indicaciones maliciosas.

«En su mayor parte, los desarrolladores de software necesitan que más personas usen su producto para que pueda mejorar con la exposición», dijo Vassilev. «Pero no hay garantía de que la exposición sea buena. Un chatbot puede generar información negativa o tóxica cuando se le indica con un lenguaje cuidadosamente diseñado».

En parte porque los conjuntos de datos utilizados para entrenar una IA son demasiado grandes para que las personas los supervisen y filtren con éxito, todavía no hay una forma infalible de proteger la IA contra el desvío. Para ayudar a la comunidad de desarrolladores, el nuevo informe ofrece una visión de los tipos de ataques que podrían sufrir sus productos de IA y enfoques correspondientes para reducir el daño.

El informe considera los cuatro principales tipos de ataques: evasión, envenenamiento, privacidad y ataques de abuso. También los clasifica según múltiples criterios, como los objetivos y metas del atacante, las capacidades y el conocimiento.

  • Los ataques de evasión, que ocurren después de que se implementa un sistema de IA, intentan alterar una entrada para cambiar cómo el sistema responde a ella. Ejemplos incluirían agregar marcas a señales de alto para hacer que un vehículo autónomo las interprete como señales de límite de velocidad o crear marcas de carril confusas para hacer que el vehículo se desvíe de la carretera.
  • Los ataques de envenenamiento ocurren en la fase de entrenamiento al introducir datos corruptos. Un ejemplo sería deslizar numerosas instancias de lenguaje inapropiado en registros de conversaciones, para que un chatbot interprete estas instancias como parloteo lo suficientemente común como para usarlo en sus propias interacciones con clientes.

Los ataques de privacidad, que ocurren durante la implementación, son intentos de aprender información sensible sobre la IA o los datos en los que se entrenó para mal usarla. Un adversario puede hacerle numerosas preguntas legítimas a un chatbot y luego utilizar las respuestas para ingeniería inversa del modelo para encontrar sus puntos débiles o adivinar sus fuentes. Agregar ejemplos indeseados a esas fuentes en línea podría hacer que la IA se comporte de manera inapropiada, y hacer que la IA olvide esos ejemplos específicos no deseados después del hecho puede ser difícil.

Los ataques de abuso implican la inserción de información incorrecta en una fuente, como una página web o un documento en línea, que una IA luego absorbe. A diferencia de los ataques de envenenamiento mencionados anteriormente, los ataques de abuso intentan darle a la IA piezas incorrectas de información de una fuente legítima pero comprometida para cambiar el uso previsto del sistema de IA.

«La mayoría de estos ataques son bastante fáciles de llevar a cabo y requieren un conocimiento mínimo del sistema de IA y capacidades adversarias limitadas», dijo la coautora Alina Oprea, profesora en la Universidad Northeastern. «Los ataques de envenenamiento, por ejemplo, pueden llevarse a cabo controlando unas pocas docenas de muestras de entrenamiento, lo que sería un porcentaje muy pequeño de todo el conjunto de entrenamiento».

Los autores, que también incluyeron a los investigadores de Robust Intelligence Inc., Alie Fordyce e Hyrum Anderson, desglosan cada una de estas clases de ataques en subcategorías y agregan enfoques para mitigarlos, aunque la publicación reconoce que las defensas que los expertos en IA han ideado contra ataques adversarios hasta ahora son incompletas.

Inteligencia artificial generativa: una introducción a la tecnología de inteligencia artificial generativa y sus implicaciones en la educación.

Generative AI : An introduction to generative artificial intelligence technology and its implications on education. JISC, 2023

Texto completo

Las herramientas de IA generativa, como ChatGPT, ya están teniendo un impacto significativo en la educación. Estas herramientas están planteando retos considerables en torno a la evaluación y la integridad académica, pero también presentan oportunidades, como el ahorro de tiempo del personal al ayudar en la creación de materiales de aprendizaje o la presentación a los estudiantes de nuevas herramientas para mejorar su forma de trabajar.

El impacto de la IA generativa se está dejando sentir mucho más allá de la educación y ya está empezando a cambiar nuestra forma de trabajar. Esto plantea más retos y oportunidades a la hora de garantizar que la educación prepara a los estudiantes para un lugar de trabajo mejorado por la IA y que las evaluaciones son auténticas pero sólidas.

Puntos clave

  • La preocupación inicial se centra en la evaluación y la integridad académica.
  • La acción inmediata es que todo el personal se comprometa con la IA generativa y la pruebe por sí mismo, aprendiendo cómo se verán afectadas sus evaluaciones.
  • La IA generativa puede utilizarse de muchas otras formas, además de para producir trabajos para la evaluación.
  • La IA generativa se utilizará cada vez más en el lugar de trabajo
  • Es probable que la IA generativa sea omnipresente, por lo que prohibirla no es una opción.

Directrices de la UNESCO para la Gobernanza de Plataformas Digitales

Guidelines for the governance of digital platforms: safeguarding freedom of expression and access to information through a multi-stakeholder approach | UNESCO. (2023).

Texto completo


La UNESCO tiene como objetivo garantizar que la libertad de expresión, el acceso a la información y la diversidad de contenido cultural estén plenamente garantizados para todos, mientras que diversos actores, incluidos los Estados miembros, abordan los problemas de desinformación, información errónea y discurso de odio en línea. Estos problemas se abordarán de manera más efectiva, de acuerdo con el derecho internacional de los derechos humanos, mediante la implementación integral y coherente de las Directrices de la UNESCO.

VideoPoet: El último gran modelo lingüístico de Google genera vídeos por Inteligencia Artificial

VideoPoet

Google ha presentado VideoPoet, un nuevo sistema generativo de inteligencia artificial que puede crear y editar videos a partir de texto y otros inputs.


Google presenta VideoPoet, un sistema de inteligencia artificial que puede generar y editar video a partir de texto y otros inputs, incluyendo texto a video, imagen a video y estilización de video. 

VideoPoet puede generar videos de longitud variable y con una variedad de movimientos y estilos, según el contenido de texto. También puede tomar una imagen de entrada y animarla con una indicación, predecir flujo óptico e información de profundidad para estilización de video, y generar audio. Por defecto, el modelo genera videos en orientación vertical para adaptar su salida a contenido de formato corto.

VideoPoet utiliza múltiples tokenizadores (MAGVIT V2 para video e imagen y SoundStream para audio) para entrenar un modelo de lenguaje autoregresivo en modalidades de video, imagen, audio y texto. También se puede controlar el movimiento de la cámara en los videos mediante indicaciones de texto que describen el movimiento de la cámara.

En el futuro, el marco podría admitir generación de cualquier tipo a cualquier tipo y ampliarse a texto a audio, audio a video y subtitulado de video para habilitar aplicaciones aún más versátiles.

Aunque la compañía no ha revelado si tiene planes de poner el modelo a disposición, la integración en un eventual Bard Advanced parece posible. También, Google ha producido un cortometraje utilizando VideoPoet, utilizando Bard como guionista.

OpenAI lanza un documento para guiar el desarrollo seguro de la inteligencia artificial

Preparedness 
Framework
(Beta)

PDF

OpenAI, empresa creadora de ChatGPT, ha lanzado un «marco preparatorio» para guiar el desarrollo seguro de sistemas de inteligencia artificial cada vez más poderosos. El marco, considerado un «documento vivo», tiene como objetivo ayudar a la empresa a «rastrear, evaluar, prever y protegerse contra riesgos catastróficos» que podrían surgir con los avances en la inteligencia artificial.

Esta iniciativa es parte del compromiso voluntario de OpenAI con la Casa Blanca y otros interesados para el desarrollo seguro y transparente de la inteligencia artificial. Según Anton Dahbura, experto en inteligencia artificial y co-director del Instituto de Autonomía Asegurada de la Universidad Johns Hopkins, este marco es un buen «primer paso en un viaje muy largo».

El marco detalla cómo la empresa evaluará sus sistemas emergentes y determinará si es seguro proceder. Incluye la creación de un Grupo Asesor de Seguridad para supervisar la evaluación de riesgos y asesorar a la dirección en decisiones de seguridad. Además, establece niveles de riesgo, como «bajo», «medio», «alto» y «crítico», con varios criterios para evaluar áreas como ciberseguridad, amenazas CBRN (químicas, biológicas, radiológicas, nucleares) y persuasión.

Solo los modelos de inteligencia artificial con una puntuación de mitigación de «medio» o menos pueden ser implementados, y solo aquellos con una puntuación de mitigación de «alto» o menos pueden seguir desarrollándose. OpenAI también se compromete a buscar constantemente «desconocidos-ignorados», explorando categorías actualmente desconocidas de riesgos catastróficos.

El CEO de OpenAI, Sam Altman, ha afirmado que los beneficios superan los riesgos para los sistemas que la empresa ha lanzado al público, pero destaca la necesidad de intervenciones regulatorias gubernamentales para mitigar los riesgos de modelos cada vez más poderosos.

Aunque la administración Biden ha propuesto una «Hoja de Ruta para una Declaración de Derechos de la IA», OpenAI, por ahora, se centra en desarrollar pautas internas, como su nuevo marco. Dahbura elogia la proactividad de OpenAI y destaca que el marco es más detallado y menos genérico que otros documentos aspiracionales de alto nivel en la industria de la inteligencia artificial.