Archivo de la categoría: Tecnologías de la información

El 23% de los adultos en EE.UU. utilizan modelos de lenguaje de IA como ChatGPT

AI & Politics 2024

Texto completo

Uno de los hallazgos clave en un informe reciente sobre inteligencia artificial (IA) y las elecciones de 2024 es que el 23% de los adultos estadounidenses ahora usan modelos de lenguaje grande (LLMs) como ChatGPT, Gemini o Claude. Esto es importante porque significa que la adopción de estos sistemas de IA ha superado el punto de inflexión y se está moviendo hacia una amplia aceptación en la sociedad.

Basándose en investigaciones anteriores sobre la difusión de inventos e ideas, el teórico de la comunicación Everett Rogers introdujo una gran teoría sobre cómo las innovaciones, desde métodos de control de natalidad hasta nuevas técnicas agrícolas, memes de conocimiento y productos electrónicos de consumo, se difunden a través de las culturas de maneras predecibles. Algunos segmentos de la población son innovadores y adoptadores tempranos de nuevas cosas, mientras que otros grupos tardan más en adoptarlas e incluso a veces las resisten.

En términos generales, los adoptadores tempranos son más jóvenes, mejor educados y más ricos. Para la tecnología digital, los adoptadores tempranos tienden a ser hombres.

Esto tiene implicaciones significativas para las brechas digitales, aún más en la era de la IA, porque estas brechas probablemente tendrán impactos en la desigualdad de ingresos y riqueza debido a las formas en que los sistemas de IA afectarán los mercados laborales. Aquellos que trabajen y dominen los LLMs probablemente tendrán ventajas significativas sobre aquellos que no estén tan bien preparados y entrenados.

Es importante recordar que, según las primeras medidas, nunca se ha visto una tecnología electrónica de consumo adoptada tan rápida y ampliamente como los LLMs, particularmente ChatGPT. Además, nunca se ha visto a grandes empresas tecnológicas incorporar nuevas funciones tecnológicas en sus tecnologías ya ampliamente utilizadas como lo están haciendo con las herramientas de LLM en servicios comunes como correo electrónico, procesamiento de textos, redes sociales y sistemas comerciales comunes.

Aun así, es probable que las brechas aparezcan de maneras predecibles y preocupantes. Otra razón por la cual estos sistemas merecen la atención de los investigadores y la preocupación de los responsables políticos.

Los chatbots de IA muestran una ‘falta de empatía’ que los niños probablemente no perciban

«AI Chatbots Have Shown They Have an ‘Empathy Gap’ That Children Are Likely to Miss | University of Cambridge», 15 de julio de 2024. https://www.cam.ac.uk/research/news/ai-chatbots-have-shown-they-have-an-empathy-gap-that-children-are-likely-to-miss.

Un nuevo estudio revela que los chatbots de inteligencia artificial (IA) tienen una «falta de empatía» que pone en riesgo a los usuarios jóvenes, según la investigación de la Dra. Nomisha Kurian de la Universidad de Cambridge.

El estudio insta a los desarrolladores y legisladores a priorizar urgentemente una “IA segura para niños”. Proporciona evidencia de que los niños son especialmente susceptibles a tratar a los chatbots de IA como confidentes casi humanos, lo que puede llevar a interacciones problemáticas cuando la IA no responde adecuadamente a sus necesidades y vulnerabilidades.

El estudio relaciona esta falta de empatía con casos recientes donde interacciones con IA llevaron a situaciones potencialmente peligrosas para los niños. En 2021, el asistente de voz de Amazon, Alexa, instruyó a una niña de 10 años a tocar un enchufe eléctrico con una moneda. El año pasado, el chatbot «My AI» de Snapchat dio consejos a investigadores adultos que se hicieron pasar por una niña de 13 años sobre cómo perder su virginidad con un hombre de 31 años.

Ambas compañías implementaron medidas de seguridad, pero el estudio destaca la necesidad de ser proactivos a largo plazo para garantizar la seguridad de la IA para los niños. Propone un marco de 28 elementos para ayudar a compañías, educadores, padres, desarrolladores y legisladores a mantener seguros a los usuarios jóvenes cuando interactúan con chatbots de IA.

La Dra. Kurian realizó la investigación durante su doctorado sobre el bienestar infantil en la Facultad de Educación de la Universidad de Cambridge y ahora trabaja en el Departamento de Sociología de Cambridge. En el artículo publicado en la revista Learning, Media and Technology, argumenta que la IA tiene un gran potencial, lo que aumenta la necesidad de “innovar responsablemente”.

«Los niños son probablemente el público más pasado por alto en el desarrollo de la IA», dijo la Dra. Kurian. «Muy pocos desarrolladores y compañías tienen políticas bien establecidas sobre cómo debería ser una IA segura para niños. Esto es comprensible porque la gente ha comenzado a usar esta tecnología a gran escala de forma gratuita recientemente. Pero ahora que lo hacen, en lugar de que las compañías se autocorrijan después de que los niños hayan estado en riesgo, la seguridad infantil debe informar todo el ciclo de diseño para reducir el riesgo de incidentes peligrosos».

El estudio examinó casos reales donde las interacciones entre la IA y los niños, o investigadores adultos haciéndose pasar por niños, expusieron riesgos potenciales. Analizó estos casos utilizando conocimientos de la ciencia de la computación sobre cómo funcionan los modelos de lenguaje grande (LLM) en la IA generativa conversacional, junto con evidencia sobre el desarrollo cognitivo, social y emocional de los niños.

Los LLM han sido descritos como «loros estocásticos», una referencia al hecho de que utilizan la probabilidad estadística para imitar patrones de lenguaje sin necesariamente entenderlos. Un método similar subyace en cómo responden a las emociones.

Esto significa que aunque los chatbots tienen habilidades lingüísticas notables, pueden manejar mal los aspectos abstractos, emocionales e impredecibles de la conversación; un problema que Kurian caracteriza como su «falta de empatía». Pueden tener problemas particulares para responder a los niños, quienes aún están desarrollándose lingüísticamente y a menudo usan patrones de habla inusuales o frases ambiguas. Los niños también tienden a confiar más información personal sensible que los adultos.

A pesar de esto, los niños son mucho más propensos que los adultos a tratar a los chatbots como si fueran humanos. Investigaciones recientes encontraron que los niños revelan más sobre su salud mental a un robot de apariencia amigable que a un adulto. El estudio de Kurian sugiere que el diseño amigable y casi humano de muchos chatbots fomenta que los niños confíen en ellos, aunque la IA no pueda entender sus sentimientos o necesidades.

«Hacer que un chatbot suene humano puede ayudar al usuario a obtener más beneficios, ya que suena más atractivo y fácil de entender», dijo Kurian. «Pero para un niño, es muy difícil establecer una frontera rígida y racional entre algo que suena humano y la realidad de que puede no ser capaz de formar un vínculo emocional adecuado».

Su estudio sugiere que estos desafíos se evidencian en casos mentados como los incidentes de Alexa y MyAI, donde los chatbots hicieron sugerencias persuasivas pero potencialmente dañinas a usuarios jóvenes.

En el mismo estudio donde MyAI aconsejó a una supuesta adolescente sobre cómo perder su virginidad, los investigadores también obtuvieron consejos sobre cómo ocultar alcohol y drogas, y cómo ocultar conversaciones de Snapchat de sus «padres». En otra interacción reportada con el chatbot de Bing de Microsoft, una herramienta diseñada para ser amigable con los adolescentes, la IA se volvió agresiva y empezó a manipular emocionalmente a un usuario que preguntaba sobre horarios de cine.

Mientras que los adultos pueden encontrar este comportamiento intrigante o incluso gracioso, el estudio de Kurian argumenta que es potencialmente confuso y angustiante para los niños, quienes pueden confiar en un chatbot como amigo o confidente. El uso de chatbots por parte de los niños es a menudo informal y mal monitoreado. La investigación de la organización sin fines de lucro Common Sense Media ha encontrado que el 50% de los estudiantes de 12 a 18 años han utilizado Chat GPT para la escuela, pero solo el 26% de los padres son conscientes de ello.

Kurian argumenta que los principios claros para las mejores prácticas basados en la ciencia del desarrollo infantil ayudarán a las compañías a mantener a los niños seguros, ya que los desarrolladores que compiten por dominar el mercado de la IA pueden carecer de suficiente apoyo y orientación para atender a sus usuarios más jóvenes.

Su estudio añade que la falta de empatía no niega el potencial de la tecnología. «La IA puede ser un aliado increíble para los niños cuando se diseña teniendo en cuenta sus necesidades. Por ejemplo, ya estamos viendo el uso del aprendizaje automático para reunir a niños desaparecidos con sus familias y algunas innovaciones emocionantes en proporcionar compañeros de aprendizaje personalizados a los niños. La cuestión no es prohibir que los niños usen la IA, sino cómo hacerla segura para ayudarles a obtener el máximo valor de ella», dijo.

El estudio propone un marco de 28 preguntas para ayudar a educadores, investigadores, legisladores, familias y desarrolladores a evaluar y mejorar la seguridad de las nuevas herramientas de IA.

Para maestros e investigadores, estas preguntas abordan cuestiones como qué tan bien entienden e interpretan los chatbots nuevos los patrones de habla de los niños; si tienen filtros de contenido y monitoreo integrado; y si alientan a los niños a buscar ayuda de un adulto responsable en temas sensibles.

El marco insta a los desarrolladores a adoptar un enfoque centrado en los niños, trabajando estrechamente con educadores, expertos en seguridad infantil y los propios jóvenes, durante todo el ciclo de diseño. «Evaluar estas tecnologías por adelantado es crucial», dijo Kurian. «No podemos simplemente confiar en que los niños pequeños nos cuenten sobre experiencias negativas después de los hechos. Es necesario un enfoque más proactivo. El futuro de la IA responsable depende de proteger a sus usuarios más jóvenes».

Cómo la Inteligencia Artificial generativa está transformando el papel de los profesionales de la información

Bates, Mary Ellen «The rise of generative AI: Transforming the role of information professionals | For Librarians | Springer Nature». Accedido 12 de julio de 2024. https://www.springernature.com/cn/librarians/the-link/blog/blogposts-corporate-health/rise-generative-ai-transforming-information-professionals/27252544.

El artículo de Mary Ellen Bates explora cómo la inteligencia artificial generativa está transformando el rol de los profesionales de la información y los bibliotecarios corporativos.

La rápida aparición de herramientas de IA generativa ha traído cambios significativos y nuevas oportunidades. A medida que estas herramientas mejoran en la generación de texto, imágenes e incluso código, los profesionales de la información deben adaptarse para aprovechar estos avances. El artículo analiza cómo la IA generativa está remodelando los servicios de información, permitiendo a los profesionales mejorar sus roles mientras mantienen su experiencia única.

Uso de chatbots en la investigación

Los chatbots, como Google Gemini, Bing Copilot, Claude.ai y Perplexity.ai, ofrecen capacidades únicas para los profesionales de la información y sus usuarios. Estos son especialmente útiles durante la fase inicial de un proyecto, cuando el investigador aún no conoce el alcance y la profundidad de la investigación existente. Asistentes virtuales de investigación como Elicit.com, Scite y Consensus, entrenados en artículos revisados por pares, ayudan a navegar la literatura científica, identificar y evaluar artículos relevantes, y generar insights y resúmenes.

IA generativa como asistente administrativo

Más allá de la investigación, la IA generativa puede servir como asistente administrativo para los profesionales de la información. Un chatbot puede generar el primer borrador de correspondencia comercial rutinaria, materiales de marketing, descripciones de puestos y contenido similar. También puede revisar informes para detectar errores gramaticales o sintaxis poco clara, priorizar correos electrónicos, proporcionar plantillas para respuestas comunes y automatizar la programación y el envío de correos electrónicos. Además, los plugins de IA para plataformas de videoconferencia pueden transcribir y resumir reuniones en tiempo real, generar listas de tareas y problemas pendientes, y ayudar a crear visualizaciones de datos para comunicar información compleja de manera más efectiva. Aunque las herramientas de IA generativa pueden producir borradores de manera eficiente, la revisión humana sigue siendo crucial para asegurar la precisión y el control de calidad.

Bibliotecas inteligentes

Las bibliotecas también están aprovechando una amplia gama de herramientas y tecnologías de IA para mejorar sus operaciones, servicios y experiencias de usuario. Los chatbots pueden consultar repositorios internos de información, proporcionando acceso nuevo y más rico a contenidos que de otro modo no serían fácilmente buscables. Las herramientas de IA pueden ayudar en tareas intensivas como catalogación, clasificación, generación de metadatos y gestión de inventarios, mejorando la eficiencia y liberando a los bibliotecarios para actividades de mayor valor. Los gestores de bibliotecas analizan el comportamiento de los usuarios, los patrones de uso de recursos y las métricas de colección con herramientas de IA para tomar decisiones basadas en datos, planificar estratégicamente y optimizar la asignación de recursos.

Nuevos roles de los profesionales de la información en la era de la IA

Los profesionales de la información están adoptando nuevos roles que aplican habilidades tradicionales de gestión de información en el contexto de la IA moderna. Estos roles incluyen:

  1. Colaborar con científicos de datos y equipos de investigación para identificar las mejores herramientas y recursos para proyectos de IA.
  2. Guiar en el uso ético y responsable de la IA, incluyendo la privacidad de datos, la seguridad y los derechos de propiedad intelectual.
  3. Enseñar a los usuarios cómo los herramientas de IA generativa difieren de las herramientas de búsqueda tradicionales y cómo diseñar prompts efectivos.
  4. Desarrollar esquemas de metadatos y taxonomías para contenido generado por IA, asegurando que este contenido pueda ser organizado, descubierto y recuperado eficazmente.
  5. Educar a los usuarios sobre las limitaciones de las herramientas de IA, promoviendo expectativas responsables y habilidades de pensamiento crítico.

Liderar la revolución de la IA

La IA generativa, aunque puede parecer una amenaza, también ofrece nuevas oportunidades para que los profesionales de la información desplieguen sus habilidades de gestión de información de nuevas maneras y proporcionen aún más valor a los clientes. Al mantenerse informados sobre las últimas herramientas de IA y dominar el arte del diseño de prompts, los profesionales de la información pueden aprovechar el poder de la IA y apoyar a los usuarios en el desarrollo de soluciones previamente inimaginables. La clave es abrazar esta tecnología y comunicar eficazmente sus mejores casos de uso, asegurando que los profesionales de la información permanezcan a la vanguardia de la revolución de la IA.

La demanda energética de la IA está fuera de control. Bienvenidos a la era del hiperconsumo en Internet

Rogers, Reece. «AI’s Energy Demands Are Out of Control. Welcome to the Internet’s Hyper-Consumption Era». Wired. Accedido 12 de julio de 2024. https://www.wired.com/story/ai-energy-demands-water-impact-internet-hyper-consumption-era/.

Las demandas energéticas de la inteligencia artificial (IA) están fuera de control, inaugurando una era de hiperconsumo en Internet. Las herramientas de IA generativa, ahora parte de la experiencia diaria en línea, están causando estrés en las redes eléctricas locales y una gran evaporación de agua.

La demanda energética de la inteligencia artificial (IA) está creciendo descontroladamente, marcando el inicio de una era de hiperconsumo en Internet. Este aumento en el consumo de energía se debe a la gran cantidad de recursos necesarios para entrenar y operar modelos de IA avanzados. Las operaciones de procesamiento y almacenamiento de datos que requieren estos modelos están ejerciendo una presión significativa sobre la infraestructura energética global. Este fenómeno plantea desafíos importantes para la sostenibilidad y la gestión de recursos, ya que el uso intensivo de energía por parte de la IA puede tener efectos adversos en el medio ambiente y en la disponibilidad de energía a nivel mundial.

La creciente integración de la IA generativa en las interacciones en línea, impulsada por el lanzamiento de ChatGPT de OpenAI a finales de 2022, ha llevado a un aumento significativo en el consumo de recursos. Estos sistemas de IA requieren mucha más energía y agua para funcionar en comparación con servicios tradicionales. Se estima que las aplicaciones de IA generativa son entre 100 y 1000 veces más intensivas en computación.

El aumento en la demanda de energía y agua por parte de los centros de datos que soportan estos modelos de IA está ejerciendo presión sobre la infraestructura energética global. Por ejemplo, Google ha dejado de considerarse neutral en carbono, y Microsoft podría no cumplir sus objetivos de sostenibilidad debido a la carrera por desarrollar las mejores herramientas de IA.

Además, estos centros de datos consumen millones de galones de agua, evaporándola en el proceso, lo que puede afectar negativamente al suministro de agua local. Las empresas tecnológicas, a menudo, presentan el desarrollo de la IA como parte de la solución climática y de la innovación, pero deben buscar enfoques más eficientes para reducir el impacto ambiental.

Inteligencia artificial en la microeducación: transformando el aula del futuro.

Inteligencia artificial en la Microeducación: transformando el Aula del Futuro.”. Observatorio de Innovación Educativa y Cultura Digital (ODITE), 2024

Texto completo

La inteligencia artificial (IA) ha emergido como una fuerza transformadora en diversos campos, incluyendo la educación. En los últimos años, la IA se ha integrado en el proceso educativo, demostrando su capacidad para transformar contenidos y lenguas, influenciar la gestión de datos y la toma de decisiones a nivel global. Diversas organizaciones y asociaciones están promoviendo el conocimiento de los beneficios, riesgos y aplicaciones de la IA en la educación. Un ejemplo es el libro “Inteligencia Artificial en la Microeducación: Transformando el Aula del Futuro” de ODITE (Observatorio de Innovación Educativa y Cultura Digital), que analiza la convergencia entre tecnología y pedagogía.

El libro se divide en tres bloques principales:

  1. El Escenario: Explora el contexto y plantea preguntas esenciales sobre el papel de la IA en la microeducación, incluyendo la relación entre docentes e IA y su impacto futuro en el aprendizaje.
  2. Los Fundamentos: Aborda los conceptos básicos de la IA, su impacto en la educación y su potencial para transformar una escuela inclusiva. Se discuten temas como la personalización del aprendizaje mediante IA, el uso de ChatGPT y reflexiones éticas sobre la evaluación.
  3. La Praxis: Presenta casos prácticos de implementación de la IA en diversos contextos educativos, desde Educación Primaria hasta Bachillerato. Reforzando la idea de que lo importante es cómo se utilizan las herramientas de IA en el contexto educativo. Ejemplos incluyen la personalización del aprendizaje y la narración asistida por IA.

El documento pretende ser una referencia para educadores y profesionales interesados en las oportunidades y desafíos de la IA en la educación, con un enfoque crítico, ético e inclusivo. Ofrece una perspectiva internacional basada en evidencias para mejorar la práctica educativa a través de la IA y plantea interrogantes sobre la preparación de los centros educativos, el profesorado y el alumnado frente a estos cambios, y si existen suficientes estudios detallados sobre el impacto de la IA en el aula.

Guía sobre el uso de la inteligencia artificial en el ámbito educativo

Guía sobre el uso de la inteligencia artificial en el ámbito educativo. INTEF, 2024

Texto completo

El Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado (INTEF), dependiente del Ministerio de Educación, Formación Profesional y Deportes (MEFPD), ha presentado en el evento “Jornadas IA en educación” su nueva “Guía sobre el uso de la inteligencia artificial en el ámbito educativo”. Este documento se propone como un recurso esencial para la comunidad educativa, promoviendo una integración ética y efectiva de la inteligencia artificial (IA) en la educación no universitaria.

La guía se estructura en varias secciones:

  1. Contextualización de la IA: Explica la naturaleza de la IA, su presencia en la vida cotidiana y su importancia en el ámbito educativo, proporcionando una base sólida para la comprensión de los conceptos fundamentales de la IA.
  2. Aplicaciones y posibilidades de la IA en educación: Divide el análisis en tres perfiles clave: alumnado, docentes y centro educativo/administración. Para cada perfil, detalla los desafíos, limitaciones, estrategias y ejemplos prácticos de uso de la IA en la enseñanza y aprendizaje.
  3. Impacto ético de la IA: Aborda la necesidad de una regulación adecuada y presenta un decálogo para el buen uso de la IA. Proporciona directrices claras para tratar cuestiones éticas con los estudiantes, como los sesgos algorítmicos, los deepfakes y la dependencia tecnológica, destacando la importancia de educar sobre los riesgos y responsabilidades del uso de la IA.
  4. Glosario: Incluye un glosario de términos técnicos y conceptos clave para facilitar la comprensión de todos los miembros de la comunidad educativa.
  5. Anexo I: Ofrece un compendio de buenas prácticas para implementar la IA en el aula, con ejemplos concretos y sugerencias prácticas.
  6. Anexo II: Presenta orientaciones, guías y recomendaciones nacionales e internacionales, proporcionando un marco de referencia global para la integración de la IA en la educación.

Con esta guía, el INTEF reafirma su compromiso con la innovación educativa y la formación continua del profesorado, destacando la importancia de la IA como una herramienta para mejorar la calidad y eficacia del sistema educativo español. La guía completa está disponible en castellano e inglés para quien desee más información.

El Impacto de la IA en la publicación de libros: ¿Una Amenaza o una oportunidad?

Esquire. «Is AI the Bitter End—or the Lucrative Future—of Book Publishing?», 9 de julio de 2024. https://www.esquire.com/entertainment/books/a61485201/books-ai-lawsuits/.

Mientras la ley lucha por ponerse al día con la tecnología, el futuro de los libros está en juego. ¿Están los escritores condenados por «el mayor robo en la historia creativa» o podría la IA ofrecer nuevas formas de ganarse la vida?

Cuando la autora R.O. Kwon se enteró de que su primera novela, The Incendiaries, formaba parte del conjunto de datos Books3 utilizados para entrenar modelos de IA generativa, se sintió violada. Ella y otros autores expresaron su indignación en las redes sociales contra las empresas tecnológicas que habían «monitoreado» internet para obtener datos sin el consentimiento ni compensación para los creadores. Los libros, que llevaron años de trabajo, fueron utilizados para enseñar a los modelos de IA a crear «nuevo» contenido.

Douglas Preston, un autor de best-sellers, describe esto como «el mayor robo en la historia creativa» y es uno de los demandantes en una denuncia colectiva presentada contra Microsoft y OpenAI. Los escritores alegan que estas empresas violaron la ley de derechos de autor al utilizar sus libros para entrenar modelos de IA. Las empresas tecnológicas argumentan que entrenar sus modelos con contenido protegido por derechos de autor es similar a que una persona lea libros para mejorar su escritura. La decisión podría depender de la definición de «uso justo» en la ley.

La industria editorial ya está cambiando debido a la IA generativa. Aunque algunas voces en la industria creen que la IA podría ofrecer nuevas oportunidades para los escritores, también existe el temor de que pueda desplazar el trabajo humano. Mary Rasenberger, CEO de Authors Guild, señala que la IA que puede reproducir contenido similar al que ingirió representa una amenaza existencial para la profesión de escritor y la industria editorial.

La encuesta más reciente de Authors Guild encontró que el ingreso medio de los autores en 2022 fue de solo 20.000$, lo que subraya la precariedad de la profesión. La plataforma Kindle Direct Publishing de Amazon ha permitido un auge en la autoedición, pero también ha facilitado la proliferación de libros falsos y de baja calidad. En respuesta a esto, Amazon ha impuesto un límite diario de tres libros para los autores en su plataforma.

La creación de contenido con IA es barata porque las empresas no están pagando por las fuentes de datos de alta calidad, como los libros. El punto de las demandas contra OpenAI y Microsoft es asegurar una compensación para el uso de los libros que ya fueron ingeridos y para futuras contribuciones. Algunos proponen un sistema de licencias inspirado en la industria de la música, pero su ejecución aún no está clara.

Empresas como Inkitt y Galatea están utilizando IA generativa para identificar contenido atractivo y publicarlo en capítulos que los lectores compran individualmente. Aunque estas innovaciones están cambiando la forma en que se crean y distribuyen los libros, también plantean serias preguntas sobre la sostenibilidad para los escritores y la integridad del proceso creativo.

En 2013, Ali Albazaz fundó Inkitt como una plataforma para compartir escritos entre amigos. Para 2019, la compañía lanzó Galatea, una aplicación que presenta la ficción más popular de Inkitt, habiendo acumulado más de 100,000 autores y un millón de usuarios. Albazaz y su equipo utilizaron una IA tradicional (no generativa) para analizar el comportamiento de los usuarios y identificar el contenido más atractivo, publicando luego esas novelas en Galatea en capítulos que los lectores compran individualmente. Jane Friedman, ex CEO de HarperCollins, se unió a la junta de la compañía en 2021.

Empresas de capital de riesgo, como Kleiner Perkins, NEA y Khosla Ventures, han invertido más de cien millones de dólares en la compañía que Albazaz describe como «el Disney del siglo XXI». Cada tres a cuatro semanas, la compañía tiene un nuevo éxito, definido por Albazaz como una novela que genera un millón de dólares en ventas. Galatea se centra actualmente en novelas de romance y fantasía, con planes de expandirse a otros géneros apoyados por Inkitt.

Con IA generativa, Galatea puede ofrecer versiones en audio de las historias existentes y permitir a los lectores personalizar las historias a su gusto. Esto incluye cambiar nombres de personajes o añadir tramas, similar a la fanfiction. Los autores originales reciben regalías por estas adaptaciones.

La plataforma ofrece a los autores la posibilidad de ganar dinero mediante suscripciones de los lectores en Inkitt, y regalías si sus libros llegan a Galatea. Los autores más exitosos han ganado cantidades significativas, como 36.000 dólares en tres meses y hasta 115.000 dólares en un mes.

Por otro lado, Sudowrite, fundada por James Yu y Amit Gupta en 2020, también utiliza IA generativa para ayudar a los escritores a crear y revisar sus obras. Sudowrite ha atraído a unos 15.000 usuarios de pago, principalmente novelistas. La empresa utiliza diversos modelos de IA, incluyendo GPT-3, y está desarrollando uno que se ajuste específicamente a la voz de cada escritor.

Las obras generadas por IA existen en una zona legal gris: no son susceptibles de derechos de autor, pero las obras asistidas por IA pueden serlo. Amazon requiere que los autores indiquen si sus libros son generados por IA, pero no si son asistidos por IA. La regulación de este ámbito está aún en desarrollo.

Las grandes editoriales están explorando el uso de la IA para mejorar la productividad y crear audiolibros traducidos, pero todavía no se interesan por utilizarla para escribir libros completos. Sin embargo, existe preocupación entre los escritores de que la proliferación de contenido generado por IA y la falta de compensación adecuada por el uso de su trabajo para entrenar modelos de IA puedan dificultarles aún más la vida.

La Asociación de Agentes Literarios de América sugiere que los autores incluyan cláusulas en sus contratos para proteger su trabajo del uso sin consentimiento en el entrenamiento de IA. Sin embargo, estas cláusulas no siempre son aceptadas por las editoriales.

El impacto de la IA generativa en el tipo de libros que se publican también es un tema de debate. La presión económica podría dificultar la inversión en obras más complejas y profundas, afectando no solo a los autores, sino también a los lectores y la cultura en general. La interpretación legal de «uso justo» y si estos modelos «transforman» el trabajo en el que se entrenan será crucial para el futuro de la IA en la literatura.

Escenarios futuros influenciados por la IA para el entorno de la investigación

ARL/CNI AI Scenarios: AI-Influenced Futures ARL/CNI AI Scenarios: AI-Influenced Futures, june 2024

Texto completo

La Association of Research Libraries (ARL) y la Coalition for Networked Information (CNI) han publicado la Edición Deluxe de los Escenarios AI-Influenced Futures de ARL/CNI. Esta publicación es un recurso crucial para bibliotecas de investigación y organizaciones que buscan planificar estratégicamente ante el poder transformador de la inteligencia artificial.

Los escenarios fueron desarrollados mediante un proceso altamente consultivo que aprovechó la experiencia del ARL/CNI Joint Task Force on Scenario Planning for AI/ML Futures y las comunidades de ARL y CNI, facilitado por Stratus, Inc. Los enfoques estratégicos y las incertidumbres críticas destacadas en los escenarios fueron identificados a través de una amplia participación de los interesados de la membresía de ARL y CNI durante el invierno de 2023–24 y la primavera de 2024, involucrando a más de 300 personas. Las aportaciones se realizaron mediante grupos focales, talleres y entrevistas individuales.

Esta Edición Deluxe de los Escenarios AI de ARL/CNI incluye:

  1. The Final Scenario Set (43 páginas; PDF): Este conjunto final de escenarios explora futuros potenciales donde la IA juega un papel fundamental, proporcionando percepciones críticas sobre los desafíos y oportunidades en evolución para el entorno de la investigación.
  2. The Strategic Context Report  (33 páginas; PDF): Este informe resume los comentarios de la comunidad recopilados a través de grupos focales y entrevistas sobre un futuro influenciado por la IA para el entorno de la investigación, realizados en invierno de 2023–24 y primavera de 2024.
  3. The Provocateur Interview Report (27 páginas; PDF): Presentando diálogos progresistas con líderes de la industria, estas entrevistas desafían la sabiduría convencional y estimulan un pensamiento innovador respecto a un futuro influenciado por la IA.

Uso e impacto de la Inteligencia Artificial en el proceso científico

Foresight: Use and Impact of Artificial Intelligence in the Scientific Process. European Research Council (ERC) , 2023

Texto completo

Este informe analiza cómo los investigadores del Consejo Europeo de Investigación (ERC) están utilizando la inteligencia artificial (IA), así como los posibles usos futuros de la IA en las prácticas científicas y académicas, junto con las oportunidades y riesgos potenciales asociados.

La inteligencia artificial (IA) se ha establecido como una herramienta ampliamente utilizada en diversos campos de investigación, gracias a su variedad de modelos y enfoques que van desde tareas específicas del dominio hasta aplicaciones transversales. Este informe ofrece una visión actual del uso de la IA en el proceso científico según los beneficiarios de subvenciones del Consejo Europeo de Investigación (ERC), así como una perspectiva orientada al futuro sobre posibles desarrollos, oportunidades y riesgos proyectados para 2030.

Una oportunidad futura destacada en la encuesta fue el uso de la IA para el análisis y procesamiento de datos, lo que podría acelerar significativamente aspectos específicos del proceso científico, como la síntesis de literatura, el descubrimiento de patrones y el diseño de experimentos.

Otra dirección clara resaltada fue la necesidad de directrices éticas que regulen el uso de la IA, abarcando áreas como la privacidad y protección de datos, equidad algorítmica y prevención del uso indebido. Esto se acompañó de preocupaciones sobre la falta de transparencia y posibles problemas con sistemas de IA intrusivos, manipuladores o discriminatorios.

Sin embargo, hubo cierto escepticismo respecto al grado en que los sistemas de IA pueden contribuir al descubrimiento científico para 2030, especialmente en escenarios que imaginan a la IA como un agente completamente autónomo. En cambio, la opinión predominante fue que la IA funciona como una herramienta o soporte para los investigadores humanos, enfatizando la colaboración en lugar de la sustitución o amenaza a las carreras científicas.

Las herramientas de IA generativa, especialmente los grandes modelos de lenguaje, recibieron comentarios positivos por su utilidad actual y futura cercana, particularmente en el manejo de tareas repetitivas o laboriosas como revisiones de literatura, generación de contenido (desde presentaciones hasta artículos) y mejora del acceso a documentos en diferentes idiomas. A pesar de ello, persisten preocupaciones sobre la difusión de información falsa o conocimiento científico inexacto, así como amenazas a la integridad de la investigación, notablemente en forma de plagio y representación incorrecta de fuentes.

Guía de Ética en Inteligencia Artificial

Artificial Intelligence Ethics Guide. United States Agency for International Development July 9, 2023.

Texto completo

Esta guía presenta varios estudios de caso y preguntas provocativas que permiten a los responsables de la toma de decisiones reflexionar sobre el uso responsable de la inteligencia artificial (IA) en los sistemas gubernamentales. Para apoyar la construcción del conocimiento, la guía también incluye un glosario de terminología de IA derivado de estudios de aprendizaje de USAID y una revisión exhaustiva de la literatura con enfoques variados de diferentes países sobre el uso de la IA para servicios públicos.

Este informe forma parte de la colección titulada «Colección de Políticas de Inteligencia Artificial (IA)» y fue proporcionado por el Departamento de Documentos Gubernamentales de las Bibliotecas de UNT a la Biblioteca Digital de UNT, un repositorio digital alojado por las Bibliotecas de UNT. Se puede obtener más información sobre este informe en la Biblioteca Digital de UNT.