Archivo de la etiqueta: Inteligencia artificial

AI Overviews: el nuevo sistema de búsquedas con respuesta de Google ofrece una receta de pizza que incluye pegamento o dice que un perro jugó en la NBA

«Google AI Overviews Can Produce Medical Misinformation – IEEE Spectrum». Accedido 17 de junio de 2024. https://spectrum.ieee.org/google-ai-search.

El mes pasado, Google lanzó AI Overviews, una herramienta de búsqueda con IA que genera respuestas basadas en diversas fuentes. Aunque Google aseguró haber probado extensamente la herramienta, los usuarios encontraron errores graves en las respuestas.

El mes pasado, Google lanzó su nueva herramienta de búsqueda con IA llamada AI Overviews. La compañía aseguró que había probado la herramienta extensamente, mencionando que «las personas ya han utilizado AI Overviews miles de millones de veces a través de nuestro experimento en Search Labs». A diferencia de una búsqueda típica de Google que devuelve enlaces a páginas web, esta herramienta genera respuestas basadas en diversas fuentes, las cuales enlaza debajo de la respuesta generada.

Inmediatamente después del lanzamiento, los usuarios comenzaron a publicar ejemplos de respuestas extremadamente erróneas, como una receta de pizza que incluía pegamento y el hecho curioso de que un perro había jugado en la NBA.

Renée DiResta, gerente de investigación técnica en el Observatorio de Internet de Stanford, ha seguido la desinformación en línea durante muchos años y habló con IEEE Spectrum sobre el potencial de la herramienta AI Overviews para difundir consejos médicos erróneos. DiResta explicó que Google ha tenido políticas durante mucho tiempo que parecen estar en conflicto con los resultados generados por la búsqueda con IA. La rapidez en el despliegue de estas herramientas de IA en la capacidad de búsqueda ha sido apresurada y poco considerada, ya que los usuarios esperan obtener información autorizada de los motores de búsqueda.

Google reconoció los problemas en una publicación de blog, afirmando que está al tanto de estos resultados pobres y que está intentando mejorar. Mencionaron «refinamientos de activación adicionales para mejorar nuestras protecciones de calidad» en temas de salud, aunque no está claro qué significa exactamente. Generalmente Google tiene una política llamada Your Money or Your Life que aplica altos estándares de cuidado para consultas relacionadas con finanzas y salud. Esta política tiene como objetivo devolver resultados de búsqueda de alta calidad para temas de gran impacto en la vida de las personas. Sin embargo, AI Overviews parece no seguir esta política, devolviendo información de baja calidad en algunas respuestas médicas.

Encuesta sobre el uso de chatbots de IA generativa por parte de estudiantes para la investigación académica

Deschenes, A., & McMahon, M. (2024). A Survey on Student Use of Generative AI Chatbots for Academic Research. Evidence Based Library and Information Practice19(2), 2–22. https://doi.org/10.18438/eblip30512

El estudio de Amy Deschenes y Meg McMahon de la Universidad de Harvard revela que el 65% de los estudiantes utiliza o planea utilizar chatbots de IA generativa para trabajos académicos, aunque muchos desconfían de sus resultados. A pesar de su uso activo, los estudiantes buscan orientación para utilizarlos eficazmente. Los bibliotecarios deben aprender a usar estas herramientas para apoyar a los estudiantes en la evaluación crítica y la incorporación de resultados de IA en sus investigaciones.

La investigación tiene como tiene como objetivo comprender el uso de la IA generativa entre estudiantes de pregrado y posgrado. Específicamente, se busca saber cuántos estudiantes utilizan estas herramientas, con qué frecuencia y para qué tareas. Además, se pretende identificar la confianza de los estudiantes en los resultados generados por la IA y sus opiniones sobre la posibilidad de una herramienta de IA generativa mantenida localmente. También se exploró el interés de los estudiantes en recibir capacitación sobre el uso de la IA generativa en el contexto académico. Este estudio tiene como finalidad ayudar a los bibliotecarios a entender la adopción de la IA generativa entre los estudiantes y la necesidad de incorporarla en sus labores de apoyo académico.

Para llevar a cabo el estudio, un equipo compuesto por tres miembros del personal de la biblioteca y un pasante estudiante diseñó y ejecutó una encuesta que fue distribuida a 360 estudiantes de la Universidad de Harvard. La distribución se realizó a través de listas de correo electrónico y en lugares frecuentados por estudiantes como cafés y bibliotecas del campus. La recopilación y análisis de datos se llevó a cabo utilizando la plataforma Qualtrics.

Los resultados revelaron que casi el 65% de los encuestados ha utilizado o planea utilizar chatbots de IA generativa para sus trabajos académicos. Sin embargo, a pesar de este uso, la mayoría de los estudiantes (65%) no considera que los resultados generados por la IA sean suficientemente confiables para fines académicos. Estos hallazgos indican que, aunque los estudiantes emplean activamente estas herramientas, existe una necesidad de orientación y formación sobre su uso eficaz.

Se encontró que casi el 65% de los encuestados ha utilizado o planea utilizar chatbots de IA generativa para el trabajo académico, aunque la mayoría de los encuestados (65%) no encuentra sus resultados lo suficientemente confiables para el trabajo académico. Los hallazgos muestran que los estudiantes usan activamente estas herramientas, pero desean orientación sobre cómo usarlas eficazmente.

En conclusión, la investigación muestra que los estudiantes están interactuando con la IA generativa en sus actividades académicas, pero no confían completamente en la información que esta produce. Es esencial que los bibliotecarios comprendan el impacto significativo de esta tecnología en los hábitos de búsqueda de información y de investigación de los estudiantes. Para brindar un apoyo adecuado, los bibliotecarios deben estar capacitados en el uso de estas herramientas, de manera que puedan asesorar a los estudiantes sobre cómo evaluar críticamente los resultados de la IA e incorporarlos de manera efectiva en sus investigaciones.

Guía Ampliada sobre el uso de IA para autores, editores y revisores de Taylor & Francis

Robinson, Mark. «Taylor & Francis Issues Expanded Guidance on AI Application for Authors, Editors and Reviewers». Taylor & Francis Newsroom, 12 de junio de 2024. https://newsroom.taylorandfrancisgroup.com/expanded-guidance-on-ai-application-for-authors-editors-and-reviewers/.

A medida que el uso de inteligencia artificial (IA) generativa en la investigación y la escritura sigue evolucionando, Taylor & Francis ha emitido la última iteración de su política sobre la aplicación de herramientas de IA. La política tiene como objetivo promover el uso ético y transparente de la IA, al mismo tiempo que aborda los riesgos y desafíos que puede presentar para la publicación de investigaciones.

Las herramientas de IA generativa están proporcionando un apoyo positivo a los investigadores en áreas como la generación de ideas, la codificación, la mejora del lenguaje y la difusión de la investigación. Sin embargo, su uso también puede plantear riesgos serios para los trabajos académicos, incluyendo la introducción de inexactitudes, sesgos o falta de atribución, así como comprometer la confidencialidad y los derechos de propiedad intelectual.

Para apoyar la adopción responsable de las oportunidades de la IA y responder a preguntas comunes, Taylor & Francis ha lanzado una nueva política que describe las expectativas para autores, editores y revisores que utilizan herramientas de IA en su trabajo.

La guía para autores se basa en el principio de que ellos siguen siendo responsables de la originalidad, validez e integridad del contenido que envían a los editores. Cubre áreas como la atribución de autoría, el reconocimiento del uso de IA y las actividades para las cuales no se permite el uso de IA.

Se recuerda a los editores y revisores en la política sobre los riesgos que plantea el uso de IA para la precisión, la confidencialidad, los derechos de propiedad y los datos. Con esto en mente, la guía describe varias tareas para las cuales no se deben usar herramientas de IA, con el fin de mantener los estándares de calidad editorial y de revisión por pares.

La política se basa en el estado actual de la IA generativa y la ética de la investigación, y se espera que siga evolucionando a medida que la tecnología y la práctica se desarrollen. Taylor & Francis acoge con satisfacción las nuevas posibilidades ofrecidas por las herramientas de IA y anima a los investigadores a usarlas de manera responsable y de acuerdo con la nueva guía.

¿Está ChatGPT más cerca de un bibliotecario humano que de Google?

Brandom, David. ChatGPT: An AI OpenAI Like a Librarian, Search Google. [Gizmodo]. 2024-06-13. https://gizmodo.com/chatgpt-ai-openai-like-a-librarian-search-google-1850238908

El modelo predominante de acceso y recuperación de información antes de que los motores de búsqueda se convirtieran en la norma -bibliotecarios y expertos en la materia o en la búsqueda que proporcionaban información relevante- era interactivo, personalizado, transparente y autorizado. Hoy en día, los motores de búsqueda son la principal forma de acceder a la información, pero introducir unas cuantas palabras clave y obtener una lista de resultados ordenados por alguna función desconocida no es lo ideal.

Una nueva generación de sistemas de acceso a la información basados en inteligencia artificial, como Bing/ChatGPT de Microsoft, Google/Gemini y Meta/LLaMA, está cambiando el modo tradicional de entrada y salida de los motores de búsqueda. Estos sistemas son capaces de tomar frases completas e incluso párrafos como entrada y generar respuestas personalizadas en lenguaje natural.

Casi 4.000 empleos se perdieron el mes pasado a causa de la IA, según un informe
Nvidia afirma que su nuevo superordenador «cierra oficialmente la brecha digital». Las antiguas predicciones sobre IA demuestran que nuestras esperanzas y temores no son nuevos, aunque la tecnología sí lo sea

A primera vista, esto podría parecer lo mejor de ambos mundos: respuestas personales y personalizadas combinadas con la amplitud y profundidad del conocimiento en Internet. Pero como investigador que estudia los sistemas de búsqueda y recomendación, creo que el panorama es, en el mejor de los casos, contradictorio.

Los sistemas de IA como ChatGPT y Gemini se basan en grandes modelos lingüísticos. Un modelo lingüístico es una técnica de aprendizaje automático que utiliza una gran cantidad de textos disponibles, como artículos de Wikipedia y PubMed, para aprender patrones. En términos sencillos, estos modelos calculan qué palabra es probable que venga a continuación, dado un conjunto de palabras o una frase. De este modo, son capaces de generar frases, párrafos e incluso páginas que corresponden a una consulta de un usuario.

Gracias al entrenamiento sobre grandes volúmenes de texto, el ajuste fino y otros métodos basados en el aprendizaje automático, este tipo de técnica de recuperación de información funciona con bastante eficacia. Los grandes sistemas basados en modelos lingüísticos generan respuestas personalizadas para satisfacer las consultas de información. Los resultados han sido tan impresionantes que ChatGPT alcanzó los 100 millones de usuarios en un tercio del tiempo que tardó TikTok en llegar a ese hito. La gente lo ha utilizado no sólo para encontrar respuestas, sino para generar diagnósticos, crear planes de dieta y hacer recomendaciones de inversión.

Sin embargo, hay muchos inconvenientes. En primer lugar, consideremos lo que constituye el núcleo de un gran modelo lingüístico: un mecanismo mediante el cual conecta las palabras y, presumiblemente, sus significados. Esto produce un resultado que a menudo parece una respuesta inteligente, pero se sabe que los grandes sistemas de modelos lingüísticos producen declaraciones casi como loros sin una comprensión real. Así, aunque el resultado generado por estos sistemas pueda parecer inteligente, no es más que un reflejo de patrones subyacentes de palabras que la IA ha encontrado en un contexto apropiado.

Esta limitación hace que los grandes sistemas de modelos lingüísticos sean susceptibles de inventar o «alucinar» respuestas. Los sistemas tampoco son lo suficientemente inteligentes como para entender la premisa incorrecta de una pregunta y responder de todos modos a preguntas erróneas. Por ejemplo, cuando se le pregunta qué cara de presidente de EE.UU. aparece en el billete de 100 dólares, ChatGPT responde Benjamin Franklin sin darse cuenta de que Franklin nunca fue presidente y de que la premisa de que el billete de 100 dólares tiene la foto de un presidente de EE.UU. es incorrecta.

El problema es que, aunque estos sistemas se equivoquen sólo un 10% de las veces, no se sabe qué 10%. La gente tampoco tiene la capacidad de validar rápidamente las respuestas de los sistemas. Esto se debe a que estos sistemas carecen de transparencia: no revelan con qué datos se han entrenado, qué fuentes han utilizado para dar respuestas o cómo se generan esas respuestas.

Por ejemplo, puedes pedirle a ChatGPT que escriba un informe técnico con citas. Pero a menudo se inventa estas citas, «alucinando» tanto con los títulos de los artículos académicos como con los autores. Los sistemas tampoco validan la exactitud de sus respuestas. Esto deja la validación en manos del usuario, y los usuarios pueden no tener la motivación o las habilidades para hacerlo o incluso reconocer la necesidad de comprobar las respuestas de una IA. ChatGPT no sabe cuándo una pregunta no tiene sentido, porque no conoce ningún dato.

Aunque la falta de transparencia puede ser perjudicial para los usuarios, también es injusta para los autores, artistas y creadores de los contenidos originales de los que han aprendido los sistemas, ya que éstos no revelan sus fuentes ni proporcionan atribuciones suficientes. En la mayoría de los casos, los creadores no son compensados ni acreditados, ni se les da la oportunidad de dar su consentimiento.

Esto también tiene un aspecto económico. En un motor de búsqueda típico, los resultados se muestran con los enlaces a las fuentes. Esto no sólo permite al usuario verificar las respuestas y proporciona las atribuciones a esas fuentes, sino que también genera tráfico para esos sitios. Muchas de estas fuentes dependen de este tráfico para sus ingresos. Dado que los grandes sistemas de modelos lingüísticos producen respuestas directas, pero no las fuentes de las que proceden, creo que es probable que esos sitios vean disminuir sus fuentes de ingresos.

Por último, esta nueva forma de acceder a la información también puede restar poder a las personas y quitarles la oportunidad de aprender. Un proceso de búsqueda típico permite a los usuarios explorar el abanico de posibilidades para sus necesidades de información, lo que a menudo les lleva a ajustar lo que buscan. También les da la oportunidad de aprender qué hay ahí fuera y cómo se conectan las distintas piezas de información para realizar sus tareas. Y permite encuentros accidentales o serendipia.

Son aspectos muy importantes de la búsqueda, pero cuando un sistema produce los resultados sin mostrar sus fuentes ni guiar al usuario a través de un proceso, le priva de estas posibilidades.

Los grandes modelos lingüísticos suponen un gran avance en el acceso a la información, ya que ofrecen a las personas una forma de interactuar basada en el lenguaje natural, producir respuestas personalizadas y descubrir respuestas y patrones que a menudo resultan difíciles de imaginar para un usuario medio. Pero tienen graves limitaciones por la forma en que aprenden y construyen las respuestas. Sus respuestas pueden ser erróneas, tóxicas o sesgadas.

Aunque otros sistemas de acceso a la información también pueden adolecer de estos problemas, los sistemas de IA con grandes modelos lingüísticos también carecen de transparencia. Y lo que es peor, sus respuestas en lenguaje natural pueden contribuir a alimentar una falsa sensación de confianza y autoridad que puede resultar peligrosa para los usuarios desinformados.

OpenAI y Apple anuncian una colaboración para Integrar ChatGPT en las experiencias de Apple

«OpenAI and Apple Announce Partnership». Accedido 13 de junio de 2024. https://openai.com/index/openai-and-apple-announce-partnership/.

Apple está integrando ChatGPT en las experiencias dentro de iOS, iPadOS y macOS, permitiendo a los usuarios acceder a las capacidades de ChatGPT, incluyendo la comprensión de imágenes y documentos, sin necesidad de cambiar entre herramientas.

Siri también podrá utilizar la inteligencia de ChatGPT cuando sea útil. Los usuarios de Apple serán consultados antes de que cualquier pregunta se envíe a ChatGPT, junto con cualquier documento o foto, y luego Siri presentará la respuesta directamente.

Además, ChatGPT estará disponible en las Herramientas de Escritura de todo el sistema de Apple, para ayudar a los usuarios a generar contenido sobre cualquier tema que estén escribiendo. Los usuarios también podrán utilizar las herramientas de imágenes de ChatGPT para generar imágenes en una amplia variedad de estilos que complementen lo que están escribiendo.

Las protecciones de privacidad están integradas al acceder a ChatGPT dentro de Siri y Herramientas de Escritura: las solicitudes no son almacenadas por OpenAI y las direcciones IP de los usuarios están ocultas. Los usuarios también pueden optar por conectar su cuenta de ChatGPT, lo que significa que sus preferencias de datos se aplicarán bajo las políticas de ChatGPT.

La integración de ChatGPT, impulsada por GPT-4o, llegará a iOS, iPadOS y macOS a finales de este año. Los usuarios podrán acceder de forma gratuita sin crear una cuenta, y los suscriptores de ChatGPT podrán conectar sus cuentas y acceder a funciones pagas directamente desde estas experiencias.

La «fiebre del oro» de la IA por los datos de entrenamiento de chatbots podría quedarse sin texto escrito por humanos

AP News. «AI “gold Rush” for Chatbot Training Data Could Run out of Human-Written Text», 6 de junio de 2024. https://apnews.com/article/ai-artificial-intelligence-training-data-running-out-9676145bac0d30ecce1513c20561b87d.

Los sistemas de inteligencia artificial, como ChatGPT, dependen de grandes cantidades de texto escrito por humanos disponible en línea para mejorar su rendimiento. Sin embargo, un estudio de Epoch AI advierte que las empresas tecnológicas podrían agotar el suministro de estos datos públicos entre 2026 y 2032. Esta situación se compara con una «fiebre del oro» que podría dificultar el progreso continuo en el campo de la IA.

A corto plazo, empresas como OpenAI y Google están buscando asegurar fuentes de datos de alta calidad, incluso pagando por ellos, como es el caso de los datos provenientes de foros como Reddit y medios de comunicación. Sin embargo, a largo plazo, no habrá suficientes nuevos blogs, artículos de noticias y comentarios en redes sociales para sostener el desarrollo de la IA. Esto podría llevar a depender de datos sensibles considerados privados, como correos electrónicos o mensajes de texto, o recurrir a datos sintéticos generados por los propios chatbots, los cuales son menos confiables.

Algunos expertos, como Nicolas Papernot, creen que no es necesario seguir entrenando modelos cada vez más grandes, sino enfocarse en modelos más especializados. Además, existe preocupación por el uso de datos generados por IA para entrenar más IA, lo que podría llevar a la «degradación del rendimiento» o «colapso del modelo». Sitios como Reddit y Wikipedia, así como editores de noticias y libros, están reconsiderando cómo se utilizan sus datos. Wikipedia, por ejemplo, permite el uso de sus entradas por parte de empresas de IA, pero subraya la necesidad de mantener incentivos para la creación de contenido humano.

Sam Altman, CEO de OpenAI, mencionó que aunque se está experimentando con datos sintéticos, es crucial que estos sean de alta calidad para evitar ineficiencias en el entrenamiento de modelos de IA. En resumen, el campo de la inteligencia artificial enfrenta un posible agotamiento de textos escritos por humanos para el entrenamiento de sus modelos, lo que plantea importantes desafíos y la necesidad de buscar soluciones alternativas para mantener el progreso tecnológico.

Reconversión de la IA en las bibliotecas

Lo, Leo S., y Victoria Anderson. «AI Reskilling in Libraries: When the Dean’s Assistant Gets an AI Assistant | Lo | College & Research Libraries News», 7 de junio de 2024. https://doi.org/10.5860/crln.85.6.258.

El rápido avance de la IA generativa representa un momento crucial para las bibliotecas. Con sistemas tan potentes como ChatGPT, cada vez más extendidos, las bibliotecas se enfrentan tanto a oportunidades como a la necesidad urgente de reciclar a su personal. Análisis recientes del Boston Consulting Group predicen que en dos décadas más del 30% de las actividades de la mayoría de los trabajos podrían ser realizadas por máquinas, mientras que más del 15% de los trabajos podrían ser totalmente automatizados.

Según el informe «The Future of Job Report 2023» del Foro Económico Mundial, la formación de los trabajadores para utilizar herramientas de IA se considera una de las principales prioridades de muchas empresas. Una encuesta de 2023 a empleados de bibliotecas universitarias reveló entusiasmo por el desarrollo profesional en torno a la IA generativa, aunque menos del 7% de los encuestados utiliza actualmente versiones premium de los principales sistemas. Esta discrepancia corre el riesgo de dejar a los trabajadores de las bibliotecas sin preparación para los flujos de trabajo asistidos por IA y las funciones que se prevé que sean omnipresentes en la próxima década.

A medida que las bibliotecas experimentan su transformación digital, el desarrollo de la alfabetización en IA entre el personal a todos los niveles se está convirtiendo en una cuestión de supervivencia competitiva más que de innovación.

El Origen de la Información en ChatGPT con la Herramienta RAGE


«El Origen de la Información en ChatGPT con la Herramienta RAGE», 6 de junio de 2024. https://wwwhatsnew.com/2024/06/06/el-origen-de-la-informacion-en-chatgpt-con-la-herramienta-rage/.

La inteligencia artificial sigue avanzando a pasos agigantados, pero con estos avances surgen nuevos desafíos. Uno de los problemas más preocupantes es entender de dónde proviene la información que nos proporcionan los modelos de lenguaje como ChatGPT. Aquí entra en juego una innovadora herramienta desarrollada por un equipo de la Universidad de Waterloo: RAGE.

La Importancia de Saber de Dónde Proviene la Información

En la era digital, los modelos de lenguaje grande (LLMs), como ChatGPT, se han convertido en herramientas fundamentales en diversas áreas, desde la medicina hasta el derecho. Sin embargo, estos modelos no están exentos de problemas. Al funcionar mediante el «aprendizaje profundo no supervisado», recopilan información de toda la web de maneras que pueden ser complicadas de rastrear.

Problemas de Confiabilidad

Un problema común con los LLMs es la alucinación. Es decir, estos modelos pueden generar respuestas que parecen coherentes y precisas, pero que en realidad están basadas en información incorrecta o inexistente. Esto plantea un gran desafío, especialmente cuando las respuestas se utilizan en contextos críticos.

La Necesidad de Transparencia

Como bien señala Joel Rorseth, estudiante de doctorado en ciencias de la computación en la Universidad de Waterloo y autor principal del estudio, «no puedes necesariamente confiar en que un LLM se explique a sí mismo». Es vital que podamos verificar las fuentes de información que utilizan estos modelos para asegurarnos de su fiabilidad.

La Solución: La Herramienta RAGE

¿Qué es RAGE?

RAGE es una herramienta que utiliza una estrategia llamada «generación aumentada por recuperación» (RAG) para entender el contexto de las respuestas proporcionadas por los LLMs. En lugar de confiar ciegamente en las respuestas generadas, RAGE permite a los usuarios proporcionar sus propias fuentes de información para contextualizar las respuestas.

¿Cómo Funciona?

La herramienta ilustra cómo diferentes fuentes pueden llevar a distintas respuestas. Esto es crucial para evaluar la confiabilidad de la información. Al utilizar RAGE, los usuarios pueden ver de manera clara cómo la información de diferentes fuentes afecta las respuestas de los modelos.

Aplicaciones Prácticas

En la Medicina y el Derecho

El uso de LLMs en sectores sensibles como la medicina y el derecho está en aumento. Sin embargo, la falta de transparencia en la fuente de información puede ser peligrosa. RAGE permite asegurar que las respuestas de estos modelos estén basadas en información precisa y confiable, algo esencial en estos campos.

En la Educación

En el ámbito educativo, los estudiantes y profesores pueden beneficiarse enormemente. Pueden verificar y validar la información proporcionada por los modelos de lenguaje, asegurándose de que las fuentes sean fiables.

El Futuro de la Regulación y la Innovación

Estamos en una época donde la innovación tecnológica ha superado la regulación. Es vital que entendamos los riesgos potenciales de usar estas tecnologías sin un marco regulatorio adecuado. Herramientas como RAGE son esenciales para garantizar que los productos de inteligencia artificial sean seguros y confiables.

Referencias
Joel Rorseth et al, RAGE Against the Machine: Retrieval-Augmented LLM Explanations, arXiv (2024). DOI: 10.48550/arxiv.2405.13000

La app de Gemini ya está disponible para consultar la IA desde el teléfono

Google Gemini

Android

iTunes

Gemini es la inteligencia artificial multimodal de Google que permite realizar consultas por texto, subir una fotografía para identificar los ingredientes de una ensalada o aprender a arreglar un descosido en una zapatilla deportiva. Ofrece diversas capacidades a través de texto, imagen y sonido. La app de Gemini está disponible para cualquier persona que tenga un teléfono Android o iOS. Es gratuita y fácil de usar.

¿Qué puedes hacer con la app de Gemini?

  • Hacer preguntas y obtener respuestas: Puedes preguntar a Gemini sobre cualquier tema que te interese y te proporcionará información relevante de fuentes confiables. Incluso puedes pedirle que te resuma temas complejos o que te ayude a encontrar información específica.
  • Generar texto creativo: Gemini puede ayudarte a escribir poemas, canciones, guiones, correos electrónicos, cartas y mucho más. Solo tienes que darle instrucciones o ideas básicas y él se encargará del resto.
  • Traducir idiomas: Gemini puede traducir texto de un idioma a otro con precisión. Es ideal para comunicarte con personas de todo el mundo o para leer contenido en idiomas extranjeros.
  • Resumir información: Si necesitas resumir un artículo largo o un documento extenso, Gemini puede hacerlo por ti. Te proporcionará un resumen conciso que capture los puntos clave.
  • Obtener ayuda para escribir: Si estás bloqueado al escribir, Gemini puede ayudarte a superar el bloqueo. Puede sugerirte ideas, ayudarte a encontrar las palabras adecuadas y mejorar tu estilo de escritura.
  • Explorar tu entorno: Puedes usar la cámara de tu teléfono para que Gemini te ayude a explorar el mundo que te rodea. Puedes pedirle que identifique objetos, que te proporcione información sobre lugares emblemáticos o que te traduzca carteles.
  • Y mucho más: Gemini está en constante desarrollo y se están añadiendo nuevas funciones con regularidad. Puedes usarlo para hacer lluvia de ideas, aprender cosas nuevas, planificar tu día y mucho más.

¿Cómo funciona la app de Gemini?

Puedes interactuar con Gemini de tres maneras:

  • Texto: Puedes escribir tus preguntas y solicitudes en la aplicación.
  • Voz: Puedes hablar con Gemini usando tu voz.
  • Cámara: Puedes usar la cámara de tu teléfono para mostrarle a Gemini lo que estás viendo y pedirle información.

Spawning AI: cómo evitar que nuestros contenidos sirvan para el entrenamiento de plataformas de Inteligencia Artificial

Spawning AI: https://spawning.ai/

Blog: https://spawning.ai/

Spawning AI trabaja para equilibrar los intereses de los creadores de contenido y los desarrolladores de IA, promoviendo un uso ético y consentido de los datos en la era de la inteligencia artificial. Spawning ofrece un conjunto de herramientas que facilita la declaración de las preferencias de datos y su respeto

Spawning AI es una organización que se dedica a la gobernanza de datos para la inteligencia artificial generativa. Han creado una herramienta llamada “Do Not Train Tool Suite” («No entrenar»), que permite a los titulares de derechos añadir sus medios de comunicación al “Do Not Train Registry” y así evitar que sus obras sean utilizadas para entrenar modelos de IA sin su consentimiento. Este registro es respetado por socios como Stability AI y Hugging Face.

El término “Spawning” lo acuñaron para describir el acto de crear medios completamente nuevos con un sistema de IA entrenado en medios más antiguos. Es una forma de distinguir este proceso de técnicas más antiguas como el muestreo o el collage. Spawning AI también proporciona herramientas para desarrolladores, facilitando el filtrado de solicitudes de no entrenamiento y ayudando a cumplir con las excepciones de derechos de autor de TDM de la UE1.

Spawning ofrece un conjunto de herramientas que facilita la declaración de las preferencias de datos y su respeto. Este conjunto de herramientas incluye:

  • Una API para que los titulares de derechos puedan registrar sus datos en el «Do Not Train Registry».
  • Una extensión del navegador para que los usuarios puedan marcar fácilmente el contenido que no desean que se utilice para entrenar modelos de IA.
  • Una herramienta de línea de comandos para que los desarrolladores de IA puedan integrar el «Do Not Train Registry» en sus flujos de trabajo.

Spawning AI está trabajando para garantizar que la inteligencia artificial generativa se desarrolle y utilice de manera responsable y ética. La empresa cree que es importante que los titulares de derechos tengan el control sobre sus datos y que los desarrolladores de IA sean conscientes de las posibles consecuencias de sus modelos.