Archivo de la etiqueta: Inteligencia artificial

El problema de privacidad de la inteligencia artificial generativa

Fried, Ina. «Generative AI Has a Growing Privacy Problem». Axios, 14 de marzo de 2024. https://www.axios.com/2024/03/14/generative-ai-privacy-problem-chatgpt-openai.

La privacidad se está convirtiendo en el próximo campo de batalla en el debate sobre la inteligencia artificial, incluso mientras continúan los conflictos sobre derechos de autor, precisión y sesgo.

Por qué es importante: Los críticos sostienen que los modelos de lenguaje grandes están recopilando y, frecuentemente, revelando información personal recopilada de toda la web, muchas veces sin el permiso de las personas involucradas.

El panorama general: Muchas empresas han empezado a desconfiar del uso de información patentada por parte de ejecutivos y empleados para consultar a ChatGPT y otros bots de inteligencia artificial, ya sea prohibiendo tales aplicaciones o optando por versiones pagas que mantienen la información comercial privada.

A medida que más personas utilizan la IA para buscar consejos sobre relaciones, información médica o asesoramiento psicológico, los expertos dicen que los riesgos para los individuos están aumentando. Las filtraciones de datos personales desde la IA pueden tomar varias formas, desde la divulgación accidental de información hasta la obtención de datos mediante esfuerzos deliberados para superar las protecciones.

La noticia destacada: Se han presentado varias demandas buscando el estatus de acción de clase en los últimos meses, alegando que Google, OpenAI y otros han violado las leyes federales y estatales de privacidad en la capacitación y operación de sus servicios de IA.

La FTC emitió una advertencia en enero de que las empresas tecnológicas tienen la obligación de cumplir con sus compromisos de privacidad mientras desarrollan modelos de IA generativa. «Con la IA, hay una gran fiebre por los datos, y estas empresas están recopilando cualquier dato personal que puedan encontrar en Internet,» dijo a Axios el profesor de derecho de la Universidad George Washington, Daniel J. Solove.

Los riesgos van mucho más allá de la simple divulgación de piezas discretas de información privada, argumenta Timothy K. Giordano, socio de Clarkson Law Firm, que ha presentado varios juicios por privacidad y derechos de autor contra empresas de IA generativa.

Entre líneas: Si bien la IA está creando nuevos escenarios, Solove señala que muchos de estos problemas de privacidad no son nuevos.

«Muchos de los problemas de IA son exacerbaciones de problemas existentes que la ley no ha tratado bien,» dijo Solove a Axios, señalando la falta de protecciones federales de privacidad en línea y los defectos en las leyes estatales que sí existen. «Si tuviera que calificarlas, serían como D y F», dijo Solove. «Son muy débiles.» El panorama general: Las capacidades únicas de la IA generativa plantean preocupaciones más grandes que la simple agregación común de información personal vendida y distribuida por corredores de datos.

Además de compartir datos específicos, las herramientas de IA generativa pueden establecer conexiones o inferencias (precisas o no), dijo Giordano a Axios.

Esto significa que las empresas tecnológicas ahora tienen, en palabras de Giordano, «un entendimiento escalofriantemente detallado de nuestra personalidad, suficiente para crear finalmente clones digitales y deepfakes que no solo se parecerían a nosotros, sino que también podrían actuar y comunicarse como nosotros».

Crear IA que respete la privacidad de los datos es complicado por cómo funcionan los sistemas de IA generativa.

Por lo general, se entrenan con conjuntos enormes de datos que dejan una especie de huella de probabilidad en el modelo, pero no guardan o almacenan los datos después. Eso significa que no se puede simplemente eliminar la información que se ha tejido. «No se puede desentrenar a la IA generativa,» dijo Grant Fergusson, un compañero del Electronic Privacy Information Center. «Una vez que el sistema ha sido entrenado en algo, no hay forma de revertirlo.»

Realidad: Muchos editores en línea y empresas de IA han agregado lenguaje que indica que los datos de los clientes pueden ser utilizados para entrenar modelos futuros.

En algunos casos, las personas tienen la opción de elegir no permitir que sus datos se utilicen para el entrenamiento de IA, aunque estas políticas varían y la configuración para compartir datos puede ser confusa y difícil de encontrar. Además, incluso cuando los usuarios ofrecen consentimiento, podrían estar compartiendo datos que podrían afectar la privacidad en línea de otros.

El otro lado: Un representante de OpenAI dijo a Axios que la empresa no busca datos personales para entrenar sus modelos y toma medidas para evitar que sus modelos revelen información privada o sensible. «Queremos que nuestros modelos aprendan sobre el mundo, no sobre individuos privados», dijo un portavoz de OpenAI a Axios. «También entrenamos a nuestros modelos para que se nieguen a proporcionar información privada o sensible sobre las personas». La empresa dijo que su política de privacidad describe opciones para que las personas eliminen cierta información y opten por no participar en el entrenamiento de modelos.

¿Qué sigue?: Los reguladores intentarán hacer cumplir las leyes de privacidad existentes en el nuevo ámbito de la IA, los legisladores propondrán nuevos proyectos de ley y los tribunales lidiarán con dilemas novedosos. Las empresas de IA podrían hacer más por sí mismas, pero Solove dijo que esperar que las empresas protejan la privacidad sin que se lo exija la ley probablemente sea poco realista. «Es como decirle a los tiburones: ‘Por favor, siéntense y usen cubiertos'», dijo Solove.

La Inteligencia Artificial y las bibliotecas

«La Inteligencia Artificial y las Bibliotecas«

Julio Alonso Arévalo. Mendoza (Argentina), 15 de marzo 2024

La inteligencia artificial (IA) ha emergido como una tecnología disruptiva que está transformando rápidamente diversos aspectos de nuestra sociedad. En su esencia, la IA se refiere a sistemas informáticos capaces de realizar tareas que normalmente requerirían inteligencia humana, como el aprendizaje, la toma de decisiones y la resolución de problemas. Uno de los ejemplos más notables de IA es ChatGPT, un modelo de lenguaje desarrollado por OpenAI que puede generar respuestas coherentes y contextualmente adecuadas en función de las entradas de texto que recibe. Funciona mediante el análisis y comprensión de patrones en grandes conjuntos de datos de texto, utilizando redes neuronales para generar respuestas relevantes y convincentes. Esta capacidad de generar contenido de manera casi humana tiene aplicaciones en diversos campos, desde la educación hasta la producción de contenido escrito y la detección de plagio en línea.

Sumario

  • IA y Bibliotecas
  • Una tecnología disruptiva
  • Qué es y como funciona la IA
  • ChatGPT
  • ¿Cómo funciona ChatGPT?
  • Chat GPT en la Educación
  • Chat GPT y escritura
  • IA generativa y derechos de autor
  • IA Herramientas de detección
  • Motores de búsqueda e IA
  • Aspectos sociales del uso de la IA
  • Conclusiones

La Inteligencia Artificial utilizada para la contratación laboral muestra sesgos raciales con resultados preocupantes

Dibenedetto, Chase. «AI Shows Clear Racial Bias When Used for Job Recruiting, New Tests Reveal». Mashable SEA | Latest Entertainment & Trending, 8 de marzo de 2024. https://sea.mashable.com/tech/31577/ai-shows-clear-racial-bias-when-used-for-job-recruiting-new-tests-reveal.


El uso de inteligencia artificial (IA) en la contratación laboral ha sido objeto de preocupación debido a los sesgos raciales evidentes que muestra, como revelan nuevas pruebas.

Un experimento reciente realizado por Bloomberg pone de manifiesto que la tecnología de IA, específicamente GPT-3.5, exhibe sesgos raciales en la contratación laboral. El método del estudio consistió en asignar sistemáticamente nombres asociados con grupos raciales y étnicos específicos a currículums de igual calificación. La tarea de la IA era clasificar estos currículums para varias vacantes laborales.

Los resultados son preocupantes: GPT-3.5 mostró una clara preferencia por nombres de ciertos grupos demográficos, incumpliendo los estándares habituales en cuanto a discriminación laboral. Se destacan dos preocupaciones principales: la tendencia de la IA a estereotipar nombres femeninos en roles tradicionalmente dominados por mujeres, y su inclinación a elegir candidatas negras un 36% menos para posiciones técnicas.

Ante estos hallazgos, OpenAI afirmó que estos resultados no reflejan el uso típico de su software por parte de sus clientes, muchos de los cuales refinan las respuestas para reducir el sesgo. Sin embargo, la investigación, respaldada por las opiniones de más de 30 expertos en diversos campos, subraya los importantes problemas éticos de depender en gran medida de la IA sin abordar sus sesgos inherentes.

Grok IA de Elon Musk será de código abierto

Saboo, Shubham. «XAI’s Grok to be Opensourced». Substack newsletter. Unwind AI (blog), 12 de marzo de 2024. https://unwindai.substack.com/p/xais-grok-to-be-opensourced.

Elon Musk acaba de anunciar que su empresa de inteligencia artificial xAI abrirá el código de su chatbot Grok esta semana, lo que supone un nuevo giro en su creciente pugna con OpenAI de Sam Altman y la carrera por dominar el espacio de la inteligencia artificial.

Elon Musk ha anunciado que Grok de XAI será de código abierto en la próxima semana. Esta decisión llega poco después de su demanda contra OpenAI por desviarse de su misión sin ánimo de lucro. La rápida implementación de esta medida sugiere una estrategia para generar interés, después de enfrentar críticas por la demanda.

Grok se lanzó en diciembre de 2023, disponible para los suscriptores de X Premium+. Se destaca por su capacidad para entablar conversaciones con un enfoque único, abordando preguntas audaces sobre temas como justicia social, cambio climático e identidades transgénero. Su «función asesina» radica en acceder a datos en tiempo real de publicaciones en X para proporcionar respuestas actualizadas.

Funcionando con el modelo generativo Grok-1, Grok ha demostrado resultados impresionantes en varias pruebas comparativas. Además, su API está disponible y próximamente contará con funciones de reconocimiento de imagen y audio. Se espera la llegada de Grok 1.5, que incluirá una herramienta de análisis para resumir hilos y respuestas, así como funciones de corrección gramatical y mejora de borradores para los creadores de contenido.

El aprendizaje automático y la inteligencia artificial en las bibliotecas universitarias

OCUL Machine Learning/Artificial Intelligence
Report and Strategy
INTERIM REPORT
March 2024

Texto completo

El grupo de trabajo del Consejo de Bibliotecas Universitarias de Ontario (OCUL) sobre aprendizaje automático e inteligencia artificial ha publicado su informe provisional para recibir comentarios de la comunidad académica.

El informe provisional describe casos de uso del aprendizaje automático en bibliotecas universitarias y recomienda proyectos que incorporan tecnologías de aprendizaje automático. También considera cuestiones clave como preocupaciones éticas, capacidad técnica, experiencia disponible y necesidades de infraestructura.

Se invita a comentarios de todo el sector postsecundario y socios consorciados. «Animamos a los lectores a revisar y criticar las ideas y acciones propuestas en el informe», explicó Amy Greenberg, directora ejecutiva de OCUL. “La retroalimentación es crucial para perfeccionar las recomendaciones del informe y ayudar a dar forma a los planes futuros para las iniciativas y servicios tecnológicos de OCUL que involucran el aprendizaje automático.

Predecir lo impredecible: preguntas reales sobre la IA generativa


Dempsey, Lorcan. «Predicting the UnpredictableAmerican Libraries Magazine, 4 de marzo de 2024. https://americanlibrariesmagazine.org/blogs/the-scoop/predicting-the-unpredictable/.


En «Prediciendo lo Impredecible», Lorcan Dempsey aborda el omnipresente impacto de la inteligencia artificial (IA) y su compleja interacción con la toma de decisiones en las bibliotecas. Dempsey destaca que, si bien la IA ofrece oportunidades constructivas, también plantea desafíos significativos en términos de privacidad, reutilización de datos y cuestiones éticas.

En enero, Microsoft anunció el primer cambio en 30 años de su teclado de Windows, añadiendo un nuevo botón para su chatbot de inteligencia artificial (IA), Copilot. No es sorprendente, pero sí sintomático. La IA está en todas partes.

Los académicos Michael Barrett y Wanda Orlikowski señalan en un artículo de marzo de 2021 que las tecnologías desplegadas a gran escala tienen resultados tanto constructivos como problemáticos. A medida que los responsables de la toma de decisiones de las bibliotecas posicionan a la biblioteca como una fuente de asesoramiento y experiencia, a medida que determinan los productos y servicios en los que invertir, y a medida que consideran el bienestar de sus propios colegas, habrá que comprender y sopesar tanto los elementos constructivos como los problemáticos.

Mientras nos sometemos a este proceso, debemos reconocer que el desarrollo es imprevisible. A modo de comparación, pensemos en cómo la invención del teléfono móvil ha cambiado nuestros comportamientos de un modo que no podíamos prever. ¿Quién imaginaba la importancia de algo tan aparentemente sencillo como el selfie y el papel que tendría en los viajes y en el propio bienestar mental?

«Las grandes elecciones que se celebrarán en todo el mundo en 2024 serán las primeras en las que los poderes sintéticos de la IA generativa estén ampliamente disponibles».

Aunque los efectos de la IA pueden parecer mágicos, también es importante recordar que son personas reales las que toman decisiones reales sobre productos y servicios. Existen cuestiones reales sobre la privacidad, la reutilización de datos, la reproducción de materiales protegidos por derechos de autor, etcétera. Se trata de prácticas sobre las que se puede influir, ya sea a través de la compra o de medidas políticas, y las bibliotecas pueden marcarse el rumbo que les gustaría seguir.

A las bibliotecas no les queda más remedio que aceptar esta confusa situación intermedia, trabajando en condiciones de incertidumbre y cambio, defendiendo los intereses tanto de los consumidores como de los creadores.

¿Qué significa esto en la práctica?

La experiencia importa. La experiencia ayuda a comprender. Sin utilizar diferentes servicios de IA, es difícil entender el debate sobre el impacto de los diferentes enfoques de incitación, la generación aumentada por recuperación (que probablemente se desplegará en muchos productos informativos y editoriales), la alucinación (presentar información falsa como si fuera verdadera), etcétera.

Transparencia, concienciación y empatía. Dadas las tensiones acumuladas en los últimos años y la incertidumbre sobre la evolución social y técnica, la empatía, la educación y una transparencia adecuada sobre la planificación y la dirección son ahora aún más críticas en el lugar de trabajo.

Capacidades de investigación. Las grandes elecciones que se celebrarán en todo el mundo en 2024 serán las primeras en las que los poderes sintéticos de la IA generativa estén ampliamente disponibles. La falsificación alcanza nuevos niveles con noticias, imágenes y vídeos sintetizados que circulan libremente. Los casos judiciales sobre derechos de autor y memorización son cada vez más numerosos. Al mismo tiempo, las empresas de IA están haciendo tratos para alimentar con materiales de alta calidad el entrenamiento de sus herramientas. La IA se está integrando cada vez más en las aplicaciones de flujo de trabajo, escritura y entretenimiento. Todos los cuadros de búsqueda estarán habilitados para la IA. Las habilidades de investigación que los profesionales de las bibliotecas necesitan -y enseñarán- seguirán ampliándose.

Ética. La capacidad de recopilar y procesar datos, establecer nuevas conexiones, propagar datos engañosos o perjudiciales y utilizar productos desarrollados de forma incompatible con los valores de una biblioteca crean la necesidad de una atención cuidadosa e informada. Los educadores se plantean qué está en consonancia con las mejores prácticas y los valores establecidos en la investigación y el aprendizaje, y las organizaciones se plantean hacer más explícitos los marcos éticos.

Las bibliotecas individuales tienen una influencia limitada en este entorno. Organizaciones como ALA, IFLA, la Organización Nacional de Normas de Información y el Consejo de Bibliotecas Urbanas ofrecen un lugar para el desarrollo de políticas, normas y prácticas para agregar y ampliar la influencia de las bibliotecas. Deberían coordinar su trabajo en áreas clave, entre las que se incluyen:

Defensa y política. Las bibliotecas representan los intereses públicos, académicos y culturales. Están comprometidas con los principios del aprendizaje abierto y la equidad. Las organizaciones bibliotecarias deben defender estos intereses y principios en las políticas y propuestas gubernamentales e industriales pertinentes.

Compras y convocatorias. A medida que los proveedores de bibliotecas implementan variedades de IA, surgen nuevas cuestiones relacionadas con las adquisiciones. ¿Qué gran modelo lingüístico se utiliza? ¿Existen medidas adicionales para mitigar comportamientos indeseables? ¿Qué datos se recopilan y cómo se utilizan? Sería bueno disponer de directrices, consejos y sesiones informativas que abordaran estos temas. Yendo más allá, ¿tiene sentido convocar a grupos del sector para desarrollar puntos de vista compartidos sobre enfoques técnicos o políticas?

Acceso abierto. Ahora es posible resumir y sintetizar los resultados de modelos entrenados en grandes conjuntos de literatura académica, así como en ricos datos de perfiles de expertos, análisis de investigación, servicios de flujo de trabajo, etc. Varias empresas están bien situadas para ofrecer servicios en este ámbito, pero ¿a quién y en qué condiciones? ¿Surgirá una nueva fase de promoción abierta para explorar el acceso equitativo a estos recursos?

Datos bibliotecarios y formación. ¿Qué papel desempeñan los datos estructurados de las bibliotecas, fruto de años de inversión intelectual y profesional, como las ayudas para la búsqueda o las LibGuides, que pueden ser aprovechados por quienes elaboran grandes modelos lingüísticos? También cabe imaginar que estos materiales se utilicen para entrenar modelos comunitarios, que podrían emplearse en servicios personalizados.

Estas y otras cuestiones son lo suficientemente amplias como para justificar la atención y la acción concertadas de las bibliotecas. Las organizaciones que he mencionado tienen capacidad e influencia para la comunidad bibliotecaria. Es hora de que se pongan de acuerdo y ayuden a determinar qué tipo de futuro queremos crear.

En este contexto, subraya la importancia de la experiencia práctica con diversos servicios de IA para comprender mejor su impacto y promueve la transparencia, la conciencia y la empatía como valores fundamentales en el lugar de trabajo. Además, enfatiza la necesidad de desarrollar habilidades de investigación y ética para abordar los desafíos emergentes, como la proliferación de información falsa y el uso ético de la tecnología. Dempsey también aboga por una mayor coordinación y acción a nivel organizacional, instando a asociaciones bibliotecarias clave a liderar iniciativas en áreas como la defensa de políticas, la adquisición responsable y el acceso abierto a recursos bibliotecarios. En última instancia, resalta la importancia de colaborar para dar forma a un futuro en el que la IA y las bibliotecas coexistan de manera ética y beneficiosa para la sociedad.

El Mundo de la Inteligencia Artificial: cómo las bibliotecas están integrando y navegando esta poderosa tecnología

Udell, Emily. The World of AI. How libraries are integrating and navigating this powerful technology. American Libraries, By | March 1, 2024

Ver noticia completa


La biblioteconomía, con su compromiso con la privacidad y el suministro de información precisa e imparcial, resultará esencial. Este es el próximo capítulo de la alfabetización informacional. La IA representa un enorme reto y una gran oportunidad para las bibliotecas, y se confía en que estarán a la altura de las circunstancias.

El pasado octubre, el presidente Joe Biden emitió una orden ejecutiva detallando pautas para varios aspectos de la inteligencia artificial (IA), con el objetivo de impulsar la investigación, regulaciones y políticas en torno a las herramientas actuales y emergentes.

Un tema candente en muchas industrias, la inteligencia artificial generativa (IA generativa) ha ocupado cada vez más nuestra conciencia cultural desde que el gran modelo de lenguaje ChatGPT debutó para uso público en noviembre de 2022. Algunas bibliotecas están desempeñando un papel único en trazar un camino a través de este nuevo territorio tecnológico a medida que los límites de los usos e impactos de la IA continúan cambiando.

«Los bibliotecarios se preguntan si la IA nos volverá obsoletos, pero no lo hará», dice Nick Tanzi, consultor de tecnología de bibliotecas, autor y director adjunto de la Biblioteca Pública de South Huntington en Huntington Station, Nueva York. «Somos profesionales de la información, y nuestro panorama de información acaba de crecer en complejidad».

Los críticos de la IA han lanzado la alarma sobre la tendencia de los modelos a reforzar y amplificar cualquier sesgo encontrado en los datos en los que se entrenan. Otros han planteado preocupaciones sobre información falsa y privacidad, así como plagio y derechos de autor, problemas de particular preocupación para bibliotecas universitarias y escolares. ¿Cómo pueden estar seguros los usuarios de que la información generada por las herramientas de IA es legal, ética y precisa?

«Hay un viejo dicho: ‘Basura entra, basura sale'», dice Elissa Malespina, bibliotecaria-educadora en la Escuela Secundaria Union (N.J.), quien escribe el Boletín de Bibliotecarios Escolares de IA. «En el mundo de la IA, es una cuestión de ‘datos entran, datos salen’. Asegúrese de tener una clara idea no solo de cómo opera la IA, sino también de dónde obtiene su conocimiento. Todo se trata de ser un usuario informado».

American Libraries habló con cinco expertos en tecnología, educadores y bibliotecarios que están pionerando el uso de la IA generativa en sus instituciones. Discuten cómo se está utilizando en bibliotecas, qué preocupaciones éticas han surgido y cómo los bibliotecarios pueden educar a sus comunidades sobre la navegación de estas poderosas tecnologías.

La Universidad George Mason ha creado una serie de salones sobre IA para discutir su uso en la investigación y el aula, así como una Comunidad de Práctica y un Grupo de Trabajo sobre IA. También han utilizado herramientas de IA como ChatGPT y Bard en la enseñanza y la investigación.

En la Escuela Secundaria Union, Elissa Malespina utiliza la IA para ayudar en la edición y redacción de contenido para redes sociales y presentaciones. También la emplea para generar títulos y propuestas de conferencias.

En las Bibliotecas de la Universidad de Arizona, se ha recibido retroalimentación sobre el uso de IA en la escritura académica. Se ha trabajado en colaboración con profesores para abordar preocupaciones sobre la integridad académica y los derechos de autor.

En general, se reconocen los beneficios potenciales de la IA, como la mejora de la experiencia del usuario y la eficiencia en la búsqueda de información. Sin embargo, también se plantean preocupaciones éticas, como el sesgo algorítmico y la privacidad de los usuarios.

La creación de políticas y estándares éticos para el uso de IA en las bibliotecas es un tema importante. Los bibliotecarios están trabajando para educar a sus comunidades sobre cómo utilizar la IA de manera ética y responsable.

ChatGPT en la clase de español como lengua extranjera (ELE)

Pujolà, J.-T., González Argüello, M. V. (María V., & Mena Octavio, M. (2023). ChatGPT en la clase de ELE

Texto completo

Guía de uso de ChatGPT para la clase de ELE (‘español como lengua extranjera’) diseñada exclusivamente para profesores y estudiantes de ELE en busca de mejorar tus habilidades en español con esta herramienta de IA Generativa. Incluye prompts y ejemplos de uso e ideas para llevar al aula. Además, aporta ideas para desarrollar estrategias para una actitud crítica en la IA Generativa

IA generativa en la educación superior

Baytas, Claire, and Dylan Ruediger. «Generative AI in Higher Education: The Product Landscape.» Ithaka S+R . Ithaka S+R. 7 March 2024. Web. 11 March 2024. https://doi.org/10.18665/sr.320394 

Texto completo

Los proveedores están desarrollando herramientas de IA generativa (GAI) diseñadas para contextos de enseñanza, aprendizaje e investigación postsecundarios a una velocidad vertiginosa. Empresas establecidas, nuevas empresas e incluso algunas organizaciones sin fines de lucro lanzan nuevos productos al mercado casi todos los días, lo que dificulta que los estudiantes y profesores comprendan qué herramientas satisfarán mejor sus necesidades. Diferenciar entre herramientas y evaluar su valor también es un desafío para los CIO de las universidades, los departamentos de TI y otros involucrados en la toma de decisiones sobre qué productos serán compatibles y/o licenciados para los usuarios del campus.

Como parte del proyecto Making AI Generative for Higher Education, realizado en asociación con 19 colegios y universidades, Ithaka S+R ha estado siguiendo de cerca el panorama de productos Generative Artificial Intelligence (GAI) a través de una herramienta de seguimiento de productos única. Product Tracker incluye una descripción básica de las herramientas GAI comercializadas para profesores o estudiantes de educación postsecundaria, así como información sobre el modelo de precios, características clave y otros detalles relevantes, como el modelo de lenguaje grande o los conjuntos de datos detrás de la herramienta o los antecedentes del proveedor.

Product Tracker explora lo que estos productos sugieren sobre el futuro de la IA generativa en la enseñanza, el aprendizaje y la investigación académica. Juntas, estas dos publicaciones brindan a la comunidad de educación superior una manera fácil de mantenerse al día con los desarrollos en este espacio y evaluar el valor de productos individuales.

El mercado de sitios web y aplicaciones basados en inteligencia artificial (IA)

ChatGPT, Custom GPTs, and AI Chat Challengers: CoPilot, Gemini, Perplexity, and More. (2024.). Similarweb. Recuperado 11 de marzo de 2024, de https://www.similarweb.com/blog/insights/ai-news/chatgpt-challengers/

El mercado de sitios web y aplicaciones basados en inteligencia artificial (IA) está en constante evolución, y plataformas como ChatGPT de Open AI y Gemini de Google (anteriormente conocida como Bard) están desempeñando un papel importante en la aceptación y comprensión de esta tecnología por parte del público en general. Además, los generadores de imágenes y otras aplicaciones, como las GPT personalizadas de Open AI, también están ganando terreno.

Aunque el tráfico web no cuenta toda la historia, es un indicador útil del interés en la tecnología de IA. A continuación, algunos datos clave:

  • ChatGPT (chat.openai.com) tuvo 1,600 millones de visitas en febrero, pero aún no ha igualado el volumen de tráfico mundial que alcanzó en mayo de 2023: 1,800 millones de visitas.
  • En Estados Unidos, ChatGPT alcanzó un nuevo récord en febrero, con 208.8 millones de visitas, incluyendo 10 millones de visitas de personas que acceden a GPT personalizadas, disponibles solo para clientes de pago.
  • Cuando Google cambió el nombre de su chatbot de Bard a Gemini, el uso también alcanzó un nuevo máximo de 51.7 millones de visitantes únicos en gemini.google.com.
    Aunque retadores como Perplexity y Claude están creciendo, todavía son relativamente pequeños en términos de tráfico web.

En resumen, el mercado de la IA sigue siendo dinámico, y estas plataformas están contribuyendo a su crecimiento y adopción