Archivo de la etiqueta: Chatbot

El CEO de OpenAI, Sam Altman, empresa creadora de ChatGPT, pide una mayor regulación de la inteligencia artificial

«Si la inteligencia artificial sale mal, puede salir muy mal… para prever que realmente no podamos hacer daño en el mundo“

Sam Altman, ‘padre’ de ChatGPT

«OpenAI CEO Sam Altman Agrees AI Must Be Regulated», Time. 16 de mayo de 2023. https://time.com/6280372/sam-altman-chatgpt-regulate-ai/.

El CEO de OpenAI, Sam Altman, hizo un llamamiento a los miembros del Congreso bajo juramento: Regular la inteligencia artificial. Altman, cuya empresa está en la vanguardia extrema de la tecnología de Inteligencia Artificial generativa con su herramienta ChatGPT, testificó ante el Comité Judicial del Senado por primera vez en una audiencia celebrada el martes. Y aunque dijo que en última instancia es optimista respecto a que la innovación beneficiará a las personas a gran escala, Altman se hizo eco de su afirmación anterior de que los legisladores deberían crear parámetros para que los creadores de IA eviten causar «daños significativos al mundo.» «Creemos que puede ser el momento de la imprenta», dijo Altman. «Tenemos que trabajar juntos para que así sea».

Junto a Altman testificaron ante la comisión otros dos expertos en IA, el catedrático de Psicología y Ciencias Neuronales de la Universidad de Nueva York Gary Marcus y la Directora de Privacidad y Confianza de IBM Christina Montgomery. Los tres testigos apoyaron la gobernanza de la IA tanto a nivel federal como mundial, con planteamientos ligeramente distintos.

«Hemos construido máquinas que son como elefantes en una cacharrería: Potentes, temerarias y difíciles de controlar», dijo Marcus. Para hacer frente a esto, sugirió el modelo de una agencia de supervisión como la Administración de Alimentos y Medicamentos, de modo que los creadores tuvieran que demostrar la seguridad de su IA y demostrar por qué los beneficios superan a los posibles daños.

Sin embargo, los senadores que dirigieron las preguntas se mostraron más escépticos sobre la rápida evolución de la industria de la IA y compararon su impacto potencial no con la imprenta, sino con otras innovaciones, sobre todo la bomba atómica.

La sesión duró casi tres horas y las preguntas del senador abordaron una amplia gama de preocupaciones sobre la IA, desde cuestiones de derechos de autor hasta aplicaciones militares. Tanto Altman como los senadores expresaron sus temores sobre cómo la IA podría «salir bastante mal».

Cuando se le preguntó cuál era su peor temor sobre la IA, Altman fue franco sobre los riesgos de su trabajo.

«Mi peor temor es que nosotros -el campo, la tecnología, la industria- causemos un daño significativo al mundo. Creo que eso puede ocurrir de muchas maneras», dijo Altman. No dio más detalles, pero las advertencias de los críticos van desde la difusión de información errónea y tendenciosa hasta la destrucción total de la vida biológica. «Creo que si esta tecnología sale mal, puede salir bastante mal, y queremos ser claros al respecto», continuó Altman. «Queremos trabajar con el gobierno para evitar que eso ocurra».

La preocupación por la IA llevó a cientos de grandes nombres de la tecnología, entre ellos Elon Musk, a firmar en marzo una carta abierta en la que instaban a los laboratorios de IA a pausar durante seis meses el entrenamiento de sistemas superpotentes debido a los riesgos que suponen para «la sociedad y la humanidad». Y a principios de este mes, Geoffry Hinton, al que se ha llamado el «padrino» de la IA, renunció a su puesto en Google, diciendo que se arrepentía de su trabajo y advirtiendo de los peligros de la tecnología.

Altman expuso un plan general de tres puntos sobre cómo podría regular el Congreso a los creadores de IA.

  • En primer lugar, apoyó la creación de una agencia federal que pueda conceder licencias para crear modelos de IA por encima de un determinado umbral de capacidades, y que también pueda revocar esas licencias si los modelos no cumplen las directrices de seguridad establecidas por el gobierno. La idea no era nueva para los legisladores. Al menos cuatro senadores, tanto demócratas como republicanos, abordaron o apoyaron la idea de crear una nueva agencia de supervisión durante sus preguntas.
  • En segundo lugar, Altman dijo que el gobierno debería crear normas de seguridad para los modelos de IA de alta capacidad (como prohibir que un modelo se autorreproduzca) y crear pruebas de funcionalidad específicas que los modelos tengan que superar, como verificar la capacidad del modelo para producir información precisa o garantizar que no genera contenidos peligrosos.
  • Y en tercer lugar, instó a los legisladores a exigir auditorías independientes de expertos no afiliados a los creadores o al gobierno para garantizar que las herramientas de IA funcionen dentro de las directrices legislativas.

Los legisladores europeos están más avanzados en la regulación de las aplicaciones de IA, y la UE está decidiendo si clasifica la tecnología de IA de propósito general (en la que se basan herramientas como ChatGPT) como de «alto riesgo». Dado que esto sometería a la tecnología al nivel más estricto de regulación, muchas grandes empresas tecnológicas como Google y Microsoft -el mayor inversor de OpenAI- han presionado en contra de esta clasificación, argumentando que ahogaría la innovación.

Inteligencia artificial y la industria del libro. Libro Blanco

Lebrun, Tom, y René Audet. «Artificial Intelligence and the Book Industry. White Paper». Zenodo, 18 de septiembre de 2020.

Texto completo

La inteligencia artificial (IA) en el mundo del libro es una realidad. De hecho, no está reservada a las plataformas de venta o a las aplicaciones médicas. La IA puede ayudar a escribir, acompañar el trabajo editorial o ayudar al librero. Puede responder a necesidades clamorosas; a pesar de sus evidentes limitaciones, puede servir para plantearse nuevas aplicaciones en la cadena del libro, que son objeto aquí de recomendaciones específicas. Este libro blanco, redactado por dos especialistas en el ámbito del libro y la inteligencia artificial, tiene por objeto identificar los medios para poner la IA al servicio de los numerosos eslabones del mundo del libro.

«Hay que planificar el futuro inmediato de este nicho cultural y emprender acciones concretas para establecer nuevos métodos y modelos. Este libro blanco esbozará una posible línea de acción: la idea de un esfuerzo concertado de los actores de la industria del libro en el uso de la IA».

Esta concertación es reclamada por varios expertos, que dan testimonio en este Libro Blanco de lo que está en juego en el contexto cultural actual, amenazado por los gigantes del comercio: «Aunque el uso de la IA exige una vigilancia constante, parece importante que los actores de la industria del libro presten mucha atención a estos avances tecnológicos, tanto a las posibles perturbaciones como a los posibles beneficios que podrían conllevar». (Virginie Clayssen, Éditis / Comité Digital de la Asociación Francesa de Editores)

Así, «la clave para introducir la IA, entendida como inteligencia aumentada, en los distintos eslabones de la cadena del libro es sin duda la explotación de los datos que ya están disponibles y que la competencia no posee».

¿Cómo es la nueva Experiencia Generativa de Búsqueda con Inteligencia Artificial de Google?


Schwartz, Barry. «Here’s What Google’s New AI Search Generative Experience Will Look Like». MarTech, 10 de mayo de 2023. https://martech.org/heres-what-the-new-google-search-generative-ai-experience-will-look-like/.

Ver documento

Cuando ChatGPT llegó el otoño pasado, empezó a cumplir la misión de Google – «organizar la información del mundo y hacerla universalmente accesible y útil»- mejor, a veces, que el propio Google. (El problema, por supuesto, era su molesto hábito de inventarse cosas). Reformaba la información de los sitios web en lugar de limitarse a enviar a la gente a ellos. Y a la gente le encantó, convirtiéndose en la aplicación de consumo de más rápido crecimiento de la historia. Después de que OpenAI y su benefactor Microsoft amenazaran la posición de Google con sus experiencias de Inteligencia Artificial generativa, el gigante de las búsquedas tuvo que responder. Y lo ha hecho con fuerza esta semana. Su «Experiencia Generativa de Búsqueda» potenciada por la Inteligencia Artificial aún está en fase de «laboratorio», pero es casi seguro que será su futuro.

La interfaz. Search Generative Experience (SGE) puede mostrar una respuesta generada por IA encima de los listados de resultados de búsqueda. Google etiqueta claramente la respuesta como Generative AI is experimental (La IA generativa es experimental), seguida de una respuesta a tu consulta.

La respuesta aparece en un recuadro. Google cita los sitios web que utilizó para generar la respuesta. Se puede hacer clic en esos sitios para profundizar. También puedes hacer otra pregunta o pulsar el botón de la parte superior derecha para profundizar.

«Verás una instantánea generada por la IA de la información clave que debes tener en cuenta, con enlaces para profundizar», explica Google. Cuando se pulsa el botón de expansión para mostrar una respuesta más profunda, se obtienen respuestas adicionales de la IA generativa.

A lo largo de las respuestas generadas por la IA, Google te ofrece sitios web en estos recuadros con imágenes, para que puedas hacer clic en el sitio web para obtener más información.

Encuesta ARL sobre el impacto de la Inteligencia Artificial generativa en bibliotecas

ARL, Leo S. Lo, University of New Mexico, and Cynthia Hudson Vitale. «Quick Poll Results: ARL Member Representatives on Generative AI in Libraries». Association of Research Libraries (blog), 9 de mayo de 2023.

Ver completo

A medida que las tecnologías de IA generativa siguen evolucionando, su potencial para afectar a los servicios bibliotecarios, las operaciones y las experiencias de los usuarios es cada vez más evidente. En abril de 2023 se realizó una encuesta rápida entre los representantes de los miembros de la Asociación de Bibliotecas de Investigación (ARL) para conocer sus perspectivas actuales sobre la adopción de la IA generativa, sus posibles implicaciones y el papel de las bibliotecas en los entornos impulsados por la IA. En esta entrada de blog, se dan recomendaciones basadas en las respuestas de la encuesta, con el objetivo de ofrecer información valiosa para los directores de bibliotecas que navegan por el panorama de la IA.

Se compartió el enlace de la encuesta con los representantes de los miembros de la ARL en abril de 2023; 19 miembros de ARL completaron la encuesta.

  1. Perspectivas sobre la IA generativa: La mayoría de los representantes de los miembros de la ARL que respondieron a la encuesta tienen una opinión algo positiva (53%) o muy positiva (11%) sobre el potencial de la IA generativa para mejorar los servicios bibliotecarios en los próximos 12 meses. Sin embargo, también reconocen las limitaciones y los retos asociados a estas tecnologías. El 37% restante se muestra neutral sobre el potencial de la IA generativa.
  2. Etapas de adopción: Mientras que algunas bibliotecas están implementando activamente soluciones de IA generativa (11%), muchas están explorando aplicaciones potenciales (32%) o considerando la adopción en un futuro próximo (32%). Unas pocas bibliotecas tienen un interés limitado (16%) o no tienen previsto explorar las tecnologías de IA (11%) en los próximos 12 meses.
  3. Impacto en el funcionamiento y los servicios de las bibliotecas: Los directores de bibliotecas prevén que la IA generativa tendrá un impacto transformador en las operaciones y servicios de las bibliotecas, incluida la generación de metadatos, las herramientas de búsqueda y los servicios al usuario. También prevén posibles retos relacionados con el uso indebido, los prejuicios y los derechos de autor.
  4. Conversaciones institucionales y organizativas: Las bibliotecas están participando en debates en toda la organización sobre el impacto de la IA generativa en la integridad académica, la publicación, la autoría y la integridad de la investigación. Participan en foros interdisciplinarios, grupos de trabajo y colaboraciones con diversos socios institucionales.
  5. Alfabetización informacional: Las respuestas a la encuesta sugieren que las bibliotecas pueden mejorar los programas de alfabetización informacional para ayudar a los usuarios a comprender y evaluar la información generada por la IA a través de la colaboración, las asociaciones interdisciplinarias y la incorporación de la alfabetización en IA a una alfabetización informacional más amplia. Hacer hincapié en el conocimiento de la IA por parte de los bibliotecarios, desarrollar nuevas alfabetizaciones relacionadas con la IA, reciclar al personal y ofrecer talleres son oportunidades para que las bibliotecas ejerzan su liderazgo a medida que las instituciones de investigación navegan por la era de la IA.

Entre las ideas concretas reflejadas en los resultados de la encuesta rápida se incluyen:

  • Elaborar guías de colaboración y/o sesiones informativas sobre IA generativa, dirigidas a investigadores y a la comunidad en general.
  • Aprovechar la IA para ayudar a identificar la desinformación.
  • Destacar la importancia del pensamiento crítico para los investigadores, incluidos los miembros de la comunidad, los profesores y el personal, para que puedan evaluar la fuente de información y su fiabilidad. Afirmar que la forma en que se genera la información (IA o de otro tipo) es menos importante que la capacidad de reconocer qué es fiable, qué no lo es y cómo se toman esas decisiones.
  • Colaborar con colegas en la enseñanza y el aprendizaje, así como en áreas de investigación, para compartir experiencias y desarrollar iniciativas conjuntas centradas en educar a los estudiantes y a la comunidad sobre el uso eficaz y responsable de las herramientas de IA generativa en el aprendizaje, la investigación y el compromiso con la comunidad.
  • Trabajar con los equipos de seguridad/privacidad de TI para enseñar a detectar y evaluar los contenidos generados por IA y a utilizar esta y otra información de forma responsable, especialmente dentro de las bibliotecas públicas de investigación.

La Web no sobrevivirá a la IA

Roach. «The Web Won’t Survive AI», UNREALITY 27 de abril de 2023. https://www.thisunreality.com/p/the-web-versus-ai.

«The Web versus AI» es un artículo que explora la relación entre internet y la inteligencia artificial (IA). El autor sostiene que, si bien la web ha puesto al alcance de todos grandes cantidades de información, la IA tiene el potencial de crear una eficiencia y accesibilidad aún mayores en términos de procesamiento de la información y toma de decisiones. Sin embargo, el artículo también destaca algunos riesgos y retos potenciales asociados a la adopción generalizada de la IA, como las cuestiones relacionadas con la privacidad, la parcialidad y el desplazamiento de trabajadores humanos. En conjunto, el artículo presenta una perspectiva que invita a la reflexión sobre la evolución en curso de la tecnología y su impacto en la sociedad.

Internet siempre está cambiando. Antes de Google, existía Ask Jeeves, y antes de Facebook, AOL. La mayoría de los internautas aún recuerdan una época anterior a la infestación de Login con Facebook. Y no fue hasta hace un par de años cuando los omnipotentes «fact-checking» intersticiales y las advertencias «dis-info» se adhirieron a cada post y a cada medio de comunicación con una histeria desenfrenada. Internet es diferente. Ahora está más corporativizado que nunca, con más anuncios, más cookies, más algoritmos y más guerras culturales. Internet ha sobrevivido mucho.

Pero puede que no sobreviva a la IA.

Según noticias recientes, los grandes modelos lingüísticos, o LLM, como los de ChatGPT o el nuevo módulo de chat de Bing, han superado la esquiva prueba de Turing. Es decir, que los LLM pueden hablar como nosotros, escribir como nosotros y sonar como nosotros hasta un punto tan convincente que ya no podemos distinguir al individuo sensible de la máquina no sensible. Los LLM pueden inventar opiniones o experiencias que suenan tan reales como cualquier cosa que cualquiera de nosotros pudiera escribir, hasta las faltas de ortografía y la jerga. ¿Es eso malo? Bueno, si estamos intentando pedirle a Alexa que reproduzca Story of a Girl de Nine Days, entonces no, es algo bastante útil. Pero si queremos una Internet hecha por humanos, para humanos y poblada por humanos, entonces podría ser un problema.

I.
La «teoría de la Internet muerta» existe desde hace una década o más. La tesis central de la teoría de la conspiración de la Internet muerta es que «gran parte de los contenidos supuestamente producidos por el hombre» en la web son en realidad generados artificialmente. O, dicho de forma más sencilla, que Internet es Matrix. Aunque es probable que esto sea falso, la repentina avalancha de LLM ha hecho que esta teoría no sólo sea posible, sino inevitable.

II.
La verificación obligatoria de la identidad digital es, en esencia, la muerte del anonimato. A veces se califica de teoría conspiratoria, lo cual es extraño, porque la mayoría de las teorías conspiratorias no tienen un sitio web oficial de las Naciones Unidas. En los dos últimos años, hemos visto cómo la idea de un «pasaporte vacunal» pasaba de ser un absurdo ridículo a convertirse en ley en cuestión de meses, al tiempo que nuestros datos de rastreo de contactos salían a subasta. Australia incluso presentó una propuesta para exigir la verificación de la identidad con foto en las redes sociales, supuestamente para combatir el ciberacoso.

Apenas hace falta decirlo, pero esta es la infraestructura necesaria para un sistema de crédito social. Cuando cada acción se rastrea contra una identidad digital singular, nuestras opiniones problemáticas pueden incurrir en cualquier consecuencia del mundo real decretada por la aristocracia política. Seremos despersonalizados y repersonalizados a voluntad. No es sólo la muerte del anonimato, es la muerte de la disidencia política. Es el fin de la delación y de la objeción de conciencia.

III.
Resulta que algunas empresas de alto nivel ya están pensando en ello. Twitter, bajo la nueva dirección de Elon Musk, ha presentado su renovada suscripción a Twitter Blue como una forma de combatir, en parte, los bots y los spammers a largo plazo.

Porque, francamente, alguien tiene que hacerlo.

La IA generativa, en todas sus formas, no va a desaparecer. Nos espera un Internet lleno de tonterías producidas a una escala logarítmica insondable hoy en día. Es posible que empecemos a rechazar Internet por completo, porque ya no nos resulta útil, del mismo modo que la Generación Z rechaza Facebook. Sin una forma de mantener nuestra relación señal-ruido, nos retiraremos a burbujas cada vez más pequeñas, sólo por invitación, donde los humanos responden por los humanos. El resto de la web, fuera de estos pequeños refugios antiaéreos en línea, seguirá parloteando sola, sin necesidad de información sensible para subsistir, como una gigantesca carpeta de correo basura llena de un billón de correos electrónicos parloteando entre sí. Y ese es el mejor resultado de los dos.

Bienvenidos a Internet.

Errores de ChatGPT: Por qué ocurren y cómo solucionarlos

Drapkin, A. (2023, abril 28). ChatGPT Errors: Why They Happen and How to Fix Them. Tech.Co. https://tech.co/news/chatgpt-errors-how-to-fix-them

ChatGPT está a menudo al límite de su capacidad y no siempre funciona completamente a la perfección. Esto es lo que debes hacer si tienes problemas.

ChatGPT ha arrasado en todo el mundo. Pero, por desgracia, ser el chatbot más utilizado del mundo no es coser y cantar. Los mensajes de error de ChatGPT se producen cuando las cosas no van del todo bien, y parecen aumentar en regularidad cuando muchos usuarios están utilizando ChatGPT simultáneamente.

Aunque hay muchas alternativas viables a ChatGPT, vale la pena tomarse el tiempo necesario para solucionar los problemas más comunes de ChatGPT. Muchos problemas con ChatGPT pueden resolverse fácilmente siguiendo unos sencillos pasos.

Esta guía cubre todo lo que necesitas saber sobre los problemas comunes de ChatGPT a los que se enfrentan los usuarios en 2023 – algunos de los cuales puede que ya hayas encontrado antes. También se dan instrucciones detallando cómo solucionarlos rápidamente, así que esperamos que no te quedes atascado durante mucho tiempo.

Los errores de red de ChatGPT

Los errores de red de ChatGPT se producen a veces cuando los usuarios piden a ChatGPT que proporcione respuestas multifacéticas, largas o complejas. Cómo solucionar el error de red ChatGPT

  • Comprueba tu conexión a Internet.
  • Divide su solicitud en sub-solicitudes más pequeñas.
  • Limite las respuestas de ChatGPT.
  • Pide cosas «en no más de 100 palabras/cuatro líneas»,

Mensaje de error en el cuerpo del mensaje de ChatGPT

Un error en el flujo del cuerpo se produce cuando ChatGPT ha intentado formular una respuesta, pero algo ha perjudicado o interferido en su proceso de generación de respuestas.

Cómo solucionar el mensaje de error ChatGPT en el cuerpo del mensaje- Además de probar tu propia conexión de red y borrar la memoria caché, aquí tienes algunas cosas que puedes intentar para que desaparezca el mensaje de error.

  • Crear un nuevo chat dentro de ChatGPT
  • Ajusta la longitud de sus peticiones
  • Ajusta la sintaxis de tu código y los argumentos de entrada

Error interno del servidor de ChatGPT

Si has estado utilizando ChatGPT durante un tiempo, lo más probable es que hayas recibido el mensaje de «error interno del servidor» al menos una vez. Los errores internos del servidor pueden ocurrir por varias razones. ChatGPT simplemente puede no tener suficiente almacenamiento o memoria para manejar el número de usuarios concurrentes de los que está recibiendo avisos, por ejemplo.

Cómo solucionar el error interno del servidor ChatGPT

  • Actualice su navegador.
  • Borra las cookies de tu navegador.
  • Utiliza otro navegador.
  • Vuelve a iniciar sesión en tu cuenta de OpenAI.

ChatGPT Error 1020: Acceso Denegado

El código de error 1020 es un código de error HTTP que le informa de que el sitio web que está intentando visitar ha bloqueado su dirección de protocolo de Internet (IP). Si ves este código, tu dirección IP ha sido marcada por el sistema de seguridad de Cloudflare, utilizado por OpenAI para proteger su sitio web.

Las universidades se preparan para el impacto del ChatGPT durante la temporada de exámenes de verano

Dodd, E. (2023, abril 30). Universities bracing for impact of ChatGPT during summer exam season. Buzz.Ie. https://www.buzz.ie/news/irish-news/university-exams-essays-chatgpt-ai-29815691

El final de las clases suele marcar el comienzo de los exámenes de fin de curso y este año, con los recientes avances en los chatbots de inteligencia artificial a disposición del público, está generando tensión tanto entre los educadores tanto entre los estudiantes.

El sofisticado programa de IA puede generar respuestas escritas completas y matizadas a preguntas, incluidas redacciones, cartas de presentación e informes. ChatGPT puede incluso escribir en un estilo que imita a escritores famosos, desde poetas a periodistas. No es el único robot de inteligencia artificial que existe. Google y Microsoft han lanzado competidores, pero éste es el más conocido.

Buzz Ciara Bracken-Roche, profesora adjunta de la facultad de Derecho y Criminología de la Universidad de Maynooth. afirma «Me llama la atención la rapidez con la que los estudiantes han empezado a utilizarla», añade.

Bracken-Roche añadió que los sistemas de IA como ChatGPT no son del todo malos para la educación e incluso podrían utilizarse como herramienta de enseñanza si, por ejemplo, se pudieran utilizar para escribir cinco frases de ejemplo con una estructura gramatical determinada. «Pero cuando hay otros estudiantes que lo utilizan para escribir sus redacciones, resulta un poco problemático», explica.

Es comprensible que los estudiantes se sientan tentados a utilizar esta herramienta, sobre todo si tienen que entregar varias redacciones en el plazo de una semana. Sin embargo, Bracken-Roche afirma que donde hay tecnología, hay contra-tecnología. «Todos nuestros sistemas contra el plagio ya tienen un detector de ChatGPT. Así que los estudiantes se darán cuenta».

Sin embargo, las herramientas de inteligencia artificial como ChatGPT son cada vez más sofisticadas. «Creo que sólo vamos a ver más dilemas en torno a este tipo de cosas. Y a medida que estas tecnologías se desarrollen en la vida real», afirma Bracken-Roche.

Microsoft apuesta por la inteligencia artificial con nuevas funciones de Bing: : citas, creación de gráficos y tutoriales paso a paso

«Microsoft doubles down on AI with new Bing features | TechCrunch». Accedido 5 de mayo de 2023. https://techcrunch.com/2023/05/04/microsoft-doubles-down-on-ai-with-new-bing-features/.

Un aspecto de Bing Chat que está mejorando es la transparencia en torno a sus respuestas, concretamente las respuestas basadas en hechos. Pronto, cuando se le pida que resuma un documento o sobre su contenido (por ejemplo, «¿qué dice esta página sobre el puente de Brooklyn?»), ya sea un PDF de 20 páginas o un artículo de Wikipedia, Bing Chat incluirá citas que indicarán de qué parte del texto procede la información. Al hacer clic en ellas, se resaltará el pasaje correspondiente.

Otra novedad en el ámbito visual es que Bing Chat podrá crear tablas y gráficos si se le proporcionan los datos y las preguntas adecuadas. Hasta ahora, preguntar algo como «¿Cuáles son las ciudades más pobladas de Brasil?» arrojaba una lista básica de resultados. Pero en un futuro próximo, Bing Chat presentará esos resultados visualmente y en el tipo de gráfico que elija el usuario.

En cuanto a las imágenes, Bing Chat está adquiriendo la capacidad de comprender imágenes además de texto. Los usuarios podrán subir imágenes y buscar en Internet contenidos relacionados, por ejemplo, copiando un enlace a una imagen de un pulpo de ganchillo y preguntando a Bing Chat «¿cómo se hace eso?» para obtener instrucciones paso a paso.

¿Cuándo sustituirá ChatGPT a las búsquedas? El 42 % de los profesionales de diversos sectores encuestados predijeron que en el futuro encontrarían información basada en Internet a través de chatbots

How ChatGPT and Generative AI Will Alter the Future of Work—Aberdeen Strategy & Research. (2023). Recuperado 28 de abril de 2023, de https://www.aberdeen.com/blog-posts/how-chatgpt-and-generative-ai-will-alter-the-future-of-work/

¿Cuándo sustituirá ChatGPT a las búsquedas? Quizá antes de lo que cree
Una encuesta reciente de Aberdeen Strategy & Research preguntaba cómo crees que encontrarás información en Internet en el futuro: Los chatbots de IA ganan a los motores de búsqueda por un amplio margen.

El artículo plantea la posibilidad de que los sistemas de conversación basados en IA, como ChatGPT, puedan reemplazar a los motores de búsqueda tradicionales en un futuro cercano, ya que ofrecen una experiencia más personalizada y efectiva para los usuarios. Además, se discuten los desafíos que todavía deben superarse antes de que esto suceda, como la falta de transparencia y control en la toma de decisiones de los sistemas de IA.

Se ha escrito mucho sobre las implicaciones de las herramientas impulsadas por IA que realizan tareas empresariales que antes requerían horas de trabajo humano. Como es lógico, gran parte del debate sobre la IA se ha centrado en que la tecnología pone en peligro puestos de trabajo en campos como la creación de contenidos, la atención al cliente, la introducción de datos e incluso la programación informática. Sin embargo, se avecina otro gran cambio: uno que podría alterar fundamentalmente la forma en que obtenemos información y, posiblemente, poner patas arriba el actual paradigma de Internet basado en la publicidad con el que todos estamos familiarizados.

Según una encuesta realizada por Aberdeen Strategy & Research en marzo de 2023, el 42 % de los 642 profesionales de diversos sectores encuestados predijeron que en el futuro encontrarían información basada en Internet a través de chatbots de IA, mientras que solo el 24 % se decantó por los motores de búsqueda.

No sólo los usuarios creen que es más probable que utilicen chatbots para las búsquedas web en el futuro, sino que muchos ya los están utilizando hoy en día. En marzo de 2023, casi seis de cada 10 encuestados habían probado herramientas de IA generativa. Los encuestados eran casi tres veces más dados a haber probado chatbots (56%) como ChatGPT que herramientas de texto a imagen (20%) como Dall-E 2 o Midjourney. Así que, aunque cualquiera tiene el poder de utilizar la IA para generar imágenes, no son muchos los que lo están haciendo todavía.

El estudio reveló que el 16% de los encuestados había utilizado herramientas de IA de manera intensiva (usuarios avanzados), mientras que el 43% las había probado solo de manera ocasional (usuarios ocasionales). Además, los usuarios avanzados eran más jóvenes, con un 28% de la generación del milenio y posteriores (nacidos después de 1981) siendo usuarios avanzados, en comparación con el 14% de la generación X y el 10% de los boomers.

En la actualidad, estos usuarios avanzados son los pioneros de la IA generativa, experimentan con nuevos casos de uso y desarrollan opiniones fundamentadas que influirán en el resto de nosotros. De hecho, el 74% de los usuarios avanzados de IA generativa creen que el desarrollo de la IA avanzada podría ser tan importante como la creación de Internet.

Ya el 64% de los usuarios avanzados de IA generativa y el 35% de los usuarios ocasionales creen que la IA puede ayudarles a encontrar respuestas más rápidamente que un motor de búsqueda tradicional, en comparación con sólo el 7% de los que no han probado el uso de la IA. El estudio también indica que el cambio de los motores de búsqueda a los chatbots de IA podría producirse con bastante rapidez. La gran mayoría de los usuarios avanzados actuales (87 %) y de los usuarios ocasionales (80 %) creen que los chatbots de IA podrán ofrecer respuestas más rápidamente que los motores de búsqueda tradicionales en un plazo de dos años, frente al 42 % de los no usuarios.

La prisa de Google BARD por competir en IA a ChatGPT de Open AI está provocando lagunas éticas

Google’s Rush to Win in AI Led to Ethical Lapses, Employees Say. (2023, abril 19). Bloomberg.Com. https://www.bloomberg.com/news/features/2023-04-19/google-bard-ai-chatbot-raises-ethical-concerns-from-employees

La prisa de Google por competir en IA está provocando lagunas éticas, según sus empleados El gigante de las búsquedas está haciendo concesiones en materia de desinformación y otros perjuicios para ponerse a la altura de ChatGPT

A medida que se aceleran los avances en inteligencia artificial, surgen nuevas preocupaciones sobre sus efectos sociales. Los grandes modelos lingüísticos, las tecnologías en las que se basan ChatGPT y Bard, ingieren enormes volúmenes de texto digital de artículos de noticias, publicaciones en redes sociales y otras fuentes de Internet, y luego utilizan ese material escrito para entrenar software que predice y genera contenido por sí mismo cuando se le da una indicación o consulta. Esto significa que, por su propia naturaleza, los productos corren el riesgo de regurgitar discursos ofensivos, dañinos o inexactos.

Poco antes de que Google presentara Bard, su chatbot de IA, al público en marzo, pidió a los empleados que probaran la herramienta.

La conclusión de un trabajador: Bard era «un mentiroso patológico», según las capturas de pantalla de la discusión interna. Otro lo calificó de «descojonante». Un empleado escribió que cuando le pedían sugerencias sobre cómo aterrizar un avión, Bard solía dar consejos que provocarían un accidente; otro dijo que daba respuestas sobre submarinismo «que probablemente provocarían lesiones graves o la muerte».

En febrero, un empleado planteó sus problemas en un grupo de mensajes interno: «Bard es peor que inútil: por favor, no lo lancen». La nota fue vista por casi 7.000 personas, muchas de las cuales coincidían en que las respuestas de la herramienta de IA eran contradictorias o incluso manifiestamente erróneas en simples consultas sobre hechos.

Google lanzó Bard de todos modos. El confiable gigante de las búsquedas en Internet está proporcionando información de baja calidad en una carrera para mantenerse al día con la competencia, mientras da menos prioridad a sus compromisos éticos, según 18 trabajadores actuales y anteriores de la compañía y documentación interna revisada por Bloomberg. La empresa, propiedad de Alphabet Inc, se había comprometido en 2021 a duplicar su equipo de estudio de la ética de la inteligencia artificial y a dedicar más recursos a evaluar los posibles daños de la tecnología. Pero el debut en noviembre de 2022 del popular chatbot de su rival OpenAI hizo que Google se apresurara a integrar la IA generativa en todos sus productos más importantes en cuestión de meses.

Se trata de un ritmo de desarrollo notablemente más rápido para esta tecnología, que podría tener profundas repercusiones sociales. El grupo de trabajo sobre ética que Google se comprometió a reforzar está ahora desprovisto de poder y desmoralizado, según los trabajadores actuales y antiguos. A los miembros del personal responsables de la seguridad y las implicaciones éticas de los nuevos productos se les ha dicho que no se metan en medio ni intenten acabar con ninguna de las herramientas de IA generativa en desarrollo, afirmaron.

Google pretende revitalizar su negocio de búsquedas en torno a esta tecnología de vanguardia, que podría introducir la IA generativa en millones de teléfonos y hogares de todo el mundo, idealmente antes de que OpenAI, con el respaldo de Microsoft Corp, se le adelante.

Google afirmó que la IA responsable sigue siendo una de las principales prioridades de la empresa. «Seguimos invirtiendo en los equipos que trabajan en la aplicación de nuestros principios de IA a nuestra tecnología», declaró Brian Gabriel, portavoz de la empresa. El equipo que trabaja en la IA responsable se deshizo de al menos tres miembros en una ronda de despidos en enero en la empresa, incluido el jefe de gestión y programas. Los recortes afectaron a unos 12.000 trabajadores de Google y su empresa matriz.

Google, que a lo largo de los años ha encabezado gran parte de la investigación en la que se basan los avances actuales de la IA, aún no había integrado en sus productos una versión de la IA generativa adaptada al consumidor cuando se lanzó ChatGPT. Según los empleados, la empresa se mostraba cautelosa ante su potencia y las consideraciones éticas que conllevaría la integración de la tecnología en los motores de búsqueda y otros productos estrella.

En diciembre, los altos directivos decretaron un «código rojo» competitivo y cambiaron su actitud ante el riesgo. Los directivos de Google decidieron que mientras denominaran «experimentos» a los nuevos productos, el público podría perdonar sus deficiencias, según los empleados. Aun así, necesitaba que sus equipos de ética se pusieran de acuerdo. Silicon Valley en su conjunto sigue luchando por conciliar las presiones competitivas con la seguridad.