Archivo de la etiqueta: Inteligencia artificial

Guía para desarrollar una Inteligencia Artificial (IA) responsable.

Mina Narayanan Christian Schoeberl «A Matrix for Selecting Responsible AI Frameworks». Center for Security and Emerging Technology. Accedido 7 de junio de 2023.

Texto completo

Los esquemas de procesos proporcionan un modelo para que las organizaciones implanten una inteligencia artificial (IA) responsable, pero el gran número de marcos, junto con sus destinatarios vagamente especificados, puede dificultar que las organizaciones seleccionen los que satisfagan sus necesidades. Este informe presenta una matriz que organiza aproximadamente 40 marcos de procesos públicos según sus áreas de interés y los equipos que pueden utilizarlos. En última instancia, la matriz ayuda a las organizaciones a seleccionar los recursos adecuados para implantar una IA responsable.

Inteligencia artificial y bibliotecas con Santiago Villegas. Planeta Biblioteca 2023/06/03

Inteligencia artificial y bibliotecas

con Santiago Villegas

Planeta Biblioteca 2023/06/03

VIDEO (Editado por Marlene Quinde)

ESCUCHAR EL PROGRAMA

Ir a descargar

CUROS BIBLIOTECAS E INTELIGENCIA ARTIFICIAL (Gratuito)

Por Santiago Villegas y Cristian Maturana

Hemos entrevistado sobre Inteligencia Artificial (IA) y bibliotecas a Santiago Villegas, consultor senior en transformación digital para el sector cultura. Uso el marketing, la cultura digital y la ciencia de la información para transformar organizaciones y ciudades, potenciando su capacidad de innovación e impacto social. Con Santiago hemos conversado amigablemente sobre cómo la IA está impactando y transformando la profesión bibliotecaria en la actualidad, cuáles son algunas de las tareas o responsabilidades específicas de los bibliotecarios que podrían ser automatizadas o mejoradas mediante el uso de la IA, en qué medida se verá afectada la profesión de los bibliotecarios en el futuro, beneficios potenciales de utilizar la IA en las bibliotecas para los bibliotecarios y para los usuarios, posibles limitaciones y desafíos asociadas con el uso de la IA en las bibliotecas y en la profesión bibliotecaria, cómo se puede garantizar la ética y la privacidad de los datos desde el mundo de la biblioteca, cómo la IA puede ayudar a los bibliotecarios a personalizar y mejorar los servicios y recomendaciones para los usuarios, qué habilidades y conocimientos son necesarios para que los bibliotecarios puedan aprovechar al máximo la IA, y cuál es el futuro de la Inteligencia Artificial en las bibliotecas

Según Turnitin, el 3,5% de las consultas que pasaron por el detector de IA contenían más del 80% de texto escrito con IA

Kuykendall, By Kristal, y 05/30/23. «Turnitin: Of 38M Submissions Since April 4, 3.5% Had At Least 80% AI-Written Text -». Campus Technology. Accedido 2 de junio de 2023. https://campustechnology.com/articles/2023/05/turnitin-says-its-ai-detector-analyzed-38m-submissions-in-six-weeks.aspx.

Según Turnitin, el 3,5% de las consultas que pasaron por el detector de IA contenían más del 80% de texto escrito con IA, y algo menos de una décima parte de los envíos contenían al menos un 20% de texto escrito con IA.

Turnitin informó de que, de 38 millones de consultas realizadas desde el 4 de abril, aproximadamente el 3,5% de ellos contenían al menos un 80% de texto escrito por IA. Esto sugiere que hay una notable presencia de texto generado por IA en los envíos que Turnitin ha procesado.

De manera que en las primeras seis semanas de uso por parte de los educadores de la nueva función de detección de escritura por IA de Turnitin, ha llevado a la plataforma a ajustar el detector y a explicar mejor el significado y los índices de precisión de las puntuaciones de detección.

Las actualizaciones de la función de detección de IA inclyen:

  • Se ha añadido un asterisco a las puntuaciones inferiores al 20%: Ahora aparecerá un asterisco junto al indicador «puntuación» -o el porcentaje de un envío que se considera texto escrito con IA- cuando la puntuación sea inferior al 20%, ya que el análisis de los envíos hasta ahora muestra que los falsos positivos son mayores cuando el detector encuentra que menos del 20% de un documento está escrito con IA. El asterisco indica que la puntuación es menos fiable, según la entrada del blog.
  • Aumento del número mínimo de palabras: El número mínimo de palabras necesario para que el detector de IA funcione se ha aumentado de 150 a 300, porque el detector es más preciso cuanto más largo es un envío, dijo Chechitelli. «Los resultados demuestran que nuestra precisión aumenta con un poco más de texto, y nuestro objetivo es centrarnos en los escritos largos. Es posible que con el tiempo modifiquemos este requisito de palabras mínimas basándonos en la evaluación continua de nuestro modelo.»
  • Cambios en el análisis del detector de frases iniciales y finales: «También observamos una mayor incidencia de falsos positivos en las primeras o últimas frases de un documento», dijo Chechitelli. «Muchas veces, estas frases son la introducción o la conclusión en un documento. Como resultado, hemos cambiado la forma de agregar estas frases específicas para la detección con el fin de reducir los falsos positivos.»

Es importante señalar que la capacidad de Turnitin para detectar texto generado por IA se basa en sus algoritmos y bases de datos que comparan el texto enviado con las fuentes existentes para identificar posibles casos de plagio. Aunque Turnitin puede detectar casos en los que el texto generado por IA se ha copiado directamente de fuentes existentes, puede tener dificultades para identificar el plagio cuando el texto generado por IA es original y no procede de publicaciones existentes.

A medida que siga evolucionando el uso de la IA en la generación de texto, es posible que las herramientas de detección como Turnitin tengan que adaptarse y desarrollar nuevas técnicas para identificar y abordar eficazmente el plagio generado por IA. Las instituciones y organizaciones educativas también pueden necesitar establecer políticas y directrices específicas para abordar el uso de contenidos generados por IA y el plagio en entornos académicos.

Vale la pena mencionar que las cifras proporcionadas por Turnitin ponen de relieve la prevalencia del texto generado por IA, pero sería necesario realizar más análisis e investigaciones para comprender plenamente el impacto y las implicaciones del contenido generado por IA en el contexto de la integridad académica y la detección del plagio.

Los sistemas de inteligencia artificial como ChatGPT pueden realizar análisis de datos a un coste de menos del 1% de lo que costaría contratar a un analista humano

South China Morning Post. «Study Shows ChatGPT Has Potential to Do Data Analysis at Fraction of Human Cost», 29 de mayo de 2023. https://www.scmp.com/tech/article/3222214/llms-chatgpt-can-perform-data-analysis-fraction-human-cost-comparable-performance-study.

Los resultados preliminares proceden de un estudio sobre LLM realizado por la Academia Damo de Alibaba y la Universidad Tecnológica Nanyang de Singapur. El coste de GPT-4, la última versión del LLM desarrollado por la start-up estadounidense OpenAI, es sólo el 0,45% de la contratación de un analista de datos senior, según un estudio.

El uso de grandes modelos lingüísticos (LLM) como GPT-4 en el análisis de datos cuesta menos del 1% de lo que cuesta contratar a un analista humano con resultados comparables, según un estudio reciente que pone de relieve la amenaza potencial que supone para la seguridad laboral la creciente adopción de la inteligencia artificial generativa (IA) en diversos sectores.

El coste de GPT-4, la última versión de la LLM desarrollada por la start-up estadounidense OpenAI, es sólo el 0,45% de la contratación de un analista de datos sénior que gane en el mercado unos 90.000 dólares anuales, o el 0,71% de un empleado de nivel subalterno, según las conclusiones de un estudio de unos investigadores de Damo Academy, la rama de investigación interna del gigante chino del comercio electrónico Alibaba Group Holding, y la Universidad Tecnológica Nanyang de Singapur, publicadas en el servidor de preprints arXiv (PDF).

En el estudio, los investigadores formularon preguntas y proporcionaron los datos, y automatizaron todo el proceso de análisis de datos utilizando GPT-4 para extraer y analizar los datos, con el fin de producir finalmente ideas y gráficos. Los resultados del análisis se compararon con los de analistas de datos humanos profesionales en términos de rendimiento, tiempo y costes.

Los experimentos demostraron que la GPT-4 no sólo es significativamente más barata que un analista de datos humano, sino también mucho más rápida a la hora de completar las tareas, según las conclusiones del estudio.

Sin embargo, el estudio señala que se necesitan más estudios antes de concluir que GPT-4 puede sustituir a los analistas de datos. GPT-4 también puede superar a un analista humano de nivel básico en términos de rendimiento, que se evaluó a través de una serie de métricas que incluían la corrección y fluidez en los gráficos y las percepciones que producían, y tiene un «rendimiento comparable» al de un analista de nivel superior, con ventajas que varían según los distintos casos y métricas.

En algunos casos, el modelo de IA consiguió superar a los analistas de datos humanos en cuanto a la corrección de las cifras y el análisis, y las percepciones que generaba GPT-4 tendían a ser más complejas, según el estudio. GPT-4 también obtuvo plena puntuación en alineación y fluidez a la hora de generar el análisis con textos gramaticalmente correctos.

Sin embargo, GPT-4 quedó por detrás de los humanos a la hora de mostrar datos correctos en los gráficos, así como en la presentación y el formato en algunos casos. A pesar de los errores en algunas cifras, GPT-4 podía generar análisis correctos, señalaba el estudio.

El estudio arroja nueva luz sobre la creciente aplicación de las GPT-4 en diversas industrias, donde se espera que mejoren la eficiencia pero también amenacen los puestos de trabajo humanos.

Las empresas tecnológicas chinas se apresuran a desarrollar sus propios servicios similares a ChatGPT. Alibaba está trabajando en su propia respuesta, llamada Tongyi Qianwen, que lanzó en abril para pruebas beta a clientes corporativos por invitación, semanas después de que Baidu diera a conocer su servicio Ernie Bot.

La propiedad de los contenidos generados por IA

Sheth, Sarang. «Who Owns AI-Generated Content? Understanding Ownership, Copyrighting, and How the Law Interprets AI-Generated Art – Yanko Design», 28 de mayo de 2023. https://www.yankodesign.com/2023/05/27/who-owns-ai-generated-content-understanding-ownership-copyrighting-and-how-the-law-interprets-ai-generated-art/.

El origen y la capacidad de los contenidos generados por IA han sido temas de larga data. El aprendizaje automático ha estado presente durante más de una década, permitiendo que las computadoras adquieran inteligencia al recopilar datos, analizarlos, «pensar» y «crear». Desde la histórica victoria de Deep Blue sobre Garry Kasparov en 1996 en una partida de ajedrez, seguida por el triunfo del superordenador Watson de IBM en el programa Jeopardy en 2011, hasta la victoria de AlphaGo sobre el campeón europeo de Go Fan Hui en 2015 por 5 a 0, hemos presenciado hitos impresionantes. Sin embargo, atribuir exclusivamente la victoria a las computadoras o a los ingenieros que las crearon plantea cuestiones difíciles de dilucidar:

¿Es correcto afirmar que las computadoras han derrotado a sus contrapartes humanas? ¿O deberíamos considerar que los ingenieros que diseñaron y desarrollaron estas máquinas son los verdaderos vencedores? Además, si un automóvil Tesla autónomo llegara a causar un accidente mortal a un peatón, ¿a quién se le atribuiría la culpa? ¿A la inteligencia artificial en sí? ¿Al humano que estaba al volante? ¿O al equipo de ingenieros de Tesla que creó el algoritmo de conducción autónoma? Estas preguntas aún no tienen respuestas definitivas.

La propiedad de los contenidos generados por IA es un ámbito jurídico complejo y en evolución. En muchos casos, los términos y condiciones establecidos por las empresas, como Tesla, aclaran que la responsabilidad recae en el conductor y no en la inteligencia artificial del vehículo. Sin embargo, la asignación precisa de responsabilidad en casos como este es un desafío complejo y requiere una cuidadosa consideración legal y ética.

La propiedad de los contenidos generados por IA depende normalmente de la participación y contribución de los creadores humanos. En muchas jurisdicciones, la legislación sobre derechos de autor concede la propiedad a los creadores humanos de obras originales. Sin embargo, dado que los contenidos generados por IA son producidos por algoritmos sin participación humana directa, la cuestión de la propiedad se vuelve más compleja.

En algunos casos, el propietario de la IA puede ser considerado propietario del contenido que genera. Podría tratarse de la persona u organización que creó o entrenó el algoritmo de IA. Sin embargo, este enfoque no es aceptado universalmente, y algunos sostienen que el resultado de una IA no debería estar sujeto a la protección de los derechos de autor porque carece de la creatividad o autoría humanas necesarias.

Como alternativa, la propiedad puede atribuirse a la persona o entidad que proporcionó los datos utilizados para entrenar la IA. Por ejemplo, si una IA se entrena con un conjunto de datos de fotografías, la titularidad de los derechos de autor de esas fotografías puede influir en la titularidad del contenido generado por la IA.

Cabe señalar que algunas jurisdicciones han empezado a explorar marcos jurídicos que abordan específicamente los contenidos generados por IA. Por ejemplo, la Directiva sobre derechos de autor de la Unión Europea, adoptada en 2019, incluye disposiciones que establecen que la protección de los derechos de autor no debe aplicarse a las obras generadas por IA sin participación humana. Sin embargo, los estados miembros son responsables de implementar esta directiva en sus leyes nacionales, por lo que puede haber variaciones en cómo se interpreta y aplica esto.

En lo que respecta a los derechos de autor de las obras de arte generadas por IA, la capacidad de garantizar la protección de los derechos de autor puede depender de la participación de creadores humanos en el proceso creativo. Si un artista humano contribuye a la concepción o el diseño de la obra de arte generada por la IA, puede reclamar derechos de autor sobre ella. Sin embargo, si la IA genera de forma autónoma la obra de arte sin intervención humana, puede ser más difícil hacer valer la propiedad de los derechos de autor.

La interpretación de la legislación sobre derechos de autor y los contenidos generados por IA sigue evolucionando, y las distintas jurisdicciones pueden adoptar enfoques diferentes. Es esencial consultar con profesionales del derecho versados en la propiedad intelectual y la ley de IA para comprender las implicaciones y normativas específicas de cada jurisdicción.

ChatGPT: la inteligencia artificial y la generación de textos académicos. Planeta biblioteca 2023/05/31

ChatGPT: la inteligencia artificial y la generación de textos académicos.

Planeta biblioteca 2023/05/31

ESCUCHAR EL PROGRAMA

Ir a descargar

Video Conferencia Argentina

Video «Cómo funciona CHATGPT»

ChatGPT es un modelo de lenguaje basado en IA desarrollado por OpenAI que puede ser una herramienta valiosa para los educadores. Permite interactuar con un asistente virtual inteligente para obtener respuestas y generar ideas sobre tendencias. Sin embargo, su uso plantea preocupaciones éticas y de privacidad, como el acceso y uso indebido a datos personales, el sesgo algorítmico, el plagio académico y las implicaciones de la toma de decisiones automatizada en temas sensibles.

Inteligencia Artificial, Ética y Creatividad Artística: actividades

Inteligencia Artificial, Ética y Creatividad Artística: actividades. Santiago de Chile: Ministerio de Educación, 2023

Texto completo

Programa de inteligencia artificial para 7° básico a I medio: fundamentos, ética y creatividad artística, desarrollado para fomentar el trabajo y reforzar la capacidad creativa e imaginativa de niñas, niños y adolescentes.

Promueve la discusión sobre temas éticos en torno a la Inteligencia Artificial generativa, junto al plan de estudios del MIT “Creative AI: A middle school curriculum about Creativity, Generative AI and Ethics” (Inteligencia artificial creativa: un currículum sobre creatividad, inteligencia artificial generativa y ética para la enseñanza media), en español.

Compuesto por 6 módulos con actividades autoexplicativas y recursos para el trabajo teórico y práctico (suma equivalente a 14 clases de 45 minutos). Está desarrollado para las asignaturas de Tecnología e Historia, Geografía y Ciencias Sociales de 7° básico a I medio, con oportunidades de integración curricular con Artes Visuales, Historia, Geografía y Ciencias Sociales y Orientación. Estas actividades son perfectamente adaptables, a otras asignaturas o niveles, así como a talleres y actividades extracurriculares.

Guía para Docentes – Cómo usar ChatGPT para potenciar el aprendizaje activo

Guía para Docentes – Cómo usar ChatGPT para potenciar el aprendizaje activo. Santiago de Chile: Ministerio de Educación, 2023

Texto completo

En el marco del fortalecimiento de la Ciudadanía Digital impulsado por el Mineduc, este documento ofrece una guía práctica para que los y las docentes exploren cómo aprovechar estas nuevas herramientas para potenciar el aprendizaje activo de los y las estudiantes.

El 85% de los trabajadores estadounidenses han utilizado herramientas de IA para realizar tareas en el trabajo

«Insights from American Workers: A Survey on AI in the Workplace». Checkr. Accedido 30 de mayo de 2023. https://checkr.com/resources/articles/ai-workplace-survey-2023.

En el panorama tecnológico en rápida evolución, ha surgido una tendencia que ha cambiado las reglas del juego para las empresas de todo el mundo: la adopción generalizada de la Inteligencia Artificial (IA) en el lugar de trabajo. A medida que nos adentramos en 2023, la IA ha pasado de ser una palabra de moda a una fuerza transformadora que está revolucionando la forma en que las organizaciones operan, innovan e interactúan con sus clientes.

Checkr encuestó a trabajadores estadounidenses de cuatro generaciones para conocer sus opiniones sobre la adopción de herramientas de IA generativa en el trabajo; si los trabajadores creen que la IA podría sustituirles algún día; su uso de herramientas de IA en el trabajo; cómo podría afectar la IA a los puestos de trabajo y a la remuneración en 2023; el impacto de la IA en el equilibrio entre la vida laboral y personal; qué generación de trabajadores teme más el papel de la IA en el lugar de trabajo, y mucho más.

  • El 85% de los trabajadores estadounidenses han utilizado herramientas de IA para realizar tareas en el trabajo. Los Millennials lideran el grupo con un 89% que afirma haber utilizado la IA en el trabajo.
  • El 69% de los trabajadores estadounidenses -el 63% de los Boomers, el 65% de los Gen Xers, el 76% de los Millennials y el 71% de los Gen Zers- afirman estar de acuerdo o dudar si contar a sus jefes el uso de la IA en el trabajo por miedo a ser sustituidos por las herramientas que utilizan.
  • El 79% de los trabajadores estadounidenses se sienten presionados para aprender más sobre las herramientas de IA. Los Millennials lideran el grupo con un 85% sintiendo la mayor presión en el trabajo.
  • El 57% de los trabajadores estadounidenses -el 53% de los Boomers, el 49% de los Gen Xers, el 59% de los Millennials y el 65% de los Gen Xers- afirman que aceptarían un recorte salarial a cambio de una semana laboral de cuatro días con IA.
  • El 86% de los trabajadores estadounidenses -85% de los Boomers, 82% de los Gen Xers, 84% de los Millennials y 92% de los Gen Zers- afirmaron que aceptarían un recorte salarial para trabajar menos, en general, si la IA pudiera ayudarles a realizar todo su trabajo.
  • El 79% de los trabajadores estadounidenses -el 75% de los Boomers, el 81% de los Gen Xers, el 82% de los Millennials y el 76% de los Gen Zers- afirmaron tener miedo o estar indecisos sobre si la IA podría suponer una reducción salarial para las personas en sus puestos.
  • El 74% de los trabajadores estadounidenses -el 71% de los Boomers, el 70% de los Gen Xers, el 81% de los Millennials y el 73% de los Gen Zers- afirmaron estar de acuerdo o indecisos sobre la posibilidad de que la adopción de herramientas de IA les lleve a perder sus puestos de trabajo.
  • El 67% de los trabajadores estadounidenses -el 59% de los Boomers, el 61% de los Gen Xers, el 77% de los Millennials y el 69% de los Gen Zers- afirmaron que gastarían su propio dinero en mejorar sus conocimientos sobre IA para evitar ser sustituidos.
  • El 74% de los estadounidenses -el 70% de los Boomers, el 69% de los Gen Xers, el 78% de los Millennials y el 79% de los Gen Zers- dijeron que creen que se van a producir despidos por IA en los próximos seis meses a dos años.

En conclusión: la IA se utiliza cada vez más en diversos aspectos del trabajo, desde la automatización de tareas repetitivas hasta el análisis avanzado de datos y la toma de decisiones.

¿Sustituirá ChatGPT al motor de búsqueda de Google?

«Will ChatGPT Replace the Google Search Engine?», 26 de mayo de 2023. https://www.boldare.com/blog/will-chatgpt-replace-google-search-engine.

ChatGPT ha arrasado en el sector digital, conquistando corazones y mentes por igual. Y esto ha ocurrido por una razón. Es fácil de usar, gratuito y lleno de usos potenciales. Es potente, pero no ilimitado. En pocas palabras: no, ChatGPT no sustituirá al motor de búsqueda de Google. Puede que se haga con parte del tráfico pero, al menos por ahora

ChatGPT, o modelos lingüísticos similares, son potentes herramientas para generar textos de apariencia humana y ayudar a los usuarios a encontrar información. Sin embargo, es importante señalar que ChatGPT está diseñado como agente conversacional y no como motor de búsqueda.

Google Search y ChatGPT parecen similares. Hay un campo en el que se introduce la consulta y, a continuación, se obtiene un resultado: en el caso de Google, se trata de una lista de sitios web (aunque no sólo: en los últimos años, Google ha empezado a mostrar los denominados resultados enriquecidos, que pretenden responder a la pregunta del usuario a nivel de motor de búsqueda); en el caso de ChatGPT, se trata de una respuesta completa a una pregunta determinada.

Google vs ChatGPT no se trata simplemente de una competición entre un motor de búsqueda clásico y la IA. Google lleva tiempo utilizando algoritmos de IA para responder a las consultas de los usuarios. RankBrain, Neural Matching, Bert, MUM: estos son los algoritmos de IA más populares que Google ha introducido en su motor de búsqueda en los últimos años.

BERT (Bidirectional Encoder Representations from Transformers) se lanzó en 2018 y ayuda al motor de búsqueda a procesar y comprender el lenguaje natural. Se basa en la arquitectura Transformer – al igual que el modelo GPT utilizado por ChatGPT.

¿Cómo funciona ChatGPT?

ChatGPT es un modelo lingüístico probabilístico diseñado para seguir y ejecutar instrucciones. Ha sido entrenado con un conjunto específico de datos textuales para ejecutar las instrucciones con la mayor precisión posible. Lo hace generando tokens: secuencias de caracteres y palabras, basadas en una distribución de probabilidades.

En pocas palabras, lo que hace básicamente la inteligencia artificial es analizar las estadísticas y la secuencialidad del orden de las palabras y construir cadenas con las palabras más probables. El aspecto que aún no es visible en el propio ChatGPT -pero lo será en su iteración Bing o en el modelo fuente OpenAI Playground- es la posibilidad de definir el parámetro «temperatura». Esta característica permite a los usuarios decidir cuánto puede desviarse el modelo de la información que ha aprendido de su conjunto de datos.

En la práctica, el parámetro de temperatura indica si los tokens (palabras) utilizados deben tener el nivel de probabilidad más alto. Esto tiene un enorme impacto en el efecto final. Si decide añadir sólo las palabras más probables, el resultado será muy plano, repetitivo y esquemático. Si permite el uso de tokens de menor rango, más aleatorios, obtendrá un resultado más versátil e interesante.

Los posibles errores y elucubraciones en las respuestas se deben a que, aunque los modelos se entrenan con enormes cantidades de datos textuales, no son capaces de entender el mundo de forma humana ni de verificar la veracidad de la información como harían las personas. En su lugar, se basan en estructuras lingüísticas y patrones aprendidos a partir de los datos de entrenamiento.

Por ejemplo, cuando se le pregunta sobre algún tema científico, puede citar determinados trabajos de investigación, junto con sus títulos, autores, fechas de publicación, etc. Pero una vez que se empieza a buscar esos trabajos, a menudo resulta que nunca han existido. Todo depende de cuánta información y cuántas citas sobre un tema determinado había en el corpus de texto utilizado para entrenar el modelo.

Por consiguiente, aunque el resultado generado por un modelo sea gramaticalmente correcto y suene sensato, puede contener información falsa, o información «inventada» por el modelo. De ahí viene el concepto de «alucinación»

Y por eso hay que tener en cuenta que, aunque la IA sea una herramienta poderosa para la generación de textos, sigue requiriendo supervisión y evaluación humanas, sobre todo si la información que proporciona se va a utilizar para tomar decisiones importantes o en situaciones en las que el uso de datos precisos y exactos es esencial. Por eso, utilizar ChatGPT como alternativa a los motores de búsqueda -incluido Google- está prácticamente descartado.

ChatGPT no es un motor de búsqueda, es un procesador de texto. Como su nombre indica, su función es procesar texto. También puede generar textos, pero para ello debe recibir alguna entrada o un patrón a seguir. No escribirá una entrada de blog por ti (es decir, puede hacerlo, pero el escritor debe comprobar la información generada por el chatbot). ChatGPT puede resultar útil para varios usos: puede codificar, corregir, analizar y categorizar contenidos, etcétera. Pero no funcionará como motor de búsqueda.

Aunque los modelos de IA conversacional como ChatGPT pueden proporcionar respuestas instantáneas y ayudar a los usuarios en determinadas tareas, no tienen la misma amplitud y profundidad de información que un motor de búsqueda como Google. Es más acertado considerar los modelos de IA conversacional y los motores de búsqueda como herramientas complementarias que como competidores directos. La IA conversacional puede ser útil para proporcionar respuestas rápidas y entablar conversaciones interactivas, mientras que los motores de búsqueda destacan en la recuperación de una amplia gama de información de la inmensidad de Internet.

En conclusión: Hay que tener en cuenta que la tecnología está en constante evolución y que es posible que surjan nuevos avances en el futuro. Sin embargo, por ahora, es poco probable que los modelos de IA conversacional sustituyan por completo a los motores de búsqueda como Google Search. En cambio, es probable que sigan coexistiendo y complementándose de diferentes maneras para atender las diversas necesidades de información de los usuarios.