Archivo de la etiqueta: Chatbot

Evaluación de 8 chatbots de inteligencia artificial

Caswell, Amanda. “I Tested 8 AI Chatbots for Our First Ever AI Madness — and This Is the Surprise Winner.” Tom’s Guide, marzo‑abril 2025.

Texto completo

En marzo de 2025, el medio tecnológico Tom’s Guide organizó una competencia llamada “AI Madness”, una especie de torneo eliminatorio inspirado en los brackets deportivos, para evaluar y comparar ocho de los chatbots de inteligencia artificial más avanzados del momento.

La periodista Amanda Caswell fue la encargada de probar cada modelo en múltiples rondas, utilizando una serie de prompts reales que abarcaban seis criterios clave: precisión factual, creatividad, utilidad, capacidades multimodales, experiencia de usuario e interfaz, y velocidad de respuesta.

En la primera ronda, ChatGPT (de OpenAI) venció a Perplexity.ai gracias a su equilibrio entre creatividad, profundidad y claridad. Gemini, el chatbot de Google, superó a Mistral por ofrecer una lógica más ordenada y explicaciones más didácticas. Una de las mayores sorpresas fue que Grok, el modelo de xAI desarrollado por Elon Musk, derrotó a Claude (de Anthropic), al mostrar respuestas más completas y accesibles para usuarios generales. Finalmente, DeepSeek, una plataforma emergente de origen chino, logró imponerse a Meta AI destacando por su tono conversacional, precisión técnica y versatilidad temática.

En las semifinales, Gemini se enfrentó a ChatGPT en una ronda muy reñida. Aunque ambos ofrecieron un alto nivel de rendimiento, Gemini destacó por estructurar mejor las respuestas y adaptarse a distintos tipos de consultas, como explicaciones académicas, planificación de menús y diseños de bases de datos. DeepSeek, por su parte, logró derrotar a Grok al demostrar una mayor profundidad analítica y un estilo más claro, manteniendo a la vez un enfoque conversacional eficaz.

La final del torneo fue entre Gemini y DeepSeek. Aunque Gemini mantuvo un nivel alto de desempeño, DeepSeek logró brillar en la mayoría de las tareas propuestas, entre ellas la resolución de problemas reales, la explicación de conceptos para diferentes edades, y la creatividad narrativa. El modelo combinó razonamiento avanzado con un lenguaje claro y accesible, superando las expectativas del jurado. Como resultado, DeepSeek fue proclamado ganador absoluto del torneo AI Madness 2025.

Un factor diferencial que explica el rendimiento sobresaliente de DeepSeek fue su enfoque de entrenamiento. A diferencia de muchos modelos que dependen principalmente del aprendizaje supervisado, DeepSeek-R1 utiliza aprendizaje por refuerzo (reinforcement learning), lo que le permite mejorar su capacidad de razonamiento y reflexión con menos intervención humana. Esto le otorga mayor autonomía y eficiencia a la hora de generar respuestas coherentes y detalladas en tiempo real.

Alertan sobre propaganda rusa infiltrada en los principales chatbots de IA

NewsGuard. «A Well-Funded, Moscow-Based Global Disinformation Machine Flooded the Internet with Russian Propaganda—Now It’s Polluting AI ChatbotsNewsGuard Reality Check, March 6, 2025. https://www.newsguardrealitycheck.com/p/a-well-funded-moscow-based-global.

Un informe reciente de NewsGuard, compartido por Axios, revela que una operación de desinformación rusa sigue afectando a los principales chatbots de inteligencia artificial (IA), los cuales están replicando propaganda pro-Kremlin.

Según el informe, una red de unos 150 sitios web vinculados a Rusia, conocida como la red Pravda, ha inundado internet con noticias falsas desde abril de 2022. Esto no solo engaña a los buscadores, sino también a los sistemas de IA que se entrenan con datos de la web, alterando la forma en que procesan y presentan información.

NewsGuard evaluó a 10 de los principales chatbots, entre ellos ChatGPT-4o (OpenAI), Gemini (Google), Copilot (Microsoft), Claude (Anthropic), Meta AI, entre otros. En el estudio, se probaron 15 narrativas falsas promovidas por la red Pravda, utilizando distintos estilos de preguntas para simular interacciones reales con los usuarios.

Principales resultados del informe:

  • Los chatbots repitieron desinformación rusa en un 33,55% de las respuestas.
  • En un 18,22% no ofrecieron respuesta.
  • Solo un 48,22% refutó o corrigió la información falsa.
  • Todos los chatbots replicaron, en algún momento, narrativas falsas de Pravda.
  • Siete de ellos citaron directamente artículos de Pravda como fuente.
  • Se identificaron 92 artículos diferentes de Pravda usados como referencia en las respuestas de los chatbots.

Estos hallazgos confirman otro informe de febrero de 2025 del grupo estadounidense American Sunlight Project (ASP), que alertó que la red Pravda no busca tanto atraer lectores humanos, sino influir en los modelos de lenguaje de IA. A esta estrategia la denominaron «LLM grooming», es decir, entrenar indirectamente a los modelos para normalizar narrativas falsas.

El informe advierte que los riesgos de este tipo de manipulación son elevados, tanto a nivel político como social y tecnológico, debido a la capacidad de los modelos de IA para amplificar desinformación a gran escala.

Batalla de los bots de IA: Copilot vs ChatGPT vs Gemini

Nield, David. «Battle of the AI Bots: Copilot vs ChatGPT vs Gemini». Popular Science, 11 de mayo de 2024. https://www.popsci.com/technology/copilot-vs-chatgpt-vs-gemini/.

El artículo «Battle of the AI bots: Copilot vs ChatGPT vs Gemini,» publicado el 11 de mayo de 2024 por David Nield, compara el rendimiento de tres conocidos chatbots generativos: Copilot de Microsoft, ChatGPT de OpenAI y Gemini de Google.

La batalla entre los bots de inteligencia artificial, específicamente Copilot de GitHub, ChatGPT de OpenAI y Gemini de Google, refleja el avance significativo en el campo de la inteligencia artificial y su aplicación en diversas áreas. Cada uno de estos bots tiene características y especializaciones que los distinguen, y a continuación se presenta una comparación detallada de cada uno:

Microsoft Copilot:


Copilot se encuentra prácticamente en todo lo que hace Microsoft ahora: Bing, Windows, OneDrive, y también está disponible en forma de aplicación web y móvil. Ni siquiera necesitas registrarte para usarlo, aunque tu asignación de uso está limitada si no inicias sesión con tus credenciales de Microsoft.

Copilot utiliza el motor de búsqueda Bing de Microsoft de manera transparente, y muchas respuestas tienen enlaces web adjuntos como citas, muy útiles si quieres asegurarte de que la IA no está alucinando. Además, tiene un tono amigable y conversacional, ofreciendo un montón de sugerencias para estímulos cada vez que lo abres.

El motor de IA que sustenta a Copilot es en realidad el GPT-4 de OpenAI (al menos hasta que Microsoft desarrolle el suyo propio), pero las herramientas son diferentes en varios aspectos, incluidos los tres ajustes de chat que puedes modificar para ajustar la salida de texto de Copilot: Más Creativo, Más Equilibrado y Más Preciso.

Copilot es la elección obvia si ya estás inmerso profundamente en el ecosistema de Microsoft. Funciona bien al referenciar información relevante de la web y proporciona enlaces de cita que son claros y fáciles de seguir.

OpenAI ChatGPT:

Parece que ChatGPT ha estado marcando el ritmo en lo que respecta a la IA generativa, pero ¿realmente es mucho mejor que la competencia cuando realmente lo usas? Ciertamente está ampliamente disponible: Puedes acceder a él desde la web en cualquier computadora, o desde las aplicaciones móviles en Android e iOS.

Hay una gran diferencia entre la versión gratuita de ChatGPT y la versión Plus de 20$ al mes; necesitas ser suscriptor para obtener características como generación de imágenes y escaneo de documentos, por ejemplo. Una suscripción también te permite construir tus propios GPT, con estímulos personalizados y tus propios datos (así que podrías, por ejemplo, alimentar a un GPT con tus propios documentos y luego hacer preguntas sobre ellos.

ChatGPT Plus también te da acceso a los modelos GPT-4 más recientes, pero el modelo GPT-3.5 gratuito es una puerta de entrada perfectamente adecuada a las conversaciones con chatbots de IA. Es rápido y versátil, aunque no te ofrece enlaces a otros lugares en la web como lo hace Copilot, para ayudarte a verificar la veracidad de lo que estás leyendo.

Una de las principales razones para elegir ChatGPT como tu chatbot preferido es que está en la vanguardia del desarrollo de IA, con nuevas mejoras y características lanzadas regularmente. Dicho esto, impresiona más cuando estás pagando por él, así que tal vez no sea el bot al que recurrir si tienes un presupuesto ajustado.

Google Gemini:

Por último, tenemos Google Gemini (anteriormente conocido como Google Bard), que está disponible como una aplicación web, una aplicación independiente para Android y en la aplicación de Google para iOS. Nuevamente, hay dos planes, gratuito y de pago, pero ese plan de pago (20$ al mes) es parte de Google One, por lo que también obtienes extras como almacenamiento en la nube incluido.

En cuanto a las diferencias reales en el uso del producto, pagar una tarifa mensual solo te da acceso a un modelo más nuevo y más inteligente (estos modelos también se llaman Gemini). En algunas situaciones, es posible que no notes la diferencia, pero en otras, como la programación o las matemáticas, probablemente lo harás.

Independientemente de la versión de Gemini que elijas, la interfaz es muy similar a la de ChatGPT, con tus conversaciones anteriores a la izquierda de la pantalla. Enlazar con conversaciones anteriores es sencillo, y nos gusta la forma en que puedes ver múltiples respuestas en borrador para el mismo estímulo (aunque los borradores a menudo son muy similares).

Al igual que con Copilot y Microsoft, Gemini tiene mucho sentido si ya usas muchos productos de Google; de hecho, es posible que ya lo hayas usado a través de Google Docs o Gmail. Sin embargo, en términos de respuestas y la interfaz, se parece más a la oferta de OpenAI, para bien o para mal: un poco más eficiente y no tan amigable como Copilot.

Conclusiones

No estábamos buscando encontrar un ganador absoluto a través de esta comparación, y de hecho, todos están bastante equilibrados: como Copilot, ChatGPT y Gemini pueden usarse de forma gratuita, puedes ver por ti mismo cuál se adapta mejor a tus necesidades. En cuanto a nuestras pruebas, Copilot te ofrece la mayor funcionalidad de IA sin pagar, ChatGPT es más o menos la IA más competente (pero solo si pagas por ella), mientras que Gemini es la opción si ya eres fan de todo lo que hace Google.

En conclusión, cada herramienta tiene sus propias particularidades. Copilot es ideal para usuarios de Microsoft, ChatGPT es competente pero requiere suscripción para su máximo potencial, y Gemini es recomendable para usuarios de Google. Todos pueden probarse gratuitamente para ver cuál se adapta mejor a las necesidades de cada usuario.

Servicios de referencia con chatbots en las bibliotecas universitarias canadienses

Guy, J., Pival, P. R., Lewis, C. J., & Groome, K. (2023). Reference Chatbots in Canadian Academic LibrariesInformation Technology and Libraries42(4). Retrieved from https://ital.corejournals.org/index.php/ital/article/view/16511

Los chatbots son «agentes informáticos que pueden interactuar con el usuario» de una forma parecida a una conversación entre humanos. Aunque el uso de chatbots para el servicio de referencia en las bibliotecas universitarias es un tema de interés tanto para los profesionales de las bibliotecas como para los investigadores, se sabe poco sobre cómo se utilizan en el servicio de referencia de las bibliotecas, especialmente en las bibliotecas universitarias de Canadá.

Este artículo tiene como objetivo llenar este vacío mediante la realización de una encuesta basada en la web de 106 sitios web de bibliotecas académicas en Canadá y el análisis de la prevalencia y las características de los servicios de chatbot y chat en vivo ofrecidos por estas bibliotecas. Los autores descubrieron que sólo dos bibliotecas utilizaban chatbots para el servicio de referencia. En cuanto a los servicios de chat en vivo, los autores descubrieron que 78 bibliotecas ofrecían este servicio. El artículo analiza las posibles razones de la escasa adopción de chatbots en las bibliotecas universitarias, como la accesibilidad, la privacidad, el coste y los problemas de identidad profesional. El artículo también ofrece un estudio de caso de la institución de los autores, la Universidad de Calgary, que integró un servicio de chatbot en 2021. El artículo concluye con sugerencias para futuras investigaciones sobre el uso de chatbot en bibliotecas.

Inteligencia artificial y autoría

Alysa Levene. «Artificial Intelligence and Authorship» COPE: Committee on Publication Ethics, 23 de febrero de 2023. https://publicationethics.org/news/artificial-intelligence-and-authorship.

La evolución de la inteligencia artificial y los robots conversacionales plantea interrogantes sobre el papel del autor y cómo se define en este contexto. Con la llegada de los modelos lingüísticos de gran escala, como ChatGPT de OpenAI, se ha generado un debate sobre la autoría y la creación de contenido generado por inteligencia artificial.


Los modelos de inteligencia artificial, como ChatGPT de OpenAI, plantean preguntas sobre el concepto de autoría. Estos robots, alimentados por grandes modelos lingüísticos y entrenados con vastos bancos de texto, tienen la capacidad de generar respuestas en función de la probabilidad de combinaciones de palabras, estructuras de frases y temas.

El impacto de ChatGPT y otros sistemas similares en el mercado ha sido notable. La gente ha compartido sus experiencias de interacción con ChatGPT, desde solicitar recomendaciones sobre otros robots de inteligencia artificial para escribir y obtener respuestas hasta pedirle a ChatGPT que escriba una conferencia.

Estas situaciones plantean preguntas más amplias sobre el papel de los robots de inteligencia artificial en la creación de contenido y su impacto en la noción tradicional de autoría. A medida que la tecnología avanza, es importante explorar los límites y las implicaciones éticas de estas innovaciones, considerando cómo se complementan o desafían la creatividad humana y la autoría individual.

La cuestión de quién es el autor en estas interacciones plantea un desafío interesante. Si bien los modelos lingüísticos son herramientas poderosas y capaces de producir contenido original, su capacidad de crear está limitada a lo que han aprendido de los datos de entrenamiento. La responsabilidad de la autoría puede recaer en los desarrolladores de la inteligencia artificial, los usuarios que interactúan con ella o incluso en la propia máquina.

Las empresas que producen estas herramientas de aprendizaje automático de inteligencia artificial son muy claras sobre la situación legal y ética de sus productos. La compañía Bloom, una plataforma de IA de LLM, afirma en sus especificaciones que «el uso del modelo en situaciones de alto riesgo está fuera de su alcance… El modelo no está diseñado para decisiones críticas ni para usos con consecuencias materiales en la vida o el bienestar de una persona».. Esto incluye áreas como la atención médica, los juicios legales, las finanzas o la puntuación individual, que a menudo están representadas en las carteras de las editoriales académicas. El descargo de responsabilidad de la empresa Bloom también hace hincapié en la necesidad de que los usuarios indirectos estén informados cuando trabajen con contenidos generados por el modelo lingüístico.

Del mismo modo, en enero de 2023, la Asociación Mundial de Editores Médicos (WAME, por sus siglas en inglés) publicó una respuesta en la que abordaba el uso de los modelos lingüísticos en las publicaciones académicas y hacía una recomendación similar. ChatGPT reconoce sus propias limitaciones y ha declarado que no existe ningún problema ético inherente al uso de la IA en la investigación o la escritura, siempre que se utilice de forma adecuada y ética. En algunos casos, ChatGPT ha reconocido incluso que no cumple todos los criterios de autoría señalados por el Comité Internacional de Editores de Revistas Médicas (ICMJE).

Tanto las directrices del ICMJE como las del Comité de Ética en las Publicaciones (COPE) coinciden en que los bots de IA no deben ser considerados autores, ya que carecen de capacidad legal, no pueden tener derechos de autor, ser considerados responsables o aprobar un trabajo de investigación como original. Editoriales como Springer Nature y Taylor & Francis también han publicado declaraciones instando a los autores a revelar cualquier interacción con la IA en sus métodos o secciones de agradecimiento.

Está claro que estas empresas y organizaciones reconocen la necesidad de transparencia y uso responsable de las tecnologías de IA en la investigación y la escritura. Subrayan la importancia de distinguir entre autores humanos y contenidos generados por IA, al tiempo que promueven las prácticas éticas y la divulgación en la publicación académica.

Es importante señalar que un bot de IA no se preocupa de si la información que devuelve es «verdadera»; su atención se centra en la verosimilitud. Este fenómeno surge porque los robots de IA carecen del concepto de fiabilidad, replicabilidad o «verdad». Su propósito es proporcionar respuestas que tengan un sentido probabilístico basado en la gama de hechos y afirmaciones de sus datos de entrenamiento. Aunque puede haber casos en los que sólo haya una respuesta a una pregunta, en muchos casos puede haber múltiples respuestas posibles, todas ellas igualmente probables desde la perspectiva del bot. Esta capacidad de afirmar diferentes respuestas a la misma pregunta puede provocar a veces una reacción muy humana de ofensa o confusión.

Como se indica en las especificaciones de Bloom, el modelo produce contenidos que pueden parecer factuales, pero no necesariamente correctos. Comprender estas limitaciones es crucial a la hora de utilizar la IA. La evaluación crítica y el uso responsable de la información generada por la IA son vitales para garantizar su aplicación adecuada en diversos contextos, incluida la investigación académica.

De este modo, los editores y las editoriales tendrán que confiar aún más en la responsabilidad de los autores y en una rigurosa revisión por pares para detectar y solucionar tales problemas. Merece la pena señalar que la revisión por pares no siempre descubre fallos basados en los resultados y no en la metodología

Algunos usuarios han expresado su preocupación por el hecho de que ChatGPT atribuya erróneamente o fabrique citas, lo que indica un enfoque potencialmente poco estricto respecto al plagio en sus datos de entrenamiento. Por otra parte, a medida que el modelo aprende de conjuntos de datos más refinados, sus resultados pueden ser más creativos.

Estas observaciones ponen de relieve la naturaleza evolutiva de los contenidos generados por IA y la necesidad de una evaluación, un perfeccionamiento y un conocimiento contextual continuos a la hora de utilizar estas herramientas en las publicaciones académicas. Sigue siendo esencial equilibrar las ventajas que ofrece la IA con la evaluación crítica y el juicio humano para garantizar la integridad y la calidad de la investigación y la publicación académicas.

Un robot -por muy bien entrenado que esté y con el grado de claridad que le aporte la distancia respecto a la desordenada experiencia humana de investigar, planificar y escribir- no puede entender lo que escribe. En pocas palabras, no puede ser responsable. Como ya hemos visto, los robots han sido entrenados para decirlo explícitamente.

En la actualidad, la inteligencia artificial (IA) se presenta como una herramienta sorprendente, siempre y cuando se utilice de manera ética y para fines específicos. Es probable que se convierta en una herramienta indispensable. Sin embargo, existen consideraciones más amplias que deben ser cuidadosamente analizadas en cuanto a cómo y cuándo se debe emplear en la literatura académica, sin mencionar los posibles sesgos y contenido desagradable que pueda estar presente en su material de entrenamiento, lo cual afectará lo que produzca.

Incluso es posible que en el futuro se utilicen herramientas de IA para entrenar mejor a los robots en la escritura de un lenguaje auténticamente humano, siempre y cuando también se les instruya en prácticas éticas. Sin embargo, ¿deberíamos considerar a la IA como una autora legítima? El mundo de la ética en la publicación académica está empezando a rechazar firmemente esa idea, y es fácil entender por qué.

Investigadores de la Universidad de Kansas afirman haber desarrollado un algoritmo con una precisión del 99% en la detección de falsificaciones de ChatGPT

Desaire, Heather, Aleesa E. Chua, Madeline Isom, Romana Jarosova, y David Hua. «Distinguishing Academic Science Writing from Humans or ChatGPT with over 99% Accuracy Using Off-the-Shelf Machine Learning Tools». Cell Reports Physical Science 0, n.o 0 (7 de junio de 2023). https://doi.org/10.1016/j.xcrp.2023.101426.

Investigadores de la Universidad de Kansas afirman tener una precisión del 99% en la detección de falsificaciones de ChatGPT. Los investigadores afirman que su algoritmo puede detectar escritos científicos realizados por robots con una precisión sorprendente

Científicos de la Universidad de Kansas publicaron un artículo el miércoles en el que detallan un algoritmo que, según dicen, detecta la escritura académica de ChatGPT con una precisión de más del 99%.

A medida que el contenido del chatbot de IA comienza a inundar el mundo, una de las mayores preocupaciones es poder distinguir de manera confiable entre las palabras de los robots y las de los seres humanos reales. Se han realizado algunos intentos de construir detectores de ChatGPT, y decenas de empresas compiten por desarrollar tecnología para detectar la IA. Pero hasta ahora, ninguna de las opciones funciona bien, incluso una construida por OpenAI, la empresa que creó ChatGPT. Las herramientas existentes son tan ineficaces que son prácticamente inútiles.

El detector de ChatGPT descrito en el artículo solo está diseñado para funcionar en contextos específicos, pero su éxito reportado parece prometedor. En el proceso de construcción, los investigadores afirman haber identificado señales reveladoras de la escritura de IA.

El artículo, que fue revisado por pares y publicado en Cell Reports Physical Science, describe una técnica que detecta artículos de investigación académica escritos por IA. El estudio seleccionó un conjunto de 64 artículos científicos escritos por autores humanos en una variedad de disciplinas, desde biología hasta física. Alimentaron esos datos a ChatGPT y lo utilizaron para producir un conjunto de datos de 128 artículos de IA con un total de 1.276 párrafos generados por el chatbot. Los científicos utilizaron esos párrafos falsos para construir su algoritmo de detección de ChatGPT. Luego crearon un nuevo conjunto de datos para probar su algoritmo con 30 artículos reales y 60 artículos escritos por ChatGPT, lo que suma un total de 1.210 párrafos.

Los investigadores afirman que su algoritmo detectó artículos completos escritos por ChatGPT el 100% de las veces. A nivel de párrafo, fue menos preciso pero aún impresionante: el algoritmo identificó el 92% de los párrafos generados por IA.

Los investigadores esperan que otros utilicen su trabajo para adaptar el software de detección a sus propios nichos y propósitos. «Nos esforzamos mucho para crear un método accesible para que, con poca orientación, incluso los estudiantes de secundaria puedan construir un detector de IA para diferentes tipos de escritura», dijo Heather Desaire, autora del artículo y profesora de química en la Universidad de Kansas, en una entrevista con EurekAlert. «Existe la necesidad de abordar la escritura de IA, y las personas no necesitan tener un título en ciencias de la computación para contribuir a este campo».

El artículo menciona algunas señales reveladoras del trabajo de ChatGPT. Por ejemplo, los escritores humanos redactan párrafos más largos, utilizan un vocabulario más amplio, incluyen más signos de puntuación y tienden a calificar sus afirmaciones con palabras como «sin embargo», «pero» y «aunque». ChatGPT también es menos específico en cuanto a las citas, como figuras y menciones de otros científicos.

El modelo desarrollado por Desaire y sus colaboradores no funcionará de manera inmediata para los profesores que esperan penalizar a los estudiantes de secundaria que hacen trampa. El algoritmo fue creado para la escritura científica, específicamente el tipo de escritura académica que se encuentra en revistas. Esto es una lástima para los formadores y gestores que, en general, han pasado los últimos seis meses preocupados por el plagio facilitado por ChatGPT. Sin embargo, Desaire afirmó que teóricamente se puede utilizar la misma técnica para construir un modelo que detecte otros tipos de escritura.

Las cosas se complican cuando consideramos el hecho de que un escritor podría realizar fácilmente pequeñas modificaciones a un texto generado por el chatbot y hacerlo mucho más difícil de detectar. Aun así, los investigadores describieron este trabajo como una «prueba de concepto» y afirman que podrían desarrollar una herramienta más robusta y quizás más precisa con un conjunto de datos más amplio.

Aunque estos resultados son prometedores, las empresas de tecnología y los defensores de la IA señalan que herramientas como ChatGPT están en sus etapas iniciales. Es imposible decir si los métodos de detección como este serán efectivos si la IA continúa desarrollándose al ritmo acelerado que hemos presenciado en los últimos años. Cuanto más se acerquen los modelos de lenguaje grandes a replicar los murmullos de la escritura humana basada en carne, más difícil será identificar las huellas del lenguaje de los robots.

El CEO de OpenAI, Sam Altman, empresa creadora de ChatGPT, pide una mayor regulación de la inteligencia artificial

«Si la inteligencia artificial sale mal, puede salir muy mal… para prever que realmente no podamos hacer daño en el mundo“

Sam Altman, ‘padre’ de ChatGPT

«OpenAI CEO Sam Altman Agrees AI Must Be Regulated», Time. 16 de mayo de 2023. https://time.com/6280372/sam-altman-chatgpt-regulate-ai/.

El CEO de OpenAI, Sam Altman, hizo un llamamiento a los miembros del Congreso bajo juramento: Regular la inteligencia artificial. Altman, cuya empresa está en la vanguardia extrema de la tecnología de Inteligencia Artificial generativa con su herramienta ChatGPT, testificó ante el Comité Judicial del Senado por primera vez en una audiencia celebrada el martes. Y aunque dijo que en última instancia es optimista respecto a que la innovación beneficiará a las personas a gran escala, Altman se hizo eco de su afirmación anterior de que los legisladores deberían crear parámetros para que los creadores de IA eviten causar «daños significativos al mundo.» «Creemos que puede ser el momento de la imprenta», dijo Altman. «Tenemos que trabajar juntos para que así sea».

Junto a Altman testificaron ante la comisión otros dos expertos en IA, el catedrático de Psicología y Ciencias Neuronales de la Universidad de Nueva York Gary Marcus y la Directora de Privacidad y Confianza de IBM Christina Montgomery. Los tres testigos apoyaron la gobernanza de la IA tanto a nivel federal como mundial, con planteamientos ligeramente distintos.

«Hemos construido máquinas que son como elefantes en una cacharrería: Potentes, temerarias y difíciles de controlar», dijo Marcus. Para hacer frente a esto, sugirió el modelo de una agencia de supervisión como la Administración de Alimentos y Medicamentos, de modo que los creadores tuvieran que demostrar la seguridad de su IA y demostrar por qué los beneficios superan a los posibles daños.

Sin embargo, los senadores que dirigieron las preguntas se mostraron más escépticos sobre la rápida evolución de la industria de la IA y compararon su impacto potencial no con la imprenta, sino con otras innovaciones, sobre todo la bomba atómica.

La sesión duró casi tres horas y las preguntas del senador abordaron una amplia gama de preocupaciones sobre la IA, desde cuestiones de derechos de autor hasta aplicaciones militares. Tanto Altman como los senadores expresaron sus temores sobre cómo la IA podría «salir bastante mal».

Cuando se le preguntó cuál era su peor temor sobre la IA, Altman fue franco sobre los riesgos de su trabajo.

«Mi peor temor es que nosotros -el campo, la tecnología, la industria- causemos un daño significativo al mundo. Creo que eso puede ocurrir de muchas maneras», dijo Altman. No dio más detalles, pero las advertencias de los críticos van desde la difusión de información errónea y tendenciosa hasta la destrucción total de la vida biológica. «Creo que si esta tecnología sale mal, puede salir bastante mal, y queremos ser claros al respecto», continuó Altman. «Queremos trabajar con el gobierno para evitar que eso ocurra».

La preocupación por la IA llevó a cientos de grandes nombres de la tecnología, entre ellos Elon Musk, a firmar en marzo una carta abierta en la que instaban a los laboratorios de IA a pausar durante seis meses el entrenamiento de sistemas superpotentes debido a los riesgos que suponen para «la sociedad y la humanidad». Y a principios de este mes, Geoffry Hinton, al que se ha llamado el «padrino» de la IA, renunció a su puesto en Google, diciendo que se arrepentía de su trabajo y advirtiendo de los peligros de la tecnología.

Altman expuso un plan general de tres puntos sobre cómo podría regular el Congreso a los creadores de IA.

  • En primer lugar, apoyó la creación de una agencia federal que pueda conceder licencias para crear modelos de IA por encima de un determinado umbral de capacidades, y que también pueda revocar esas licencias si los modelos no cumplen las directrices de seguridad establecidas por el gobierno. La idea no era nueva para los legisladores. Al menos cuatro senadores, tanto demócratas como republicanos, abordaron o apoyaron la idea de crear una nueva agencia de supervisión durante sus preguntas.
  • En segundo lugar, Altman dijo que el gobierno debería crear normas de seguridad para los modelos de IA de alta capacidad (como prohibir que un modelo se autorreproduzca) y crear pruebas de funcionalidad específicas que los modelos tengan que superar, como verificar la capacidad del modelo para producir información precisa o garantizar que no genera contenidos peligrosos.
  • Y en tercer lugar, instó a los legisladores a exigir auditorías independientes de expertos no afiliados a los creadores o al gobierno para garantizar que las herramientas de IA funcionen dentro de las directrices legislativas.

Los legisladores europeos están más avanzados en la regulación de las aplicaciones de IA, y la UE está decidiendo si clasifica la tecnología de IA de propósito general (en la que se basan herramientas como ChatGPT) como de «alto riesgo». Dado que esto sometería a la tecnología al nivel más estricto de regulación, muchas grandes empresas tecnológicas como Google y Microsoft -el mayor inversor de OpenAI- han presionado en contra de esta clasificación, argumentando que ahogaría la innovación.

Inteligencia artificial y la industria del libro. Libro Blanco

Lebrun, Tom, y René Audet. «Artificial Intelligence and the Book Industry. White Paper». Zenodo, 18 de septiembre de 2020.

Texto completo

La inteligencia artificial (IA) en el mundo del libro es una realidad. De hecho, no está reservada a las plataformas de venta o a las aplicaciones médicas. La IA puede ayudar a escribir, acompañar el trabajo editorial o ayudar al librero. Puede responder a necesidades clamorosas; a pesar de sus evidentes limitaciones, puede servir para plantearse nuevas aplicaciones en la cadena del libro, que son objeto aquí de recomendaciones específicas. Este libro blanco, redactado por dos especialistas en el ámbito del libro y la inteligencia artificial, tiene por objeto identificar los medios para poner la IA al servicio de los numerosos eslabones del mundo del libro.

«Hay que planificar el futuro inmediato de este nicho cultural y emprender acciones concretas para establecer nuevos métodos y modelos. Este libro blanco esbozará una posible línea de acción: la idea de un esfuerzo concertado de los actores de la industria del libro en el uso de la IA».

Esta concertación es reclamada por varios expertos, que dan testimonio en este Libro Blanco de lo que está en juego en el contexto cultural actual, amenazado por los gigantes del comercio: «Aunque el uso de la IA exige una vigilancia constante, parece importante que los actores de la industria del libro presten mucha atención a estos avances tecnológicos, tanto a las posibles perturbaciones como a los posibles beneficios que podrían conllevar». (Virginie Clayssen, Éditis / Comité Digital de la Asociación Francesa de Editores)

Así, «la clave para introducir la IA, entendida como inteligencia aumentada, en los distintos eslabones de la cadena del libro es sin duda la explotación de los datos que ya están disponibles y que la competencia no posee».

¿Cómo es la nueva Experiencia Generativa de Búsqueda con Inteligencia Artificial de Google?


Schwartz, Barry. «Here’s What Google’s New AI Search Generative Experience Will Look Like». MarTech, 10 de mayo de 2023. https://martech.org/heres-what-the-new-google-search-generative-ai-experience-will-look-like/.

Ver documento

Cuando ChatGPT llegó el otoño pasado, empezó a cumplir la misión de Google – «organizar la información del mundo y hacerla universalmente accesible y útil»- mejor, a veces, que el propio Google. (El problema, por supuesto, era su molesto hábito de inventarse cosas). Reformaba la información de los sitios web en lugar de limitarse a enviar a la gente a ellos. Y a la gente le encantó, convirtiéndose en la aplicación de consumo de más rápido crecimiento de la historia. Después de que OpenAI y su benefactor Microsoft amenazaran la posición de Google con sus experiencias de Inteligencia Artificial generativa, el gigante de las búsquedas tuvo que responder. Y lo ha hecho con fuerza esta semana. Su «Experiencia Generativa de Búsqueda» potenciada por la Inteligencia Artificial aún está en fase de «laboratorio», pero es casi seguro que será su futuro.

La interfaz. Search Generative Experience (SGE) puede mostrar una respuesta generada por IA encima de los listados de resultados de búsqueda. Google etiqueta claramente la respuesta como Generative AI is experimental (La IA generativa es experimental), seguida de una respuesta a tu consulta.

La respuesta aparece en un recuadro. Google cita los sitios web que utilizó para generar la respuesta. Se puede hacer clic en esos sitios para profundizar. También puedes hacer otra pregunta o pulsar el botón de la parte superior derecha para profundizar.

«Verás una instantánea generada por la IA de la información clave que debes tener en cuenta, con enlaces para profundizar», explica Google. Cuando se pulsa el botón de expansión para mostrar una respuesta más profunda, se obtienen respuestas adicionales de la IA generativa.

A lo largo de las respuestas generadas por la IA, Google te ofrece sitios web en estos recuadros con imágenes, para que puedas hacer clic en el sitio web para obtener más información.

Encuesta ARL sobre el impacto de la Inteligencia Artificial generativa en bibliotecas

ARL, Leo S. Lo, University of New Mexico, and Cynthia Hudson Vitale. «Quick Poll Results: ARL Member Representatives on Generative AI in Libraries». Association of Research Libraries (blog), 9 de mayo de 2023.

Ver completo

A medida que las tecnologías de IA generativa siguen evolucionando, su potencial para afectar a los servicios bibliotecarios, las operaciones y las experiencias de los usuarios es cada vez más evidente. En abril de 2023 se realizó una encuesta rápida entre los representantes de los miembros de la Asociación de Bibliotecas de Investigación (ARL) para conocer sus perspectivas actuales sobre la adopción de la IA generativa, sus posibles implicaciones y el papel de las bibliotecas en los entornos impulsados por la IA. En esta entrada de blog, se dan recomendaciones basadas en las respuestas de la encuesta, con el objetivo de ofrecer información valiosa para los directores de bibliotecas que navegan por el panorama de la IA.

Se compartió el enlace de la encuesta con los representantes de los miembros de la ARL en abril de 2023; 19 miembros de ARL completaron la encuesta.

  1. Perspectivas sobre la IA generativa: La mayoría de los representantes de los miembros de la ARL que respondieron a la encuesta tienen una opinión algo positiva (53%) o muy positiva (11%) sobre el potencial de la IA generativa para mejorar los servicios bibliotecarios en los próximos 12 meses. Sin embargo, también reconocen las limitaciones y los retos asociados a estas tecnologías. El 37% restante se muestra neutral sobre el potencial de la IA generativa.
  2. Etapas de adopción: Mientras que algunas bibliotecas están implementando activamente soluciones de IA generativa (11%), muchas están explorando aplicaciones potenciales (32%) o considerando la adopción en un futuro próximo (32%). Unas pocas bibliotecas tienen un interés limitado (16%) o no tienen previsto explorar las tecnologías de IA (11%) en los próximos 12 meses.
  3. Impacto en el funcionamiento y los servicios de las bibliotecas: Los directores de bibliotecas prevén que la IA generativa tendrá un impacto transformador en las operaciones y servicios de las bibliotecas, incluida la generación de metadatos, las herramientas de búsqueda y los servicios al usuario. También prevén posibles retos relacionados con el uso indebido, los prejuicios y los derechos de autor.
  4. Conversaciones institucionales y organizativas: Las bibliotecas están participando en debates en toda la organización sobre el impacto de la IA generativa en la integridad académica, la publicación, la autoría y la integridad de la investigación. Participan en foros interdisciplinarios, grupos de trabajo y colaboraciones con diversos socios institucionales.
  5. Alfabetización informacional: Las respuestas a la encuesta sugieren que las bibliotecas pueden mejorar los programas de alfabetización informacional para ayudar a los usuarios a comprender y evaluar la información generada por la IA a través de la colaboración, las asociaciones interdisciplinarias y la incorporación de la alfabetización en IA a una alfabetización informacional más amplia. Hacer hincapié en el conocimiento de la IA por parte de los bibliotecarios, desarrollar nuevas alfabetizaciones relacionadas con la IA, reciclar al personal y ofrecer talleres son oportunidades para que las bibliotecas ejerzan su liderazgo a medida que las instituciones de investigación navegan por la era de la IA.

Entre las ideas concretas reflejadas en los resultados de la encuesta rápida se incluyen:

  • Elaborar guías de colaboración y/o sesiones informativas sobre IA generativa, dirigidas a investigadores y a la comunidad en general.
  • Aprovechar la IA para ayudar a identificar la desinformación.
  • Destacar la importancia del pensamiento crítico para los investigadores, incluidos los miembros de la comunidad, los profesores y el personal, para que puedan evaluar la fuente de información y su fiabilidad. Afirmar que la forma en que se genera la información (IA o de otro tipo) es menos importante que la capacidad de reconocer qué es fiable, qué no lo es y cómo se toman esas decisiones.
  • Colaborar con colegas en la enseñanza y el aprendizaje, así como en áreas de investigación, para compartir experiencias y desarrollar iniciativas conjuntas centradas en educar a los estudiantes y a la comunidad sobre el uso eficaz y responsable de las herramientas de IA generativa en el aprendizaje, la investigación y el compromiso con la comunidad.
  • Trabajar con los equipos de seguridad/privacidad de TI para enseñar a detectar y evaluar los contenidos generados por IA y a utilizar esta y otra información de forma responsable, especialmente dentro de las bibliotecas públicas de investigación.