Archivo de la categoría: Tecnologías de la información

Impacto de la inteligencia artificial, el aprendizaje automático, la automatización y la robótica en la profesión de la información

The impact of AI, machine learning, automation and robotics on the information professions: A report for CILIP. CILIP, 2021

Texto completo

El propósito de esta investigación independiente es ayudar a nuestra comunidad profesional a comprender cómo la inteligencia artificial, el aprendizaje automático, la automatización de procesos y la robótica están impactando o probablemente impactarán en el trabajo diario de los profesionales de la información en el ámbito de la salud.

En el informe, el autor, el Dr. Andrew Cox de la Universidad de Sheffield, hace un llamado a una respuesta unificada y coherente de los profesionales de la información, permitiéndonos maximizar los beneficios de la inteligencia artificial, el aprendizaje automático, la automatización y la robótica para los usuarios de información al tiempo que mitigamos los riesgos emergentes.

El informe completo de investigación, publicado por CILIP con el apoyo de Health Education England, presenta un análisis detallado y metódico de los desafíos y oportunidades presentados por esta nueva generación de tecnologías.

La investigación ha resaltado un conjunto de habilidades y competencias que los profesionales de la información deberán desarrollar para respaldar a sus usuarios y organizaciones en esta Cuarta Revolución Industrial. CILIP ya ha comenzado el proceso de integrar estos conocimientos en nuestro trabajo a través de la próxima revisión de la Base de Conocimientos y Habilidades Profesionales (PKSB) de CILIP, el estándar de habilidades del sector para personas que trabajan en conocimiento, información y bibliotecas.

Específicamente, busca responder a las siguientes preguntas:

  1. ¿Cómo aseguramos que la fuerza laboral actual tenga las habilidades y la comprensión necesarias para permitirles respaldar a sus usuarios en participar de manera segura y exitosa en un mundo moderno que está cada vez más impulsado por la inteligencia artificial (IA), el aprendizaje automático, la automatización de procesos y la robótica?
  2. ¿Cuáles son las implicaciones éticas de nuestro enfoque hacia estas tecnologías? ¿Cómo podemos implementar el marco ético existente para bibliotecarios y asegurarnos de que se alinee con el trabajo emergente sobre Ética de Datos y tecnología responsable?
  3. ¿Cómo debería ser el conjunto de habilidades de la futura fuerza laboral y cuál es el plan de estudios mediante el cual garantizaremos que la próxima generación de profesionales de la información tenga las habilidades para mantenerse al día con los futuros desarrollos tecnológicos?

Desarrollando una Respuesta Estratégica de la Biblioteca a la Inteligencia Artificial (IFLA)

Developing a library strategic response to Artificial Intelligence. The Hague: IFLA, 2023

Texto completo

El propósito de este documento de trabajo es presentar consideraciones relevantes para las bibliotecas que están desarrollando una respuesta estratégica a la Inteligencia Artificial.

Este documento de trabajo para la discusión fue preparado por Andrew Cox, como coordinador del Grupo de Interés en Inteligencia Artificial. Se invitan comentarios para futuras iteraciones del documento (enlace al formulario de comentarios; si tiene dificultades para acceder a este formulario, envíe comentarios a a.m.cox@sheffield.ac.uk).

El texto está organizado en torno al desarrollo de un conjunto de preguntas que estimulan la reflexión y la acción (sección 4). Se espera que el documento pueda respaldar la toma de decisiones locales sobre la Inteligencia Artificial.

Las ideas iniciales para el informe se derivaron de un evento llevado a cabo en la Universidad de Sheffield en abril de 2023. Una versión inicial de este documento como borrador para comentarios se publicó el 4 de junio de 2023. Queremos agradecer a todos los que añadieron pensamientos y comentarios a este borrador. También hemos incorporado datos de una encuesta (N=111) vinculada al evento de Sheffield y recirculada en julio; los encuestados eran una mezcla de bibliotecarios de educación superior y educación superior técnica, así como bibliotecarios de salud. Dado que la audiencia era principalmente del Reino Unido, estos datos deben entenderse simplemente como una instantánea de opiniones en un contexto específico.

El documento de trabajo está organizado en las siguientes secciones:

Sección 1: Definición de la Inteligencia Artificial Sección 2: Impacto de la Inteligencia Artificial en las bibliotecas Sección 3: Contexto estratégico y un análisis FODA de la biblioteca Sección 4: Respuestas estratégicas a la Inteligencia Artificial: Pros y contras Sección 5: Tres estrategias importantes

1: Definición de la Inteligencia Artificial

Se destacan diversas perspectivas, como la de la UNESCO, que enfatiza la imitación de la comprensión humana, la del UKRI, que ve la IA como un conjunto de tecnologías para reproducir habilidades inteligentes, y la de la Comisión Europea, que destaca la combinación de datos, algoritmos y potencia informática.

Se señala que la IA no es nueva y ya está presente en aplicaciones como la sugerencia automática, detección de plagio y traducción. En el contexto bibliotecario, la Minería de Texto y Datos y el aprendizaje automático se consideran formas de IA. A pesar de sus beneficios, la IA plantea desafíos éticos, como sesgo, privacidad y transparencia.

Se destaca la importancia de la «IA descriptiva» para las bibliotecas, que convierte diversos materiales en datos legibles mediante técnicas como la visión por computadora. Aunque la IA promete mejorar el acceso al conocimiento, existen preocupaciones éticas significativas, especialmente en aplicaciones desarrolladas por grandes empresas tecnológicas.

El documento menciona la relevancia de la IA generativa, como ChatGPT, que ha generado interés, pero también plantea preocupaciones éticas, como afirmaciones sesgadas, inexactitudes y amenazas a empleos humanos. Se concluye destacando la necesidad de aumentar la formación en alfabetización de IA en lugar de aplicar directamente la IA al trabajo bibliotecario.

2: Impacto de la Inteligencia Artificial en las bibliotecas

Se espera que las bibliotecas adopten la IA de maneras que se alineen con roles existentes, estén vinculadas a las necesidades de los usuarios o requieran menos recursos. Se destaca la relevancia de la IA descriptiva para hacer que las colecciones de bibliotecas sean más accesibles, proporcionando metadatos iniciales y apareciendo en servicios de búsqueda. A medida que más académicos utilizan técnicas de IA, crece la necesidad de apoyar a las comunidades de científicos de datos en temas como descubrimiento de datos, problemas de derechos de autor y gestión de datos.

Se anticipa que la IA cambiará el trabajo diario, incluyendo traducción, resumen y generación de texto. Las bibliotecas pueden utilizar herramientas de IA como ResearchRabbit y Scite para apoyar revisiones de literatura y aplicaciones generativas en marketing bibliotecario.

La capacidad de la IA para realizar tareas rutinarias precisas sugiere su implementación en sistemas bibliotecarios internos, como el uso de RPA (Automatización de Procesos Robóticos) para procesar datos bibliográficos. Se mencionan también chatbots, robots físicos para responder consultas y automatización de sistemas de almacenamiento y recuperación.

La IA contribuirá a crear espacios bibliotecarios más inteligentes, incluyendo el desarrollo de robots para consultas y funciones físicas como ordenar estanterías. Además, se señala la relevancia de la IA en la educación, como la creación de contenido de aprendizaje adaptativo y chatbots de apoyo a la experiencia estudiantil.

La IA generativa, con su uso extendido por parte de los usuarios, destaca la necesidad de alfabetización en IA para el personal y los estudiantes. La alfabetización en IA, que incluye alfabetización de datos y algorítmica, se presenta como una función natural para las bibliotecas que buscan ampliar su promoción de la alfabetización informacional y habilidades digitales.

El documento concluye con preguntas clave sobre cómo la IA puede mejorar los servicios de las bibliotecas, los desafíos y riesgos asociados, y cómo integrar efectivamente la alfabetización en IA en la formación existente.

  • ¿Cuáles aplicaciones demandan menos recursos y se alinean más fuertemente con las necesidades de los usuarios y los roles existentes de la biblioteca?
  • ¿Cuáles son los desarrollos más críticos en la reconfiguración del papel de la biblioteca?
  • ¿Cuáles son los más probables de suceder y en qué escala de tiempo?
  • ¿Cómo pueden las tecnologías de IA mejorar nuestros servicios bibliotecarios? ¿Qué desafíos puede ayudar a abordar la IA? ¿Cuáles son los riesgos potenciales y consideraciones éticas, y cómo podemos mitigarlos?
  • ¿Cómo podemos monitorear de manera continua y mantenernos actualizados con las tendencias y avances emergentes en IA?
  • ¿Cómo pueden las bibliotecas enseñar de manera efectiva la alfabetización en IA a los usuarios?
  • ¿Cuáles son los resultados de aprendizaje clave necesarios y cómo varían según la disciplina?
  • ¿Cómo se debe integrar la alfabetización en IA en la formación existente de alfabetización informacional, académica y digital?
  • ¿Cómo se puede actualizar el material para mantenerse al día con la naturaleza cambiante de la IA?

3: Contexto estratégico y un análisis FODA de la biblioteca

En un contexto de cambio e incertidumbre, se reconoce la creciente importancia de pensar y actuar estratégicamente. Muchas instituciones están dando mayor énfasis a la estrategia, visualizando un estado futuro deseado y planificando para realizar esta visión. Para las bibliotecas, una cuestión clave es posicionarse sólidamente en relación con las prioridades institucionales, sectoriales y nacionales más amplias. Esto puede manifestarse como una alineación pasiva, buscando demostrar la contribución de la biblioteca a la misión organizativa, o incluso de manera proactiva, buscando asumir un papel de liderazgo en ciertas áreas.

Las respuestas de las bibliotecas a la IA ocurren en el contexto de políticas gubernamentales y marcos legales existentes y emergentes. Desde alrededor de 2019, muchos estados han reconocido la IA como una prioridad estratégica, con temas comunes como el desarrollo de capital humano, la aplicación ética de la IA, el desarrollo de una base de investigación, la regulación y el desarrollo de infraestructura y políticas de datos.

Los profesionales de la información pueden desempeñar un papel clave en la consecución de estas prioridades, educando a ciudadanos para desarrollar habilidades en una fuerza laboral con alfabetización en IA, abogando por su perspectiva única sobre la ética de la IA, apoyando a los investigadores y contribuyendo al diseño y uso de la infraestructura de datos.

Las estrategias nacionales de IA se dividen en tres grupos: desarrollo, control y promoción, con énfasis variables en diferentes políticas nacionales. La categorización refleja patrones persistentes en la cultura política de estos países. La controversia en torno a ChatGPT ha llevado a un posible cambio hacia la regulación a nivel internacional, lo que podría tener implicaciones radicales para el desarrollo y uso de la IA en el sector bibliotecario.

Las bibliotecas también deben responder a estrategias sectoriales y marcos legales existentes, y la estrategia de las organizaciones dentro de las cuales están insertas es de vital importancia. Hasta la fecha, la IA rara vez se menciona específicamente en las estrategias universitarias y de bibliotecas académicas.

Preguntas clave:

  • ¿Cómo es probable que la postura del estado hacia la IA afecte el uso en bibliotecas?
  • ¿Cuál es la postura estratégica de su institución y sector hacia la IA?
  • ¿Existen aspectos en las estrategias existentes donde la IA podría ser relevante?

La sección destaca la importancia de encontrar temas en las estrategias institucionales y de bibliotecas que puedan ser aprovechados para alinear las actividades relacionadas con la IA. Se proporciona un ejemplo en las estrategias existentes, y se presentan preguntas sobre cómo las prioridades estratégicas actuales pueden aprovechar la IA y si esta última afecta las prioridades de transformación digital de la institución.

4: Respuestas estratégicas a la Inteligencia Artificial: Pros y contras

Las respuestas estratégicas a la IA podrían incluir una o una combinación de los siguientes enfoques generales:

  • Contratar nuevo personal con habilidades especializadas en IA.
  • Mejorar las habilidades del personal existente.
  • Interactuar con los usuarios para comprender cómo están utilizando la IA.
  • Estudiar las mejores prácticas en el sector.
  • Ejecutar proyectos de prueba de concepto.
  • Conversar con los proveedores de sistemas y adquirir sistemas.
  • Alinear las acciones con lo que está sucediendo en la institución.
  • Colaborar con otras unidades.
  • Alinear las acciones con lo que está sucediendo en el sector.
  • Colaborar con otras bibliotecas y organizaciones.
  • Adoptar una postura de esperar y ver.

Sección 5: Tres estrategias importantes

Dada la amplitud del impacto de la IA, podría haber muchas estrategias para las bibliotecas. Sin embargo, hemos seleccionado tres que parecen ser importantes hoy.

  • Estrategia 1: Utilizar las capacidades de IA de la biblioteca para modelar aplicaciones responsables y explicables de la IA descriptiva
  • Estrategia 2: Utilizar las competencias de datos de los bibliotecarios para mejorar la capacidad de IA organizacional
  • Estrategia 3: Promover la alfabetización en IA para mejorar las capacidades de IA organizacionales y sociales

Los LLMs de la Inteligencia Artificial pueden amenazar la integridad científica debido a su propensión a generar información errónea o fantasiosa

Mittelstadt, Brent, Sandra Wachter, y Chris Russell. «To Protect Science, We Must Use LLMs as Zero-Shot Translators». Nature Human Behaviour 7, n.o 11 (noviembre de 2023): 1830-32. https://doi.org/10.1038/s41562-023-01744-0.

Un artículo escrito por los profesores Brent Mittelstadt, Chris Russell y Sandra Wachter del Instituto de Internet de Oxford aborda preocupaciones sobre los Modelos de Lenguaje Grandes (LLMs) que representan una amenaza directa para la ciencia debido al fenómeno de ‘alucinaciones’, la generación de respuestas no verídicas. El artículo destaca la necesidad de restricciones en los LLMs para salvaguardar la verdad científica.

Un nuevo informe elaborado por destacados investigadores de Inteligencia Artificial en el Instituto de Internet de Oxford advierte que los Grandes Modelos de Lenguaje (LLMs) constituyen una amenaza directa para la ciencia debido a las denominadas ‘alucinaciones’ y deben ser restringidos para proteger la verdad científica. Publicado en Nature Human Behaviour, el documento, redactado por los Profesores Brent Mittelstadt, Chris Russell y Sandra Wachter, explica que los LLMs están diseñados para proporcionar respuestas útiles y convincentes sin garantías definitivas sobre su precisión o alineación con los hechos.

La razón detrás de esto es que los datos utilizados por la tecnología para responder preguntas no siempre provienen de fuentes factualmente correctas. Los LLMs se entrenan en grandes conjuntos de datos de texto, generalmente extraídos de fuentes en línea, que pueden contener declaraciones falsas, opiniones y escritura creativa, entre otros tipos de información no factual.

El Prof. Mittelstadt explica que las personas tienden a confiar en los LLMs como si fueran fuentes de información humanas, en parte debido a su diseño como agentes útiles y con sonido humano que conversan con los usuarios y responden a prácticamente cualquier pregunta con texto seguro y bien escrito. Esto conlleva al riesgo de que los usuarios se convenzan fácilmente de la precisión de las respuestas, incluso cuando carecen de base factual o presentan versiones sesgadas de la verdad.

Para proteger la ciencia y la educación contra la propagación de información incorrecta y sesgada, los autores argumentan que deben establecerse expectativas claras sobre lo que los LLMs pueden contribuir de manera responsable y útil. Según el informe, «para tareas en las que la verdad es crucial, alentamos a los usuarios a redactar indicadores de traducción que incluyan información verificada y factual».

La Prof. Wachter destaca la importancia de cómo se utilizan los LLMs, especialmente en la comunidad científica, enfatizando la necesidad de confianza en la información fáctica y la responsabilidad en el uso de esta tecnología. El Prof. Russell agrega que es crucial reflexionar sobre las oportunidades que ofrecen los LLMs y considerar si realmente queremos otorgar esas oportunidades a una tecnología solo porque podemos.

Actualmente, los LLMs se tratan como bases de conocimiento y se utilizan para generar información en respuesta a preguntas, lo que hace que el usuario sea vulnerable tanto a la regurgitación de información falsa presente en los datos de entrenamiento como a las ‘alucinaciones’, es decir, información falsa generada espontáneamente por el LLM que no estaba presente en los datos de entrenamiento.

Para superar esto, los autores argumentan que los LLMs deberían utilizarse de manera orientativa. En lugar de depender del LLM como fuente de información relevante, el usuario simplemente debe proporcionar al LLM información apropiada y pedirle que la transforme en una salida deseada, como reescribir puntos clave como conclusión o generar código para transformar datos científicos en un gráfico.

Utilizar los LLMs de esta manera facilita la verificación de la corrección factual y la consistencia con la entrada proporcionada. Los autores reconocen que la tecnología seguramente ayudará en los flujos de trabajo científicos, pero enfatizan que la escrutinio de sus resultados es fundamental para proteger una ciencia robusta.

Cosas que los investigadores no deben esperar del ChatGPT

Bhosale, Uttkarsha. «ChatGPT’s Limitations in Research». Enago Academy (blog), 5 de junio de 2023. https://www.enago.com/academy/chatgpt-cannot-do-for-researchers-2/.

¿Puede ChatGPT competir realmente con la brillantez de las mentes humanas? Sólo puede imitar aquello para lo que ha sido entrenado, dejando la verdadera innovación fuera de la ecuación. Ninguna inteligencia artificial podrá sustituir a la experiencia humana en la investigación y la escritura académica.

1- Aporte ideas de investigación originales

Las ideas originales de investigación son la savia del progreso científico. Impulsan la innovación, amplían el conocimiento y allanan el camino para descubrimientos revolucionarios. Sin embargo, generar estas ideas va más allá de las capacidades de ChatGPT.

2- Interpretar análisis de datos complejos

ChatGPT puede tener dificultades para comprender los matices y complejidades de estos enfoques analíticos. Los investigadores, por su parte, poseen los conocimientos y la experiencia necesarios para navegar a través del análisis de datos complejos, algo que ChatGPT no puede adquirir. Además, ChatGPT no puede identificar posibles sesgos, factores de confusión o valores atípicos que puedan afectar a la validez de los resultados.

3- Participar en la revisión académica por pares

ChatGPT carece de la capacidad de evaluar la calidad y validez de los trabajos de investigación, por lo que no es adecuado para la revisión académica por pares. Los modelos de IA como ChatGPT se entrenan con una gran cantidad de datos de texto y pueden generar respuestas basadas en patrones y conocimientos dentro de sus datos de entrenamiento. Sin embargo, no poseen la experiencia específica del dominio ni las habilidades de pensamiento crítico necesarias para una rigurosa revisión académica por pares.

4- Proporcionar información en tiempo real sobre el progreso de la investigación

Dada su falta de comprensión contextual, ChatGPT no puede proporcionar información en tiempo real sobre los proyectos de investigación en curso. ChatGPT puede no ser capaz de evaluar el progreso de la investigación, lo que requiere un profundo conocimiento del área de investigación específica, las metodologías empleadas y la literatura y marcos teóricos relevantes.

5- Generar revisiones bibliográficas exhaustivas

ChatGPT puede tener dificultades para evaluar la calidad y pertinencia de las fuentes, lo que limita su capacidad para generar reseñas bibliográficas exhaustivas. No puede examinar artículos de investigación, libros, ponencias y otras fuentes académicas por su metodología, análisis de datos, marcos teóricos y contribución al campo.

6- Redactar propuestas de investigación o solicitudes de subvención

Es posible que ChatGPT no comprenda del todo los matices de los requisitos de financiación, por lo que resulta inadecuado para redactar propuestas de investigación o solicitudes de subvención. No puede cumplir los requisitos de redacción de una subvención a medida e incluir detalles sobre los objetivos del proyecto de investigación, la metodología, los resultados esperados, el presupuesto, el calendario y la alineación con las prioridades del organismo de financiación.

7- Desarrollar nuevas metodologías experimentales

ChatGPT carece de la experiencia y los conocimientos específicos necesarios para desarrollar nuevas metodologías experimentales. Los investigadores poseen los conocimientos necesarios para identificar lagunas en la investigación, formular preguntas de investigación y diseñar experimentos a medida para abordar objetivos específicos. El desarrollo de nuevas metodologías experimentales suele requerir una combinación de creatividad, pensamiento crítico y capacidad para resolver problemas, algo que ChatGPT o cualquier otra herramienta de IA no pueden hacer en sus formas actuales.

8- Tomar decisiones éticas en la investigación

ChatGPT no está equipado para emitir juicios morales ni para navegar por los complejos dilemas éticos que pueden encontrar los investigadores. Los propios investigadores proporcionan el marco ético necesario para unas prácticas de investigación responsables y éticas. No está capacitado para comprender y aplicar los principios y directrices éticos específicos de su campo, como los que establecen los comités de revisión ética o los comités de revisión institucional (CEI).

9- Contribuir a los avances científicos

ChatGPT puede proporcionar apoyo y ofrecer ideas basadas en patrones en sus datos de entrenamiento; sin embargo, no puede conducir de forma independiente a avances científicos. Aunque ChatGPT puede ayudar a los investigadores ofreciéndoles información e ideas iniciales, carece de la intuición, la creatividad y el pensamiento innovador de los investigadores humanos.

DALL-E: la herramienta de Open AI para generar imágenes por IA

DALL-E

https://openai.com/dall-e-2

DALL-E es un modelo generativo desarrollado por OpenAI que se basa en la arquitectura GPT (Generative Pre-trained Transformer). La particularidad de DALL-E es su capacidad para generar imágenes a partir de descripciones textuales. Fue presentado por OpenAI en enero de 2021.

A diferencia de otros modelos generativos que trabajan con texto, como GPT-3, DALL-E está diseñado específicamente para generar imágenes realistas a partir de descripciones textuales. Puede crear imágenes completamente nuevas y originales que se ajustan a las descripciones dadas como entrada. Por ejemplo, si se le proporciona un texto que dice «un elefante rosa con alas», DALL-E intentará generar una imagen que coincida con esa descripción. La herramienta es de pago, y se necesitan comprar créditos

DALL-E se entrena en grandes conjuntos de datos que contienen imágenes y sus descripciones correspondientes. Luego, se puede utilizar para generar imágenes nuevas a partir de descripciones textuales que no formaron parte de los datos de entrenamiento.


La función de edición de DALL·E ya permite realizar cambios dentro de una imagen generada o cargada, una capacidad conocida como «Inpainting». Ahora, con «Outpainting», los usuarios pueden ampliar la imagen original, creando imágenes a gran escala en cualquier relación de aspecto. «Outpainting» tiene en cuenta los elementos visuales existentes en la imagen, incluyendo sombras, reflejos y texturas, para mantener el contexto de la imagen original.

Este enfoque tiene aplicaciones en la generación de contenido visual, diseño gráfico, y en general, en cualquier situación en la que se desee convertir descripciones textuales en imágenes de manera automatizada y creativa.

Claude: asistente de inteligencia artificial de próxima generación que mejora algunas de las características ofrecidas por ChatGPT

Claude es un asistente de inteligencia artificial de próxima generación basado en la investigación de Anthropic para entrenar sistemas de inteligencia artificial útiles, honestos e inofensivos. Accesible a través de una interfaz de chat y API en nuestra consola para desarrolladores, Claude es capaz de realizar una amplia variedad de tareas de conversación y procesamiento de texto manteniendo un alto grado de confiabilidad y previsibilidad.

Claude puede ayudar en casos de uso que incluyen resúmenes, búsqueda, escritura creativa y colaborativa, preguntas y respuestas, programación y más. Los primeros clientes informan que Claude es mucho menos propenso a producir resultados dañinos, más fácil de conversar y más manejable, lo que significa que puedes obtener el resultado deseado con menos esfuerzo. Claude también puede recibir instrucciones sobre personalidad, tono y comportamiento.

Existen 2 versiones: Claude y Claude Instant. Claude es un modelo de alto rendimiento de última generación, mientras que Claude Instant es una opción más ligera, menos costosa y mucho más rápida.

La nueva versión Claude 2.1, presenta una ventana de contexto mejorada que supera ampliamente cualquier capacidad de ChatGPT. Además Claude 2.1, mejora su modelo LLM (modelo de lenguaje grande), entrando en competencia con ChatGPT y presenta una ventana de contexto mejorada que ha aumentado a 200.000 tokens, superando los 128.000 tokens de GPT-4 de OpenAI. Esto significa que el modelo puede procesar y tener en cuenta hasta 200.000 unidades de texto en una sola sesión. La cantidad de tokens que un modelo puede manejar es importante porque determina la capacidad del modelo para comprender y procesar información en una sola iteración. Un mayor número de tokens permite a los modelos lidiar con textos más extensos y complejos, como documentos largos, código fuente extenso o textos literarios extensos

Los resultados muestran que Claude 2.1 proporciona menos respuestas incorrectas, tiene menos probabilidades de alucinar y es mejor estimando cuándo no puede estar seguro; el modelo es «significativamente más propenso a abstenerse en lugar de proporcionar información incorrecta» recurriendo a herramientas externas (como calculadoras) o búsquedas en la web para obtener soluciones mejores.

Si estás acostumbrado a usar modelos de lenguaje grandes como ChatGPT, Bard y Claude, sabrás que Claude a menudo supera a los demás al manejar grandes cantidades de datos.

Un año de la salida al mercado de ChatGPT

Guo, Charlie. «How to Talk to Your Family about AI This Thanksgiving», 6 de septiembre de 2023. https://www.ignorance.ai/p/how-to-talk-to-your-family-about-ai.

El próximo jueves día 30 de noviembre de 2023 se celebra el primer aniversario del lanzamiento de ChatGPT, la tecnología más disruptiva de todos los tiempos, tanto que fue el producto con el crecimiento más rápido de la historia. Si has seguido todos los avances en inteligencia artificial desde entonces, eso parece haber ocurrido hace siglos. Es difícil creer cuánto ha cambiado todo en el último año.

En este año Sam Altman, CEO máximo responsable de Open AI, fue despedido por la junta directiva de OpenAI, y Greg Brockman, cofundador, y otros investigadores clave renunciaron. Hubo una reacción inmediata, y la junta comenzó a negociar para que Altman volviera como CEO. Después de que las negociaciones fracasaron, Sam y Greg «se unieron» a Microsoft, el mayor inversor de OpenAI.

Cientos de empleados de OpenAI (~95%) amenazaron con irse a unir a Microsoft si la junta no renunciaba. Después de pasar por DOS CEO interinos en cuatro días, Altman fue restituido como CEO y la mayoría de los miembros de la junta que lo despidieron renunciaron. Se ha formado una nueva junta de 3 personas con el objetivo de crear una junta más permanente de 9 personas.

Aún está por verse quiénes integrarán la nueva junta de 9 personas. Presumiblemente, Altman y Microsoft querrán tener asientos, y Altman probablemente querrá colocar aliados en la junta para reducir la posibilidad de futuros despidos. Y aún no conocemos realmente la motivación original de la junta que despidió a Altman en primer lugar; aunque, independientemente de si las motivaciones fueron justificadas, la ejecución fue manejada de manera extremadamente deficiente.

Gran parte de la discusión también ha girado en torno a la estructura organizativa única de OpenAI. Inicialmente, fue fundada como una organización sin fines de lucro con la misión de crear la inteligencia artificial general (AGI) en beneficio de la humanidad. Posteriormente, OpenAI creó una subsidiaria con fines de lucro y recibió una inversión estimada de 10 mil millones de dólares por parte de Microsoft. Tanto los empleados como los inversores tienen acuerdos de participación en beneficios en lugar de acciones en la empresa con fines de lucro, pero esta última está controlada en última instancia por la organización sin fines de lucro.

Las encuestas de este verano indican que solo el 14% de los adultos estadounidenses han probado ChatGPT. La distinción clave radica en su capacidad para entender y generar lenguaje similar al humano en una amplia gama de temas y estilos. A diferencia de los chatbots anteriores, ChatGPT puede adaptarse a diversas sutilezas conversacionales y tiene el potencial de revolucionar la forma en que interactuamos con las máquinas. Su capacidad para predecir y generar respuestas coherentes a una escala nunca vista antes es lo que lo convierte en un avance revolucionario en el procesamiento del lenguaje natural.

Cuando ChatGPT se lanzó hace un año, muchos se sorprendieron por el estado de la inteligencia artificial generativa, no solo para palabras y lenguaje, sino también para arte, música y código. Si las inteligencias artificiales pueden convertirse en expertos en escribir libros para niños o generar fotografías de stock o construir sitios web, podríamos estar en riesgo de dejar a millones de personas sin trabajo. Y eso no es hipotético; algunas industrias ya están viendo un impacto, y algunas empresas ya se han comprometido a reducir la plantilla y reemplazarla con inteligencia artificial.

Gran parte del impacto depende de la rapidez con la que las industrias adopten la inteligencia artificial. Con más tiempo, podemos amortiguar las pérdidas de empleo y ayudar a crear nuevos roles que no existían antes; «ingeniero de indicaciones» es un título que no existía hace dos años. Pero las industrias y las personas cuyos medios de vida están amenazados por la inteligencia artificial están comprensiblemente preocupadas y están haciendo lo que pueden para protegerse, incluyendo emprender acciones legales.

El principal tipo de demanda está relacionado con los derechos de autor; la acusación es que estos modelos fueron entrenados (ilegalmente) en obras con derechos de autor sin consentimiento. Este tema está avanzando en los tribunales, y la decisión tiene el potencial de alterar la trayectoria de los futuros productos de inteligencia artificial. Pero no es la única pregunta legal. En este momento, los tribunales aún tienen que decidir:

  1. Si es legal entrenar a una inteligencia artificial con datos recopilados sin consentimiento, incluso si es público.
  2. Si los creativos cuyo trabajo se utilizó para entrenar modelos tienen derecho a regalías.
  3. Si la producción que imita un estilo específico, como Pixar o el Dr. Seuss, infringe los derechos de propiedad intelectual.
  4. Si incluso podemos poseer los derechos de autor de contenido creado por una inteligencia artificial en primer lugar.

Estamos descubriendo estas cosas lentamente; por ejemplo, la Oficina de Derechos de Autor de EE. UU. ha dicho que cualquier obra generada por inteligencia artificial no es elegible para derechos de autor sin ediciones significativas realizadas por humanos. Pero eso aún no ha sido probado en los tribunales, y otras áreas legales todavía son extremadamente inciertas.

También hay una pregunta abierta sobre cómo saber si un contenido fue generado por inteligencia artificial. En el caso de la música o las imágenes, podemos potencialmente incrustar marcas de agua invisibles para saber en el futuro si algo proviene de una inteligencia artificial. Algunas empresas ya están haciendo esto: los modelos más recientes de generación de música de Google contienen huellas de audio, y OpenAI tiene un detector interno para imágenes creadas con DALL-E.

Pero eso no evitará que muchas personas sean engañadas por imágenes falsas y voces clonadas. Algunos estafadores ya están utilizando identidades generadas por inteligencia artificial para robar dinero a familiares desprevenidos. Y en cuanto a contenido escrito, no hay una manera confiable de determinar si algo fue escrito por una inteligencia artificial. Cualquier herramienta que lo haga a menudo genera muchos falsos positivos y puede ser fácilmente eludida con técnicas de indicación más avanzadas.

Ahora, decenas de agencias diferentes tienen la tarea de evaluar los posibles impactos de la inteligencia artificial. Cada departamento del gabinete ahora cuenta con un Director de Inteligencia Artificial. Y en los próximos meses y años, veremos una gran cantidad de acciones y orientaciones a nivel de agencia sobre la inteligencia artificial, aunque no necesariamente mucha legislación del Congreso.

El Reino Unido celebró una Cumbre sobre la Seguridad de la Inteligencia Artificial, que tenía como objetivo que los gobiernos y las principales empresas de inteligencia artificial se asociaran en sus esfuerzos por mejorar la seguridad de la inteligencia artificial. Si bien muchos gobiernos están tomando medidas públicas y pronunciando discursos sobre la inteligencia artificial, aún no están redactando leyes o dictando políticas. La principal excepción es la Ley de Inteligencia Artificial de la UE, que ha estado en desarrollo durante varios años. Actualmente, se está revisando para incorporar los últimos avances en inteligencia artificial generativa, pero está enfrentando algunos obstáculos. En Estados Unidos se ha promulgado la Orden Ejecutiva del Presidente Biden sobre IA, que establece nuevos estándares para la seguridad y la protección de la IA, resguarda la privacidad de los estadounidenses, promueve la equidad y los derechos civiles, defiende a los consumidores y trabajadores, impulsa la innovación y la competencia, avanza el liderazgo estadounidense en todo el mundo

Lo que si parece seguro es que la inteligencia artificial remodelará vastas partes de nuestra vida y trabajo en un futuro cercano. Un estudio ha estimado que el 80% de los trabajadores estadounidenses podrían ver afectado su trabajo por la inteligencia artificial. Eso no significa que perderán su trabajo, pero podrían descubrir que la inteligencia artificial se convierte en parte de sus herramientas. Y aunque no seas un trabajador de cuello blanco, es posible que te encuentres con más contenido generado por inteligencia artificial en las redes sociales o la publicidad.

«Conos de silencio»: la biblioteca presenta cabinas para teléfonos celulares


Los «Conos de Silencio» para uso de teléfonos móviles en bibliotecas se refieren a una solución o dispositivo diseñado para ayudar a mantener un ambiente tranquilo y silencioso en una biblioteca, especialmente en lo que respecta a las llamadas telefónicas y conversaciones en teléfonos móviles. Estos «conos» son áreas o espacios designados dentro de la biblioteca donde se permite el uso de teléfonos móviles de una manera que no perturbe a los demás usuarios.

La idea detrás de los «Conos de Silencio» es proporcionar un lugar adecuado para que las personas puedan hacer llamadas telefónicas o enviar mensajes de texto en un entorno de biblioteca sin causar molestias a quienes buscan un ambiente de estudio tranquilo. Estos espacios suelen estar equipados con comodidades como sillas, mesas y conexiones de carga para dispositivos móviles.

Al ofrecer esta opción, las bibliotecas reconocen la importancia de adaptarse a las necesidades de los usuarios modernos, que a menudo dependen de sus teléfonos móviles para fines académicos, de investigación o personales. Al mismo tiempo, se esfuerzan por mantener un ambiente de estudio tranquilo para aquellos que desean leer, investigar o estudiar en silencio.

YouTube establece nuevas pautas para videos creados con inteligencia artificial (IA)

Hayes, Dade. «YouTube Issues New Guidelines For Videos Using AI». Deadline (blog), 14 de noviembre de 2023. https://deadline.com/2023/11/youtube-ai-artificial-intelligence-videos-shorts-deepfakes-1235611370/.

En una entrada de blog, el gigante del video digital indicó que el nuevo enfoque establecerá límites para videos que parecen realistas pero dependen de herramientas de inteligencia artificial. La empresa también está implementando nuevas etiquetas para informar a los espectadores cuando el video que están viendo ha sido alterado o creado sintéticamente.

«Esto es especialmente importante en casos en los que el contenido trata temas sensibles, como elecciones, conflictos en curso y crisis de salud pública, o funcionarios públicos», escribieron las vicepresidentas de Gestión de Productos, Jennifer Flannery O’Connor y Emily Moxley, en la entrada del blog. «Los creadores que elijan consistentemente no divulgar esta información pueden estar sujetos a la eliminación de contenido, la suspensión u otras sanciones. Trabajaremos con los creadores antes de implementar esto para asegurarnos de que comprendan estos nuevos requisitos». El auge de la IA ha inquietado a una gran parte de la sociedad, incluido Hollywood, donde actores y escritores recientemente estuvieron seis meses en huelga en parte por preocupaciones sobre el daño potencial que la tecnología podría causar.

La nueva postura de YouTube se produce aproximadamente un mes después de que la empresa presentara un conjunto de nuevas capacidades, incluido un caché de material de IA searchable llamado Dream Screen diseñado para la plataforma Shorts. Shorts, una respuesta a TikTok, ha atraído más de 70 mil millones de vistas diarias de más de 2 mil millones de usuarios registrados. Cuando se le preguntó en ese momento sobre el riesgo de propagar deepfakes u otro contenido engañoso, el CEO Neal Mohan admitió que «podría haber desafíos en torno a tecnologías como esta». Pero dijo que todos los videos mejorados con IA estarían sujetos a las pautas de la comunidad de YouTube. «Las reglas que se aplican al contenido de video en YouTube se aplican a todo lo que viste hoy».

La entrada del blog también menciona que los usuarios que tengan problemas con algún video que encuentren en YouTube pueden participar en un proceso de solicitud de privacidad recientemente ampliado. Este proceso permite a cualquiera solicitar la eliminación de contenido generado por IA u otro contenido sintético o alterado que simule a una persona identificable, incluyendo su rostro o voz. Esta opción se extiende al ámbito de los videos musicales, donde la IA puede permitir que imitaciones de la voz o estilo único de un artista o rapero se difundan potencialmente.

Cambridge Dictionary considera «Alucinar» como palabra del año 2023

University of Cambridge. «Cambridge Dictionary Names ‘Hallucinate’ Word of the Year 2023», 15 de noviembre de 2023. https://www.cam.ac.uk/research/news/cambridge-dictionary-names-hallucinate-word-of-the-year-2023.


En 2023, una nueva definición de ‘alucinar’ fue una de las muchas actualizaciones relacionadas con la inteligencia artificial en el Diccionario Cambridge. Henry Shevlin sugiere que la creciente tendencia de antropomorfizar la tecnología AI con metáforas humanas refleja un cambio sutil pero profundo en la percepción. La nueva definición destaca cómo los modelos de lenguaje grandes (LLMs) pueden generar prosa plausible pero a menudo basada en ‘hechos’ falsos, engañosos o inventados, lo que se describe como ‘alucinaciones’ de manera confiada y a veces creíble.

La definición tradicional de ‘alucinar’ implica percibir algo que no existe debido a una condición de salud o al consumo de drogas. La nueva definición aborda la inteligencia artificial y establece: ‘Cuando una inteligencia artificial (= un sistema informático que tiene algunas de las cualidades del cerebro humano, como la capacidad de producir lenguaje de manera que parece humana) alucina, produce información falsa’.

Las ‘alucinaciones’ de la IA, también conocidas como fabulaciones, a veces pueden parecer sin sentido, pero también pueden parecer completamente plausibles, incluso siendo factualmente inexactas o ilógicas. Estas ‘alucinaciones’ de la IA ya han tenido impactos en el mundo real, como casos ficticios citados en un tribunal debido a la investigación legal realizada por ChatGPT y errores factuales en videos promocionales.

Wendalyn Nichols, Gerente de Publicaciones del Diccionario Cambridge, enfatiza la necesidad de habilidades de pensamiento crítico al utilizar estas herramientas AI y destaca que, aunque los modelos de lenguaje grandes son eficientes para procesar grandes cantidades de datos, la experiencia humana sigue siendo crucial para crear información confiable y actualizada.

La nueva definición refleja la tendencia creciente de antropomorfizar la tecnología AI y destaca la importancia de abordar las ‘alucinaciones’ de la IA para el éxito futuro de la inteligencia artificial generativa. Ingenieros y académicos están trabajando en limitar estas ‘alucinaciones’ mediante la validación de las salidas de LLM con fuentes confiables o búsquedas en la web, y algunos están explorando el ‘aprendizaje por refuerzo a partir de retroalimentación humana’ para prever y eliminar estas ‘alucinaciones’.