Archivo de la etiqueta: Inteligencia artificial

Un informe de Goldman Sachs predice que 300 millones de empleos se perderán o degradarán debido a la inteligencia artificial

Briggs; Kodnani. The Potentially Large Effects of Artificial Intelligence on Economic Growth Goldman Sachs, 2023

Ver informe

Goldman Sachs ha predicho que se perderán o degradarán alrededor de 300 millones de empleos debido a la implementación de la inteligencia artificial en diversos sectores. Se menciona que esta tecnología tiene el potencial de automatizar tareas y procesos que antes eran realizados por trabajadores humanos.

El informe destaca que si bien la inteligencia artificial puede aumentar la productividad y eficiencia en muchas industrias, también plantea desafíos significativos en términos de pérdida de empleo y cambios en la naturaleza del trabajo. Se menciona que los trabajos más susceptibles a la automatización son aquellos que involucran tareas repetitivas y rutinarias. La IA podría automatizar el 18% del trabajo en todo el mundo, con mayores efectos en los mercados desarrollados que en los emergentes. También creen que la IA podría sustituir el 7% de los puestos de trabajo en EE.UU.

Analizando bases de datos que detallan el contenido de las tareas de más de 900 ocupaciones, Se estima que aproximadamente dos tercios de las ocupaciones estadounidenses están expuestas a cierto grado de automatización por la IA. Además, de esas ocupaciones más expuestas, entre una cuarta parte y la mitad de la carga de trabajo podría ser sustituida. Pero no todo ese trabajo automatizado se traducirá en despidos, según el informe. «Aunque es probable que el impacto de la IA en el mercado laboral sea significativa, la mayoría de los empleos e industrias están sólo parcialmente expuestos a la automatización y, por tanto, es más probable que la IA los complemente en lugar de sustituirlos», escriben los autores. Hay que tener en cuenta que los puestos de trabajo desplazados por la automatización se han compensado históricamente con la creación de otros nuevos, y la aparición de nuevas ocupaciones tras las innovaciones tecnológicas representa la gran mayoría del crecimiento del empleo a largo plazo, según el informe.

Pues, aunque algunos empleos sean reemplazados por la inteligencia artificial, también se crearán nuevas oportunidades laborales. Se mencionan áreas como la inteligencia artificial en sí misma, el desarrollo de tecnologías relacionadas y la necesidad de habilidades humanas complementarias como la creatividad, la empatía y la toma de decisiones éticas.

Se concluye que la transición hacia una mayor adopción de la inteligencia artificial en el mercado laboral requerirá medidas y políticas adecuadas para apoyar a los trabajadores afectados. También se tienen en cuenta propuestas como el reentrenamiento y la reconversión laboral, así como la necesidad de una educación sólida en habilidades relevantes para el futuro.

La inteligencia artificial y su impacto en el empleo: La clave para sobrevivir es adaptarse

News18. «Artificial Intelligence And Its Impact On Jobs: The Key To Survival Is To Adapt», 15 de mayo de 2023.

Texto completo

La inteligencia artificial está transformando el panorama laboral y que adaptarse a estos cambios es esencial. Si bien algunos trabajos pueden ser reemplazados por la inteligencia artificial, se enfatiza que las habilidades humanas únicas seguirán siendo valiosas y que la educación y la adaptabilidad son clave para aprovechar las oportunidades que ofrece la inteligencia artificial en el mundo laboral.

La Inteligencia Artificial (IA) ha irrumpido en el mundo como una tormenta, transformando sectores y profesiones. Imagínate un escenario en el que eres un ingeniero que desarrolla software para operaciones de almacén. Encontrarás cómo los robots de las fábricas están sustituyendo a los trabajadores humanos, que temen perder su empleo, y te pedirán tu opinión. La cruda verdad que tienes que decirles es que los robots pronto sustituirán sus puestos de trabajo y que el cambio de la automatización humana a la automatización de las máquinas ya ha comenzado. ¿Qué hay detrás de esta tendencia imparable? Es la IA, el cerebro de los robots.

Hay una preocupación similar entre muchas personas por su seguridad laboral, y tienen una buena razón. Hay muchos informes sobre despidos y automatización por herramientas de IA: un informe de Goldman Sachs predice que hasta 300 millones de empleos a tiempo completo en todo el mundo podrían verse afectados por la nueva ola de IA que incluye plataformas como ChatGPT. El principal detonante de este reciente auge de la IA es la IA generativa, especialmente los grandes modelos lingüísticos (LLM) que pueden realizar tareas basadas en comandos conversacionales y actuar como ayudantes personales, ayudándonos a escribir software, redactar correos electrónicos y resumir textos.

Las capacidades creativas de los modelos multimodales de IA Generativa, que trabajan con múltiples modalidades como texto, imágenes y vídeos, también son fascinantes. Desde la creación de arte digital a la carta hasta ayudar a un arquitecto con sugerencias de planos en 3D generados automáticamente, las posibilidades son infinitas. Por eso es tan importante hablar de la IA y de sus posibles efectos en el mercado laboral.

La IA está afectando a distintos empleos y regiones de maneras diferentes. Mientras que algunos empleos están en peligro debido a la aparición de la IA, sobre todo los que pueden automatizarse, otros que requieren pensamiento crítico y capacidad de gestión están a salvo por el momento. Por ejemplo, los empleos en la industria manufacturera, el transporte y la atención al cliente corren peligro a medida que la IA es cada vez más capaz de realizar estas tareas.

Ámbitos como la abogacía, la medicina y la educación requieren un juicio y una experiencia humanos que no pueden reproducirse fácilmente con herramientas de IA, aunque estas herramientas pueden ayudar a los expertos en su trabajo. Además, el auge de la IA creará nuevos puestos de trabajo en el desarrollo y la gestión de la IA. Con la creciente integración de la IA en nuestra vida cotidiana, habrá una necesidad cada vez mayor de expertos que puedan desarrollar y gestionar estos sistemas. Además, también habrá oportunidades laborales para el trabajo colaborativo entre humanos e IA, como con los cobots, o robots colaborativos, un tipo de robot diseñado para trabajar junto a humanos en un espacio de trabajo compartido.

Algunos procesos empresariales que han avanzado mucho en la adopción de la IA son la investigación y el desarrollo, la atención al cliente, el marketing y la publicidad. Sin embargo, muchos otros procesos aún se encuentran en las primeras fases de adopción, como los recursos humanos, las ventas y el área jurídica. A medida que avance la adopción de la IA, tendrá un impacto significativo en el mercado laboral, ya que cada vez más tareas se automatizarán o aumentarán gracias a la IA.

La IA es una habilidad muy solicitada en el siglo XXI, pero encontrar talentos cualificados en este campo es todo un reto. Los profesionales de la IA necesitan una base sólida en matemáticas, programación y conocimientos especializados. Un artículo de Forbes sostiene que la escasez de talentos en IA es un problema, debido a la falta de inversión en programas de educación y formación en IA. Para superar este reto, los trabajadores y los empresarios necesitan adquirir nuevas habilidades y competencias que sean relevantes para la era de la IA, como la alfabetización en datos, la alfabetización digital, la programación, el pensamiento crítico y la inteligencia emocional, como sugiere un informe del Boston Consulting Group.

En todo el mundo se han emprendido numerosas iniciativas para impartir conocimientos de IA a personas de distintas edades y perfiles profesionales. Estas iniciativas incluyen la creación de nuevos planes de estudios en institutos de enseñanza superior centrados en la ciencia de datos y la IA y la oferta de recursos en línea que permiten un aprendizaje cómodo y a ritmo propio de la IA. Además, los profesionales en activo también están realizando cursos de formación en IA para prepararse para carreras o transiciones laborales relacionadas con la IA.

Sin embargo, también es esencial introducir la educación en IA en la escuela primaria o secundaria para ayudar a los estudiantes a desarrollar un interés temprano y aptitud para la IA y equiparlos para la futura fuerza de trabajo. En la India, la New Education Policy 2020 reconoce la importancia de la inteligencia artificial e integra la educación en IA a todos los niveles. Los escolares aprenderán habilidades cruciales como alfabetización digital, codificación y pensamiento computacional a través de asignaturas contemporáneas como Inteligencia Artificial y Design Thinking.

Estos esfuerzos e iniciativas pueden ayudarnos a salvar la brecha entre la oferta y la demanda de talento en IA y a crear una mano de obra más inclusiva y diversa que pueda aprovechar el potencial de la IA en beneficio de la sociedad.

¿Es posible usar ChatGPT para escribir cuentos infantiles?

I Used ChatGPT To Write Bedtime Stories For My Kid. It’s Not What I Expected. By Marie Holmes. HuffPost, Mayo 19, 2023, 05:06 PM

Ver original

El artículo «I Used ChatGPT To Write Bedtime Stories For My Kid. It’s Not What I Expected.» relata la experiencia de Marie Holmes que decidió utilizar el modelo de lenguaje ChatGPT para crear cuentos para su hijo antes de dormir, pero los resultados no fueron los esperados.

Holmes comienza explicando su motivación para probar esta idea, mencionando que quería aprovechar la tecnología y la inteligencia artificial para crear historias personalizadas para su hijo. Con la ayuda de ChatGPT, pensó que podría generar cuentos únicos y creativos que cautivarían la imaginación de su hijo.

Sin embargo, pronto descubrió que las historias generadas por ChatGPT no cumplían sus expectativas. Aunque el modelo tenía un amplio conocimiento de vocabulario y estructuras gramaticales, carecía de la capacidad de crear tramas coherentes y emocionalmente impactantes. Las historias resultantes eran en su mayoría incoherentes, confusas y carentes de sentido.

Marie describe cómo su hijo, en lugar de sentirse intrigado y emocionado por las historias, se mostraba aburrido y desconcertado. Las tramas incoherentes y los personajes sin desarrollo no lograban captar su atención ni estimular su imaginación.

Tras el experimento Marie reflexiona sobre las limitaciones de la inteligencia artificial y reconoce que, aunque ChatGPT es un modelo impresionante en términos de habilidades lingüísticas, todavía está lejos de poder reemplazar la creatividad y la sensibilidad humana necesarias para contar historias cautivadoras.

Finalmente, concluye que, si bien la tecnología puede ser útil en muchos aspectos de nuestras vidas, todavía hay ciertas áreas en las que la intervención humana es insustituible. Aunque ChatGPT puede ayudar con la generación de ideas o brindar información, la creación de historias emocionantes y significativas sigue siendo un arte humano que no puede ser completamente replicado por una máquina.

Publicaciones falsas en ciencias biomédicas: el método Red-Flagging indica una producción masiva

Sabel, Bernhard A., Emely Knaack, Gerd Gigerenzer, y Mirela Bilc. «Fake Publications in Biomedical Science: Red-Flagging Method Indicates Mass Production». medRxiv, 8 de mayo de 2023. https://doi.org/10.1101/2023.05.06.23289563.

La integridad de las publicaciones académicas se ve cada vez más socavada por las publicaciones científicas falsas producidas masivamente por «servicios de edición» comerciales (las llamadas «fábricas de artículos»). Estos servicios utilizan técnicas de producción automatizadas y asistidas por IA a gran escala y venden publicaciones falsas a estudiantes, científicos y médicos presionados para avanzar en sus carreras. Dado que se desconoce el alcance de las publicaciones falsas en biomedicina, hemos desarrollado un método sencillo para identificarlas y estimar su número.

Para identificar indicadores capaces de señalizar publicaciones falsas (RFP ed-flagged fake publications), enviamos cuestionarios a los autores. A partir de las respuestas de los autores, se identificaron tres indicadores: «correo electrónico privado del autor», «coautor internacional» y «afiliación hospitalaria». Estos indicadores se utilizaron para analizar 15.120 publicaciones incluidas en PubMed® con respecto a la fecha, la revista, el factor de impacto y el país del autor, y se validaron en una muestra de 400 falsificaciones conocidas y 400 presuntas no falsificaciones emparejadas utilizando reglas de clasificación (recuento) para marcar en rojo las posibles falsificaciones. Para una submuestra de 80 artículos se utilizó un indicador adicional relacionado con el porcentaje de citas RFP.

Resultados Las reglas de clasificación que utilizaron dos (tres) indicadores tuvieron sensibilidades del 86% (90%) y tasas de falsas alarmas del 44% (37%). De 2010 a 2020 la tasa de RFP aumentó del 16% al 28%. Teniendo en cuenta los 1,3 millones de publicaciones biomédicas incluidas en Scimago en 2020, estimamos el alcance de >300.000 RFP anuales. Los países con la mayor proporción de RFP son Rusia, Turquía, China, Egipto e India (39%-48%), siendo China, en términos absolutos, el mayor contribuyente de todas las RFP (55%).

Conclusiones Las publicaciones potencialmente falsas pueden señalarse mediante reglas de clasificación validadas y fáciles de usar para someterlas a un examen posterior. Los índices de RFP están aumentando, lo que sugiere que los índices reales de falsificación son más elevados que los registrados anteriormente. La magnitud y proliferación de las publicaciones falsas en biomedicina pueden dañar la confianza en la ciencia, poner en peligro la salud pública y repercutir en el gasto económico y la seguridad. Unos métodos de detección de falsificaciones fáciles de aplicar, como los que aquí se proponen, o unos métodos automatizados más complejos pueden ayudar a evitar más daños al registro científico permanente y permitir la retractación de publicaciones falsas a escala.

El CEO de OpenAI, Sam Altman, empresa creadora de ChatGPT, pide una mayor regulación de la inteligencia artificial

«Si la inteligencia artificial sale mal, puede salir muy mal… para prever que realmente no podamos hacer daño en el mundo“

Sam Altman, ‘padre’ de ChatGPT

«OpenAI CEO Sam Altman Agrees AI Must Be Regulated», Time. 16 de mayo de 2023. https://time.com/6280372/sam-altman-chatgpt-regulate-ai/.

El CEO de OpenAI, Sam Altman, hizo un llamamiento a los miembros del Congreso bajo juramento: Regular la inteligencia artificial. Altman, cuya empresa está en la vanguardia extrema de la tecnología de Inteligencia Artificial generativa con su herramienta ChatGPT, testificó ante el Comité Judicial del Senado por primera vez en una audiencia celebrada el martes. Y aunque dijo que en última instancia es optimista respecto a que la innovación beneficiará a las personas a gran escala, Altman se hizo eco de su afirmación anterior de que los legisladores deberían crear parámetros para que los creadores de IA eviten causar «daños significativos al mundo.» «Creemos que puede ser el momento de la imprenta», dijo Altman. «Tenemos que trabajar juntos para que así sea».

Junto a Altman testificaron ante la comisión otros dos expertos en IA, el catedrático de Psicología y Ciencias Neuronales de la Universidad de Nueva York Gary Marcus y la Directora de Privacidad y Confianza de IBM Christina Montgomery. Los tres testigos apoyaron la gobernanza de la IA tanto a nivel federal como mundial, con planteamientos ligeramente distintos.

«Hemos construido máquinas que son como elefantes en una cacharrería: Potentes, temerarias y difíciles de controlar», dijo Marcus. Para hacer frente a esto, sugirió el modelo de una agencia de supervisión como la Administración de Alimentos y Medicamentos, de modo que los creadores tuvieran que demostrar la seguridad de su IA y demostrar por qué los beneficios superan a los posibles daños.

Sin embargo, los senadores que dirigieron las preguntas se mostraron más escépticos sobre la rápida evolución de la industria de la IA y compararon su impacto potencial no con la imprenta, sino con otras innovaciones, sobre todo la bomba atómica.

La sesión duró casi tres horas y las preguntas del senador abordaron una amplia gama de preocupaciones sobre la IA, desde cuestiones de derechos de autor hasta aplicaciones militares. Tanto Altman como los senadores expresaron sus temores sobre cómo la IA podría «salir bastante mal».

Cuando se le preguntó cuál era su peor temor sobre la IA, Altman fue franco sobre los riesgos de su trabajo.

«Mi peor temor es que nosotros -el campo, la tecnología, la industria- causemos un daño significativo al mundo. Creo que eso puede ocurrir de muchas maneras», dijo Altman. No dio más detalles, pero las advertencias de los críticos van desde la difusión de información errónea y tendenciosa hasta la destrucción total de la vida biológica. «Creo que si esta tecnología sale mal, puede salir bastante mal, y queremos ser claros al respecto», continuó Altman. «Queremos trabajar con el gobierno para evitar que eso ocurra».

La preocupación por la IA llevó a cientos de grandes nombres de la tecnología, entre ellos Elon Musk, a firmar en marzo una carta abierta en la que instaban a los laboratorios de IA a pausar durante seis meses el entrenamiento de sistemas superpotentes debido a los riesgos que suponen para «la sociedad y la humanidad». Y a principios de este mes, Geoffry Hinton, al que se ha llamado el «padrino» de la IA, renunció a su puesto en Google, diciendo que se arrepentía de su trabajo y advirtiendo de los peligros de la tecnología.

Altman expuso un plan general de tres puntos sobre cómo podría regular el Congreso a los creadores de IA.

  • En primer lugar, apoyó la creación de una agencia federal que pueda conceder licencias para crear modelos de IA por encima de un determinado umbral de capacidades, y que también pueda revocar esas licencias si los modelos no cumplen las directrices de seguridad establecidas por el gobierno. La idea no era nueva para los legisladores. Al menos cuatro senadores, tanto demócratas como republicanos, abordaron o apoyaron la idea de crear una nueva agencia de supervisión durante sus preguntas.
  • En segundo lugar, Altman dijo que el gobierno debería crear normas de seguridad para los modelos de IA de alta capacidad (como prohibir que un modelo se autorreproduzca) y crear pruebas de funcionalidad específicas que los modelos tengan que superar, como verificar la capacidad del modelo para producir información precisa o garantizar que no genera contenidos peligrosos.
  • Y en tercer lugar, instó a los legisladores a exigir auditorías independientes de expertos no afiliados a los creadores o al gobierno para garantizar que las herramientas de IA funcionen dentro de las directrices legislativas.

Los legisladores europeos están más avanzados en la regulación de las aplicaciones de IA, y la UE está decidiendo si clasifica la tecnología de IA de propósito general (en la que se basan herramientas como ChatGPT) como de «alto riesgo». Dado que esto sometería a la tecnología al nivel más estricto de regulación, muchas grandes empresas tecnológicas como Google y Microsoft -el mayor inversor de OpenAI- han presionado en contra de esta clasificación, argumentando que ahogaría la innovación.

El futuro impacto de la inteligencia artificial en la industria editorial

The future impact of artificial intelligence on the publishing industry. Frankfurter Book Fair, 2019

Texto completo

La Inteligencia Artificial (IA) siempre ha tenido un atractivo fantástico. Las ideas imaginativas de tecnología sobrehumana proporciona material inagotable para contar historias, inspirando a los humanos a crear mundos en los que lo imposible se realiza con facilidad. a crear mundos donde lo imposible se realiza con facilidad. Sin embargo, estas ideas en sueños aparentemente lejanos, están pasando de la ficción a la realidad a medida que la IA en las prácticas empresariales habituales. Aunque el bombo publicitario que rodea de la IA se limita a menudo a los campos tecnológicos, muchos en las industrias creativas se están dando cuenta de que términos específicos de la IA como Big Data, análisis predictivo y procesamiento del lenguaje natural y el procesamiento del lenguaje natural. Para las empresas que apliquen la IA de la forma adecuada en el momento oportuno, los sistemas destinados a trastornar los sectores basados en la tecnología se convierten con las que llegarán a la cima.

A medida que aumentan los debates sobre la IA, también lo hace el bombo -y, por tanto, la confusión- que la rodea. que la rodea. A partir de las conclusiones de más de seis meses de investigación, los resultados de una encuesta internacional a unos 300 participantes, más entrevistas y conversaciones con y conversaciones con profesionales del sector, entre ellos numerosos directores generales, editores y representantes de distintas funciones. Frankfurter Book Fair y la consultora de gestión Gould Finch para desmitificar la IA y ayudar a los del sector editorial (incluidos editores de libros, revistas, periódicos y editoriales digitales) a comprender su aplicación en las prácticas empresariales, contextualizando las principales tecnologías que la impulsan. tecnologías que la impulsan. Dadas las distintas fases de desarrollo de las diferentes tecnologías de IA, es demasiado pronto para afirmar definitivamente cómo cambiarán la industria editorial, pero no cabe duda de que su impacto será inmenso. pero no cabe duda de que su impacto será inmenso. En este documento se esbozan los retos a los que se enfrentan actualmente las empresas que estudian la mejor manera de aplicar la IA y se presentan sugerencias sobre dónde concentrar los esfuerzos y la atención para obtener los mayores beneficios.

Inteligencia artificial y la industria del libro. Libro Blanco

Lebrun, Tom, y René Audet. «Artificial Intelligence and the Book Industry. White Paper». Zenodo, 18 de septiembre de 2020.

Texto completo

La inteligencia artificial (IA) en el mundo del libro es una realidad. De hecho, no está reservada a las plataformas de venta o a las aplicaciones médicas. La IA puede ayudar a escribir, acompañar el trabajo editorial o ayudar al librero. Puede responder a necesidades clamorosas; a pesar de sus evidentes limitaciones, puede servir para plantearse nuevas aplicaciones en la cadena del libro, que son objeto aquí de recomendaciones específicas. Este libro blanco, redactado por dos especialistas en el ámbito del libro y la inteligencia artificial, tiene por objeto identificar los medios para poner la IA al servicio de los numerosos eslabones del mundo del libro.

«Hay que planificar el futuro inmediato de este nicho cultural y emprender acciones concretas para establecer nuevos métodos y modelos. Este libro blanco esbozará una posible línea de acción: la idea de un esfuerzo concertado de los actores de la industria del libro en el uso de la IA».

Esta concertación es reclamada por varios expertos, que dan testimonio en este Libro Blanco de lo que está en juego en el contexto cultural actual, amenazado por los gigantes del comercio: «Aunque el uso de la IA exige una vigilancia constante, parece importante que los actores de la industria del libro presten mucha atención a estos avances tecnológicos, tanto a las posibles perturbaciones como a los posibles beneficios que podrían conllevar». (Virginie Clayssen, Éditis / Comité Digital de la Asociación Francesa de Editores)

Así, «la clave para introducir la IA, entendida como inteligencia aumentada, en los distintos eslabones de la cadena del libro es sin duda la explotación de los datos que ya están disponibles y que la competencia no posee».

¿Cómo es la nueva Experiencia Generativa de Búsqueda con Inteligencia Artificial de Google?


Schwartz, Barry. «Here’s What Google’s New AI Search Generative Experience Will Look Like». MarTech, 10 de mayo de 2023. https://martech.org/heres-what-the-new-google-search-generative-ai-experience-will-look-like/.

Ver documento

Cuando ChatGPT llegó el otoño pasado, empezó a cumplir la misión de Google – «organizar la información del mundo y hacerla universalmente accesible y útil»- mejor, a veces, que el propio Google. (El problema, por supuesto, era su molesto hábito de inventarse cosas). Reformaba la información de los sitios web en lugar de limitarse a enviar a la gente a ellos. Y a la gente le encantó, convirtiéndose en la aplicación de consumo de más rápido crecimiento de la historia. Después de que OpenAI y su benefactor Microsoft amenazaran la posición de Google con sus experiencias de Inteligencia Artificial generativa, el gigante de las búsquedas tuvo que responder. Y lo ha hecho con fuerza esta semana. Su «Experiencia Generativa de Búsqueda» potenciada por la Inteligencia Artificial aún está en fase de «laboratorio», pero es casi seguro que será su futuro.

La interfaz. Search Generative Experience (SGE) puede mostrar una respuesta generada por IA encima de los listados de resultados de búsqueda. Google etiqueta claramente la respuesta como Generative AI is experimental (La IA generativa es experimental), seguida de una respuesta a tu consulta.

La respuesta aparece en un recuadro. Google cita los sitios web que utilizó para generar la respuesta. Se puede hacer clic en esos sitios para profundizar. También puedes hacer otra pregunta o pulsar el botón de la parte superior derecha para profundizar.

«Verás una instantánea generada por la IA de la información clave que debes tener en cuenta, con enlaces para profundizar», explica Google. Cuando se pulsa el botón de expansión para mostrar una respuesta más profunda, se obtienen respuestas adicionales de la IA generativa.

A lo largo de las respuestas generadas por la IA, Google te ofrece sitios web en estos recuadros con imágenes, para que puedas hacer clic en el sitio web para obtener más información.

Encuesta ARL sobre el impacto de la Inteligencia Artificial generativa en bibliotecas

ARL, Leo S. Lo, University of New Mexico, and Cynthia Hudson Vitale. «Quick Poll Results: ARL Member Representatives on Generative AI in Libraries». Association of Research Libraries (blog), 9 de mayo de 2023.

Ver completo

A medida que las tecnologías de IA generativa siguen evolucionando, su potencial para afectar a los servicios bibliotecarios, las operaciones y las experiencias de los usuarios es cada vez más evidente. En abril de 2023 se realizó una encuesta rápida entre los representantes de los miembros de la Asociación de Bibliotecas de Investigación (ARL) para conocer sus perspectivas actuales sobre la adopción de la IA generativa, sus posibles implicaciones y el papel de las bibliotecas en los entornos impulsados por la IA. En esta entrada de blog, se dan recomendaciones basadas en las respuestas de la encuesta, con el objetivo de ofrecer información valiosa para los directores de bibliotecas que navegan por el panorama de la IA.

Se compartió el enlace de la encuesta con los representantes de los miembros de la ARL en abril de 2023; 19 miembros de ARL completaron la encuesta.

  1. Perspectivas sobre la IA generativa: La mayoría de los representantes de los miembros de la ARL que respondieron a la encuesta tienen una opinión algo positiva (53%) o muy positiva (11%) sobre el potencial de la IA generativa para mejorar los servicios bibliotecarios en los próximos 12 meses. Sin embargo, también reconocen las limitaciones y los retos asociados a estas tecnologías. El 37% restante se muestra neutral sobre el potencial de la IA generativa.
  2. Etapas de adopción: Mientras que algunas bibliotecas están implementando activamente soluciones de IA generativa (11%), muchas están explorando aplicaciones potenciales (32%) o considerando la adopción en un futuro próximo (32%). Unas pocas bibliotecas tienen un interés limitado (16%) o no tienen previsto explorar las tecnologías de IA (11%) en los próximos 12 meses.
  3. Impacto en el funcionamiento y los servicios de las bibliotecas: Los directores de bibliotecas prevén que la IA generativa tendrá un impacto transformador en las operaciones y servicios de las bibliotecas, incluida la generación de metadatos, las herramientas de búsqueda y los servicios al usuario. También prevén posibles retos relacionados con el uso indebido, los prejuicios y los derechos de autor.
  4. Conversaciones institucionales y organizativas: Las bibliotecas están participando en debates en toda la organización sobre el impacto de la IA generativa en la integridad académica, la publicación, la autoría y la integridad de la investigación. Participan en foros interdisciplinarios, grupos de trabajo y colaboraciones con diversos socios institucionales.
  5. Alfabetización informacional: Las respuestas a la encuesta sugieren que las bibliotecas pueden mejorar los programas de alfabetización informacional para ayudar a los usuarios a comprender y evaluar la información generada por la IA a través de la colaboración, las asociaciones interdisciplinarias y la incorporación de la alfabetización en IA a una alfabetización informacional más amplia. Hacer hincapié en el conocimiento de la IA por parte de los bibliotecarios, desarrollar nuevas alfabetizaciones relacionadas con la IA, reciclar al personal y ofrecer talleres son oportunidades para que las bibliotecas ejerzan su liderazgo a medida que las instituciones de investigación navegan por la era de la IA.

Entre las ideas concretas reflejadas en los resultados de la encuesta rápida se incluyen:

  • Elaborar guías de colaboración y/o sesiones informativas sobre IA generativa, dirigidas a investigadores y a la comunidad en general.
  • Aprovechar la IA para ayudar a identificar la desinformación.
  • Destacar la importancia del pensamiento crítico para los investigadores, incluidos los miembros de la comunidad, los profesores y el personal, para que puedan evaluar la fuente de información y su fiabilidad. Afirmar que la forma en que se genera la información (IA o de otro tipo) es menos importante que la capacidad de reconocer qué es fiable, qué no lo es y cómo se toman esas decisiones.
  • Colaborar con colegas en la enseñanza y el aprendizaje, así como en áreas de investigación, para compartir experiencias y desarrollar iniciativas conjuntas centradas en educar a los estudiantes y a la comunidad sobre el uso eficaz y responsable de las herramientas de IA generativa en el aprendizaje, la investigación y el compromiso con la comunidad.
  • Trabajar con los equipos de seguridad/privacidad de TI para enseñar a detectar y evaluar los contenidos generados por IA y a utilizar esta y otra información de forma responsable, especialmente dentro de las bibliotecas públicas de investigación.

La Web no sobrevivirá a la IA

Roach. «The Web Won’t Survive AI», UNREALITY 27 de abril de 2023. https://www.thisunreality.com/p/the-web-versus-ai.

«The Web versus AI» es un artículo que explora la relación entre internet y la inteligencia artificial (IA). El autor sostiene que, si bien la web ha puesto al alcance de todos grandes cantidades de información, la IA tiene el potencial de crear una eficiencia y accesibilidad aún mayores en términos de procesamiento de la información y toma de decisiones. Sin embargo, el artículo también destaca algunos riesgos y retos potenciales asociados a la adopción generalizada de la IA, como las cuestiones relacionadas con la privacidad, la parcialidad y el desplazamiento de trabajadores humanos. En conjunto, el artículo presenta una perspectiva que invita a la reflexión sobre la evolución en curso de la tecnología y su impacto en la sociedad.

Internet siempre está cambiando. Antes de Google, existía Ask Jeeves, y antes de Facebook, AOL. La mayoría de los internautas aún recuerdan una época anterior a la infestación de Login con Facebook. Y no fue hasta hace un par de años cuando los omnipotentes «fact-checking» intersticiales y las advertencias «dis-info» se adhirieron a cada post y a cada medio de comunicación con una histeria desenfrenada. Internet es diferente. Ahora está más corporativizado que nunca, con más anuncios, más cookies, más algoritmos y más guerras culturales. Internet ha sobrevivido mucho.

Pero puede que no sobreviva a la IA.

Según noticias recientes, los grandes modelos lingüísticos, o LLM, como los de ChatGPT o el nuevo módulo de chat de Bing, han superado la esquiva prueba de Turing. Es decir, que los LLM pueden hablar como nosotros, escribir como nosotros y sonar como nosotros hasta un punto tan convincente que ya no podemos distinguir al individuo sensible de la máquina no sensible. Los LLM pueden inventar opiniones o experiencias que suenan tan reales como cualquier cosa que cualquiera de nosotros pudiera escribir, hasta las faltas de ortografía y la jerga. ¿Es eso malo? Bueno, si estamos intentando pedirle a Alexa que reproduzca Story of a Girl de Nine Days, entonces no, es algo bastante útil. Pero si queremos una Internet hecha por humanos, para humanos y poblada por humanos, entonces podría ser un problema.

I.
La «teoría de la Internet muerta» existe desde hace una década o más. La tesis central de la teoría de la conspiración de la Internet muerta es que «gran parte de los contenidos supuestamente producidos por el hombre» en la web son en realidad generados artificialmente. O, dicho de forma más sencilla, que Internet es Matrix. Aunque es probable que esto sea falso, la repentina avalancha de LLM ha hecho que esta teoría no sólo sea posible, sino inevitable.

II.
La verificación obligatoria de la identidad digital es, en esencia, la muerte del anonimato. A veces se califica de teoría conspiratoria, lo cual es extraño, porque la mayoría de las teorías conspiratorias no tienen un sitio web oficial de las Naciones Unidas. En los dos últimos años, hemos visto cómo la idea de un «pasaporte vacunal» pasaba de ser un absurdo ridículo a convertirse en ley en cuestión de meses, al tiempo que nuestros datos de rastreo de contactos salían a subasta. Australia incluso presentó una propuesta para exigir la verificación de la identidad con foto en las redes sociales, supuestamente para combatir el ciberacoso.

Apenas hace falta decirlo, pero esta es la infraestructura necesaria para un sistema de crédito social. Cuando cada acción se rastrea contra una identidad digital singular, nuestras opiniones problemáticas pueden incurrir en cualquier consecuencia del mundo real decretada por la aristocracia política. Seremos despersonalizados y repersonalizados a voluntad. No es sólo la muerte del anonimato, es la muerte de la disidencia política. Es el fin de la delación y de la objeción de conciencia.

III.
Resulta que algunas empresas de alto nivel ya están pensando en ello. Twitter, bajo la nueva dirección de Elon Musk, ha presentado su renovada suscripción a Twitter Blue como una forma de combatir, en parte, los bots y los spammers a largo plazo.

Porque, francamente, alguien tiene que hacerlo.

La IA generativa, en todas sus formas, no va a desaparecer. Nos espera un Internet lleno de tonterías producidas a una escala logarítmica insondable hoy en día. Es posible que empecemos a rechazar Internet por completo, porque ya no nos resulta útil, del mismo modo que la Generación Z rechaza Facebook. Sin una forma de mantener nuestra relación señal-ruido, nos retiraremos a burbujas cada vez más pequeñas, sólo por invitación, donde los humanos responden por los humanos. El resto de la web, fuera de estos pequeños refugios antiaéreos en línea, seguirá parloteando sola, sin necesidad de información sensible para subsistir, como una gigantesca carpeta de correo basura llena de un billón de correos electrónicos parloteando entre sí. Y ese es el mejor resultado de los dos.

Bienvenidos a Internet.