Archivo de la etiqueta: Inteligencia artificial

Nuevo proyecto de ley en la Asamblea del Estado de Nueva York sobre venta de libros creados con IA generativa

New Bill in New York State Assembly: re: Sale of Books Created with Generative AI, New York State Assembly, 2023

Texto completo

El nuevo proyecto de ley exige que los vendedores en línea de libros creados total o parcialmente con el uso de inteligencia artificial generativa revelen dicho uso de la inteligencia artificial generativa antes de la realización de su venta; se aplica a todos los libros impresos y digitales que consten de texto, imágenes, audio, rompecabezas, juegos o cualquier combinación de los mismos.

ChatGPT ya puede ver, oír y hablar

«ChatGPT Can Now See, Hear, and Speak». Accedido 29 de septiembre de 2023. https://openai.com/blog/chatgpt-can-now-see-hear-and-speak.

Hasta ahora ChatGPT ha estado limitado por su ámbito de accesibilidad. Con la introducción de voz a texto, respuestas vocales, funcionalidad de imágenes y mucho más, los usuarios tienen ahora acceso a un modelo de IA mucho más intuitivo.

ChatGPT dio a conocer una serie de actualizaciones que incluyen el reconocimiento de voz e imágenes, marcando un paso significativo hacia la creación de una experiencia de usuario más interactiva e intuitiva (similar a cómo interactuamos actualmente con Siri & Google Assistant).

Puntos clave:

  • Ahora los usuarios pueden hacer fotos y hablar de ellas en directo con ChatGPT, una función especialmente útil para viajar, planificar comidas o resolver problemas académicos.
  • Las interacciones de voz se basan en un novedoso modelo de conversión de texto a voz que, en colaboración con actores de doblaje profesionales, genera un sonido similar al humano. También podrá transcribir su propio audio a texto para agilizar las interacciones.
  • La comprensión de imágenes se apoya en BeMyEyes, ampliando las capacidades de razonamiento de GPT-4 a una amplia gama de imágenes, incluyendo fotos, capturas de pantalla y documentos mixtos de texto-imagen; haciendo más fácil que nunca mantener una discusión con GPT-4.
  • La nueva funcionalidad se lanzará inicialmente para los usuarios Plus y Enterprise, con un despliegue más amplio previsto en un futuro próximo. Las funciones de voz sólo estarán disponibles en iOS y Android, mientras que las funciones de imagen estarán disponibles en todas las plataformas.

El potencial de la IA y las transformaciones digitales en los espacios bibliotecarios

Looking towards a brighter future: the potentiality of AI and digital transformations to library spaces. Leeds: Library at the University of Leeds, 2023

Texto completo

A medida que las bibliotecas continúan evolucionando en la era digital, este informe de investigación destaca el papel que la IA puede desempeñar en el futuro digital de las bibliotecas, asegurando que sigan siendo proveedores vibrantes e indispensables de conocimiento para todos.

La Biblioteca de la Universidad de Leeds, en el Reino Unido, acaba de publicar un fascinante informe sobre la IA en lo que ellos llaman «espacios bibliotecarios», titulado «Mirando hacia un futuro más brillante: el potencial de la IA y las transformaciones digitales en los espacios bibliotecarios». Hay muchas cosas que me gustan de este informe, como la perspectiva histórica sobre el desarrollo y las implicaciones de las tecnologías de IA.

El informe explora cómo las tecnologías de IA pueden transformar las operaciones de las bibliotecas, mejorar la experiencia del usuario, optimizar procesos y mejorar la descripción y la accesibilidad de las colecciones. Ofrece una visión general de la investigación, teoría y prácticas actuales de la IA y hace recomendaciones específicas para la IA y otras tecnologías en el entorno de la biblioteca.

Masud Khokhar, Bibliotecario Universitario y Custodio de la Colección Brotherton, enfatizó la importancia de la investigación para la comunidad bibliotecaria, diciendo:

«Las bibliotecas siempre han adoptado nuevas tecnologías para mejorar el acceso a la información y el conocimiento. El Proyecto de Inteligencia Artificial (IA) en Bibliotecas es uno de los pasos que estamos dando bajo el tema de Futuros Digitales para lograr nuestra visión. Al compartir nuestra investigación sobre los beneficios y las aplicaciones prácticas de las tecnologías de IA para las bibliotecas con el sector en general, esperamos que podamos avanzar colectivamente, utilizando tecnologías de IA para mejorar la forma en que trabajamos y cómo accedemos, procesamos y mantenemos el conocimiento. Queremos que todos puedan aprovechar al máximo las oportunidades que la IA presenta para servir mejor a nuestras comunidades».

Este informe proporciona conocimientos valiosos y orientación práctica para las bibliotecas que deseen aprovechar el poder de la IA para satisfacer las cambiantes necesidades de sus usuarios. Incluye entrevistas con expertos de todo el mundo, así como con profesionales relevantes y partes interesadas dentro de la Universidad de Leeds. Esta comprensión realista de las operaciones de la biblioteca ayuda a identificar áreas prioritarias donde los enfoques de IA podrían beneficiar tanto a las organizaciones como a los usuarios.

ChatGPT ya puede conectarse directamente a la información de Internet en tiempo real gracias a Bing, por lo que ya no limita la información a septiembre de 2021

VentureBeat. «OpenAI Gives ChatGPT Access to the Entire Internet», 27 de septiembre de 2023. https://venturebeat.com/ai/openai-gives-chatgpt-access-to-the-entire-internet/.

ChatGPT de OpenAI ha sido una herramienta indudablemente potente e interesante desde su lanzamiento en noviembre de 2022, pero ha estado limitada con el dominio de su conocimiento – que sólo incluía información hasta septiembre de 2021. Pero eso cambia hoy.

OpenAI acaba de anunciar en X (antes Twitter) que ChatGPT «ahora puede navegar por Internet para ofrecerte información actual y fidedigna, con enlaces directos a las fuentes», gracias a una integración con el motor de búsqueda Bing de Microsoft.

Según la empresa, esta función ya está disponible para los suscriptores de ChatGPT Plus y los usuarios de ChatGPT Enterprise, y puede elegirse con el menú desplegable situado bajo el selector GPT-4, en la parte superior de la aplicación.

En realidad, esto supone el regreso de ChatGPT a la navegación web. En marzo, cuando OpenAI presentó los complementos de terceros para ChatGPT, también anunció dos complementos propios: Code Interpreter (que ahora se llama «Advanced Data Analysis» y permite a ChatGPT aceptar archivos cargados) y «Browsing», que utiliza la API de Microsoft Bing y un navegador basado en texto para buscar en Internet y resumir información para los usuarios, con citas en superíndice sobre las que el usuario puede pasar el ratón y hacer clic para visitar el sitio web de origen.

La IA en la educación superior

Jisc. «Artificial Intelligence (AI) in Tertiary Education – Jisc», 26 de abril de 2021.

Texto completo

Los últimos doce meses han presenciado cambios significativos en el impacto de la inteligencia artificial en la educación, comenzando, para la mayoría, con el lanzamiento de ChatGPT en noviembre de 2022. Las preocupaciones sobre la integridad académica y el futuro de la evaluación dominaron los primeros debates y aún plantean muchos problemas.

«La IA generativa plantea desafíos sustanciales para la educación, especialmente en lo que respecta a la evaluación, pero también ofrece oportunidades para apoyar a los estudiantes y el aprendizaje. No sorprendentemente, también ha actuado como un estímulo para que el sector educativo examine todos los aspectos de qué y cómo enseña y reevalúe las prácticas de evaluación, cosas que han permanecido en gran parte estáticas durante mucho tiempo».

Heidi Fraser-Krauss, directora ejecutiva de Jisc.

El debate creció rápidamente para abordar formas de aprovechar el poder de la inteligencia artificial generativa para reducir la carga de trabajo y encontrar nuevas y emocionantes formas de utilizarla en el aprendizaje y la enseñanza. La cuestión del impacto de la IA en la fuerza laboral pronto salió a la luz, con debates sobre cómo garantizar la empleabilidad de los estudiantes y prepararlos para un entorno de trabajo impulsado por la IA. Probablemente todavía estemos al comienzo de este viaje.

Es fácil olvidar que antes de ChatGPT ya estábamos viendo que la IA brindaba un valor real en la educación. En el Reino Unido, estamos viendo a los primeros adoptantes utilizando con éxito servicios de IA en beneficio de los estudiantes y las instituciones educativas. Estos incluyen a Ada y FirstPass en el Bolton College, el aprendizaje adaptativo con CENTURY Tech en el Basingstoke College of Technology, el asistente digital Beacon en la Staffordshire University y el asistente digital Taylor en la Open University. A nivel internacional, esto es evidente con el uso de CogBooks en la Arizona State University o, a una escala mucho mayor, SquirrelAi en China. La IA generativa ha impulsado enormemente esto.

Esperamos que al resumir periódicamente el estado de las tecnologías educativas de IA estemos proporcionando contexto e ideas para que los colegios y universidades exploren esto aún más. La IA no está exenta de desafíos, ya sean legales, éticos o técnicos, y el progreso hacia la transformación digital es probable que sea problemático si simplemente reaccionamos a los impulsores tecnológicos externos.

Ahora existen bases sólidas para permitir una mayor adopción de la IA en colegios y universidades, y para enfrentar los desafíos y oportunidades presentados por el ritmo implacable de los avances en IA que estamos viendo actualmente.

Amazon invierte hasta 4.000 millones de dólares en la empresa de inteligencia artificial Anthropic en una creciente batalla tecnológica

AP News. «Amazon Is Investing up to $4 Billion in AI Startup Anthropic in Growing Tech Battle», 25 de septiembre de 2023. https://apnews.com/article/artificial-intelligence-amazon-anthropic-investment-72d21e6c663d506dbf968f50628e7ded.

Amazon invertirá hasta 4.000 millones de dólares en Anthropic y tomará una participación minoritaria en esta empresa de inteligencia artificial, según anunciaron ambas compañías el lunes.

La inversión pone de relieve cómo las grandes empresas tecnológicas están invirtiendo dinero en IA en su carrera por aprovechar las oportunidades que la última generación de esta tecnología está llamada a impulsar.

Amazon y Anthropic afirman que el acuerdo forma parte de una colaboración más amplia para desarrollar los llamados modelos de base, que sustentan los sistemas generativos de IA que han captado la atención mundial.

Los modelos de base, también conocidos como grandes modelos lingüísticos, se entrenan en vastos conjuntos de información en línea, como entradas de blogs, libros digitales, artículos científicos y canciones pop, para generar textos, imágenes y vídeos que se asemejen al trabajo humano.

En virtud del acuerdo, Anthropic convertirá a Amazon en su principal servicio de computación en la nube y utilizará los chips personalizados del gigante minorista online como parte del trabajo para entrenar y desplegar sus sistemas de IA generativa.

Anthropic, con sede en San Francisco, fue fundada por antiguos empleados de OpenAI, creadora del chatbot de IA ChatGPT, que causó sensación en todo el mundo por su capacidad para dar respuestas que imitaban las humanas.

Anthropic ha lanzado su propio rival de ChatGPT, llamado Claude. La última versión, disponible en EE.UU. y el Reino Unido, es capaz desde «diálogos sofisticados y generación creativa de contenidos hasta razonamientos complejos e instrucciones detalladas», según la empresa.

Amazon está luchando por ponerse al día con rivales como Microsoft, que invirtió mil millones de dólares en OpenAI en 2019, seguido de otra inversión multimillonaria a principios de año.

Amazon ha estado desplegando nuevos servicios para mantenerse al día con la carrera armamentista de la IA, incluida una actualización para su popular asistente Alexa para que los usuarios puedan tener conversaciones más parecidas a las humanas y resúmenes generados por IA de reseñas de productos para los consumidores.

Informe técnico: Inteligencia Artificial Generativa

David Leslie and Francesca Rossi. Tech Brief: Generative Artificial Intelligence, ACM Technology Policy Committees 2023

Texto completo

La rápida comercialización de la IA generativa (GenAI) plantea múltiples riesgos a gran escala para las personas, la sociedad y el planeta que requieren una respuesta rápida y coordinada a nivel internacional para mitigarlos.

La ausencia de directrices globales y coherentes para el desarrollo y despliegue de los sistemas GenAI, y su consiguiente proliferación, crea enormes riesgos individuales, sociales y socioeconómicos. Se necesita una acción política rápida y proporcionada, a nivel nacional e internacional, para hacer frente a los desafíos planteados por la creciente escala y alcance de los riesgos relacionados con la GenAI.

Las grandes disparidades en la influencia económica de las partes interesadas en el sistema GenAI tienen el potencial, si no se abordan plenamente en las políticas, de amplificar el impacto de los riesgos relacionados con la GenAI. si no se abordan plenamente en la política, de amplificar la desigualdad y frustrar la innovación y la competencia.

  • Valor estimado del mercado mundial de GenAI en 2023. 8.000 millones de dólares estadounidenses
  • 65 Meses tardó Twitter en alcanzar los 100 millones de usuarios tras su lanzamiento.
  • 2 meses que tardó ChatGPT en alcanzar ese hito.
  • ChatGPT está en la segunda posición de entre todas las aplicaciones
  • El 43 % de los estudiantes universitarios que han utilizado ChatGPT o una aplicación similar.
  • El 80% estimado de trabajadores estadounidenses se verán afectadas al menos el 10% de sus tareas laborales por la GenAI.
  • El 19 % de dichos trabajadores que verán afectadas al menos el 50% de sus tareas
  • 3,4 Gigavatios hora de electricidad se consumió para entrenar al PaLM de Google durante dos meses, lo que consume más de 300 hogares en un año.
  • El 76% de los consumidores estadounidenses están preocupados por la desinformación producida por GenAI.

¿Puede la IA generativa aportar algo a la revisión académica por pares?

Impact of Social Sciences. «Can Generative AI Add Anything to Academic Peer Review?», 26 de septiembre de 2023. https://blogs.lse.ac.uk/impactofsocialsciences/2023/09/26/can-generative-ai-add-anything-to-academic-peer-review/.

Aunque las aplicaciones de IA generativa prometen eficiencia y pueden beneficiar el proceso de revisión por pares, dadas sus deficiencias y nuestro limitado conocimiento de su funcionamiento interno, Mohammad Hosseini y Serge P.J.M. Horbach sostienen que no deberían utilizarse de forma independiente ni indiscriminada en todos los contextos. Centrándose en los últimos acontecimientos, sugieren que el proceso de revisión por pares es uno de los contextos en los que la IA generativa debería utilizarse con mucho cuidado, si es que se utiliza.


En el siempre cambiante panorama de la investigación académica y la comunicación académica, la llegada de la inteligencia artificial generativa y modelos de lenguaje grandes (LLM) como el ChatGPT de OpenAI ha despertado atención, elogios y críticas. El uso de la inteligencia artificial generativa en diversas tareas académicas se ha discutido en profundidad. Entre los posibles casos de uso, contar con el apoyo de la inteligencia artificial generativa para revisores y editores en el proceso de revisión por pares parece una opción prometedora. El sistema de revisión por pares ha enfrentado durante mucho tiempo diversos desafíos, incluyendo revisiones sesgadas o no constructivas, escasez de revisores expertos y la naturaleza que consume mucho tiempo de la empresa.

Aunque el uso de la inteligencia artificial generativa podría mitigar algunos de estos desafíos, como ocurre con muchas discusiones sobre la integración de nuevas tecnologías en flujos de trabajo existentes, también existen varias preocupaciones legítimas. Recientemente se analizó el uso de LLM en el contexto de cinco temas críticos dentro del contexto de la revisión por pares: los roles de los revisores y editores, la calidad y funciones de las revisiones por pares, problemas de reproducibilidad y las amplias implicaciones sociales y epistémicas del proceso de revisión por pares. Se concluyó que la inteligencia artificial generativa tiene el potencial de remodelar los roles tanto de los revisores por pares como de los editores, agilizando el proceso y posiblemente aliviando problemas relacionados con la falta de revisores. Sin embargo, esta posible transformación no está exenta de complejidad.

Asistir en las revisiones, pero no ser un revisor independiente

En su forma actual, las aplicaciones de IA generativa son incapaces de realizar revisiones por pares de forma independiente (es decir, sin supervisión humana), porque siguen cometiendo demasiados errores y su funcionamiento interno es desconocido y cambia rápidamente, lo que da lugar a resultados impredecibles. Sin embargo, la IA generativa puede ayudar a los actores del proceso de revisión por pares de otras maneras, por ejemplo, ayudando a los revisores a mejorar sus notas iniciales para que sean más constructivas y respetuosas. Además, la IA generativa puede permitir a los académicos que no escriban en su lengua materna contribuir al proceso de revisión en otros idiomas (por ejemplo, inglés), o ayudar a los editores a redactar cartas de decisión basadas en un conjunto de informes de revisión. Estos casos de uso podrían ayudar a ampliar el grupo de revisores y hacer que el proceso sea más eficiente y equitativo.

Confidencialidad, sesgo y robustez

A pesar de estos posibles beneficios, y además de las limitadas capacidades de la inteligencia artificial generativa para llevar a cabo revisiones independientes, existen preocupaciones importantes relacionadas con el uso de LLMs en contextos de revisión. Estas preocupaciones se refieren, por ejemplo, a la forma en que los desarrolladores de herramientas de inteligencia artificial generativa utilizan los datos proporcionados. Especialmente cuando se envían conjuntos de datos que pueden contener información personal o confidencial, la forma en que los desarrolladores de las herramientas utilizan el contenido proporcionado debería ser transparente, lo cual no es el caso en la actualidad. Además, las herramientas de inteligencia artificial generativa corren el riesgo de agravar algunos de los sesgos existentes en la revisión por pares, ya que reproducen contenido y sesgos presentes en sus datos de entrenamiento. En tercer lugar, dado que estas herramientas evolucionan rápidamente y su resultado depende en gran medida de la indicación proporcionada (incluso cambios menores podrían tener un gran impacto en el contenido generado), su resultado no siempre es reproducible. Esto plantea dudas sobre la robustez de las revisiones generadas con la ayuda de la inteligencia artificial, lo que refuerza la idea de que la inteligencia artificial generativa solo podría servir para mejorar (en cuanto a formato, tono, gramática y legibilidad) las revisiones que han sido escritas por revisores humanos.


Externalización del elemento social de la revisión por pares

Otra preocupación se relaciona con el hecho de que la revisión por pares es un proceso inherentemente social. De hecho, en lugar de ser un mecanismo de control mecánicamente objetivo, la revisión por pares se basa en las interacciones entre colegas acerca de lo que significa hacer buena ciencia. Por lo tanto, el proceso es un medio importante para debatir y negociar las normas de la comunidad acerca de qué preguntas deben abordarse, qué métodos son apropiados o aceptables, qué formas de comunicación son más adecuadas y muchas otras cuestiones. La revisión por pares también es un componente constitutivo fundamental de la integridad de la investigación y las normas éticas. En un estudio reciente, descubrimos que, en lo que respecta a las normas de integridad de la investigación, los investigadores valoran principalmente la opinión de sus pares epistémicos, es decir, aquellos que publican en las mismas revistas o asisten a las mismas conferencias, en lugar de, por ejemplo, otros colegas que trabajan en el mismo instituto. Los procesos de revisión por pares son un lugar destacado donde los expertos «se encuentran» y donde se desarrollan discusiones sobre estos temas, de manera implícita o explícita. Externalizar estos procesos a herramientas automatizadas podría empobrecer estas discusiones y tener consecuencias imprevistas más amplias.

Desarrollos recientes

En los último meses varios acontecimientos han cambiado el panorama de la inteligencia artificial generativa y han tenido un impacto en su uso con fines de revisión académica por pares. La reacción de algunos financiadores, como el National Institutes of Health (NIH) [Notice number NOT-OD-23-149] y Australian Research Council [Policy on Use of Generative Artificial Intelligence in the ARC’s grants programs]) que han prohibido el uso de la inteligencia artificial generativa en sus procesos de revisión y evaluación de subvenciones, se encuentra entre estos cambios.

Estos financiadores están principalmente preocupados por la confidencialidad y la generación de contenido falso, y con razón. La revisión de subvenciones es un juego diferente en comparación con las revisiones de artículos en revistas, ya que lo primero moldea las agendas de investigación y el acceso a recursos financieros, mientras que lo segundo informa principalmente sobre los resultados de estudios que ya se han realizado y, a veces, se han publicado como preprints.

En cuanto a la generación de contenido falso, los modelos de inteligencia artificial generativa aún cometen errores, incluso a nivel de hechos básicos. Por lo tanto, utilizarlos para revisar subvenciones y posteriormente distribuir fondos podría dañar seriamente la integridad del flujo de trabajo de los financiadores y comprometer la legitimidad de las decisiones de financiamiento. Además, las solicitudes de subvención a veces contienen información detallada sobre cada miembro del proyecto, cuya privacidad podría verse comprometida si se comparte con terceros. Esto también es una preocupación principal cuando se utiliza la inteligencia artificial generativa para revisar manuscritos o conjuntos de datos, que podrían contener información personal o sensible sobre los participantes en la investigación o tecnologías.

Las aplicaciones de la inteligencia artificial generativa todavía se encuentran en fases tempranas de desarrollo y en un futuro cercano podrían beneficiar el proceso de revisión por pares de muchas maneras. Dicho esto, dadas las limitaciones de esta tecnología, se deberían fomentar experimentos a pequeña escala y una adopción gradual. También debemos estar preparados para poner fin a su uso cuando sea necesario o en casos en los que los riesgos superen a los beneficios.

Si bien apoyamos la prohibición de las aplicaciones de inteligencia artificial generativa en algunos contextos, también tenemos preocupaciones sobre esta estrategia a largo plazo. Además de la complicada pregunta de cómo hacer cumplir dicha prohibición y supervisar el cumplimiento, siempre es necesario equilibrar las preocupaciones en relación con la inteligencia artificial generativa con sus beneficios en términos de eficiencia, que podrían liberar recursos financieros (en el caso de los financiadores, para financiar proyectos adicionales). En el futuro, recomendamos a los diferentes grupos de usuarios en la academia que revisen y modifiquen con frecuencia sus políticas sobre el uso de aplicaciones de inteligencia artificial generativa en función de las circunstancias y adopten medidas de mitigación de riesgos que se adapten a su contexto específico.

Plan de acción EDUCAUSE Horizon 2023: IA Generativa

Texto completo

En 2023, la IA generativa surgió como la tecnología más rápidamente adoptada de la historia. Todos los miembros de la comunidad de la enseñanza superior, desde los estudiantes hasta los gestores, intentan determinar qué impacto pueden, quieren y deben tener las herramientas de IA generativa en la vida, el aprendizaje y el trabajo. Para complicar aún más las cosas, no hay consenso sobre cómo o incluso si la IA generativa debe desempeñar un papel en el futuro de la enseñanza superior.

Sobre la base de las tendencias, tecnologías y prácticas descritas en el Informe EDUCAUSE Horizon 2023: Edición sobre Enseñanza y Aprendizaje, el grupo de expertos del informe elaboró su visión del futuro junto con acciones prácticas que los individuos pueden aplicar en el futuro.

Cuando se les pidió que describieran el estado de la IA generativa que les gustaría ver en la educación superior dentro de 10 años, los panelistas construyeron en colaboración su futuro preferido, Así:

Los desarrolladores e investigadores de IA generativa desean formas de garantizar que los procesos y los resultados sean iguales representativos e imparciales. Los desarrolladores dan prioridad consideraciones éticas como la transparencia algorítmica y seguridad de los datos, la accesibilidad, la equidad y la inclusión. Los usuarios finales deben tener pleno control sobre el uso que instituciones y empresas sus datos y su propiedad intelectual. La formación en IA para estudiantes y profesionales se basaría en prácticas éticas. Las herramientas de IA generativa deben diseñarse con salvaguardias para garantizar que funcionan dentro de los límites de los objetivos de los desarrolladores. Los desarrolladores y usuarios finales de IA generativa tienen que establecer conjuntos de datos de referencia específicos para diversos contextos de la enseñanza superior.

La alfabetización digital será clave en un mundo transformado por la IA

Valérie Kindarji, Wendy H. Wong «Opinion: Digital Literacy Will Be Key in a World Transformed by AI». The Globe and Mail.11 de marzo de 2023. https://www.theglobeandmail.com/opinion/article-digital-literacy-will-be-key-in-a-world-transformed-by-ai/.

El reciente lanzamiento de chatbots impulsados ​​por IA, como ChatGPT, el nuevo Bing y Bard de Google, ha alimentado un torbellino de posibilidades y pánico. Estos grandes modelos de lenguaje (LLM) imitan y aumentan la interacción humana, ya sea respondiendo preguntas, completando formularios o resumiendo grandes cantidades de literatura. Microsoft y Google nos dicen que es la próxima frontera de la búsqueda, y muchos de nuestros colegas lo ven como una sentencia de muerte para el ensayo universitario.

La innovación disruptiva ya ha cambiado vidas humanas antes. La imprenta aumentó las tasas de alfabetización lingüística, trastocó estructuras políticas y sociales arraigadas y abrió un mundo de conocimiento a las masas. Hoy en día, la IA y la recopilación generalizada de datos están cambiando radicalmente nuestras vidas y creando la necesidad de un nuevo tipo de alfabetización: la alfabetización digital.

La alfabetización digital es un conjunto de habilidades y un marco conceptual que nos ayuda a funcionar de manera más significativa en nuestro mundo impulsado por la tecnología. La alfabetización digital nos brinda herramientas para buscar, evaluar y gestionar el volumen de información al que estamos expuestos. Nos ayuda a utilizar tecnologías algorítmicas y a comprender en general cómo producen respuestas. Nos ayuda a comprender la máquina y los datos detrás de la IA.

Es hora de que empecemos a tomar en serio la alfabetización digital y empecemos a pensar en cómo implementar estas habilidades en nuestras prácticas sociales y llevar estas ideas a la legislación. Hasta la fecha, la atención pública se ha centrado en las propias tecnologías de IA. Desafortunadamente, las tecnologías que se están desatando avanzan más rápido de lo que el gobierno puede responder con regulaciones punitivas. Muchas políticas gubernamentales, incluidas las regulaciones canadienses, se han centrado en controlar la tecnología, como imponer requisitos sobre el contenido o encontrar fallas en las prácticas corporativas. Los debates públicos recientes sobre el LLM señalan la precisión o los peligros.

Si bien es importante examinar los productos corporativos, también debemos invertir en ayudar a los ciudadanos a adaptarse a las nuevas realidades que trae la IA. Una forma de incorporar tecnologías disruptivas es brindar a los ciudadanos el conocimiento y las herramientas que necesitan para hacer frente a estas innovaciones en su vida diaria. Es por eso que deberíamos abogar por una inversión generalizada en programas de alfabetización digital. El hecho de que vivamos en un mundo tecnológicamente infundido no va a cambiar. La alfabetización digital puede ayudarnos a empezar a ver las tecnologías relacionadas con la IA tal como son: sistemas masivos de agrupación, clasificación y procesamiento de datos que son máquinas de predicción.

La alfabetización digital es particularmente importante en las democracias, sistemas políticos que dependen del conocimiento, la participación y las opciones de los ciudadanos para gobernar. Algunos países están por delante de la curva. Por ejemplo, la alfabetización digital forma parte del plan de estudios básico de las escuelas en Finlandia y Estonia. Los estudiantes aprenden a codificar desde una edad temprana y toman cursos sobre medios y desinformación. Sin embargo, la mayoría de los demás países, incluido Canadá, están rezagados. Los programas de alfabetización digital existentes son irregulares y es posible que la política educativa no corresponda a una sola jurisdicción. Además, actualmente la carga de impartir formación en alfabetización digital recae en las organizaciones que ofrecen educación complementaria, como bibliotecas públicas o programas comunitarios. La falta de financiación y de intercambio de conocimientos entre programas complica la impartición y el acceso a los cursos.

La importancia de la alfabetización digital va más allá del alcance de nuestras interacciones cotidianas con el entorno de información en línea. Los LLM representan un grave riesgo para la democracia porque interrumpen nuestra capacidad de acceder a información de alta calidad, un pilar fundamental de la participación democrática. Derechos básicos como la libertad de expresión y de reunión se ven obstaculizados cuando nuestra información está distorsionada. Necesitamos ser consumidores de información perspicaces para poder tomar decisiones lo mejor que podamos y participar políticamente.

La alfabetización digital es una inversión a largo plazo. Se trata de ayudar a los ciudadanos a navegar sus vidas. Las tecnologías impulsadas por la IA serán cada vez más precisas, menos detectables y más extendidas. Los observadores tienden a burlarse cuando la IA comete errores (y pueden ser divertidos), pero ésta no es la mejor manera de rechazar los algoritmos.

Necesitamos comprender cómo los LLM (y otras tecnologías de inteligencia artificial) generan sus respuestas para poder utilizar estas poderosas herramientas. Tendemos a ser víctimas del sesgo de la automatización, degradando la toma de decisiones humana en favor de la máquina. Pero tal vez eso se deba a que no solemos pensar en cómo funciona la máquina para producir respuestas. ¿Cómo recopila y me entrega información una herramienta como ChatGPT? ¿Cómo puedo utilizar el chatbot para despertar mi creatividad en lugar de hacer que hable por mí? ¿Cuáles son las limitaciones de esta herramienta? ¿Cómo influyen las elecciones algorítmicas en el resultado de estas herramientas?

Las percepciones distorsionadas de la realidad afectan nuestra confianza en nuestras instituciones y nuestra confianza mutua, especialmente en aquellos con quienes no estamos de acuerdo. Los algoritmos de las redes sociales ya nos están filtrando hacia campos opuestos que cada vez más no se hablan entre sí. Pero hay motivos para tener esperanzas. Recientemente, en el podcast Hard Fork, Sam Altman, director ejecutivo de OpenAI (que creó ChatGPT), dijo: «Y dado lo firmemente que creo que [la IA] va a cambiar muchos, tal vez la gran mayoría de los aspectos de la sociedad, la gente necesita ser incluido temprano”.

Señor. Altman tiene razón: necesitamos que nos incluyan. Sobre qué y de quién, con qué conocimientos previos y con qué desarrolladores de tecnología siguen siendo preguntas abiertas. La alfabetización digital es una parte importante de la respuesta y actualmente no tiene prioridad. Puede ser el arma sigilosa para combatir la desinformación y convertirnos en consumidores más activos y confiados de tecnologías de inteligencia artificial.