Archivo de la etiqueta: Inteligencia artificial

Informe EDUCAUSE Horizon 2024: Edición de Ciberseguridad y Privacidad

Jenay Robert et al., «2024 EDUCAUSE Horizon Report: Cybersecurity and Privacy Edition», 2024

Texto completo

El Informe Cybersecurity and Privacy Edition is Now Available Online, disponible desde el 30 de septiembre de 2024, analiza las tendencias, tecnologías clave y prácticas que moldean el futuro de la ciberseguridad y privacidad en la educación superior. Elaborado a partir de la experiencia de un panel global de líderes, el informe aborda los desafíos que surgen en un contexto global de incertidumbre política, conflictos bélicos y avances tecnológicos impulsados por la inteligencia artificial (IA).

El informe destaca seis tecnologías y prácticas clave:

  1. Gobernanza de IA.
  2. Apoyo a la agencia, confianza, transparencia e implicación.
  3. Enfoque en la seguridad de los datos en lugar del perímetro.
  4. Expansión de la fuerza laboral habilitada por IA.
  5. Tecnologías para mejorar la privacidad.
  6. Capacitación en ciberseguridad respaldada por IA.

El informe también examina cómo los profesionales deben adaptarse a estos cambios para garantizar la seguridad de las instituciones y los estudiantes en el futuro.

Un análisis DAFO exhaustivo de la IA y la experiencia humana en la revisión por pares

Roohi Ghosh, «Strengths, Weaknesses, Opportunities, and Threats: A Comprehensive SWOT Analysis of AI and Human Expertise in Peer Review», The Scholarly Kitchen, 12 de septiembre de 2024, https://scholarlykistg.wpenginepowered.com/2024/09/12/strengths-weaknesses-opportunities-and-threats-a-comprehensive-swot-analysis-of-ai-and-human-expertise-in-peer-review/.

Roohi Ghosh aborda el papel de la revisión por pares en la era digital, especialmente a medida que se aproxima la Semana de la Revisión por Pares.

El auge del contenido generado por IA en revistas científicas plantea preguntas sobre la responsabilidad del proceso de revisión. La carga de trabajo de los revisores es abrumadora, con millones de artículos publicados cada año y un número limitado de revisores disponibles, quienes realizan este trabajo de manera voluntaria, a menudo en su tiempo libre.

Ghosh señala que la revisión por pares debe centrarse en fortalecer la ciencia, no en detectar contenido de IA. La expectativa de que los revisores busquen texto generado por IA desvía su atención de su verdadero objetivo, lo que diluye su experiencia. En lugar de añadir presión, la IA debería ser una herramienta que facilite el trabajo de los revisores.

Se plantean preguntas sobre cómo integrar herramientas de IA que puedan identificar contenido generado por IA antes de que los artículos lleguen a los revisores, permitiéndoles concentrarse en el contenido. También se sugiere que se debe ofrecer capacitación específica sobre el uso efectivo de estas herramientas y desarrollar un enfoque colaborativo entre revisores.

El análisis SWOT propone examinar las fortalezas, debilidades, oportunidades y amenazas tanto de la IA como de la experiencia humana en la revisión por pares. En lugar de culpar, se debe fomentar un diálogo sobre cómo utilizar la IA como un aliado en la preservación de la integridad de la investigación y replantear los roles dentro del proceso de revisión. La conversación debe cambiar de la culpa a la colaboración, reimaginando el futuro de la revisión por pares.

¿Cómo afectará la IA a la productividad y la economía? Podría impulsarla a un crecimiento sin precedentes… o colapsarla.


Dylan Matthews, «How AI Could Explode the Economy», Vox, 26 de marzo de 2024, https://www.vox.com/future-perfect/24108787/ai-economic-growth-explosive-automation.


El artículo examina el posible impacto de la inteligencia artificial (IA) en la economía global y si podría desencadenar un crecimiento económico sin precedentes o, por el contrario, quedarse como una tecnología más que mejora ciertos aspectos de la productividad sin cambiar fundamentalmente el panorama económico.

Actualmente, la IA está generando riqueza significativa para algunas empresas y figuras en la industria tecnológica. Un ejemplo claro es Jensen Huang, el cofundador y CEO de Nvidia, cuya empresa controla el 80% del mercado de chips para centros de datos que utilizan IA. En los últimos cinco años, su fortuna ha pasado de 4 mil millones a 83.1 mil millones de dólares debido a la creciente demanda de su tecnología. Además, compañías como OpenAI, Anthropic e Inflection han sido valuadas en miles de millones de dólares, lo que subraya el inmenso interés en las capacidades de la IA.

Algunos investigadores argumentan que la IA no solo enriquecerá a un pequeño grupo de empresarios tecnológicos, sino que podría transformar la economía a una escala nunca antes vista. Ajeya Cotra, investigadora de Open Philanthropy, estima que la IA podría llevar a tasas de crecimiento del 20-30% anual antes de 2100. Tom Davidson, en un informe más detallado, también argumenta que este tipo de crecimiento acelerado es plausible, lo que implicaría que la economía podría duplicarse en tamaño cada 2,5 años, un nivel de crecimiento sin precedentes en la historia económica mundial.

Para poner esto en perspectiva, las tasas actuales de crecimiento en países desarrollados como Estados Unidos son de alrededor de 2-3% anual, y el país no duplicará su economía hasta dentro de unos 35 años, a este ritmo. Un crecimiento del 30% anual significaría que en 25 años, seríamos mil veces más ricos que hoy. Este tipo de salto económico superaría incluso las revoluciones industriales anteriores, que llevaron a avances como la agricultura mecanizada, la electricidad o el internet.

Sin embargo, a pesar de las proyecciones optimistas, muchos economistas dudan que la IA pueda generar un crecimiento tan espectacular. Un ejemplo citado es la «paradoja de la productividad», en la que tecnologías como las computadoras han mejorado la eficiencia en muchas áreas, pero no han causado un aumento significativo en las tasas de crecimiento económico general. A pesar de los avances tecnológicos, la productividad en algunos sectores ha crecido muy poco.

Además, la «enfermedad de los costos» de Baumol señala que los sectores menos automatizables (como la educación, la salud y la construcción) continúan siendo grandes partes de la economía. Incluso si la IA automatiza completamente algunos sectores, como la agricultura o la manufactura, estos sectores se vuelven menos importantes en el panorama económico total, limitando el crecimiento general.

David Autor, economista del MIT, argumenta que la IA, aunque avanzada, no es capaz de sustituir todo el trabajo humano, especialmente en áreas que requieren razonamiento o pensamiento creativo. Esto sugiere que el crecimiento masivo impulsado por la IA está fuera de nuestro alcance en el futuro cercano. La tecnología podría mejorar la productividad en ciertos sectores, pero no necesariamente conducir a un crecimiento explosivo en todos los ámbitos.

El debate entre optimistas y escépticos sobre el crecimiento explosivo impulsado por la IA se centra en si es posible desarrollar IA que realice cualquier tarea económica útil, incluidas aquellas relacionadas con la innovación. Los creyentes en el crecimiento explosivo argumentan que si la IA puede automatizar completamente la investigación y el desarrollo, eso aceleraría las innovaciones y mejoraría la productividad de manera radical. Sin embargo, los escépticos, como David Autor, creen que la IA aún tiene limitaciones significativas, y que las mejoras en la productividad no llevarán necesariamente a una desaparición completa de la necesidad de trabajo humano.

El artículo explica que el crecimiento podría acelerarse debido a la capacidad de la IA para reemplazar trabajos humanos y aumentar la productividad. Sin embargo, esto también podría generar una más alta desigualdad, con la mayoría de la riqueza concentrada en pocas manos, mientras la demanda de trabajo humano disminuye drásticamente.

En conclusión, se puede decir, que aunque la IA tiene el potencial de transformar la economía y mejorar la productividad en muchos sectores, la cuestión de si puede provocar un crecimiento explosivo o simplemente mejorar algunos aspectos de la economía sigue abierta. De cualquier manera, incluso un crecimiento más moderado impulsado por la IA podría tener un impacto profundo en nuestras vidas.

Encuesta de NISO sobre inteligencia artificial generativa (Gen AI) en los servicios de descubrimiento de biblioteca

NISO Open Discovery Initiative (ODI) ha lanzado una encuesta para comprender las expectativas y preocupaciones relacionadas con la inteligencia artificial generativa (Gen AI) en los servicios de descubrimiento de bibliotecas a gran escala basados en búsquedas indexadas.

 NISO Open Discovery Initiative (ODI) busca definir estándares y mejores prácticas para estos servicios, y debido a que las tecnologías de descubrimiento están explorando formas de incorporar la IA generativa en sus productos, el Comité Permanente de ODI está interesado en conocer la opinión de los proveedores de descubrimiento, los proveedores de contenido y las bibliotecas.

La encuesta toma aproximadamente 10 minutos y estará abierta hasta el 31 de octubre de 2024. Los resultados se resumirán posteriormente en el sitio web de ODI. Se solicita que los participantes respondan desde su perspectiva personal. Para más información, se puede contactar a través del correo odi@niso.org.

Enlace a la encuesta: https://umich.qualtrics.com/jfe/form/SV_821DI6888SCjIDY

El 55% de los usuarios están usando menos las búsquedas tradicionales de Google desde la llegada de productos de IA generativa

En un contexto en el que la inteligencia artificial generativa está ganando protagonismo, un reciente análisis de las tendencias en el uso de motores de búsqueda ha revelado un cambio significativo en cómo los usuarios interactúan con herramientas de búsqueda tradicionales como Google.

Un reciente sondeo de The Information reveló que el 77% de 1.088 encuestados afirmaron que están utilizando motores de búsqueda tradicionales, como Google, menos debido a los productos de IA generativa. Sin embargo, un sondeo similar realizado en X (anteriormente Twitter) por Barry Schwartz mostró resultados diferentes, indicando que solo el 55% de los 917 votantes también usan menos Google.

Amir Efrati, quien compartió estos resultados en X, destacó que el uso de herramientas como ChatGPT y la IA conversacional está en aumento para ciertos tipos de consultas. Schwartz observó que su audiencia en X, compuesta principalmente por SEO y expertos en marketing digital, podría influir en estos números, sugiriendo que son más dados a seguir usando Google. La discrepancia en los resultados ha generado discusión sobre la percepción de la adopción de la IA generativa en relación con los motores de búsqueda tradicionales.

Resultados clave

  • Schwartz observó que su audiencia está compuesta principalmente por profesionales del SEO y marketing digital, quienes, por su formación y experiencia, pueden estar más inclinados a seguir utilizando Google para sus necesidades de búsqueda. Esto podría influir en la percepción de la adopción de herramientas de IA en comparación con el uso de motores de búsqueda tradicionales.
  • La cifra del 77% puede parecer alta, pero refleja una audiencia que es probablemente más experta y privilegiada en el uso de tecnologías emergentes. Esto sugiere que la adopción de la IA generativa puede estar más arraigada en ciertos segmentos de la población que en otros.
  • Los usuarios pueden estar buscando respuestas más rápidas y personalizadas que las que pueden obtener a través de una búsqueda convencional, lo que impulsa la adopción de la IA generativa. Esto podría llevar a una reevaluación de cómo se diseñan y utilizan las herramientas de búsqueda.
  • La disminución en el uso de motores de búsqueda puede no ser un rechazo total, sino más bien una evolución en cómo se busca información. Los usuarios podrían estar utilizando ambos métodos de forma complementaria, dependiendo de la naturaleza de la consulta.
  • Para los profesionales del SEO y el marketing digital, este cambio en el comportamiento del consumidor podría significar una transformación en las estrategias de marketing, haciendo que las técnicas de optimización de búsqueda y contenido necesiten adaptarse a un entorno en el que la IA juega un papel más prominente

En resumen, mientras que los datos de The Information sugieren un cambio notable hacia la IA generativa en la búsqueda de información, los resultados de Schwartz resaltan la necesidad de comprender mejor el comportamiento del usuario en diferentes contextos. Este es un tema que seguirá siendo relevante a medida que la tecnología evoluciona y los usuarios encuentran nuevas maneras de interactuar con la información.

Práctica responsable de la IA en bibliotecas y archivos: Una revisión de la literatura

Mannheimer, S., Bond, N., Young, S. W. H., Kettler, H. S., Marcus, A., Slipher, S. K., … Sheehey, B. (2024). Responsible AI Practice in Libraries and Archives: A Review of the LiteratureInformation Technology and Libraries43(3). https://doi.org/10.5860/ital.v43i3.17245

Texto completo

Se analiza la implementación de la inteligencia artificial (IA) en bibliotecas y archivos, enfocándose en dos preguntas clave: ¿Cómo se está utilizando la IA en estas instituciones? y ¿Qué preocupaciones éticas están surgiendo y siendo abordadas durante la implementación de la IA?

El estudio revela que el uso de la IA está creciendo, especialmente en grandes bibliotecas universitarias, con aplicaciones comunes en la extracción de metadatos y servicios de referencia. La mayoría de los proyectos utiliza textos e imágenes digitalizados, así como otros materiales como archivos web y mapas. Si bien más de la mitad de los artículos revisados mencionan cuestiones éticas, solo un tercio aborda preocupaciones más allá de la precisión técnica.

El artículo destaca que, aunque el uso de la IA ofrece beneficios claros, también plantea una serie de preocupaciones éticas. Solo poco más de la mitad de los estudios revisados mencionan temas éticos en relación con la implementación de la IA, y solo un tercio profundiza en problemas éticos más allá de cuestiones técnicas, como la precisión y la participación humana en el proceso.

Entre los temas éticos identificados, los más importantes incluyen:

  • Transparencia en el uso de algoritmos y toma de decisiones.
  • Fiabilidad de los sistemas de IA y su capacidad de ofrecer resultados precisos.
  • Impacto de los costos asociados a la implementación de estas tecnologías.
  • Sesgos algorítmicos y su potencial para perpetuar desigualdades.
  • Justicia social y el impacto de la IA en comunidades vulnerables.
  • Privacidad y consentimiento, particularmente en el uso de datos personales.
  • Accesibilidad y equidad en el acceso a los recursos que gestionan las bibliotecas y archivos.

El estudio también resalta que a medida que las bibliotecas y archivos adopten más ampliamente la IA, será crucial que las instituciones no solo consideren estos aspectos éticos a nivel local, sino que también los discuten de manera pública a través de publicaciones y documentación compartida. El artículo sugiere que las bibliotecas deberían desarrollar políticas claras y directrices que rijan el uso de la IA, fomentando una práctica transparente y ética.

Se espera que las discusiones sobre ética y valores en la implementación de la IA continúen en áreas como costos, transparencia, sesgos, justicia social, privacidad y accesibilidad. El artículo subraya la importancia de discutir estas preocupaciones de manera pública y documentada a medida que la IA se vuelva más común en bibliotecas y archivos.

El 44% de los encuestados afirma creer información errónea relacionada con las elecciones

«44% of People Report Believing Election-Related Misinformation – Adobe Study», ZDNET, accedido 20 de septiembre de 2024, https://www.zdnet.com/article/44-of-people-report-believing-election-related-misinformation-adobe-study/.

Un estudio reciente de Adobe, titulado Authenticity in the Age of AI, revela que el 44% de los encuestados ha sido engañado por desinformación relacionada con las elecciones en los últimos tres meses, y el 94% está preocupado por la difusión de información falsa de cara a las elecciones presidenciales de EE. UU. de 2024. La proliferación de contenido generado por IA está dificultando que los usuarios distingan entre información real y falsa, con un 87% de los encuestados afirmando que la tecnología ha complicado esta tarea.

La creciente desconfianza ha llevado al 48% de los usuarios a reducir o abandonar el uso de redes sociales debido a la gran cantidad de desinformación, mientras que el 89% cree que estas plataformas deberían implementar medidas más estrictas para controlar el contenido engañoso. Para ayudar a verificar la autenticidad del contenido digital, Adobe propone soluciones como las Content Credentials, etiquetas que permiten a los usuarios ver detalles sobre la creación de imágenes, incluyendo si fueron generadas por IA.

Estas herramientas permiten a los usuarios cargar imágenes en un sitio donde se puede verificar si han sido creadas mediante inteligencia artificial, utilizando metadatos o comparaciones con otras imágenes en línea. Este tipo de tecnología busca mitigar el impacto de la desinformación en un entorno digital cada vez más difícil de controlar.

La IA generativa está descifrando antiguos pergaminos carbonizados del Imperio Romano

Schultz, Isaac. «How AI Is Deciphering Lost Scrolls from the Roman Empire: The Herculaneum Papyri Were Too Fragile to Unwrap for Centuries. Now, They May Not Have To BeGizmodo, August 28, 2024. https://gizmodo.com/ai-herculaneum-scrolls-computer-vision-transformers-2000481322.

Investigadores están utilizando modelos avanzados de inteligencia artificial (IA) para «leer» antiguos pergaminos carbonizados por la erupción del Monte Vesubio en el año 79 d.C., que cubrió a Pompeya y Herculano en cenizas. Estos rollos, hallados en 1750 en la Villa dei Papiri, han sido imposibles de desenrollar debido a su fragilidad. Sin embargo, gracias a la IA, es posible identificar y descifrar su contenido sin dañarlos.

Los papiros de Herculano fueron demasiado frágiles para desenvolverlos durante siglos. Ahora, puede que no sea necesario. El Vesuvius Challenge, lanzado en 2023, invita al público a usar IA para identificar palabras ocultas en los rollos. Hasta la fecha, se ha logrado descifrar la palabra «púrpura», y se espera que para 2024 se logre leer el 90% de los pergaminos escaneados. La IA utiliza visión por computadora y aprendizaje automático para identificar patrones de tinta en los fragmentos carbonizados.

El desafío tiene como objetivo decodificar estos textos, que podrían incluir obras filosóficas de Epicuro y sus seguidores, perdidas en el tiempo. Aunque ya se han recuperado alrededor de 1,100 rollos, se cree que más pergaminos permanecen enterrados en la villa.

Más de 120 proyectos de ley sobre IA están siendo discutidos en el Congreso de EE.UU.

«There Are More than 120 AI Bills in Congress Right Now», MIT Technology Review, accedido 19 de septiembre de 2024, https://www.technologyreview.com/2024/09/18/1104015/here-are-all-the-ai-bills-in-congress-right-now/.

En 2024, más de 120 proyectos de ley relacionados con la inteligencia artificial (IA) están siendo discutidos en el Congreso de EE.UU. Estos proyectos son muy variados, abarcando desde mejorar la educación sobre IA en escuelas públicas hasta exigir que los desarrolladores revelen el uso de material con derechos de autor en el entrenamiento de modelos de IA. Algunos tratan de mitigar los riesgos biológicos de la IA o regular el uso de deepfakes en campañas políticas y pornografía no consensual. Incluso hay un proyecto que prohíbe que la IA lance armas nucleares sin intervención humana.

La gran cantidad de propuestas refleja la urgencia con la que el Congreso está intentando regular una tecnología que avanza rápidamente. Sin embargo, debido al proceso legislativo, la mayoría de estos proyectos no se convertirán en ley. Muchos ni siquiera serán votados, ya que algunos líderes políticos no los impulsan si consideran que no tienen suficientes apoyos. En un entorno político polarizado, lograr que los proyectos reciban apoyo bipartidista es una tarea monumental.

Algunos avances legislativos han sido hechos, como la creación del Instituto de Seguridad en IA de EE.UU. (AISI), que se encargará de establecer guías voluntarias para el desarrollo seguro de IA. Otros proyectos buscan expandir la educación en IA y aumentar los recursos públicos para la investigación en esta área. Sin embargo, muchos de los proyectos evitan imponer regulaciones estrictas, lo cual responde al temor de frenar la innovación tecnológica.

Un aspecto notable es el papel que juegan las grandes empresas tecnológicas en este debate. Aunque algunas han solicitado más regulación, sus grupos de presión (lobbies) intentan suavizar o eliminar las restricciones. Esto preocupa a expertos que creen que las compañías pueden aprovechar los compromisos voluntarios para definir sus propios estándares sin cumplir con regulaciones significativas.

La falta de atención a temas de equidad y minorías en estos proyectos es también destacable. Aunque algunos intentos de abordar los sesgos en los modelos de IA han sido discutidos, han encontrado resistencia, especialmente entre los legisladores republicanos. A pesar de ello, algunos proyectos bipartidistas, como los que regulan los deepfakes, están avanzando debido a la preocupación compartida sobre su impacto en elecciones y la privacidad de las personas.

Los proyectos de ley actuales reflejan un enfoque mixto: promover el desarrollo tecnológico sin imponer barreras regulatorias estrictas. Sin embargo, lograr una regulación efectiva que también aborde temas de equidad y responsabilidad sigue siendo un desafío en evolución.

El rol de las bibliotecas como espacios públicos para contrarrestar la desinformación en la era de la IA generativa

The Role of Libraries as Public Spaces in Countering Misinformation, Disinformation, and Social Isolation in the Age of Generative AI. Urban Libraries Council, 2024

Texto completo

Urban Libraries Council (Consejo de Bibliotecas Urbanas, ULC) ha publicado un nuevo Informe de Liderazgo que aborda el aumento de la inteligencia artificial generativa (IA) y su contribución a la propagación de desinformación y misinformación. Ante el creciente aislamiento social, el informe explora cómo las bibliotecas públicas están en una posición única para enfrentar estos desafíos mediante la promoción de la alfabetización digital y el fomento de conexiones comunitarias.

El informe proporciona recomendaciones que las bibliotecas pueden implementar, como la actualización de los currículos de alfabetización digital, la creación de recursos para identificar desinformación y el desarrollo de programas que promuevan el compromiso cívico y la cohesión social. Subraya el papel vital de las bibliotecas en empoderar a las personas y fortalecer las comunidades frente a los desafíos tecnológicos y sociales.

Según Brooks Rainwater, presidente y CEO de ULC, los desafíos como la expansión de la IA, la información falsa y la soledad son temas recurrentes en las bibliotecas de América del Norte. El informe ofrece varias recomendaciones para que las bibliotecas refuercen su trabajo y comunidades.

Ejemplos de implementación de las recomendaciones en bibliotecas de EE.UU. y Canadá:

  • Biblioteca Pública de Boston: Organizó un taller sobre cómo combatir la desinformación, desarrollar habilidades de ciudadanía digital y utilizar herramientas para identificar información veraz.
  • Biblioteca Pública de Brooklyn: Colaboró con Women in AI Ethics™ en un evento con la congresista Yvette D. Clarke sobre los peligros de la IA generativa en los medios y la protección de las mujeres contra el abuso de imágenes.
  • Biblioteca Pública de Dallas: Alojó la exhibición del Smithsonian “The Bias Inside Us” y organizó programas para todas las edades para sensibilizar sobre cómo los prejuicios afectan el pensamiento.
  • Biblioteca Pública de Toronto: Desarrolló un kit de herramientas sobre “Noticias Falsas y Alfabetización Informativa” para ayudar a los usuarios a distinguir entre información veraz y desinformación.

Este informe reafirma la importancia de las bibliotecas en la construcción de comunidades resilientes en un mundo cada vez más influido por la IA.