Archivo de la etiqueta: Noticias

Una colación de defensores de la privacidad demanda al «Departamento de Eficiencia Gubernamental» (DOGE) y a Elon Musk por poner en peligro la intimidad de millones de personas

Electronic Frontier Foundation. «EFF Sues OPM, DOGE, and Musk for Endangering the Privacy of MillionsElectronic Frontier Foundation, 11 de febrero de 2025. https://www.eff.org/press/releases/eff-sues-opm-doge-and-musk-endangering-privacy-millions

La EFF y una coalición de defensores de la privacidad liderada por Lex Lumina han presentado una demanda solicitando a un tribunal federal que impida a la Oficina de Gestión de Personal (OPM) de Estados Unidos revelar información privada y sensible de millones de estadounidenses a Elon Musk y su «Departamento de Eficiencia Gubernamental» (DOGE).

Electronic Frontier Foundation (EFF) y una coalición de defensores de la privacidad acaban de presentar una demanda en la que solicitan a un tribunal federal que bloquee al Departamento de Eficiencia Gubernamental (DOGE) de Elon Musk el acceso a la información privada de millones de estadounidenses que almacena la Oficina de Gestión de Personal (OPM), y que elimine cualquier dato que se haya recopilado o eliminado hasta el momento. En la demanda también se nombra a la OPM y se pide al tribunal que impida que la OPM siga compartiendo datos con la DOGE.

Parte de la carta dice:

«Hola Partidario de la Libertad Digital:
No aceptaremos el saqueo descarado de los datos sensibles de millones de personas.

Nuestro caso es bastante sencillo: Los datos de la OPM son extraordinariamente sensibles, la OPM se los dio al DOGE, y esto viola la Ley de Privacidad de 1974.

Por tus derechos digitales,

Corynne McSherry
Directora Jurídica de la EFF»

Los registros de la OPM son una de las mayores, si no la mayor, recopilación de datos de empleados en los EE.UU. Con nuestro co-abogado Lex Lumina, State Democracy Defenders Fund, y Chandra Law Firm, representamos a empleados federales actuales y antiguos cuya privacidad ha sido violada.

Este enorme tesoro de información incluye datos demográficos privados e historiales laborales de prácticamente todos los empleados y contratistas federales actuales y anteriores, así como de los solicitantes de empleo federal. La semana pasada, un juez federal bloqueó temporalmente el acceso del DOGE a un sistema crítico de pagos del Tesoro de EE.UU. en virtud de una demanda similar. Estas violaciones de la privacidad de los datos no deben permitirse.

¿Y ahora qué?

La cuestión no es «qué pasa si estos datos caen en malas manos». Los datos ya han caído en manos equivocadas, según la ley, y deben salvaguardarse inmediatamente. Las violaciones de la privacidad de los estadounidenses se han producido en múltiples agencias, sin supervisión ni salvaguardias, y la EFF se complace en unirse a la brigada de demandas para proteger esta información crítica.

Esto es sólo el principio de lo que puede ser una lucha difícil. Pero la EFF no es ajena a los adversarios duros. Con el apoyo de nuestros miembros, hemos defendido los derechos de los usuarios de tecnología en cientos de casos para proteger su libertad en línea. Me enorgullece estar a tu lado por el futuro de la privacidad, la libertad de expresión y la creatividad.

La BBC denuncia imprecisiones en los resúmenes de noticias generados por IA

Rahman-Jones, Imran. «AI Chatbots Unable to Accurately Summarise News, BBC FindsBBC News, February 11, 2025. https://www.bbc.com/news/articles/c0m17d8827ko.

Un estudio de la BBC encontró que cuatro chatbots de inteligencia artificial—ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) y Perplexity—fallan al resumir con precisión noticias, presentando distorsiones y errores significativos.

En el experimento, la BBC les pidió a estos modelos que resumieran 100 noticias de su sitio web y expertos evaluaron sus respuestas. Se detectó que el 51 % de las respuestas tenía problemas importantes y que el 19 % de aquellas que citaban contenido de la BBC contenían errores factuales, como datos y fechas incorrectas.

Algunos ejemplos de inexactitudes incluyen: Gemini afirmando erróneamente que el NHS no recomienda el vapeo para dejar de fumar, ChatGPT y Copilot diciendo que Rishi Sunak y Nicola Sturgeon aún estaban en el cargo tras haberlo dejado, y Perplexity tergiversando una noticia sobre Medio Oriente.

La directora de BBC News, Deborah Turness, advirtió que las empresas de IA están «jugando con fuego» y pidió que las compañías tecnológicas «retiren» estos resúmenes, como ya hizo Apple tras quejas previas de la BBC.

El informe también señala que los chatbots no solo presentan errores fácticos, sino que tienen dificultades para diferenciar entre opinión y hechos, editorializan y omiten contexto esencial. La BBC busca dialogar con las empresas de IA para encontrar soluciones y garantizar que los editores tengan control sobre el uso de su contenido.

El informe, además señala que, en general, Copilot y Gemini fueron los chatbots con mayores problemas, mientras que ChatGPT y Perplexity mostraron un desempeño algo mejor, aunque también presentaron errores significativos.

El futuro de la investigación en recuperación de información en la era de la IA generativa

Computing Community Consortium (CCC). Future of Information Retrieval Research in the Age of Generative AI CCC Visioning Workshop. Accessed December 5, 2024. https://cra.org/ccc/events/future-of-information-retrieval-research-in-the-age-of-generative-ai-ccc-visioning-workshop/.

El informe Future of Information Retrieval Research in the Age of Generative AI fue elaborado por destacados investigadores, incluyendo James Allan, Eunsol Choi, Daniel P. Lopresti y Hamed Zamani, bajo el auspicio del Computing Community Consortium (CCC). Publicado en diciembre de 2024, explora cómo los modelos de lenguaje generativo (LLMs) están redefiniendo la recuperación de información (IR) y establece una hoja de ruta para el desarrollo futuro en este campo.

Se basa en un taller de visión celebrado en julio de 2024, que reunió a 44 expertos de diversas disciplinas como IR, procesamiento del lenguaje natural (NLP) e inteligencia artificial (IA). El propósito fue analizar cómo la integración de tecnologías generativas podría transformar las interacciones de los usuarios con sistemas de información y cuáles serían los retos y oportunidades.

Durante el taller, se emplearon técnicas colaborativas inspiradas en las reglas de IDEO para fomentar ideas innovadoras y estructuradas. Los participantes debatieron en ocho sesiones temáticas, las cuales identificaron las principales direcciones de investigación necesarias para aprovechar el potencial de los sistemas IR-GenAI.

El informe identifica ocho áreas prioritarias:

  1. Evaluación de sistemas IR-GenAI: diseñar métricas y metodologías que capturen las capacidades únicas de los modelos generativos.
  2. Aprendizaje del feedback humano: integrar retroalimentación implícita y explícita para resolver problemas complejos que requieran razonamiento.
  3. Modelado de usuarios: entender cómo evolucionan las necesidades de los usuarios en sistemas de acceso a información potenciados por IA generativa.
  4. Cuestiones socio-técnicas: abordar los impactos éticos y sociales que surgen con estas tecnologías.
  5. Sistemas personalizados: desarrollar métodos que adapten los resultados de IR-GenAI a las necesidades individuales.
  6. Eficiencia y escalabilidad: optimizar el uso de recursos computacionales, datos y esfuerzos humanos.
  7. IR para mejorar agentes de IA: integrar técnicas de recuperación de información en agentes inteligentes.
  8. Modelos fundacionales para acceso a la información: diseñar modelos específicamente enfocados en la recuperación y descubrimiento de información.

En conclusión, el informe ofrece un resumen de las discusiones y sugiere acciones concretas para académicos, profesionales de la industria, campañas de evaluación y agencias de financiamiento. Se destaca la necesidad de colaboración interdisciplinaria y de crear tecnologías inclusivas que maximicen los beneficios de la IA generativa para la recuperación de información.

Este documento no solo proporciona una visión del futuro de IR, sino también un marco para avanzar en investigaciones y aplicaciones prácticas en la intersección de IA y recuperación de información.

Un sitio web de noticias impulsado por IA acusa accidentalmente de asesinato al fiscal del distrito

«AI-Powered News Site Accidentally Accuses District Attorney of Murder», Futurism. 18 de octubre de 2024. https://futurism.com/ai-accuses-district-attorney-of-murder.

Un controvertido sitio de noticias local impulsado por inteligencia artificial, Hoodline San José, cometió un grave error al acusar accidentalmente a un fiscal del distrito de asesinato. Un artículo publicado por este medio, que forma parte de una red de sitios de noticias locales en EE. UU., tenía el impactante título: «FISCAL DEL CONDADO DE SAN MATEO ACUSADO DE ASESINATO EN MEDIO DE LA BÚSQUEDA DE LOS RESTOS DE LA VÍCTIMA». Sin embargo, la realidad es que, aunque hubo un asesinato, el fiscal no fue el autor; simplemente había presentado cargos contra el verdadero sospechoso.

El error se originó cuando el sistema de inteligencia artificial de Hoodline interpretó incorrectamente un tuit de la oficina del fiscal del distrito de San Mateo, que anunciaba que un hombre local había sido acusado de asesinato. La IA distorsionó la información de tal manera que hizo parecer que el propio fiscal había cometido el crimen. Este tipo de acusaciones, sobre todo contra un funcionario público, es de suma gravedad en el periodismo.

Después de que el sitio fue señalado por Techdirt, se publicó una nota del editor que intentó explicar el error como un «error tipográfico» que cambió el significado del contenido y creó confusión entre el fiscal y el acusado, que son personas diferentes. Este incidente pone en tela de juicio la promesa de Hoodline de que su contenido editorial cuenta con un nivel significativo de supervisión humana, dado que el sitio utiliza abiertamente inteligencia artificial para generar «noticias» de manera sintética.

Además, el artículo firmado por Eileen Vargas, una de las muchas identidades de reporteros generadas por IA del sitio. Esta práctica ha sido objeto de crítica por pretender mostrar una diversidad racial que no refleja la realidad de la industria periodística, que es mayoritariamente blanca y masculina.

El error también podría tener implicaciones para Google, ya que la acusación falsa apareció en su sección de noticias. La situación plantea preguntas sobre cuánta libertad debería darse a un sitio de noticias que claramente carece de estándares editoriales y si se puede confiar en los algoritmos para filtrar contenido generado por IA.

Lo que queda claro es que errores como este, que un periodista humano bajo un proceso editorial adecuado probablemente no cometería, podrían volverse más comunes a medida que los editores deleguen el control a sistemas de IA económicos y poco supervisados.

Las gafas Ray-Ban Meta pueden usarse para reconocer a personas y acceder a información personal como dirección, número de teléfono y familiares a través del reconocimiento facial.

Matt Binder, «Ray-Ban Meta Glasses Can Be Used to Dox Strangers via Facial Recognition, According to Harvard Students. Here’s How to Protect Yourself.», Mashable, 3 de octubre de 2024, https://mashable.com/article/ray-ban-meta-smart-glasses-students-facial-recognition-dox-strangers.

Dos estudiantes de Harvard han transformado las Meta Ray-Ban Smart Glasses en una poderosa herramienta de reconocimiento facial que puede identificar a cualquier persona y revelar detalles personales como su dirección, número de teléfono y familiares. Lo lograron desarrollando una plataforma de inteligencia artificial llamada I-XRAY, que convierte las gafas inteligentes en un dispositivo de vigilancia personal. Aunque estas gafas están diseñadas para captar fotos y videos de manera más inmersiva, los estudiantes las han llevado un paso más allá al integrar un motor de búsqueda facial.

El proceso de I-XRAY tiene tres etapas clave. Primero, las gafas capturan el rostro de una persona a través de la cámara incorporada. Luego, el motor de búsqueda facial de I-XRAY identifica el rostro y le asigna un nombre. En segundo lugar, una vez que el sistema identifica el nombre, realiza búsquedas en varias bases de datos públicas y privadas para encontrar información adicional sobre la persona. Por último, I-XRAY organiza los datos recolectados —nombre, dirección, teléfono, familiares y más— en un solo documento.

En un video demostrativo, los estudiantes muestran cómo se acercan a personas en la calle y, con las gafas puestas, acceden instantáneamente a datos personales. Al hacer preguntas como «¿Asististe a tal escuela?», revelan que la información es exacta y de fácil acceso, lo que genera preocupación sobre las capacidades invasivas de esta tecnología. Este experimento no solo demuestra el potencial de la inteligencia artificial para la vigilancia, sino que pone en alerta sobre cómo este tipo de herramientas podría ser mal utilizada. Aunque los estudiantes aseguran que su intención no es violar la privacidad, sino iniciar un debate sobre los riesgos de los dispositivos inteligentes, el hecho de que cualquiera pueda acceder a información tan sensible plantea preguntas sobre la regulación de estas tecnologías.

Este dilema recuerda los primeros días del iPhone, cuando los usuarios intentaban «liberar» sus dispositivos, lo que generaba preocupaciones de seguridad. Los estudiantes de Harvard sostienen que, al igual que en aquellos días, estamos en un momento crítico donde debemos aprender a protegernos contra las amenazas antes de que sea demasiado tarde. Aunque no se puede prevenir completamente el uso de herramientas como I-XRAY, existen medidas que las personas pueden tomar para protegerse de la exposición a la vigilancia mediante tecnologías emergentes.

Entre estas medidas, se recomienda limitar la cantidad de información personal disponible públicamente en redes sociales y otras plataformas, utilizar configuraciones de privacidad más restrictivas y abogar por la regulación y supervisión del uso de tecnologías de reconocimiento facial y dispositivos inteligentes. Este caso demuestra lo rápido que la tecnología puede evolucionar y cambiar las dinámicas de privacidad en la vida cotidiana. La conversación sobre las gafas inteligentes de Meta y plataformas como I-XRAY está apenas comenzando, y es probable que continúe a medida que más tecnologías de este tipo lleguen al mercado.

¿Quién utiliza más las bibliotecas públicas? Hay una división por religión y política.

«Who uses public libraries the most? There’s a divide by religion, and politics. – The Washington Post», accedido 9 de octubre de 2024, https://www.washingtonpost.com/business/2024/10/04/who-uses-libraries/.

Encuesta



El uso de bibliotecas públicas en EE. UU. varía según factores como la religión, la política y la ubicación geográfica. Jóvenes, demócratas y personas con mayor nivel educativo son los principales usuarios, mientras que conservadores y habitantes rurales tienden a usarlas menos. El acceso y la participación social son claves para entender estas diferencias.

Se examina quiénes son los usuarios más frecuentes de las bibliotecas públicas en Estados Unidos, basándose en un análisis de encuestas. Uno de los hallazgos clave es que las personas más dadas a utilizar las bibliotecas tienden a ser jóvenes, adultos con educación superior, personas que asisten a servicios religiosos al menos una vez al mes, y votantes demócratas. Estos grupos destacan por utilizar las bibliotecas para acceder a libros, medios digitales, votar, o aprovechar recursos como ordenadores y espacios de trabajo.

Los grupos que menos utilizan las bibliotecas incluyen personas mayores de 45 años, conservadores, protestantes y habitantes de áreas rurales. Este último grupo tiende a tener menos acceso a bibliotecas debido a la lejanía geográfica o a presupuestos más limitados en sus bibliotecas locales. En general, se observa una tendencia en la que los republicanos, especialmente en áreas rurales, visitan menos las bibliotecas que los demócratas en zonas urbanas.

Un hallazgo interesante es que el uso de las bibliotecas no está directamente relacionado con las dificultades económicas. De hecho, cuanto mayor es el ingreso de una persona, más probable es que aproveche los servicios gratuitos de las bibliotecas. A su vez, aquellos que leen más libros, especialmente los que leen más de 100 libros al año, son los más inclinados a obtener la mayoría de ellos en las bibliotecas.

Además de las diferencias políticas y geográficas, hay otro grupo de personas que evita las bibliotecas: aquellos que no participan activamente en la vida social o política. Estos incluyen personas que no votan, no siguen las noticias, no están afiliadas a ningún partido político ni a ninguna religión. Aunque tienen una opinión favorable sobre las bibliotecas y consideran que son importantes, simplemente no las visitan ni leen mucho.

En resumen, el artículo destaca que el uso de las bibliotecas está relacionado con el nivel de participación en la sociedad y el entorno educativo y político, siendo los demócratas, los jóvenes y los educados los que más frecuentan estos espacios, mientras que los conservadores y las personas menos comprometidas políticamente o religiosamente tienden a usarlas menos.

Nuevas directrices sobre IA para ayudar a las bibliotecas de investigación

Lauren Coffey, «New AI Guidelines Aim to Help Research Libraries», Inside Higher Ed, accedido 8 de octubre de 2024, https://www.insidehighered.com/news/tech-innovation/libraries/2024/05/01/new-ai-guidelines-aim-help-research-librarians.

The Association of Research Libraries (ARL) ha publicado nuevas directrices sobre inteligencia artificial (IA) para ayudar a los bibliotecarios a afrontar el aumento de consultas relacionadas con esta tecnología emergente. Desde el lanzamiento de ChatGPT hace dos años, los bibliotecarios han asumido un papel clave en la investigación y el desarrollo de la IA, abordando inquietudes sobre derechos de autor y citaciones.

Las siete directrices se centran en el desarrollo y despliegue de la IA generativa, como los modelos de lenguaje de OpenAI, y buscan promover prácticas éticas y transparentes, así como construir confianza entre los interesados en el entorno de la investigación. Una encuesta reciente reveló que más del 75% de los bibliotecarios consideran urgente abordar las preocupaciones éticas y de privacidad relacionadas con la IA, tales como la violación de la privacidad y el uso indebido de datos.

Las directrices incluyen:

  1. Fomentar la alfabetización digital: Educar a los usuarios de la biblioteca sobre la IA.
  2. Entender y concienciar sobre el sesgo en la IA: Ayudar a los usuarios a evaluar la información generada por la IA.
  3. Abogar por la apertura y la transparencia: Centrándose en los algoritmos y datos utilizados para crear la IA.
  4. Reconocer la importancia de los humanos en la IA: Asegurar que la ética y la accesibilidad sean consideradas en su uso.
  5. Priorizar la seguridad y privacidad: Abogar por leyes que protejan la información personal de los usuarios.
  6. Continuar con la aplicación de la ley de derechos de autor: Proteger los derechos de las bibliotecas para fines de investigación y educación.
  7. Promover la equidad en la información digital: Garantizar que las leyes de derechos de autor no sean superadas por contratos con empresas privadas.

Las líderes de ARL, Katherine Klosek y Cynthia Hudson Vitale, destacaron que estas directrices son un punto de referencia para abordar preocupaciones relacionadas con la IA y que están abiertas a futuras discusiones a medida que la tecnología y sus implicaciones evolucionan.

La IA «no sustituirá» a las habilidades creativas

«73% of AI Pros Are Looking to Change Jobs over the next Year», accedido 2 de octubre de 2024, https://www.zdnet.com/article/ai-wont-replace-creative-skills-study-finds/.

Un nuevo informe de Canva, titulado «Creatividad en la Educación 2024», destaca la importancia de fomentar la creatividad en los estudiantes para competir en la era de la inteligencia artificial (IA). La IA está transformando el mercado laboral, automatizando muchas tareas rutinarias. Por ello, el informe sugiere que las habilidades exclusivamente humanas, como la creatividad, son más cruciales que nunca.

El estudio, que encuestó a educadores, recién graduados y gerentes de contratación en EE. UU., Reino Unido y Australia, define la creatividad como la capacidad de usar la imaginación para resolver problemas, expresar ideas y crear algo nuevo. Aunque el 80% de los graduados recientes creen que la creatividad ha sido clave en su éxito profesional, solo el 56% de los gerentes de contratación y el 38% de los educadores sienten que los estudiantes están adecuadamente preparados en este aspecto.

El informe de Canva subraya que la creatividad no solo es una forma de autoexpresión, sino también una habilidad que fomenta la innovación y la resolución de problemas. Estas competencias son esenciales para adaptarse a condiciones laborales cambiantes. Además, más del 85% de los gerentes creen que el auge de la IA impulsará la creatividad en el futuro.

Sin embargo, el informe revela que el 34% de los educadores afirma que sus currículos actuales carecen de oportunidades para desarrollar la creatividad, citando la falta de tiempo y recursos como obstáculos principales. Aun así, el 62% de los educadores ha notado un aumento en la creatividad entre sus estudiantes, especialmente en el Reino Unido y Australia.

El estudio también señala que la IA puede ayudar a fomentar la creatividad al automatizar tareas repetitivas, liberando tiempo para enfoques más innovadores en la enseñanza.

Resultados clave del estudio:

  • Creatividad como habilidad crucial: Según el informe, tanto los recién graduados como los gerentes de contratación consideran la creatividad como una habilidad fundamental para el éxito profesional. Para los recién graduados, la creatividad ocupa el primer lugar como la habilidad más valiosa adquirida durante sus estudios universitarios. Esto incluye la capacidad de diseñar campañas originales, personalizar servicios al cliente y optimizar procesos dentro del entorno laboral.
  • Diferencias de percepción entre graduados, empleadores y educadores: A pesar de que el 69% de los graduados recientes se sienten preparados para entrar al mercado laboral, solo el 56% de los gerentes de contratación y el 38% de los educadores coinciden en que los estudiantes están listos, especialmente en términos de creatividad y diseño. Esto refleja una disparidad en la percepción de cuán efectiva es la educación en dotar a los estudiantes de estas competencias creativas.
  • Falta de creatividad en los planes de estudio: Uno de los desafíos más importantes identificados por el estudio es que un tercio de los educadores (34%) reconoce que sus planes de estudio carecen de oportunidades suficientes para fomentar la creatividad. Entre las barreras más comunes se incluyen la falta de tiempo (36%) y la escasez de recursos y financiamiento (32%).
  • El valor de la creatividad en el entorno laboral: La creatividad no solo es vista como una habilidad de autoexpresión, sino también como un componente clave para fomentar la innovación y mejorar la capacidad de los estudiantes para adaptarse a condiciones laborales cambiantes. Esto es especialmente relevante en carreras como marketing, diseño de productos, investigación y desarrollo, y gestión.

Por qué en IA lo más grande no siempre es lo mejor

«Why Bigger Is Not Always Better in AI», MIT Technology Review, accedido 2 de octubre de 2024, https://www.technologyreview.com/2024/10/01/1104744/why-bigger-is-not-always-better-in-ai/.

La creencia de que «más grande es mejor» en inteligencia artificial (IA) ha dominado la investigación en este campo, impulsada por la idea de que la cantidad de datos, la potencia de cómputo y el número de parámetros son los principales determinantes del rendimiento de un modelo. Esta mentalidad se consolidó con un artículo de 2017 de Google, que introdujo la arquitectura de transformer, y ha llevado a las grandes empresas tecnológicas a competir por la escala de sus modelos.

Sin embargo, expertos como Sasha Luccioni, líder de IA y clima en la startup Hugging Face, argumentan que los modelos actuales son “demasiado grandes”. Estos modelos no solo son difíciles de descargar y manipular, incluso si son de código abierto, sino que también presentan problemas significativos. Entre estos se encuentran prácticas invasivas de recolección de datos y la inclusión de contenido inapropiado en los conjuntos de datos, además de tener una mayor huella de carbono debido al alto consumo de energía necesario para su funcionamiento.

La escalabilidad de los modelos también conduce a una concentración extrema de poder en manos de unas pocas empresas tecnológicas grandes. Solo estas compañías tienen los recursos financieros y técnicos necesarios para desarrollar y operar modelos de gran escala, lo que crea un «cuello de botella» en el acceso a tecnologías de IA avanzadas y limita la diversidad de enfoques en el campo.

En contraposición a esta tendencia, el Allen Institute for Artificial Intelligence (Ai2) ha desarrollado un nuevo modelo de lenguaje multimodal llamado Molmo, que demuestra que se puede lograr un rendimiento impresionante utilizando modelos mucho más pequeños. Su modelo más grande, que cuenta con 72 mil millones de parámetros, supera en rendimiento a GPT-4, que se estima tiene más de un billón de parámetros, en tareas como la comprensión de imágenes, gráficos y documentos. Además, un modelo más pequeño de Molmo, con solo 7 mil millones de parámetros, se acerca al rendimiento de los modelos de vanguardia, gracias a métodos de recolección de datos y entrenamiento más eficientes.

Los investigadores de Ai2 han enfrentado el desafío de romper con la mentalidad de «más es mejor». Al iniciar el proyecto, el equipo se propuso pensar fuera de lo convencional y encontrar formas más efectivas de entrenar modelos que fueran accesibles y económicos. La filosofía detrás de Molmo subraya que «menos es más, lo pequeño es grande, y lo abierto es tan bueno como lo cerrado».

Otro argumento a favor de reducir la escala de los modelos es que los modelos más grandes suelen ser capaces de realizar una amplia gama de tareas, muchas de las cuales pueden no ser necesarias para los usuarios finales. Luccioni sostiene que, a menudo, los usuarios solo necesitan un modelo diseñado para tareas específicas, y que los modelos más grandes no siempre ofrecen ventajas en estos casos.

Para avanzar en la investigación y aplicación de IA, es fundamental cambiar las métricas utilizadas para evaluar el rendimiento de los modelos, enfocándose en factores relevantes como la precisión, la privacidad y la confiabilidad de los datos utilizados en su entrenamiento. Esto requiere un mayor nivel de transparencia en la industria, ya que muchos investigadores no comprenden completamente cómo y por qué sus modelos producen ciertos resultados, ni qué datos se han utilizado para entrenarlos.

Finalmente, se sugiere que es hora de reevaluar la suposición de que los modelos de IA son soluciones mágicas que resolverán todos los problemas. En lugar de seguir la tendencia de la escalabilidad, la comunidad de investigación y las empresas deben crear incentivos para fomentar un enfoque más consciente y sostenible en el desarrollo de inteligencia artificial, buscando hacer más con menos y utilizando recursos de manera más responsable.

¿Cómo afectará la IA a la productividad y la economía? Podría impulsarla a un crecimiento sin precedentes… o colapsarla.


Dylan Matthews, «How AI Could Explode the Economy», Vox, 26 de marzo de 2024, https://www.vox.com/future-perfect/24108787/ai-economic-growth-explosive-automation.


El artículo examina el posible impacto de la inteligencia artificial (IA) en la economía global y si podría desencadenar un crecimiento económico sin precedentes o, por el contrario, quedarse como una tecnología más que mejora ciertos aspectos de la productividad sin cambiar fundamentalmente el panorama económico.

Actualmente, la IA está generando riqueza significativa para algunas empresas y figuras en la industria tecnológica. Un ejemplo claro es Jensen Huang, el cofundador y CEO de Nvidia, cuya empresa controla el 80% del mercado de chips para centros de datos que utilizan IA. En los últimos cinco años, su fortuna ha pasado de 4 mil millones a 83.1 mil millones de dólares debido a la creciente demanda de su tecnología. Además, compañías como OpenAI, Anthropic e Inflection han sido valuadas en miles de millones de dólares, lo que subraya el inmenso interés en las capacidades de la IA.

Algunos investigadores argumentan que la IA no solo enriquecerá a un pequeño grupo de empresarios tecnológicos, sino que podría transformar la economía a una escala nunca antes vista. Ajeya Cotra, investigadora de Open Philanthropy, estima que la IA podría llevar a tasas de crecimiento del 20-30% anual antes de 2100. Tom Davidson, en un informe más detallado, también argumenta que este tipo de crecimiento acelerado es plausible, lo que implicaría que la economía podría duplicarse en tamaño cada 2,5 años, un nivel de crecimiento sin precedentes en la historia económica mundial.

Para poner esto en perspectiva, las tasas actuales de crecimiento en países desarrollados como Estados Unidos son de alrededor de 2-3% anual, y el país no duplicará su economía hasta dentro de unos 35 años, a este ritmo. Un crecimiento del 30% anual significaría que en 25 años, seríamos mil veces más ricos que hoy. Este tipo de salto económico superaría incluso las revoluciones industriales anteriores, que llevaron a avances como la agricultura mecanizada, la electricidad o el internet.

Sin embargo, a pesar de las proyecciones optimistas, muchos economistas dudan que la IA pueda generar un crecimiento tan espectacular. Un ejemplo citado es la «paradoja de la productividad», en la que tecnologías como las computadoras han mejorado la eficiencia en muchas áreas, pero no han causado un aumento significativo en las tasas de crecimiento económico general. A pesar de los avances tecnológicos, la productividad en algunos sectores ha crecido muy poco.

Además, la «enfermedad de los costos» de Baumol señala que los sectores menos automatizables (como la educación, la salud y la construcción) continúan siendo grandes partes de la economía. Incluso si la IA automatiza completamente algunos sectores, como la agricultura o la manufactura, estos sectores se vuelven menos importantes en el panorama económico total, limitando el crecimiento general.

David Autor, economista del MIT, argumenta que la IA, aunque avanzada, no es capaz de sustituir todo el trabajo humano, especialmente en áreas que requieren razonamiento o pensamiento creativo. Esto sugiere que el crecimiento masivo impulsado por la IA está fuera de nuestro alcance en el futuro cercano. La tecnología podría mejorar la productividad en ciertos sectores, pero no necesariamente conducir a un crecimiento explosivo en todos los ámbitos.

El debate entre optimistas y escépticos sobre el crecimiento explosivo impulsado por la IA se centra en si es posible desarrollar IA que realice cualquier tarea económica útil, incluidas aquellas relacionadas con la innovación. Los creyentes en el crecimiento explosivo argumentan que si la IA puede automatizar completamente la investigación y el desarrollo, eso aceleraría las innovaciones y mejoraría la productividad de manera radical. Sin embargo, los escépticos, como David Autor, creen que la IA aún tiene limitaciones significativas, y que las mejoras en la productividad no llevarán necesariamente a una desaparición completa de la necesidad de trabajo humano.

El artículo explica que el crecimiento podría acelerarse debido a la capacidad de la IA para reemplazar trabajos humanos y aumentar la productividad. Sin embargo, esto también podría generar una más alta desigualdad, con la mayoría de la riqueza concentrada en pocas manos, mientras la demanda de trabajo humano disminuye drásticamente.

En conclusión, se puede decir, que aunque la IA tiene el potencial de transformar la economía y mejorar la productividad en muchos sectores, la cuestión de si puede provocar un crecimiento explosivo o simplemente mejorar algunos aspectos de la economía sigue abierta. De cualquier manera, incluso un crecimiento más moderado impulsado por la IA podría tener un impacto profundo en nuestras vidas.