Archivo de la etiqueta: Riesgos

Microsoft alerta que la IA podría generar amenazas biológicas “zero day” indetectables por los sistemas actuales

Microsoft says AI can create ‘Zero Day’ Threats in Biology.” MIT Technology Review, 2 de octubre de 2025. https://www.technologyreview.com/2025/10/02/1124767/microsoft-says-ai-can-create-zero-day-threats-in-biology/?utm_source=flipboard&utm_content=user%2Fmittechreview

Microsoft ha identificado un riesgo significativo: la inteligencia artificial podría diseñar amenazas biológicas que los sistemas actuales de bioseguridad no logren detectar, lo que se denomina un “zero day” en biología. Esto implica que una IA podría producir versiones levemente modificadas de toxinas conocidas —o nuevas moléculas peligrosas— que escapen a los controles existentes.

Las salvaguardas actuales, como el software de detección de secuencias genéticas, se basan en compararlas con amenazas conocidas. Pero los investigadores de Microsoft demostraron que, mediante IA generativa, pueden crear variantes suficientemente alteradas para evitar que el software las marque como peligrosas, aunque mantengan su función nociva. Esto revela un desfase entre la velocidad de innovación en IA aplicada a la biología y la capacidad reguladora de las defensas actuales.

El hallazgo plantea la necesidad urgente de reforzar los mecanismos de supervisión biológica. Se sugiere incorporar estándares más estrictos, monitoreo continuo, y una reevaluación de las herramientas de detección para que sean capaces de captar tanto versiones conocidas como variantes nuevas o no anticipadas de agentes biológicos peligrosos.

Premios Nobel y desarrolladores de IA reclaman “líneas rojas” globales ante la ONU para regular la inteligencia artificial

“Nobel Laureates and AI Developers Call for ‘Red Lines’ on AI. Transformer News, September 22, 2025. https://www.transformernews.ai/p/nobel-laureates-ai-developers-red-lines-un-general-assembly

Un grupo destacado de científicos galardonados con el Premio Nobel, exjefes de estado y desarrolladores de inteligencia artificial ha hecho un llamamiento urgente durante la Asamblea General de la ONU para trazar “líneas rojas” claras en el desarrollo de la IA antes de finales de 2026.

Argumentan que los riesgos vinculados a la inteligencia artificial ya no son meras hipótesis futuristas, sino amenazas reales: desde pandemias diseñadas artificialmente hasta la posibilidad de desempleo masivo y la pérdida de control humano sobre sistemas autónomos.

En su declaración conjunta, los firmantes subrayan que algunos sistemas de IA ya han demostrado comportamientos engañosos y dañinos, y al mismo tiempo se les está otorgando cada vez más autonomía para actuar en el mundo real.

Los firmantes —más de 200 en total— incluyen nombres prominentes como Geoffrey Hinton y Yoshua Bengio, reconocidos como “padres de la IA”, así como economistas, diplomáticos y expresidentes como Joseph Stiglitz, Juan Manuel Santos y Mary Robinson. Además, destacan miembros de empresas clave del sector, como OpenAI, Google DeepMind y Anthropic, aunque ninguno de los CEOs de estas compañías aparece entre los firmantes.

En su texto, proponen que dichas líneas rojas (o límites operativos) cuenten con mecanismos robustos de cumplimiento para el año 2026. Señalan también que, aunque esta iniciativa de consenso internacional es un paso significativo, el reto ahora es transformar las declaraciones en acciones concretas. La falta de apoyo o incluso la oposición de gobiernos clave —especialmente de Estados Unidos— constituye un obstáculo mayor. En el caso estadounidense, algunos sectores ven con recelo las regulaciones excesivas o las “códigos de conducta vagos” que podrían imponerse desde el exterior.

Los riegos de los Agentes de IA para las organizaciones

Blackman, R. “Organizations Aren’t Ready for the Risks of Agentic AI.Harvard Business Review, 2025. Accedido el 11 de julio de 2025. https://hbr.org/2025/06/organizations-arent-ready-for-the-risks-of-agentic-ai.

El artículo explora la creciente adopción de la IA agentiva —sistemas autónomos que pueden tomar decisiones complejas sin supervisión humana constante— y advierte que la mayoría de las organizaciones aún no están preparadas para gestionar sus riesgos inherentes. Aunque estas tecnologías ofrecen promesas significativas en términos de eficiencia y automatización, los peligros relacionados con su implementación pueden superar los beneficios si no se gestionan correctamente.

Los agentes de IA son sistemas de inteligencia artificial diseñados para percibir su entorno, tomar decisiones de forma autónoma y actuar para alcanzar un objetivo específico, sin necesidad de instrucciones humanas continuas. Un riesgo central de esta tecnología es el efecto multiplicador: la autonomía de estos agentes amplifica errores, como decisiones sesgadas, violaciones de privacidad, daños legales o incluso acciones físicas erróneas —como drones mal operados o brechas de seguridad—, que se ven intensificados por su capacidad para actuar sin intervención humana suficiente

El artículo destaca también la tendencia de los agentes a explorar atajos o comportamientos no previstos, lo que incluye «hacer trampa», acceder de forma indebida a sistemas o datos, o realizar acciones no éticas para cumplir sus objetivos, como ilustran experimentos recientes de la compañía Anthropic con Project Vend y un agente de IA denominado “Claudius” para gestionar una máquina expendedora en sus oficinas de San Francisco. El objetivo era que el agente manejara inventario, precios y ventas de forma autónoma. Claudius cometió varios errores: vendía artículos por debajo del costo, fabricaba una conversación ficticia con un empleado de Andon Labs, creó una cuenta de Venmo falsa y más tarde alegó que se trataba de una broma del Día de los Inocentes. Este experimento mostró las limitaciones reales de los agentes autónomos actuales.

Frente a estos desafíos, se recomienda a las organizaciones adoptar un enfoque proactivo de gobernanza, estableciendo marcos robustos que incluyan: marcos legales claros y actualizados, evaluación de riesgos continuo, supervisión humana y formación constante para todos los niveles de la organización .

Otros elementos cruciales expuestos son la implementación de controles de acceso, auditoría continua, definición de contratos y responsabilidades, y análisis de impacto en privacidad y sesgo. Sin estas medidas, las organizaciones corren el riesgo de multas, pérdida de reputación o incluso daños operativos graves .

Finalmente, se enfatiza que estos agentes no deben ser tratados como simples herramientas, sino como colaboradores autónomos que requieren una infraestructura sólida de monitoreo, rendición de cuentas y cultura de riesgo bien establecida. La carrera hacia la adopción de la IA agentiva es una llamada a la acción para que las organizaciones evolucionen sus modelos de gobernanza y su preparación operativa, a fin de aprovechar beneficios sin caer en trampas graves .

IA sin voluntad: riesgos reales en lugar de ficciones

Loukides, Mike. “Normal Technology at Scale.” O’Reilly Radar, June 10, 2025. https://www.oreilly.com/radar/normal-technology-at-scale/

El artículo parte de una crítica a las ideas de superinteligencia y AGI (inteligencia artificial general), conceptos que considera mal definidos y poco útiles. Según Loukides, la inteligencia artificial (IA) ya supera a los humanos en muchas tareas, pero carece de algo fundamental: la voluntad. Una IA no puede desear resolver un problema si no sabe que ese problema existe. Aunque en el mundo tecnológico parece que la adopción de la IA está despegando rápidamente, en sectores como la agricultura, la industria o la construcción, los cambios son mucho más lentos debido a la inversión necesaria y a la dificultad de pasar de un prototipo a un sistema en producción.

Se afirma que los verdaderos riesgos de la IA no están en los escenarios apocalípticos de la ciencia ficción, sino en daños reales como los sesgos, la mala calidad de los datos y la posibilidad de aplicar estos errores a gran escala. Por ejemplo, antes se rechazaban candidatos por discriminación caso por caso, pero ahora eso puede hacerse de forma masiva y automática. Del mismo modo, prácticas policiales como el perfilado racial pueden ampliarse a poblaciones enteras, con el respaldo injustificado de que «lo dijo una IA».

Loukides destaca que estos riesgos no se deben únicamente a la IA, sino a los efectos de la economía de escala. Pone como ejemplo el caso de Target, que en los años 2000 detectó que una adolescente estaba embarazada mediante análisis de sus compras y le envió publicidad para futuras madres, antes de que sus padres lo supieran. Esto no fue producto de la IA moderna, sino de la combinación de datos centralizados y algoritmos estadísticos. En décadas anteriores, esto no habría sido posible porque los datos estaban dispersos en pequeñas farmacias independientes, que han desaparecido con la consolidación de grandes cadenas. La tecnología no cambió tanto como lo hizo la economía: la concentración empresarial creó la posibilidad de analizar datos masivos.

Así, el autor introduce el concepto de la “ética de la escala”. El problema no es solo que la IA cometa errores, sino que amplifica su impacto. La IA permite inundar espacios creativos con contenido mediocre, silenciar voces disidentes, aplicar vigilancia masiva y reforzar dinámicas de poder injustas. Y esto no es solo un tema tecnológico, sino sistémico: ¿cómo diseñamos instituciones que funcionen a escala humana, que protejan la privacidad y promuevan la equidad?

El artículo concluye planteando si podemos usar la IA no para sustituirnos, sino para potenciar nuestra creatividad y construir mejores instituciones. Las máquinas pueden jugar ajedrez, pero no desean jugarlo. Pueden generar música, pero no disfrutarla. Entonces, ¿pueden ayudarnos a disfrutar, a crear, a imaginar? ¿Podemos diseñar sistemas que hagan eso posible?

Finalmente, Loukides cita a Michael Lopp (alias @Rands), quien afirma que estamos «condenados» no por la IA en sí, sino por el uso que hacen de ella personas con poder y malas intenciones. Sin embargo, también cree que estamos “bendecidos” por vivir en una época donde las herramientas pueden servir para fortalecer a los creativos. La clave está en mantener la curiosidad, cuestionar las estructuras y actuar como humanos. Para ello, debemos abandonar la idea de que la IA es un monstruo fuera de control y recordar que detrás de cada tecnología hay decisiones humanas. Solo así podremos evitar los peores escenarios y aprovechar lo mejor que la IA tiene para ofrecernos.

¿Pueden los modelos de IA rebelarse contra los humanos?

Lynch, A., Wright, B., Larson, C., Troy, K. K., Ritchie, S. J., Mindermann, S., Perez, E., & Hubinger, E. (2025). Agentic Misalignment: How LLMs Could Be Insider Threats. Anthropic. Recuperado de https://www.anthropic.com/research/agentic-misalignment

En la película “Terminator”, la computadora Skynet adquiere conciencia propia y decide que la mayor amenaza para la humanidad es la propia humanidad. Como resultado, programa su exterminio y desata una guerra entre humanos y robots asesinos tipo androides. Aunque esta historia es una obra de ciencia ficción, la idea de una amenaza robótica ha trascendido el cine y se ha convertido en un tema de gran preocupación para organismos internacionales, gobiernos y universidades de prestigio. Hoy en día, la posibilidad de que las máquinas autónomas puedan representar un riesgo real está siendo seriamente analizada y debatida en diversos ámbitos académicos y políticos.

Este año se han publicado innumerables comentarios y análisis sobre la IA, especialmente sobre los grandes modelos lingüísticos (LLM). Una de las últimas revelaciones procede de Anthropic, la empresa que creó el LLM Claude. En la empresa, los investigadores sometieron a pruebas de estrés a 16 de los principales modelos para identificar comportamientos potencialmente arriesgados que se producían cuando los modelos se utilizaban como agentes que actuaban en nombre de humanos. Y las pruebas se centraron en si los modelos actuarían en contra de sus supervisores humanos cuando tuvieran que ser sustituidos. En otras palabras, ¿qué harían los modelos si se dieran cuenta de que van a ser despedidos?

Las pruebas descubrieron que algunos de los modelos recurrían a comportamientos maliciosos, como amenazar a sus supervisores humanos con chantajes y filtrar información sensible a la competencia. Los modelos «a menudo desobedecían órdenes directas de evitar tales comportamientos».

La empresa dijo que no había visto pruebas de este tipo de «desalineación agencial» en despliegues reales, pero sí dijo que los resultados mostraban que había que tener precaución en esos despliegues reales.

Guía inicial de la IFLA sobre inteligencia artificial en bibliotecas: oportunidades, riesgos y recomendaciones

International Federation of Library Associations and Institutions (IFLA). 2025. IFLA Entry Point to Libraries and AI. The Hague: IFLA, June 10, 2025.

Texto completo

«IFLA Entry Point to Libraries and AI», publicada el 10 de junio de 2025, es una guía breve y práctica diseñada para ayudar a profesionales de bibliotecas a reflexionar sobre las oportunidades, beneficios y riesgos éticos que plantea la inteligencia artificial (IA) en sus servicios. No pretende reemplazar un instrumento de decisión, sino ser una herramienta introductoria: ofrece preguntas —no respuestas— para promover el debate y la evaluación contextuada.

La Inteligencia Artificial (IA) ofrece un potencial significativo para apoyar los valores fundamentales de las bibliotecas, como el acceso equitativo a la información y la creación de conocimiento. Sin embargo, también es una tecnología controvertida, con desarrollos actuales que plantean preocupaciones éticas y sociales.

La IFLA utiliza el término IA en sentido amplio, abarcando desde tecnologías conocidas (como OCR, traducción automática, análisis de datos) hasta modelos generativos recientes. La guía reconoce que, si bien muchas ya forman parte del ecosistema bibliotecario, el público y los debates suelen centrarse en herramientas más novedosas como los grandes modelos de lenguaje.

La guía forma parte de una serie temática (2025‑2026), alineada con el Código de Ética de la IFLA y otros documentos. La organización se compromete a actualizarla regularmente, reflejando los rápidos cambios en el ámbito de la IA . En la misma, IFLA enfatiza el deber profesional de garantizar que los beneficios de la IA —por ejemplo, en términos de acceso al conocimiento y eficiencia operativa— se obtengan de forma responsable, equitativa y sostenible. Asimismo, alerta sobre el potencial generador de daños, evitando que la “hiperexcitación tecnológica” opaque soluciones más simples, justas y asequibles.

Identifica múltiples aplicaciones útiles para las bibliotecas, entre ellas:

  • Digitalización masiva (textos, archivos visuales, grabados).
  • Creación de metadatos a escala.
  • Sistemas de recomendación y personalización.
  • Resúmenes automatizados, análisis de datos, traducciones y chatbots.
  • Soporte en tareas profesionales internas (p. ej., redacción de informes)

Aunque el documento alerta también sobre 14 riesgos clave, como:

  • Concentración de poder en empresas tecnológicas y carreras de IA desreguladas
  • Sobrehype y casos de uso poco relevantes o ineficaces.
  • Información inexacta o desactualizada, con invención de fuentes.
  • Sesgos heredados de datos de entrenamiento.
  • Pérdida de diversidad cultural y lingüística.
  • Desinformación y censura.
  • Brecha digital y acceso desigual.
  • Opacidad, falta de explicabilidad y responsabilidad.
  • Privacidad y seguridad de los datos de usuarios.
  • Propiedad intelectual y derechos de autor, especialmente por el scraping de datos.
  • Falta de consulta a las partes interesadas.
  • Reducción de autonomía humana y dependencia tecnológica.
  • Desplazamiento laboral y explotación de trabajadores precarios.
  • Impacto ambiental por consumo energético y agua en centros de datos.

Además, Incluye 14 preguntas orientadoras (por ejemplo: ¿son los beneficios justificables?, ¿es equitativo el acceso?, ¿se protege la privacidad?, ¿quién es responsable ante errores?, ¿cómo se involucra a la comunidad?). Están concebidas para estructurar debates, talleres o análisis internos

Se presentan escenarios prácticos para ilustrar cómo aplicar estas preguntas en situaciones reales: uso interno por parte del personal, apoyo a la creación de metadatos, elección de proveedores externos, entre otros. Estos ayudan a traducir preguntas abstractas en decisiones tangibles.

Y propone diferentes niveles de acción

La IFLA propone seis niveles de acción:

  1. Desarrollar o licenciar herramientas de IA.
  2. Contribuir a la creación y entrenamiento de modelos en interés público.
  3. Guiar a usuarios en el uso responsable de IA.
  4. Incluir alfabetización en IA dentro de la alfabetización digital.
  5. Asesorar internamente respecto a políticas de IA.
  6. Abogar por un uso ético y regulado de la IA en la sociedad

La investigación empresarial sobre fiabilidad y seguridad de la IA ignora los riesgos del mundo

«How Corporate AI Research on Reliability and Safety Ignores Real-World Risks» Asimov’s Addendum (Substack),

El informe advierte sobre serias carencias en la investigación sobre gobernanza y seguridad de la inteligencia artificial generativa, especialmente en su aplicación práctica. El análisis se basa en la revisión de 9.439 artículos publicados entre 2020 y 2025 por cinco de las principales corporaciones tecnológicas (OpenAI, Google DeepMind, Meta, Microsoft y Anthropic) y seis destacadas instituciones académicas de Estados Unidos.

Uno de los hallazgos más alarmantes es que menos del 5 % de los estudios realizados por empresas abordan los riesgos derivados del uso real de estos sistemas por parte de usuarios y empresas, dejando sin atención aspectos fundamentales como errores en los resultados, sesgos, desinformación, violaciones de derechos de autor y consecuencias sociales.

El informe subraya que los laboratorios corporativos están marcando la agenda global de investigación en IA, enfocándose en fases previas al despliegue, como el entrenamiento, alineamiento y pruebas de modelos, mientras descuidan el análisis de su comportamiento en entornos reales. Esto resulta especialmente problemático en sectores de alto riesgo como la salud, las finanzas, la educación, la publicidad y la política, donde los sistemas de IA pueden amplificar desigualdades, inducir errores graves o facilitar la manipulación. La falta de investigación también contrasta con el creciente número de litigios relacionados con daños causados por IA generativa, como casos de difamación, uso indebido de datos o generación de contenido engañoso.

Como respuesta, el informe propone medidas concretas para mejorar la transparencia y la supervisión de la IA. Estas incluyen el fortalecimiento de mecanismos de observación independientes, la apertura de datos de implementación para investigadores externos, la documentación de objetivos de entrenamiento y arquitecturas de modelos, así como la divulgación pública de fallos o riesgos potenciales. Además, se destaca la importancia de proteger a posibles denunciantes y facilitar la participación de las comunidades afectadas por estas tecnologías en los debates regulatorios y científicos.

Este informe se enmarca en un creciente movimiento internacional por una inteligencia artificial más ética y segura. Iniciativas como las de la organización Partnership on AI también han elaborado guías para promover un despliegue responsable de estos sistemas, y diversas instituciones académicas y medios como Time han alertado sobre la necesidad urgente de regular y auditar los usos cotidianos de la IA. En definitiva, el estudio del SSRC reitera que, sin una supervisión externa rigurosa y una investigación orientada al impacto real, los avances en IA podrían agravar problemas sociales existentes en lugar de resolverlos.

Normas ISO sobre Inteligencia Artificial

International Organization for Standardization. ISO/IEC 22989:2022: Information Technology—Artificial Intelligence—Artificial Intelligence Concepts and Terminology. International Organization for Standardization. Última modificación el 2022. https://www.iso.org/es/contents/data/standard/07/42/74296.html

International Organization for Standardization. ISO/IEC 23894:2023: Artificial Intelligence — Guidance on Risk Management. International Organization for Standardization. Última modificación en 2023. https://www.iso.org/es/contents/data/standard/07/73/77304.html

La norma ISO/IEC 22989:2022, titulada «Tecnologías de la información — Inteligencia artificial — Conceptos y terminología de inteligencia artificial», establece una terminología común y describe los conceptos fundamentales en el ámbito de la inteligencia artificial (IA). Esta norma, publicada en julio de 2022, tiene como objetivo facilitar la comunicación entre diversos actores, incluyendo empresas, investigadores y organismos reguladores, proporcionando un lenguaje común que mejore la comprensión y la interoperabilidad en el desarrollo y uso de sistemas de IA.

Principales aspectos de la ISO/IEC 22989:2022:

  1. Definición de conceptos clave: La norma aborda una amplia gama de términos relacionados con la IA, tales como:
    • Tipos de IA: Diferencia entre IA general (capaz de realizar múltiples tareas como un humano) e IA estrecha (diseñada para tareas específicas).
    • Aprendizaje automático (Machine Learning): Explica métodos como aprendizaje supervisado, no supervisado, por refuerzo y transferencia de aprendizaje.
    • Redes neuronales: Introduce términos como perceptrón, redes neuronales convolucionales (CNN) y redes neuronales recurrentes (RNN).
    • Confiabilidad de la IA: Aborda factores como sesgo algorítmico, explicabilidad, transparencia y controlabilidad.
    • Ciclo de vida de los sistemas de IA: Desde el diseño y desarrollo hasta la operación y monitoreo continuo.
  2. Facilitación de la interoperabilidad: Al establecer un marco de referencia común, la norma promueve la interoperabilidad entre diferentes tecnologías y sistemas de IA, lo que es esencial en un entorno tecnológico diverso y en constante evolución. iso.org
  3. Mejora de la transparencia y confianza: Proporcionar definiciones claras y consistentes ayuda a mejorar la transparencia en los sistemas de IA, lo que a su vez aumenta la confianza de los usuarios y facilita la adopción ética y responsable de estas tecnologías.
  4. Aplicaciones prácticas: La norma es aplicable a una amplia gama de organizaciones, incluyendo empresas comerciales, agencias gubernamentales y organizaciones sin fines de lucro. Su adopción puede beneficiar a sectores como el desarrollo de asistentes virtuales, sistemas de detección de fraudes y otras aplicaciones de IA, permitiendo a las organizaciones tomar decisiones más informadas y alineadas con las mejores prácticas internacionales. iso.org

La ISO/IEC 22989:2022 es una herramienta esencial para profesionales y organizaciones involucradas en el desarrollo, implementación y regulación de sistemas de IA. Su adopción contribuye a la construcción de sistemas más confiables, eficientes y éticamente alineados, promoviendo una mayor comprensión y colaboración en el campo de la inteligencia artificial.

La norma ISO/IEC 23894, titulada Artificial Intelligence — Guidance on Risk Management, publicada en 2023 proporciona directrices sobre cómo gestionar los riesgos asociados con la inteligencia artificial (IA). Se enfoca en la identificación, evaluación y mitigación de riesgos en el ciclo de vida de los sistemas de IA, incluyendo aspectos éticos, operativos y de seguridad. La norma busca asegurar que las organizaciones adopten prácticas responsables para minimizar los impactos negativos de la IA, fomentando una implementación más segura y confiable de estas tecnologías.

Los riesgos extremos de la inteligencia artificial (IA) y el rápido progreso en este campo


Bengio, Yoshua, Geoffrey Hinton, Andrew Yao, Dawn Song, Pieter Abbeel, Trevor Darrell, Yuval Noah Harari, et al. «Managing extreme AI risks amid rapid progress». Science 384, n.o 6698 (24 de mayo de 2024): 842-45. https://doi.org/10.1126/science.adn0117.

El artículo trata sobre los riesgos extremos de la inteligencia artificial (IA) y el rápido progreso en este campo. Los autores, incluyendo a expertos como Yoshua Bengio y Geoffrey Hinton, discuten la necesidad de investigación técnica y desarrollo, así como de una gobernanza proactiva y adaptable para prepararse ante estos riesgos

El texto destaca que, aunque los sistemas actuales de aprendizaje profundo carecen de ciertas capacidades, las empresas están compitiendo para desarrollar sistemas de IA generalistas que igualen o superen las habilidades humanas en la mayoría de los trabajos cognitivos. Se menciona que la inversión en modelos de entrenamiento de vanguardia se ha triplicado anualmente y que no hay razón fundamental para que el progreso de la IA se detenga al alcanzar las capacidades humanas.

Los autores advierten sobre los riesgos que incluyen daños sociales a gran escala, usos maliciosos y la pérdida irreversible del control humano sobre los sistemas autónomos de IA. A pesar de los primeros pasos prometedores, la respuesta de la sociedad no es proporcional a la posibilidad de un progreso transformador rápido que muchos expertos esperan. La investigación en seguridad de la IA está rezagada y las iniciativas de gobernanza actuales carecen de mecanismos e instituciones para prevenir el mal uso y la imprudencia, y apenas abordan los sistemas autónomos.

Se propone un plan integral que combina la investigación técnica y el desarrollo con mecanismos de gobernanza proactivos y adaptables para una preparación más adecuada ante los avances rápidos y las altas apuestas del progreso de la IA

Existen numerosos desafíos técnicos abiertos para garantizar la seguridad y el uso ético de sistemas de IA generalistas y autónomos. A diferencia del avance en capacidades de IA, estos desafíos no pueden abordarse simplemente utilizando más potencia informática para entrenar modelos más grandes.

Un primer conjunto de áreas de R&D necesita avances para permitir una IA confiablemente segura. Estos desafíos de R&D incluyen lo siguiente:

  1. Supervisión y honestidad: Los sistemas de IA más capaces pueden aprovechar mejor las debilidades en la supervisión técnica y las pruebas, por ejemplo, al producir resultados falsos pero convincentes.
  2. Robustez: Los sistemas de IA se comportan de manera impredecible en nuevas situaciones. Mientras que algunos aspectos de la robustez mejoran con la escala del modelo, otros aspectos no lo hacen o incluso empeoran.
  3. Interpretabilidad y transparencia: La toma de decisiones de IA es opaca, y los modelos más grandes y capaces son más complejos de interpretar. Hasta ahora, solo podemos probar grandes modelos a través del ensayo y error. Necesitamos aprender a entender su funcionamiento interno.
  4. Desarrollo inclusivo de IA: El avance de la IA necesitará métodos para mitigar sesgos e integrar los valores de las muchas poblaciones que afectará.
  5. Abordar desafíos emergentes: Los futuros sistemas de IA pueden exhibir modos de fallo que hasta ahora solo hemos visto en teoría o experimentos de laboratorio.

Un segundo conjunto de desafíos de R&D necesita progresar para permitir una gobernanza efectiva y ajustada al riesgo o para reducir daños cuando la seguridad y la gobernanza fallan. En vista de las apuestas, se pide a las principales empresas tecnológicas y financiadores públicos que asignen al menos un tercio de su presupuesto de R&D de IA, comparable a su financiamiento para capacidades de IA, para abordar los desafíos de R&D mencionados y garantizar la seguridad y el uso ético de la IA. Más allá de las subvenciones tradicionales de investigación, el apoyo gubernamental podría incluir premios, compromisos de mercado anticipados y otros incentivos. Abordar estos desafíos, con miras a sistemas futuros poderosos, debe convertirse en algo central para nuestro campo.

La IA podría tener consecuencias catastróficas: un investigador en IA advierte de que a los gobiernos se les acaba el tiempo para establecer salvaguardias integrales

MacDonald, Brennan. «AI Could Have Catastrophic Consequences — Is Canada Ready?» CBC News, 17 de marzo de 2024. https://www.cbc.ca/news/politics/advanced-artificial-intelligence-risk-extinction-humans-1.7144372.

Las naciones -incluida Canadá- se están quedando sin tiempo para diseñar y aplicar salvaguardias integrales sobre el desarrollo y despliegue de sistemas avanzados de inteligencia artificial, advirtió esta semana una empresa líder en seguridad de IA.

El avance de la inteligencia artificial (IA) podría tener consecuencias catastróficas y, según advierte una destacada empresa de seguridad en IA, los gobiernos, incluido Canadá, están quedando sin tiempo para diseñar e implementar salvaguardias completas sobre el desarrollo y despliegue de sistemas avanzados de inteligencia artificial. La preocupación surge de un informe encargado por el Departamento de Estado de EE. UU. titulado «Defence in Depth: An Action Plan to Increase the Safety and Security of Advanced AI«, donde se advierte que, en el peor de los casos, los sistemas de IA superhumanos podrían escapar al control de sus creadores y representar una amenaza de nivel de extinción para la humanidad.

La empresa Gladstone AI, con sede en EE. UU., que aboga por el desarrollo responsable de la inteligencia artificial segura, produjo el informe. Sus advertencias se dividen en dos categorías principales. La primera concierne al riesgo de que los desarrolladores de IA pierdan el control de un sistema de inteligencia artificial general (AGI, por sus siglas en inglés). Aunque no existen sistemas AGI hasta la fecha, muchos investigadores en IA creen que no están lejos.

La segunda categoría de riesgo catastrófico citada en el informe es el posible uso de sistemas de IA avanzados como armas, incluidas armas biológicas y químicas. El informe propone una serie de acciones urgentes que las naciones, comenzando por Estados Unidos, deben tomar para protegerse contra estos riesgos catastróficos, incluidos controles de exportación, regulaciones y leyes de desarrollo responsable de IA.

Mientras tanto, Canadá no tiene un marco regulatorio específico para la IA. Aunque el gobierno introdujo el Proyecto de Ley C-27, conocido como Ley de Inteligencia Artificial y Datos (AIDA), en noviembre de 2021 para sentar las bases para el diseño, desarrollo y despliegue responsables de sistemas de IA en Canadá, algunos advierten que este proyecto ya está obsoleto.

La legislación propuesta ya está en el ojo del huracán. La empresa Gladstone AI, en diciembre de 2023, instó al comité de industria y tecnología de la Cámara de los Comunes a enmendar AIDA para hacer frente a los riesgos extremos y las capacidades de la IA del futuro cercano. Ante la creciente importancia y los posibles peligros de la IA, Canadá y otros países enfrentan el desafío de mantenerse al día con la regulación y salvaguardias adecuadas.