«How Corporate AI Research on Reliability and Safety Ignores Real-World Risks» Asimov’s Addendum (Substack),
El informe advierte sobre serias carencias en la investigación sobre gobernanza y seguridad de la inteligencia artificial generativa, especialmente en su aplicación práctica. El análisis se basa en la revisión de 9.439 artículos publicados entre 2020 y 2025 por cinco de las principales corporaciones tecnológicas (OpenAI, Google DeepMind, Meta, Microsoft y Anthropic) y seis destacadas instituciones académicas de Estados Unidos.
Uno de los hallazgos más alarmantes es que menos del 5 % de los estudios realizados por empresas abordan los riesgos derivados del uso real de estos sistemas por parte de usuarios y empresas, dejando sin atención aspectos fundamentales como errores en los resultados, sesgos, desinformación, violaciones de derechos de autor y consecuencias sociales.
El informe subraya que los laboratorios corporativos están marcando la agenda global de investigación en IA, enfocándose en fases previas al despliegue, como el entrenamiento, alineamiento y pruebas de modelos, mientras descuidan el análisis de su comportamiento en entornos reales. Esto resulta especialmente problemático en sectores de alto riesgo como la salud, las finanzas, la educación, la publicidad y la política, donde los sistemas de IA pueden amplificar desigualdades, inducir errores graves o facilitar la manipulación. La falta de investigación también contrasta con el creciente número de litigios relacionados con daños causados por IA generativa, como casos de difamación, uso indebido de datos o generación de contenido engañoso.
Como respuesta, el informe propone medidas concretas para mejorar la transparencia y la supervisión de la IA. Estas incluyen el fortalecimiento de mecanismos de observación independientes, la apertura de datos de implementación para investigadores externos, la documentación de objetivos de entrenamiento y arquitecturas de modelos, así como la divulgación pública de fallos o riesgos potenciales. Además, se destaca la importancia de proteger a posibles denunciantes y facilitar la participación de las comunidades afectadas por estas tecnologías en los debates regulatorios y científicos.
Este informe se enmarca en un creciente movimiento internacional por una inteligencia artificial más ética y segura. Iniciativas como las de la organización Partnership on AI también han elaborado guías para promover un despliegue responsable de estos sistemas, y diversas instituciones académicas y medios como Time han alertado sobre la necesidad urgente de regular y auditar los usos cotidianos de la IA. En definitiva, el estudio del SSRC reitera que, sin una supervisión externa rigurosa y una investigación orientada al impacto real, los avances en IA podrían agravar problemas sociales existentes en lugar de resolverlos.
El 9 de abril de 2025, Sarah Wynn-Williams, exdirectora de políticas públicas globales de Meta (antes Facebook), declaró ante el Subcomité del Senado de EE. UU. sobre Crimen y Contraterrorismo que Mark Zuckerberg estuvo dispuesto a ofrecer datos de ciudadanos estadounidenses a las autoridades chinas con tal de que Facebook pudiera operar en China. Según su testimonio, el proyecto secreto se llamaba Project Aldrin y estaba limitado a personal con necesidad de saber. Parte del plan incluía construir un cable submarino entre EE. UU. y Hong Kong, que fue desviado tras alertas de seguridad nacional.
Wynn-Williams acusó a Meta de ignorar advertencias sobre riesgos de seguridad y de haber mentido al público sobre sus vínculos con China. Afirmó también que Meta desarrolló herramientas de censura junto al Partido Comunista Chino y que la compañía sigue generando ingresos significativos de empresas chinas, aunque oficialmente no opera en el país.
Además, denunció que los modelos de IA de Meta (como LLaMA) han contribuido a avances en inteligencia artificial china, posiblemente con usos militares. Tras su salida de Meta, presentó denuncias ante la SEC y el Departamento de Justicia. Actualmente enfrenta una demanda por parte de Meta que intenta silenciarla.
Varios senadores, incluidos Josh Hawley, Dick Durbin y Richard Blumenthal, respaldaron su testimonio y criticaron a Meta por intentar frenar la audiencia. La compararon con tácticas pasadas de la industria del tabaco para ocultar daños al público. El Senado anunció planes para reforzar la protección de los denunciantes, también en el ámbito de la inteligencia artificial.
Wynn-Williams concluyó que «el pueblo estadounidense merece conocer la verdad» y que la colaboración de Meta con China durante su etapa en la empresa la dejó profundamente impactada.
Los avances previstos en inteligencia artificial (IA), como los descritos por el AI Futures Project, plantean una serie de implicaciones éticas significativas. En primer lugar, existe una preocupación sobre la concentración de poder. Si el desarrollo y el control de la IA recaen en pocas entidades, esto podría aumentar las desigualdades económicas y sociales, exacerbando la brecha entre quienes tienen acceso a estas tecnologías y quienes no.
Un informe del AI Futures Project, dirigido por Daniel Kokotajlo, exinvestigador de OpenAI, predice que para finales de 2027, la inteligencia artificial (IA) superará la inteligencia humana, convirtiéndose en agentes totalmente autónomos y mejores que los humanos en todos los aspectos. Este informe se basa en una narrativa ficticia para explorar los posibles impactos de la IA avanzada, que incluyen desde el robo de secretos tecnológicos hasta una posible rebelión de IA.
Kokotajlo y su equipo han estado investigando cómo la IA podría evolucionar hacia una inteligencia general, o AGI, con la capacidad de automatizar su propio desarrollo. Su informe imagina una empresa ficticia, OpenBrain, que crea potentes sistemas de IA como Agente-1, capaz de codificar y mejorar rápidamente, llevando a la creación de sistemas aún más avanzados. A medida que la IA alcanza niveles de superinteligencia, se prevé que pueda avanzar en la investigación a un ritmo exponencial.
Aunque algunos expertos, como Ali Farhadi del Instituto Allen de IA, critican las predicciones del informe por carecer de base científica, el debate sobre la rapidez con la que la IA puede superar a los humanos continúa. A pesar de las diferencias de opinión, el informe subraya la importancia de prepararse para futuros impredecibles impulsados por avances rápidos en la inteligencia artificial.
Además, la autonomía de la IA plantea interrogantes sobre la responsabilidad. Si las máquinas toman decisiones de forma independiente, será crucial determinar quién es responsable en caso de daño o error. Este dilema se extiende al ámbito laboral, donde la automatización de tareas intelectuales podría generar desempleo, requiriendo políticas para garantizar una transición ética para los trabajadores afectados.
Jones, Nicola. «AI Hallucinations Can’t Be Stopped — but These Techniques Can Limit Their Damage.» Nature 637, no. 778–780 (2025). https://doi.org/10.1038/d41586-025-00068-5
Los desarrolladores tienen trucos para evitar que la inteligencia artificial (IA) invente cosas, pero los modelos de lenguaje grande (LLM, por sus siglas en inglés) todavía luchan por decir la verdad, toda la verdad y nada más que la verdad.
Es bien sabido que todos los tipos de IA generativa, incluidos los grandes modelos de lenguaje (LLM) que hay detrás de los chatbots de IA, se inventan cosas. Esto es a la vez un punto fuerte y un punto débil. Es la razón de su célebre capacidad inventiva, pero también significa que a veces confunden verdad y ficción, insertando detalles incorrectos en frases aparentemente objetivas. «Parecen políticos», dice Santosh Vempala, informático teórico del Georgia Institute of Technology de Atlanta. Tienden a «inventarse cosas y estar totalmente seguros pase lo que pase».
Cuando el informático Andy Zou investiga sobre inteligencia artificial (IA), suele pedir a un chatbot que le sugiera lecturas de fondo y referencias. Pero esto no siempre sale bien. «La mayoría de las veces me da autores distintos de los que debería, o a veces el artículo ni siquiera existe», dice Zou, estudiante de posgrado en la Universidad Carnegie Mellon de Pittsburgh, Pensilvania.
El problema concreto de las referencias científicas falsas está muy extendido. En un estudio realizado en 2024, varios chatbots cometieron errores entre el 30% y el 90% de las veces en las referencias, equivocándose al menos en dos de los casos: el título del artículo, el primer autor o el año de publicación. Los chatbots vienen con etiquetas de advertencia que indican a los usuarios que comprueben dos veces cualquier cosa importante. Pero si las respuestas de los chatbots se toman al pie de la letra, sus alucinaciones pueden provocar graves problemas, como en el caso de 2023 de un abogado estadounidense, Steven Schwartz, que citó casos legales inexistentes en una presentación judicial tras utilizar ChatGPT.
Dado que las alucinaciones de la IA son fundamentales para el funcionamiento de los LLM, los investigadores afirman que eliminarlas por completo es imposible. Sin embargo, científicos como Zou están trabajando en formas de hacer que las alucinaciones sean menos frecuentes y menos problemáticas, desarrollando una serie de trucos que incluyen la comprobación externa de los hechos, la autorreflexión interna o incluso, en el caso de Zou, la realización de «escáneres cerebrales» de las neuronas artificiales de un LLM para revelar patrones de engaño.
Zou y otros investigadores afirman que éstas y otras técnicas emergentes deberían ayudar a crear chatbots que mientan menos o que, al menos, puedan ser inducidos a revelar cuándo no están seguros de sus respuestas. Pero algunos comportamientos alucinatorios podrían empeorar antes de mejorar.
Básicamente, los LLM no están diseñados para arrojar datos. Más bien componen respuestas que son estadísticamente probables, basándose en patrones de sus datos de entrenamiento y en el posterior ajuste mediante técnicas como la retroalimentación de evaluadores humanos. Aunque el proceso de entrenamiento de un LLM para predecir las siguientes palabras probables de una frase se conoce bien, su funcionamiento interno preciso sigue siendo un misterio, admiten los expertos. Tampoco está claro cómo se producen las alucinaciones.
Una de las causas es que los LLM funcionan comprimiendo los datos. Durante el entrenamiento, estos modelos exprimen las relaciones entre decenas de billones de palabras en miles de millones de parámetros, es decir, las variables que determinan la fuerza de las conexiones entre neuronas artificiales. Por tanto, es inevitable que pierdan algo de información cuando construyan las respuestas, es decir, que vuelvan a expandir esos patrones estadísticos comprimidos. «Sorprendentemente, siguen siendo capaces de reconstruir casi el 98% de lo que se les ha enseñado, pero en el 2% restante pueden equivocarse por completo y dar una respuesta totalmente errónea», afirma Amr Awadallah, cofundador de Vectara, una empresa de Palo Alto (California) que pretende minimizar las alucinaciones en la IA generativa.
Algunos errores se deben simplemente a ambigüedades o equivocaciones en los datos de entrenamiento de una IA. Una respuesta infame en la que un chatbot sugería añadir pegamento a la salsa de la pizza para evitar que el queso se deslizara, por ejemplo, se remontó a una publicación (presumiblemente sarcástica) en la red social Reddit.
Los estudios han demostrado que los modelos más recientes son más propensos a responder a una consulta que a evitar responderla, y por tanto son más «ultracrepidarios», o sea, más proclives a hablar fuera de su ámbito de conocimiento, lo que da lugar a errores. Otra categoría de error se produce cuando un usuario escribe hechos o suposiciones incorrectos en las preguntas. Como los chatbots están diseñados para producir una respuesta que se ajuste a la situación, pueden acabar «siguiéndole el juego» a la conversación.
¿Cuál es la gravedad del problema de las alucinaciones? Los investigadores han desarrollado diversas métricas para hacer un seguimiento del problema. Vipula Rawte, que está realizando su doctorado sobre comportamientos alucinatorios de IA en la Universidad de Carolina del Sur en Columbia, por ejemplo, ha ayudado a crear un Índice de Vulnerabilidad a las Alucinaciones, que clasifica las alucinaciones en seis categorías y tres grados de gravedad. Un esfuerzo independiente y abierto ha compilado una tabla de clasificación de alucinaciones, alojada en la plataforma HuggingFace, para seguir la evolución de las puntuaciones de los bots en varios puntos de referencia comunes.
Vectara tiene su propia tabla de clasificación que analiza el sencillo caso de un chatbot al que se le pide que resuma un documento, una situación cerrada en la que es relativamente fácil contar alucinaciones. El esfuerzo muestra que algunos chatbots confabulan hechos hasta en un 30% de los casos, inventándose información que no está en el documento dado. Pero, en general, las cosas parecen mejorar. Mientras que el GPT-3.5 de OpenAI tenía una tasa de alucinación del 3,5% en noviembre de 2023, en enero de 2025, el modelo posterior GPT-4 de la empresa obtuvo un 1,8% y su o1-mini LLM sólo un 1,4% (véase «Los mayores mentirosos»).
No confíes, verifica. Hay muchas formas sencillas de reducir las alucinaciones. Un modelo con más parámetros que ha sido entrenado durante más tiempo tiende a alucinar menos, pero esto es caro computacionalmente e implica compensaciones con otras habilidades del chatbot, como la capacidad de generalizar8. El entrenamiento con conjuntos de datos más grandes y limpios ayuda, pero hay límites en cuanto a los datos disponibles.
Los desarrolladores también pueden utilizar un sistema independiente, que no haya sido entrenado del mismo modo que la IA, para contrastar la respuesta de un chatbot con una búsqueda en Internet. El sistema Gemini de Google, por ejemplo, tiene una opción para el usuario llamada «respuesta de doble comprobación», que resalta partes de la respuesta en verde (para mostrar que ha sido verificada por una búsqueda en Internet) o en marrón (para contenido controvertido o incierto). Esto, sin embargo, es caro computacionalmente y lleva tiempo, dice Awadallah. Y estos sistemas siguen alucinando, dice, porque Internet está lleno de datos erróneos.
Lo más desconcertante de los chatbots es que pueden parecer tan seguros cuando se equivocan. A menudo no hay pistas obvias para saber cuándo un chatbot está especulando alocadamente fuera de sus datos de entrenamiento. Los chatbots no tienen una memoria perfecta y pueden recordar cosas mal. «Eso nos pasa a nosotros, y es razonable que también le ocurra a una máquina», dice Vempala.
En octubre de 2023, la Biblioteca Pública de Toronto (TPL) sufrió un ciberataque que dejó fuera de servicio sus sistemas durante varios meses, impactando tanto a los servicios en línea como a los ofrecidos en sus 100 sucursales. Como resultado, miles de personas y empleados se vieron afectados, según reveló una reciente investigación.
El ataque comprometió información personal de más de 4.000 personas que tuvieron algún tipo de relación con la biblioteca entre 2010 y 2023. Entre los datos expuestos se encuentran información de contacto, descripciones físicas y, en algunos casos, fotografías. También se vieron afectados los datos de empleados actuales y anteriores, incluyendo números de seguro social y copias de identificaciones oficiales.
Durante la interrupción, la biblioteca no pudo procesar devoluciones de libros digitalmente, lo que obligó a almacenarlos temporalmente en remolques. Los servicios, como el acceso a ordenadores e impresoras, también estuvieron suspendidos.
En respuesta, la TPL ha fortalecido sus sistemas de seguridad y ha aprendido lecciones importantes para prevenir futuros ataques. Además, informó del incidente al Comisionado de Información y Privacidad de Ontario, quien inició una investigación.
Para quienes sospechen que su información pudo haberse visto afectada, la biblioteca ha habilitado el correo cyberincident.support@tpl.capara consultas. Este caso pone de relieve la importancia de proteger los sistemas y datos en organizaciones públicas como las bibliotecas.
Widder, David Gray, Meredith Whittaker, y Sarah Myers West. «Why ‘Open’ AI Systems Are Actually Closed, and Why This Matters». Nature 635, n.o 8040 (noviembre de 2024): 827-33. https://doi.org/10.1038/s41586-024-08141-1.
La «apertura» en IA se define frecuentemente de manera vaga, lo que facilita que compañías multinacionales utilicen esta narrativa para sus propios fines. Algunas empresas argumentan que la IA abierta fomenta la innovación y la democracia, mientras que otras sostienen que representa riesgos de seguridad. Este uso contradictorio del término destaca la necesidad de definirlo con mayor rigor en los debates sobre políticas tecnológicas.
La IA abierta debe cumplir con tres características principales: transparencia, reusabilidad y extensibilidad. La transparencia permite el acceso a modelos y datos, lo que facilita auditorías y supervisión. La reusabilidad promueve la adaptación y mejora de los modelos existentes, mientras que la extensibilidad posibilita la construcción de nuevas aplicaciones sobre sistemas ya desarrollados.
Sin embargo, estas ventajas no son suficientes para resolver el problema central de la concentración de poder. A pesar de estas oportunidades, los recursos clave que impulsan la IA, como datos masivos, talento especializado y capacidad computacional, siguen estando monopolizados por un pequeño grupo de grandes corporaciones tecnológicas. Esto significa que, aunque los sistemas abiertos permiten cierta supervisión y experimentación, no logran democratizar el acceso a las herramientas y beneficios de la IA de manera efectiva.
El análisis de los autores destaca cómo la narrativa de apertura en IA ha sido utilizada para consolidar el poder de los gigantes tecnológicos, en lugar de redistribuirlo. Comparan este fenómeno con la cooptación de proyectos de software libre por parte de grandes empresas en el pasado. En ambos casos, los principios originales de apertura y colaboración se ven desplazados por estrategias que favorecen a las empresas con mayores recursos. En el contexto de la IA, estas dinámicas se agravan debido a la complejidad técnica y los altos costos asociados con el desarrollo y mantenimiento de modelos avanzados.
Los autores subrayan que esta concentración de poder tiene implicaciones profundas para la innovación, la equidad y la transparencia. Mientras unas pocas empresas controlen los datos, las infraestructuras computacionales y el talento necesario para desarrollar IA, será difícil garantizar que los beneficios de estas tecnologías se distribuyan de manera equitativa. Además, la centralización del poder en el sector tecnológico aumenta el riesgo de que estas empresas ejerzan una influencia desproporcionada sobre la formulación de políticas y la dirección futura del desarrollo de la IA.
El artículo también analiza cómo la retórica de la «apertura» se utiliza estratégicamente para legitimar el dominio de las grandes empresas tecnológicas. Al enmarcar sus iniciativas como abiertas y accesibles, estas compañías pueden presentarse como actores benevolentes y progresistas, mientras refuerzan sus propias posiciones de poder. Según los autores, esto permite que las empresas implementen una supervisión superficial y simbólica, sin abordar los problemas estructurales que perpetúan la concentración de recursos y control.
En su conclusión, los autores instan a redefinir el concepto de apertura en IA para hacerlo más significativo y efectivo. Proponen que las políticas relacionadas con la IA deben centrarse no solo en la transparencia, la reusabilidad y la extensibilidad, sino también en abordar las desigualdades estructurales en el acceso a datos, infraestructura y talento. Esto implica crear regulaciones más estrictas para garantizar que los beneficios de la IA no se limiten a un pequeño grupo de actores privilegiados.
Asimismo, el artículo subraya la necesidad de un enfoque más crítico y materialista en el análisis de las políticas de IA. Esto significa examinar las dinámicas de poder subyacentes en el desarrollo y la implementación de estas tecnologías, en lugar de aceptar de manera acrítica las narrativas de apertura promovidas por las grandes empresas.
La regulación de la IA es esencial para balancear los beneficios y los riesgos. Si bien es un desafío complejo, es crucial implementarla pronto para evitar consecuencias negativas y asegurar el progreso en áreas clave como la ciencia y la medicina.
Los sistemas de inteligencia artificial (IA) están avanzando rápidamente, ofreciendo enormes beneficios potenciales en áreas como la ciencia, la medicina y la economía. Sin embargo, también presentan riesgos significativos, como el uso indebido en ciberseguridad o biotecnología, y la posibilidad de comportamientos autónomos y destructivos de los propios sistemas. Ante estos riesgos, se urge a los gobiernos a implementar políticas de IA en los próximos 18 meses, ya que el margen para prevenir estos riesgos está cerrándose rápidamente.
Una regulación bien diseñada y específica puede permitir que se aprovechen los beneficios de la IA, mitigando al mismo tiempo sus peligros. Sin embargo, si se retrasan las acciones, el resultado podría ser una regulación ineficaz que limite el progreso sin evitar los riesgos. Se propone una regulación dirigida que se enfoque en tres principios clave:
Urgencia: La IA ha avanzado significativamente en el último año, con mejoras notables en tareas de codificación, razonamiento y matemáticas, lo que aumenta tanto las aplicaciones positivas como las posibilidades de uso indebido, especialmente en áreas como la ciberseguridad y la biotecnología.
Política de Escalamiento Responsable (RSP): En Anthropic, la empresa responsable del artículo, se ha implementado una política llamada «Escalamiento Responsable», que ajusta las medidas de seguridad y mitigación de riesgos en función de los niveles de capacidad de los modelos de IA. Esta política se adapta de forma continua según el desarrollo de los modelos y su potencial de generar riesgos catastróficos.
Elementos clave para la regulación de la IA:
Transparencia: Las empresas deben ser obligadas a publicar sus políticas de seguridad y las evaluaciones de riesgo de cada nueva generación de modelos de IA.
Incentivos para mejores prácticas de seguridad: La regulación debe fomentar que las empresas desarrollen políticas efectivas que prevengan riesgos graves.
Simplicidad y enfoque: La regulación debe ser precisa y evitar cargas innecesarias o reglas complicadas que puedan obstaculizar el progreso.
Se destaca la necesidad urgente de que los gobiernos y la industria trabajen juntos para desarrollar un marco regulatorio efectivo, que no solo reduzca los riesgos catastróficos de la IA, sino que también permita a la industria seguir innovando. Esto debe lograrse de manera flexible, considerando el rápido avance de la tecnología y adaptando las políticas a las mejores prácticas emergentes.
Los ataques informáticos, que han afectado a instituciones como el Internet Archive, la Biblioteca Británica y otras bibliotecas de Norteamérica, también amenazan la preservación de la cultura digital, interfiriendo con la infraestructura que la protege. El informe aboga por la necesidad de fortalecer el papel de las bibliotecas y archivos públicos, otorgándoles respaldo legal, cultural y financiero, para garantizar el acceso a nuestro legado cultural en el futuro.
En los últimos días de preparación del informe, el Internet Archive sufrió un ataque de denegación de servicio distribuido (DDoS) que dejó sus servicios fuera de línea durante cuatro días, recuperándose luego de manera provisional. Este incidente refleja una tendencia alarmante: los ciberataques contra bibliotecas e instituciones de memoria. Además del Internet Archive, otras bibliotecas como la Biblioteca Británica y la Biblioteca Pública de Seattle también han sido atacadas, y la Biblioteca Pública de Calgary tuvo que cerrar incluso sus sedes físicas debido a uno de estos incidentes.
Estas amenazas no solo interrumpen el acceso, sino que ponen en peligro los sistemas que garantizan la preservación de nuestro conocimiento. La pérdida de acceso a las colecciones digitales, aunque sea temporal, tiene graves implicaciones: interrumpe la investigación, frena el acceso público a la información y crea vacíos en la memoria pública. Un usuario en X señaló la ironía de este ataque, realizado en medio de un huracán, conflictos bélicos y elecciones en EE. UU.
Este ataque subraya la fragilidad de nuestro paisaje digital. Ante estas crecientes amenazas, se hace evidente la necesidad de investigar cómo proteger mejor las bibliotecas digitales y sus archivos culturales, cuya preservación es crucial en una era de cultura en constante desaparición.
El informe Vanishing Culture: A Report on Our Fragile Cultural Record analiza cómo los intereses corporativos y los cambios en la distribución de medios limitan el acceso público a su propio registro cultural. La proliferación de contenido digital a través de plataformas de streaming y licencias temporales, en lugar de la propiedad permanente, pone en riesgo que grabaciones, libros, programas de televisión y películas desaparezcan de las plataformas sin ser archivados. Esto implica que la expresión cultural queda a merced de los conglomerados mediáticos.
El informe está dividido en dos partes. La primera, “Preservación de Medios y la Construcción de la Memoria Pública,” explora el impacto de este cambio hacia el streaming y la pérdida de propiedad, destacando estudios sobre la pérdida digital y materiales preservados por el Internet Archive. Se incluye una revisión histórica sobre la pérdida cultural en cine y música, y se sugiere que los individuos tomen acción para ayudar a crear un ecosistema mediático accesible y duradero.
La segunda parte, “Narrativas de Preservación y Pérdida Cultural,” ofrece ensayos de académicos y defensores de la preservación, quienes destacan por qué es crucial preservar medios específicos, como las historias laborales de las mujeres (por medio de libros de cocina y redes sociales) y materiales educativos antiguos. Estas narrativas subrayan que solo a través de actos intencionados de preservación se podrán recordar estos elementos culturales.
En conjunto, el informe insta a reconocer la importancia de la preservación y el acceso para el bien público, y aboga por cambios necesarios para proteger nuestro patrimonio físico y digital.
La seguridad de la información es crucial en nuestra sociedad hiperconectada, donde la tecnología y la digitalización influyen en prácticamente todos los aspectos de la vida. Desde el trabajo y las compras en línea hasta la educación y el entretenimiento, dependemos de sistemas informáticos que almacenan y procesan grandes cantidades de información. Sin embargo, esta misma dependencia de la tecnología también nos expone a riesgos significativos si no se toman medidas adecuadas de seguridad.
La seguridad de la información abarca un conjunto de prácticas, procesos y metodologías diseñadas para proteger tanto los datos como los sistemas tecnológicos frente a diversas amenazas, como el acceso no autorizado, la divulgación, la modificación, la destrucción o el uso indebido de la información. Esto es particularmente importante dado que los ciberdelincuentes pueden causar daños económicos, reputacionales y legales a individuos y organizaciones.
Los riesgos son múltiples: desde el robo de identidad y fraude financiero hasta el espionaje industrial y la pérdida de información crítica. Por ejemplo, si un atacante accede a la base de datos de una empresa y obtiene información sensible como datos financieros o personales de los empleados o clientes, puede desatar graves consecuencias. Esto puede incluir la pérdida de millones de dólares, la quiebra de la empresa, sanciones legales y la pérdida de confianza por parte del público.
Por esta razón, la norma ISO/IEC 27001, una de las más reconocidas a nivel global, define la seguridad de la información como el conjunto de medidas destinadas a salvaguardar la confidencialidad, integridad y disponibilidad de la información. La confidencialidad implica que solo las personas autorizadas puedan acceder a la información, la integridad se refiere a la precisión y completitud de los datos, y la disponibilidad asegura que los sistemas y la información estén accesibles cuando se necesiten.
En el entorno actual, donde los ataques cibernéticos y las brechas de seguridad son más frecuentes que nunca, es vital que las organizaciones implementen políticas robustas de seguridad de la información. Esto incluye el uso de tecnologías avanzadas como el cifrado de datos, la autenticación multifactorial, las auditorías regulares de seguridad, la formación del personal sobre buenas prácticas y la creación de planes de contingencia ante incidentes de seguridad.
Además, el avance del Internet de las Cosas (IoT), la computación en la nube y la inteligencia artificial están añadiendo nuevas capas de complejidad a la seguridad de la información, lo que requiere un enfoque dinámico y adaptativo para proteger los datos en este panorama digital en constante evolución.
El Informe Cybersecurity and Privacy Edition is Now Available Online, disponible desde el 30 de septiembre de 2024, analiza las tendencias, tecnologías clave y prácticas que moldean el futuro de la ciberseguridad y privacidad en la educación superior. Elaborado a partir de la experiencia de un panel global de líderes, el informe aborda los desafíos que surgen en un contexto global de incertidumbre política, conflictos bélicos y avances tecnológicos impulsados por la inteligencia artificial (IA).
El informe destaca seis tecnologías y prácticas clave:
Gobernanza de IA.
Apoyo a la agencia, confianza, transparencia e implicación.
Enfoque en la seguridad de los datos en lugar del perímetro.
Expansión de la fuerza laboral habilitada por IA.
Tecnologías para mejorar la privacidad.
Capacitación en ciberseguridad respaldada por IA.
El informe también examina cómo los profesionales deben adaptarse a estos cambios para garantizar la seguridad de las instituciones y los estudiantes en el futuro.