Archivo de la etiqueta: Seguridad

Deepfakes y la seguridad de las herramientas de IA: formas de navegar por este turbio panorama

IndiaTimes. «Deepfakes And The Safety Of AI Tools: Ways To Navigate This Murky Landscape», 6 de noviembre de 2023. https://www.indiatimes.com/technology/news/deepfakes-and-the-safety-of-ai-tools-619754.html.


Los deepfakes, medios sintéticos que manipulan vídeos y audio, plantean riesgos significativos, incluida la erosión de la confianza pública y la amenaza a la privacidad. La detección y atribución de deepfakes sigue siendo desafiante, lo que destaca la necesidad de estrategias de seguridad. Se sugieren soluciones como invertir en algoritmos de detección, promover la alfabetización mediática, establecer leyes claras y éticas, y fomentar la colaboración entre empresas, investigadores y responsables políticos para abordar estos desafíos y garantizar el uso responsable de la IA.

Los deepfakes son medios sintéticos que incluyen vídeos y audio manipulados, sustituyendo la imagen de una persona por otra. A la luz de un reciente vídeo de deepfake en el que participaba la actriz india Rashmika Mandanna, vuelven a surgir demandas de regulación de las herramientas de inteligencia artificial (IA).  El vídeo, creado con tecnología deepfake, muestra el rostro de Mandanna superpuesto al cuerpo de otra mujer. Los videos deepfake se crean utilizando algoritmos de inteligencia artificial para manipular y fabricar contenido de apariencia realista, a menudo con intenciones maliciosas. En este caso, el vídeo muestra falsamente a Mandanna entrando a un ascensor con un vestido negro. La tecnología deepfake es cada vez más sofisticada y accesible, lo que pone de relieve los riesgos asociados a su uso indebido. ¿Cuáles son los riesgos de estas herramientas de IA?

Los deepfakes pueden erosionar la confianza en las instituciones y en la información que producen y difunden. Las herramientas de IA pueden crear vídeos y audio que luego pueden ser utilizados por agentes malintencionados para cambiar la percepción pública, difundir información errónea y sembrar la discordia en la sociedad. Los deepfakes pueden utilizarse para dañar reputaciones, incitar a la violencia y montar escándalos políticos.

Amenaza a la privacidad individual

La privacidad y la reputación de las personas se enfrentan a un riesgo significativo por culpa de los deepfakes. La capacidad de generar medios sintéticos realistas puede utilizarse para producir pornografía no consentida, profundizar los casos de ciberacoso y dañar la posición personal o profesional de una persona. En estos casos, las víctimas de deepfakes pueden sufrir angustia emocional, aislamiento social e incluso pérdidas económicas.

Modificación de la opinión pública

Los deepfakes pueden utilizarse para manipular la opinión pública sobre una persona o un partido político, con la posibilidad de interferir en las elecciones. Estas herramientas pueden ser utilizadas por actores malintencionados para crear vídeos de figuras políticas haciendo declaraciones falsas o incurriendo en comportamientos poco éticos con el fin de influir en el sentimiento de los votantes. Debido a ello, la confianza en las instituciones públicas y el alcance de la democracia pueden verse socavados.

Dificultades para identificar los deepfakes

Aunque hay algunos signos reveladores, como el movimiento distorsionado, los deepfakes siguen siendo en gran medida difíciles de detectar, al menos a primera vista. Además, también son difíciles de atribuir. Con los continuos avances en este tipo de tecnología, será aún más difícil distinguir entre medios auténticos y manipulados, lo que facilitará que los deepfakes se propaguen sin reparos.

Estrategias para garantizar la seguridad

A la luz de las preocupaciones que rodean a estas falsificaciones, es imperativo desarrollar estrategias para prevenir su uso indebido. ¿Cuáles son las posibles soluciones contra el uso indebido de deepfakes?

  • Invertir en algoritmos de detección que puedan ayudar a identificar deepfakes inmediatamente. Con los avances en el aprendizaje automático y la inteligencia artificial, estos deepfakes pueden ser más fáciles de identificar.
  • Es esencial promover la alfabetización mediática capacitando a las personas para evaluar la información que consumen. Para que esto funcione, es necesario educar a las personas sobre la existencia y los peligros de los deepfakes.
  • Es necesario desarrollar leyes y normativas claras para abordar el uso indebido de los deepfakes y proteger a las personas de cualquier daño. Esto significa definir límites legales para la creación y distribución de medios sintéticos, establecer sanciones por uso indebido y proporcionar recursos a las víctimas.
  • Las empresas tecnológicas, los investigadores y los responsables políticos deben trabajar juntos para hacer frente a los retos que plantean los deepfakes. Además, es esencial promover directrices éticas para el consumo de medios sintéticos.

Como la tecnología de IA sigue evolucionando a este ritmo, es imperativo establecer medidas contra el uso indebido de deepfakes. Mediante la aplicación de mecanismos de detección eficaces, la promoción de la alfabetización mediática, el establecimiento de marcos jurídicos claros y el fomento de prácticas éticas de desarrollo de la IA, podemos mitigar los efectos negativos de los deepfakes y salvaguardar el uso responsable de las herramientas de IA. Para saber más sobre el mundo de la tecnología y la ciencia, sigue leyendo Indiatimes.com y haz clic aquí para consultar nuestras guías prácticas.

La British Library sufre un importante ataque informático que está afectando a varios de sus servicios.

Muncaster, Phil. «British Library Still Reeling After Major Cyber Incident». Infosecurity Magazine, 1 de noviembre de 2023. https://www.infosecurity-magazine.com/news/british-library-still-reeling/.

La British Library está experimentando una interrupción tecnológica importante debido a un incidente cibernético que ocurrió durante el fin de semana. Esta interrupción afecta su sitio web, sistemas y servicios en línea, así como algunos servicios en el lugar, incluyendo Wi-Fi público. Las líneas telefónicas y servicios en el lugar en su edificio principal en Londres y otra instalación en Yorkshire también se ven afectados.

Aunque las salas de lectura estarán abiertas para el estudio personal, el acceso a los elementos de la colección es muy limitado, y no se puede acceder a las colecciones digitales o al catálogo digital. La inscripción de lectores también está fuera de servicio. La exposición Fantasy y los espacios públicos permanecerán abiertos como de costumbre, y los eventos públicos se llevarán a cabo según lo planeado, pero solo se aceptará pago en efectivo en el lugar.

Solo estarán disponibles los elementos de la colección solicitados antes del 26 de octubre, y la orden de elementos de la colección de forma manual será muy limitada a través de los catálogos impresos de la biblioteca para elementos almacenados en su base de St Pancras.

Aunque no se ha confirmado la causa del incidente, el ransomware (secuestro de servidores) es una posibilidad dada la gran interrupción. No se ha mencionado si se ha robado información personal de empleados o consumidores. Según los anuncios oficiales de la biblioteca en la red social X, el incidente comenzó el 28 de octubre.

La Biblioteca Nacional del Reino Unido es una de las más grandes del mundo y se estima que contiene hasta 200 millones de elementos en 400 millas de estanterías. Esto incluye la Carta Magna, letras manuscritas de los Beatles y la colección más grande del mundo de obras de Geoffrey Chaucer, que recientemente se puso a disposición en formato digital después de un proyecto de dos años y medio.

la IA supone un riesgo para la humanidad, según la mayoría de los estadounidenses: la encuesta de Reuters/Ipsos revela divisiones religiosas y políticas sobre la IA.

Tong, Anna, y Anna Tong. «AI Threatens Humanity’s Future, 61% of Americans Say: Reuters/Ipsos Poll». Reuters, 17 de mayo de 2023, sec. Technology. https://www.reuters.com/technology/ai-threatens-humanitys-future-61-americans-say-reutersipsos-2023-05-17/.

La mayoría de los estadounidenses cree que el auge de la tecnología de inteligencia artificial podría poner en peligro el futuro de la humanidad, según una encuesta de Reuters/Ipsos publicada el miércoles. La encuesta reveló que más de dos tercios de los encuestados están preocupados por los efectos adversos de la IA, mientras que el 61% la considera una amenaza potencial para la civilización.

La encuesta en línea, realizada del 9 al 15 de mayo, recogió las opiniones de 4.415 adultos estadounidenses. Tiene un intervalo de credibilidad (medida de la precisión) de más o menos dos puntos porcentuales.

Los resultados de la encuesta se producen en medio de la expansión del uso de la IA generativa en la educación, la administración pública, la medicina y la empresa, provocada en parte por el crecimiento explosivo de ChatGPT de OpenAI, que, según se informa, es la aplicación de software de más rápido crecimiento de todos los tiempos. El éxito de la aplicación ha desencadenado una carrera de rumores tecnológicos entre gigantes de la tecnología como Microsoft y Google, que se benefician de tener algo nuevo y de moda para aumentar potencialmente el precio de sus acciones.

Los temores sobre la IA, justificados o no, han retumbado últimamente en el discurso público debido a sucesos de gran repercusión como la carta de la «pausa de la IA» y la dimisión de Geoffery Hinton de Google. (Por temor a la «pérdida de control», los críticos de la IA piden una pausa de 6 meses en su desarrollo*) En un caso reciente de alto perfil de aprensión a la IA, el consejero delegado de OpenAI, Sam Altman, testificó el martes ante el Congreso de EE.UU., expresando su preocupación por el posible mal uso de la tecnología de IA y pidiendo una regulación que, según los críticos, podría ayudar a su empresa a mantener su liderazgo tecnológico y suprimir la competencia.

Los legisladores parecen compartir algunas de estas preocupaciones, como el senador demócrata Cory Booker: «No hay forma de meter a este genio en la botella. A nivel mundial, esto está explotando», informó Reuters.

Este mensaje negativo parece estar surtiendo efecto. Los temores de los estadounidenses sobre el potencial dañino de la IA superan con creces el optimismo sobre sus beneficios, y los que predicen resultados adversos superan a los que no lo hacen en una proporción de tres a uno. «Según los datos, el 61% de los encuestados cree que la IA plantea riesgos para la humanidad, mientras que sólo el 22% está en desacuerdo y el 17% no está seguro», escribió Reuters.

La encuesta también reveló una división política en la percepción de la IA: el 70% de los votantes de Donald Trump expresaron mayor preocupación por la IA, frente al 60% de los votantes de Joe Biden. En cuanto a las creencias religiosas, los cristianos evangélicos estaban más «totalmente de acuerdo» en que la IA plantea riesgos para la civilización humana, con un 32%, frente al 24% de los cristianos no evangélicos.

* Landon Klein, director de política estadounidense del Future of Life Institute, la organización que está detrás de una carta abierta, firmada conjuntamente por Elon Musk, consejero delegado de Tesla (TSLA.O), en la que se exige una pausa de seis meses en la investigación de la IA. «Vemos el momento actual similar al comienzo de la era nuclear, y tenemos el beneficio de la percepción pública que es consistente con la necesidad de tomar medidas».

Comprender la ética y la seguridad de la inteligencia artificial

Leslie, D. (2019). Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector. The Alan Turing Institute. https://doi.org/10.5281/zenodo.3240529

Texto completo

Comprender la ética y la seguridad de la inteligencia artificial
Una guía sobre la ética de la IA, que incluye el diseño y la implantación responsables de sistemas de IA en el sector público.

 

La convergencia de la disponibilidad cada vez mayor de macrodatos, la velocidad y la extensión de las plataformas de computación en la nube y el avance de algoritmos de aprendizaje automático cada vez más sofisticados han dado paso a una época extraordinaria para la humanidad.

Las innovaciones en IA ya están dejando huella en la administración pública, al mejorar la provisión de bienes y servicios sociales esenciales, desde la sanidad, la educación y el transporte hasta el suministro de alimentos, la energía y la gestión medioambiental. Es probable que estas recompensas sean sólo el principio.

La perspectiva de que los avances en IA ayuden a las administraciones públicas a afrontar algunos de sus retos más urgentes es apasionante, pero también suscita legítimas preocupaciones. Como ocurre con cualquier tecnología nueva y en rápida evolución, una curva de aprendizaje pronunciada significa que se cometerán errores y errores de cálculo y que se producirán efectos nocivos e imprevistos.

Consejos para los bibliotecarios que se enfrentan a acoso y amenazas

A tip sheet for librarians facing harassment. PEN America, 2022

Texto completo

Los intentos de prohibición de libros en las escuelas y bibliotecas reflejan una creciente campaña nacional por parte de grupos comunitarios y de padres, e incluso de algunos funcionarios electos, que exigen la retirada de libros, así como cambios en las políticas y procedimientos de las bibliotecas. Esta campaña ha dado lugar a acoso en línea, amenazas e incluso intimidación física y ataques contra los bibliotecarios y el personal de las bibliotecas.

Esta guía pretende dotar a los bibliotecarios de estrategias para hacer frente a los abusos en línea. Si bien este recurso reconoce las formas en que el abuso en línea puede trasladarse al espacio físico de la biblioteca, se centra principalmente en la seguridad digital. Para un análisis de la seguridad física en las bibliotecas, véase:  “We Need to Talk About Library Security” and Creating Safer Libraries. Si buscas recursos útiles sobre seguridad física, consulta:Front Line Defenders Workbook on Security and CPJ’s Journalist Security Guide (especialmente el capítulo 9); aunque estos recursos fueron diseñados para periodistas y activistas, los fundamentos de la seguridad física son ampliamente aplicables.

INFORMAR

Informar sobre el abuso que estás experimentando en línea te ayudará a determinar cómo responder, navegar y comunicarte al respecto. Entre las tácticas abusivas más comunes se encuentran: el discurso de odio (por ejemplo, llamar a la gente «groomers» o «pedófilos»); las amenazas de violencia física o sexual; las cuentas de suplantación de identidad; el doxxing; las imágenes íntimas no consentidas; el acoso sexual; y las bandas de acoso en línea. Para obtener más información sobre estos y otros tipos de abuso en línea, consulta la guía de campo de PEN América: Identifying Abusive Tactics Online.

DOCUMENTAR

Documentar el abuso en línea que experimentas crea un registro de lo que está sucediendo, lo que es fundamental si decides recurrir a la policía o emprender acciones legales, y puede ser útil en las conversaciones con aliados y gerentes. Te permite recopilar información sobre los acosadores y hacer un seguimiento de los patrones de abuso y de las escaladas de comportamiento perjudicial. Haz una captura de pantalla, guarda los enlaces directos a los mensajes de las redes sociales y guarda los correos electrónicos, los mensajes de voz o los mensajes de texto (incluyendo la plataforma, la dirección de correo electrónico, la fecha, la hora, etc.). NOTA: Si utilizas las herramientas de una plataforma en línea para denunciar un abuso en línea y el contenido abusivo se elimina antes de que lo hayas documentado, pierdes las pruebas. Ver: Documenting Online Abuse

EVALUAR LA SEGURIDAD

Tú eres quien mejor puede juzgar si el abuso en línea te ha hecho preocupar por tu seguridad física y/o la de tu familia o colegas. Si has recibido una amenaza directa o velada de violencia física o sexual -o si te enfrentas a la intimidación física o te preocupan las agresiones físicas-, considera la posibilidad de informar a tu institución, de ponerte en contacto con la seguridad de tu biblioteca o distrito escolar, y/o de recurrir a las fuerzas del orden locales. También puede ser útil ponerse en contacto con amigos y familiares de confianza, con un abogado o con una organización sin ánimo de lucro que apoye a las personas que sufren abusos. Ver: Assessing the ThreatEngaging Law Enforcement, and Online Harassment Resources.

NOTIFICAR Y COMUNICAR

Considera la posibilidad de alertar a tu jefe, al departamento de recursos humanos o a quien te sientas más cómodo para hablar en tu biblioteca o distrito escolar sobre el abuso en línea del que estás siendo objeto, y comparte la documentación. Aunque hablar sobre el abuso en línea puede provocar sentimientos de ansiedad o miedo, recuerda que el abuso tiene como objetivo aislar – comunicarse con aliados de confianza puede ayudar. Ver: Talking to Employers and Professional Contacts.

BLOQUEAR, SILENCIAR, DENUNCIAR

Las plataformas de las redes sociales cuentan con funciones que pueden ayudarte a evitar el abuso en línea. Puedes bloquear cuentas (para que no puedan comunicarse contigo o seguirte). Puedes silenciar cuentas o publicaciones o palabras específicas (para no tener que verlas). Y también puede denunciar el contenido abusivo para intentar que se retire una publicación o se suspenda una cuenta por violar las normas de la plataforma. Ver:  Digital Safety Snacks 

CONTROLAR LA SITUACIÓN

El abuso en línea puede resultar profundamente aislante y desalentador. Buscar el apoyo de amigos y familiares y conectarse con colegas y otros bibliotecarios puede ser de gran ayuda. Enfrentarse a los trolls abusivos puede llevar a una escalada de acoso y rara vez es productivo. Denunciar el acoso y tomar las riendas de la historia puede darnos poder, pero es importante que nos familiaricemos con las normas de las redes sociales y las expectativas de nuestra institución al respecto. Ver: Talking to Friends and Family 

CUIDA DE TI MISMO

El abuso en línea puede provocar sentimientos de miedo y vergüenza. Puede causar un daño real a la salud mental y física, y afecta a las personas de forma diferente en función de su experiencia vital, raza, género, origen, etc. Recuerda: el abuso en línea no es tu culpa y no estás solo. Resiste el impulso de ignorar cómo te sientes y trata de sacar tiempo para el autocuidado. Ver:  Advice from Psychologist and Practicing Self-Care

Manual del laboratorio de fabricación SA+P

SA+P Fab Lab Handbook

Texto completo

El laboratorio de fabricación apoya a los estudiantes y al profesorado en la exploración e investigación de materiales como la madera metales, plásticos y hormigón. El laboratorio de fabricación de 3600 pies cuadrados juega un papel integral en el trabajo de los estudiantes y la investigación de la facultad, apoyando la experimentación con materiales y la fabricación. Está equipado con máquinas de última generación controladas por ordenador (CNC) que incluyen dos cortadoras láser, una fresadora CNC de 3 ejes, un escáner 3D, una impresora 3D de plástico ABS y una cortadora de plasma CNC. El laboratorio está supervisado por el El laboratorio está supervisado por el Director, y cuenta con el personal del Director, un técnico de laboratorio y estudiantes asistentes, que instruyen y guían a los usuarios en el uso del equipo.

Índice de contenidos

Información general
Misión del Fab Lab
Visión general
Políticas y procedimientos
Acceso al Fab Lab
Precios para estudiantes
Investigación
Seguridad
Invitados y visitantes del laboratorio
Formación sobre el uso y la seguridad del Fab Lab
Requisitos de las pruebas
Límite de ocupación del laboratorio
Reserva del laboratorio para uso de clases
Horario de apertura del laboratorio
Proyectos personales
Terminología general
Normas generales de seguridad en el laboratorio
Protección de los ojos
Accidentes que no causan lesiones
Accidentes que causan lesiones
Almacenamiento de materiales y proyectos
Limpieza de las instalaciones del laboratorio de fabricación
Materiales
Seguridad de las herramientas manuales
Comprensión de las herramientas eléctricas
Herramientas eléctricas manuales
Seguridad de las máquinas
Instrucciones de la máquina
Conclusión
Formulario de acuerdo
Prueba

Hacer que la ciencia sea más abierta es bueno para la investigación, pero malo para la seguridad

Making Science More Open Is Good for Research—but Bad for Security

Wired, APR 22, 2022 7:00 A

Texto completo

El movimiento de ciencia abierta impulsa que el conocimiento científico sea rápidamente accesible para todos. Pero un nuevo documento advierte que la velocidad puede tener un costo.

Cada vez más, las revistas han publicado investigaciones que son gratuitas para que cualquiera las lea, y los científicos han compartido sus datos entre ellos. El movimiento de ciencia abierta también ha implicado el surgimiento de servidores de preprints: repositorios donde los científicos pueden publicar manuscritos antes de que pasen por una revisión rigurosa por parte de otros investigadores y se publiquen en revistas. Los científicos ya no tienen que pasar por el arduo proceso de revisión por pares antes de que su investigación esté ampliamente disponible: pueden enviar un artículo en bioRxiv y hacer que aparezca en línea al día siguiente.

Pero un nuevo artículo en la revista PLoS Biology argumenta que, si bien el aumento del movimiento de ciencia abierta es en general algo bueno, no está exento de riesgos.

Durante la pandemia, la necesidad de servidores de preimpresión se puso de relieve: la investigación crucial podría difundirse mucho más rápido que la ruta tradicionalmente lenta de las revistas. Pero con eso, también significa que «más personas que nunca saben ahora cómo sintetizar virus en laboratorios», dice Jonas Sandbrink, investigador de bioseguridad en el Instituto Futuro de la Humanidad de la Universidad de Oxford y el otro coautor del artículo.

Un error de seguridad dejo abiertas las puertas de una biblioteca en Nueva Zelanda, la gente ojeo los libros y se auto prestó algunos ejemplares sin robar nada

‘Nothing was stolen’: New Zealanders carry on borrowing from closed, unstaffed library, Tess McClure, The Guardian, Mon 14 Mar 2022 18.00 GMT

Ver noticia

Un error de seguridad en la puerta hizo que una de las bibliotecas más grandes del país quedara abierta durante horas, lo que permitió a cientos de personas hojear las estanterías.

Con motivo de la celebración de la fiesta nacional en Nueva Zelanda, una de las mayores bibliotecas del país que debería haber permanecida cerrada, abrió sus puertas por un error en la programación que hizo que las puertas de Tūranga se abrieran al público como de costumbre, y la biblioteca, sin personal ni seguridad, fuera utilizada alegremente por el público, que hojeó y sacó libros durante horas antes de que alguien se diera cuenta del error.

Además de los libros, la biblioteca alberga una gran variedad de obras de arte y esculturas, pero el personal afirma que no se robó nada y que no hubo incidentes graves que denunciar. Un miembro del personal de la biblioteca del ayuntamiento de Christchurch dijo que 380 personas entraron en el edificio ese domingo por la mañana. «Nuestras máquinas de auto-préstamo se pusieron en marcha automáticamente y los usuarios entregaron 147 libros. No saltó ninguna alarma de robo de libros, y por el momento no se ha denunciado la desaparición de nada, ni hemos detectado ningún daño».

Hubo un cliente descontento, una persona que no pudo encontrar un bibliotecario que le ayudara a sacar sus CD. El empleado escribió: «Un usuario dejó una nota en la que decía que se llevaba algunos CD porque no había bibliotecarios a la vista: ‘He decidido llevarme los CD para daros una lección de cómo no funciona una biblioteca’. La sala de devoluciones estaba llena de libros.

El ayuntamiento se dio cuenta de lo que estaba ocurriendo tras ver los comentarios sobre la falta de personal de la biblioteca en las redes sociales, y se envió a un guardia de seguridad para expulsar desalojar a la gente y cerrar la biblioteca.

«Agradecemos la honestidad de las personas que utilizaron la biblioteca durante este tiempo», dijo Bruce Rendall, el jefe de instalaciones, propiedad y planificación del ayuntamiento de Christchurch.

Los responsables de las instalaciones dijeron que la empresa encargada del sistema de puertas de seguridad «asumió la responsabilidad» por el error y que habían «puesto en marcha una revisión de la programación de las vacaciones para garantizar que esto no vuelva a ocurrir».

Ayudar a los niños a mantenerse activos y seguros en la era de Internet: ciudadanos digitales sanos

Healthy Digital Citizens

Gracias al crecimiento de la tecnología, el mundo está lleno de más y más oportunidades para los niños que crecen hoy en día. Pero toda esta tecnología conlleva su propio conjunto de retos y preocupaciones.

Healthy Digital Citizens (Ciudadanos Digitales Saludables) pretende ser un recurso útil para los adultos que quieran enseñar a los niños los principios de un uso seguro, responsable y saludable de la tecnología. Esto incluye principios de buena ciudadanía digital como la seguridad en Internet y la alfabetización digital, así como el bienestar digital.

Este recurso tiene dos secciones principales, basadas en estos dos pilares fundamentales para ser un ciudadano digital sano: La seguridad en Internet y el bienestar digital.

Puedes utilizar la información aquí para formarte y obtener ideas sobre cómo enseñar a los niños estos importantes temas.

Coste de una filtración de datos en 2021

Cost of a Data Breach Report 2021. IBM, 2021

Texto completo

Security ha anunciado hoy los resultados de un estudio mundial según el cual las violaciones de datos cuestan ahora a las empresas encuestadas una media de 4,24 millones de dólares por incidente, el mayor coste en los 17 años de historia del informe. Basado en un análisis en profundidad de las violaciones de datos del mundo real experimentadas por más de 500 organizaciones, el estudio sugiere que los incidentes de seguridad se volvieron más costosos y difíciles de contener debido a los drásticos cambios operativos durante la pandemia, con un aumento de los costes del 10% en comparación con el año anterior.

Las empresas se vieron obligadas a adaptar rápidamente sus enfoques tecnológicos el año pasado, ya que muchas de ellas fomentaron o exigieron a sus empleados que trabajaran desde casa, y el 60% de las organizaciones avanzaron en las actividades basadas en la nube durante la pandemia. Los nuevos resultados sugieren que la seguridad puede haber quedado rezagada con respecto a estos rápidos cambios de TI, lo que dificulta la capacidad de las organizaciones para responder a las violaciones de datos.

El informe anual Cost of a Data Breach Report, realizado por Ponemon Institute y patrocinado y analizado por IBM Security, identificó las siguientes tendencias entre las organizaciones estudiadas:

  • Impacto del trabajo a distancia: El rápido cambio a las operaciones remotas durante la pandemia parece haber conducido a violaciones de datos más costosas. Las filtraciones costaron más de un millón de dólares más de media cuando se indicó que el trabajo a distancia era un factor del hecho, en comparación con las de este grupo sin este factor (4,96 frente a 3,89 millones de dólares).
  • Los costes de las infracciones en el sector sanitario aumentaron: Los sectores que se enfrentaron a grandes cambios operativos durante la pandemia (atención sanitaria, comercio minorista, hostelería y fabricación/distribución de productos de consumo) también experimentaron un aumento sustancial de los costes de las filtraciones de datos año tras año. Las filtraciones en el sector de la sanidad fueron, con diferencia, las más costosas, con 9,23 millones de dólares por incidente, lo que supone un aumento de 2 millones de dólares con respecto al año anterior.
  • Las credenciales comprometidas condujeron a datos comprometidos: El robo de credenciales de usuario fue la causa más común de las filtraciones en el estudio. Al mismo tiempo, los datos personales de los clientes (como el nombre, el correo electrónico o la contraseña) fueron el tipo de información más comúnmente expuesta en las filtraciones de datos: el 44% de las filtraciones incluían este tipo de datos. La combinación de estos factores podría provocar un efecto espiral, ya que las filtraciones de nombres de usuario/contraseñas proporcionan a los atacantes una ventaja para futuras filtraciones de datos.
  • Enfoques modernos que reducen los costes: La adopción de la IA, el análisis de seguridad y el cifrado fueron los tres factores principales que redujeron el coste de una filtración, ahorrando a las empresas entre 1,25 y 1,49 millones de dólares en comparación con las que no utilizaron de forma significativa estas herramientas. En el caso de las filtraciones de datos basadas en la nube estudiadas, las organizaciones que habían implementado un enfoque de nube híbrida tenían menores costes de filtración de datos (3,61 millones de dólares) que las que tenían un enfoque principalmente de nube pública (4,80 millones de dólares) o principalmente de nube privada (4,55 millones de dólares).