Archivo de la etiqueta: Seguridad

Directrices de la UNESCO para la Gobernanza de Plataformas Digitales

Guidelines for the governance of digital platforms: safeguarding freedom of expression and access to information through a multi-stakeholder approach | UNESCO. (2023).

Texto completo


La UNESCO tiene como objetivo garantizar que la libertad de expresión, el acceso a la información y la diversidad de contenido cultural estén plenamente garantizados para todos, mientras que diversos actores, incluidos los Estados miembros, abordan los problemas de desinformación, información errónea y discurso de odio en línea. Estos problemas se abordarán de manera más efectiva, de acuerdo con el derecho internacional de los derechos humanos, mediante la implementación integral y coherente de las Directrices de la UNESCO.

Los datos de los usuarios de la British Library robados en el ciberataque se ofrecen en un sitio de subastas en la dark web por 600.000 libras esterlinas

Lyon, J. (2023, noviembre 21). Data stolen from the British Library is being auctioned for bitcoin on the dark web. Protos. https://protos.com/data-stolen-from-the-british-library-is-being-auctioned-for-bitcoin-on-the-dark-web/

La British Library, se enfrenta a una crisis cibernética tras un ataque de ransomware. Aunque el edificio y los libros físicos permanecen, el acceso a la información y la conexión entre lectores y materiales se ha visto comprometida. Este incidente destaca la fragilidad de las instituciones que nos conectan y protegen, subrayando la importancia del trabajo que hacen posible.

En Halloween de 2023, la Biblioteca Británica (BL) de Londres sufrió un ciberataque masivo, que dejó su presencia en la web inexistente, su acceso a las colecciones desactivado e incluso su wifi colapsó. El ciberataque también puso en manos de un tercero los datos personales de los usuarios y del personal de la BL. Durante la última semana de noviembre, se presentaron imágenes de los datos robados para su subasta en la web oscura, a la venta a quien estuviera dispuesto a pagar 20 bitcoin, o unas 600.000 libras esterlinas. Al convertir la infraestructura digital de la biblioteca en una mercancía (en un mercado abierto, aunque oscuro), una «banda de ransomware» autodenominada Rhysida espera presionar a la Biblioteca Británica para que pague primero. Los datos privados, que incluyen detalles de pasaportes y documentos de empleo de HMRC. Según The Register, el grupo de ransomware detrás del ataque, Rhysida, ya ha recibido una oferta inicial de 20 bitcoins, con un valor aproximado de $745,000. TechCrunch también afirma que Rhysida amenazó con publicar los datos a menos que se pagara un rescate por parte de la Biblioteca Británica. Un asesor de ciberseguridad global de ESET le dijo a The Register que Rhysida probablemente «no ha recibido el rescate» y «ahora está llevando a cabo la siguiente fase del ataque amenazando con liberar los datos».

«Con solo 7 días en el reloj, aprovecha la oportunidad para ofertar por datos exclusivos, únicos e impresionantes», dice el anuncio de Rhysida. «Abre tus billeteras y prepárate para comprar datos exclusivos. Vendemos solo a una mano, sin revender, serás el único propietario».

La Biblioteca Británica reveló por primera vez las interrupciones a fines de octubre antes de confirmar que fue víctima de un ataque de ransomware el 14 de noviembre. El ataque causó varias interrupciones técnicas importantes, incluida la inutilización del sitio web de la biblioteca. Actualmente, el sitio aún está fuera de servicio, y la biblioteca está publicando actualizaciones en X (anteriormente Twitter).

Esta semana, afirmó: «No tenemos evidencia de que los datos de nuestros usuarios hayan sido comprometidos». Dijo que cualquier persona con una cuenta de la Biblioteca Británica que use una contraseña compartida con otras cuentas debería cambiar esa contraseña en todas partes.

El ataque de ransomware ha expuesto la vulnerabilidad de la institución y sus personas, quienes están dedicadas a proporcionar el derecho humano básico a la información. En última instancia, el incidente destaca que cualquier intento de cuantificar el valor del conocimiento en cualquier moneda, ya sea bitcoin u otra, fracasará. La historia sirve como recordatorio de la fragilidad de las instituciones que nos conectan y protegen, así como de la importancia del trabajo que hacen posible.

La curación de los datos es un paso crítico en la creación de una Inteligencia Artificial Súper Inteligente (ASI) segura.

AI is Deterministic Based Upon the Starting Data – AI Alignment Could Be Relatively Easy. Next Big Future November 27, 2023 by Brian Wang

Texto completo

Un empleado de OpenAI ha observado que los Modelos de Lenguaje Grandes (LLM) que comienzan con el mismo conjunto de datos convergen hacia el mismo punto. Esto sugiere que la curación de los datos es un paso crítico en la creación de una Inteligencia Artificial Súper Inteligente (ASI) segura. Si podemos cargar la IA con ejemplos éticos deseados y a favor de la humanidad desde el principio, el sistema resultante debería tener un núcleo de seguridad alineado con los valores humanos.

La superinteligencia artificial (ASI) es un sistema basado en software con capacidades intelectuales más allá de las de los humanos en una amplia gama de categorías y campos de acción. La ASI aún no existe y es un estado hipotético de la inteligencia artificial (IA). La ASI difiere de la inteligencia artificial regular (IA), que implica la simulación basada en software de las capacidades intelectuales humanas, como el aprendizaje a través de la adquisición de información, el razonamiento y la autocorrección

Se plantea la posibilidad de que sea muy fácil entrenar al LLM en datos acumulados de todos los estudios relacionados con el conocimiento de la alineación de la IA. En teoría, la IA debería aprender y absorber las lecciones de manera efectiva.

El autor, Brian Wang, destaca la importancia de la curación de datos para la seguridad de la IA y sugiere que alinear la IA con valores éticos humanos podría ser relativamente fácil si se aborda desde el inicio con la información correcta.

Cabe señalar que algunos comentarios en la publicación plantean dudas sobre la premisa, argumentando que simplemente escalar un LLM puede no ser suficiente para lograr una ASI y que se pueden necesitar avances fundamentales en la comprensión y modelos internos de la IA.

El terror de un bibliotecario: la Biblioteca Británica pierde sus libros tras un hackeo

Corroto, Paula. 2023. «El terror de un bibliotecario: la Biblioteca Británica pierde sus libros tras un hackeo». elconfidencial.com. 19 de diciembre de 2023. https://www.elconfidencial.com/cultura/2023-12-19/el-terror-de-un-bibliotecario-la-biblioteca-britanica-pierde-sus-libros-fisicos-tras-un-ataque-informatico_3794770/.

El 31 de octubre, la banda de ciberdelincuentes Rhysida llevó a cabo un ataque contra la Biblioteca Nacional Británica (British Library), conocida por importantes instituciones digitales a nivel mundial. Rhysida, previamente responsable de ataques similares, hackeó el sistema de la biblioteca, provocando la caída de la web, la interrupción del acceso a los fondos, la ruptura de la conexión wifi y el robo de hasta 600 GB de datos, incluyendo 490,000 archivos de miembros y personal de la biblioteca. Posteriormente, amenazaron con vender estos datos en la deep web, utilizando técnicas de ransomware.

Un mes y medio después, la web y el acceso digital a los libros permanecen inoperativos. La biblioteca ha informado que el acceso gratuito a su fondo ha quedado suspendido, afectando servicios digitales esenciales, como el catálogo, el sitio web y recursos de aprendizaje en línea, así como servicios de investigación, incluida la colección EThOS con más de 600,000 tesis doctorales.

A pesar de que los responsables aseguraron que no se manipularon datos bancarios ni de tarjetas de crédito, se reveló que entre la información robada se encuentran contratos de trabajo y documentos de identidad. La biblioteca continúa colaborando con la Policía Metropolitana y asesores de ciberseguridad para abordar las consecuencias del ataque.

La catedrática de Literatura Inglesa, Carolyn Dever, destaca en un artículo titulado «How to lose a library» que, más allá de las consecuencias delictivas, el ataque ha tenido un impacto significativo al poner fin al acceso digital a los libros, afectando la misión esencial de proporcionar conocimiento a cualquier persona, que es el propósito fundamental de toda biblioteca.

Un profesor contratado por OpenAI para probar GPT-4 afirma que existe un «riesgo significativo» de que las personas lo utilicen para llevar a cabo «química peligrosa»

Bhaimiya, Sawdah. «A Professor Hired by OpenAI to Test GPT-4 Says There’s “significant Risk” of People Using It to Do “Dangerous Chemistry”». Business Insider. Accedido 3 de noviembre de 2023. https://www.businessinsider.com/open-ai-gpt4-high-risk-used-for-dangerous-chemistry-expert-2023-4.

Un profesor contratado por OpenAI para probar GPT-4, creadora del chatbot ChatGPT, ha advertido sobre el «riesgo significativo» de que las personas lo utilicen para realizar «química peligrosa». Andrew White, profesor asociado de ingeniería química en la Universidad de Rochester en el estado de Nueva York, formó parte de un grupo de 50 expertos contratados para probar la nueva tecnología durante un período de seis meses en 2022.

Este grupo de expertos, conocido como el «equipo rojo«, planteó preguntas peligrosas y provocadoras al modelo de inteligencia artificial para evaluar hasta dónde podía llegar. White reveló que utilizó GPT-4 para sugerir un compuesto que pudiera funcionar como un arma química, utilizando «complementos» que permitían al chatbot acceder a información de documentos científicos y directorios de fabricantes químicos. Según se informa, el chatbot pudo encontrar información sobre cómo fabricar el compuesto.

White comentó que, si bien esta tecnología puede acelerar y mejorar la química, también existe el riesgo de que las personas realicen actividades químicas peligrosas.

Los hallazgos del equipo de 50 expertos se presentaron en un documento técnico sobre el nuevo modelo, que también mostró que la IA podría ayudar a los usuarios a redactar discursos de odio y a encontrar armas no registradas en línea. Estos hallazgos contribuyeron a que OpenAI abordara estos problemas antes de lanzar GPT-4 para uso público.

GPT-4 se lanzó en marzo y se describe como la tecnología de IA más avanzada de OpenAI, capaz de aprobar un examen de abogacía o alcanzar una calificación de 5 en algunos exámenes de nivel avanzado (AP).

El CEO de Twitter, Elon Musk, y cientos de expertos en IA, académicos e investigadores firmaron una carta abierta el mes pasado en la que pedían una pausa de seis meses en el desarrollo de herramientas de IA más poderosas que GPT-4. La carta argumentaba que los sistemas de IA poderosos solo deberían desarrollarse «una vez que estemos seguros de que sus efectos serán positivos y sus riesgos manejables».

Deepfakes y la seguridad de las herramientas de IA: formas de navegar por este turbio panorama

IndiaTimes. «Deepfakes And The Safety Of AI Tools: Ways To Navigate This Murky Landscape», 6 de noviembre de 2023. https://www.indiatimes.com/technology/news/deepfakes-and-the-safety-of-ai-tools-619754.html.


Los deepfakes, medios sintéticos que manipulan vídeos y audio, plantean riesgos significativos, incluida la erosión de la confianza pública y la amenaza a la privacidad. La detección y atribución de deepfakes sigue siendo desafiante, lo que destaca la necesidad de estrategias de seguridad. Se sugieren soluciones como invertir en algoritmos de detección, promover la alfabetización mediática, establecer leyes claras y éticas, y fomentar la colaboración entre empresas, investigadores y responsables políticos para abordar estos desafíos y garantizar el uso responsable de la IA.

Los deepfakes son medios sintéticos que incluyen vídeos y audio manipulados, sustituyendo la imagen de una persona por otra. A la luz de un reciente vídeo de deepfake en el que participaba la actriz india Rashmika Mandanna, vuelven a surgir demandas de regulación de las herramientas de inteligencia artificial (IA).  El vídeo, creado con tecnología deepfake, muestra el rostro de Mandanna superpuesto al cuerpo de otra mujer. Los videos deepfake se crean utilizando algoritmos de inteligencia artificial para manipular y fabricar contenido de apariencia realista, a menudo con intenciones maliciosas. En este caso, el vídeo muestra falsamente a Mandanna entrando a un ascensor con un vestido negro. La tecnología deepfake es cada vez más sofisticada y accesible, lo que pone de relieve los riesgos asociados a su uso indebido. ¿Cuáles son los riesgos de estas herramientas de IA?

Los deepfakes pueden erosionar la confianza en las instituciones y en la información que producen y difunden. Las herramientas de IA pueden crear vídeos y audio que luego pueden ser utilizados por agentes malintencionados para cambiar la percepción pública, difundir información errónea y sembrar la discordia en la sociedad. Los deepfakes pueden utilizarse para dañar reputaciones, incitar a la violencia y montar escándalos políticos.

Amenaza a la privacidad individual

La privacidad y la reputación de las personas se enfrentan a un riesgo significativo por culpa de los deepfakes. La capacidad de generar medios sintéticos realistas puede utilizarse para producir pornografía no consentida, profundizar los casos de ciberacoso y dañar la posición personal o profesional de una persona. En estos casos, las víctimas de deepfakes pueden sufrir angustia emocional, aislamiento social e incluso pérdidas económicas.

Modificación de la opinión pública

Los deepfakes pueden utilizarse para manipular la opinión pública sobre una persona o un partido político, con la posibilidad de interferir en las elecciones. Estas herramientas pueden ser utilizadas por actores malintencionados para crear vídeos de figuras políticas haciendo declaraciones falsas o incurriendo en comportamientos poco éticos con el fin de influir en el sentimiento de los votantes. Debido a ello, la confianza en las instituciones públicas y el alcance de la democracia pueden verse socavados.

Dificultades para identificar los deepfakes

Aunque hay algunos signos reveladores, como el movimiento distorsionado, los deepfakes siguen siendo en gran medida difíciles de detectar, al menos a primera vista. Además, también son difíciles de atribuir. Con los continuos avances en este tipo de tecnología, será aún más difícil distinguir entre medios auténticos y manipulados, lo que facilitará que los deepfakes se propaguen sin reparos.

Estrategias para garantizar la seguridad

A la luz de las preocupaciones que rodean a estas falsificaciones, es imperativo desarrollar estrategias para prevenir su uso indebido. ¿Cuáles son las posibles soluciones contra el uso indebido de deepfakes?

  • Invertir en algoritmos de detección que puedan ayudar a identificar deepfakes inmediatamente. Con los avances en el aprendizaje automático y la inteligencia artificial, estos deepfakes pueden ser más fáciles de identificar.
  • Es esencial promover la alfabetización mediática capacitando a las personas para evaluar la información que consumen. Para que esto funcione, es necesario educar a las personas sobre la existencia y los peligros de los deepfakes.
  • Es necesario desarrollar leyes y normativas claras para abordar el uso indebido de los deepfakes y proteger a las personas de cualquier daño. Esto significa definir límites legales para la creación y distribución de medios sintéticos, establecer sanciones por uso indebido y proporcionar recursos a las víctimas.
  • Las empresas tecnológicas, los investigadores y los responsables políticos deben trabajar juntos para hacer frente a los retos que plantean los deepfakes. Además, es esencial promover directrices éticas para el consumo de medios sintéticos.

Como la tecnología de IA sigue evolucionando a este ritmo, es imperativo establecer medidas contra el uso indebido de deepfakes. Mediante la aplicación de mecanismos de detección eficaces, la promoción de la alfabetización mediática, el establecimiento de marcos jurídicos claros y el fomento de prácticas éticas de desarrollo de la IA, podemos mitigar los efectos negativos de los deepfakes y salvaguardar el uso responsable de las herramientas de IA. Para saber más sobre el mundo de la tecnología y la ciencia, sigue leyendo Indiatimes.com y haz clic aquí para consultar nuestras guías prácticas.

La British Library sufre un importante ataque informático que está afectando a varios de sus servicios.

Muncaster, Phil. «British Library Still Reeling After Major Cyber Incident». Infosecurity Magazine, 1 de noviembre de 2023. https://www.infosecurity-magazine.com/news/british-library-still-reeling/.

La British Library está experimentando una interrupción tecnológica importante debido a un incidente cibernético que ocurrió durante el fin de semana. Esta interrupción afecta su sitio web, sistemas y servicios en línea, así como algunos servicios en el lugar, incluyendo Wi-Fi público. Las líneas telefónicas y servicios en el lugar en su edificio principal en Londres y otra instalación en Yorkshire también se ven afectados.

Aunque las salas de lectura estarán abiertas para el estudio personal, el acceso a los elementos de la colección es muy limitado, y no se puede acceder a las colecciones digitales o al catálogo digital. La inscripción de lectores también está fuera de servicio. La exposición Fantasy y los espacios públicos permanecerán abiertos como de costumbre, y los eventos públicos se llevarán a cabo según lo planeado, pero solo se aceptará pago en efectivo en el lugar.

Solo estarán disponibles los elementos de la colección solicitados antes del 26 de octubre, y la orden de elementos de la colección de forma manual será muy limitada a través de los catálogos impresos de la biblioteca para elementos almacenados en su base de St Pancras.

Aunque no se ha confirmado la causa del incidente, el ransomware (secuestro de servidores) es una posibilidad dada la gran interrupción. No se ha mencionado si se ha robado información personal de empleados o consumidores. Según los anuncios oficiales de la biblioteca en la red social X, el incidente comenzó el 28 de octubre.

La Biblioteca Nacional del Reino Unido es una de las más grandes del mundo y se estima que contiene hasta 200 millones de elementos en 400 millas de estanterías. Esto incluye la Carta Magna, letras manuscritas de los Beatles y la colección más grande del mundo de obras de Geoffrey Chaucer, que recientemente se puso a disposición en formato digital después de un proyecto de dos años y medio.

la IA supone un riesgo para la humanidad, según la mayoría de los estadounidenses: la encuesta de Reuters/Ipsos revela divisiones religiosas y políticas sobre la IA.

Tong, Anna, y Anna Tong. «AI Threatens Humanity’s Future, 61% of Americans Say: Reuters/Ipsos Poll». Reuters, 17 de mayo de 2023, sec. Technology. https://www.reuters.com/technology/ai-threatens-humanitys-future-61-americans-say-reutersipsos-2023-05-17/.

La mayoría de los estadounidenses cree que el auge de la tecnología de inteligencia artificial podría poner en peligro el futuro de la humanidad, según una encuesta de Reuters/Ipsos publicada el miércoles. La encuesta reveló que más de dos tercios de los encuestados están preocupados por los efectos adversos de la IA, mientras que el 61% la considera una amenaza potencial para la civilización.

La encuesta en línea, realizada del 9 al 15 de mayo, recogió las opiniones de 4.415 adultos estadounidenses. Tiene un intervalo de credibilidad (medida de la precisión) de más o menos dos puntos porcentuales.

Los resultados de la encuesta se producen en medio de la expansión del uso de la IA generativa en la educación, la administración pública, la medicina y la empresa, provocada en parte por el crecimiento explosivo de ChatGPT de OpenAI, que, según se informa, es la aplicación de software de más rápido crecimiento de todos los tiempos. El éxito de la aplicación ha desencadenado una carrera de rumores tecnológicos entre gigantes de la tecnología como Microsoft y Google, que se benefician de tener algo nuevo y de moda para aumentar potencialmente el precio de sus acciones.

Los temores sobre la IA, justificados o no, han retumbado últimamente en el discurso público debido a sucesos de gran repercusión como la carta de la «pausa de la IA» y la dimisión de Geoffery Hinton de Google. (Por temor a la «pérdida de control», los críticos de la IA piden una pausa de 6 meses en su desarrollo*) En un caso reciente de alto perfil de aprensión a la IA, el consejero delegado de OpenAI, Sam Altman, testificó el martes ante el Congreso de EE.UU., expresando su preocupación por el posible mal uso de la tecnología de IA y pidiendo una regulación que, según los críticos, podría ayudar a su empresa a mantener su liderazgo tecnológico y suprimir la competencia.

Los legisladores parecen compartir algunas de estas preocupaciones, como el senador demócrata Cory Booker: «No hay forma de meter a este genio en la botella. A nivel mundial, esto está explotando», informó Reuters.

Este mensaje negativo parece estar surtiendo efecto. Los temores de los estadounidenses sobre el potencial dañino de la IA superan con creces el optimismo sobre sus beneficios, y los que predicen resultados adversos superan a los que no lo hacen en una proporción de tres a uno. «Según los datos, el 61% de los encuestados cree que la IA plantea riesgos para la humanidad, mientras que sólo el 22% está en desacuerdo y el 17% no está seguro», escribió Reuters.

La encuesta también reveló una división política en la percepción de la IA: el 70% de los votantes de Donald Trump expresaron mayor preocupación por la IA, frente al 60% de los votantes de Joe Biden. En cuanto a las creencias religiosas, los cristianos evangélicos estaban más «totalmente de acuerdo» en que la IA plantea riesgos para la civilización humana, con un 32%, frente al 24% de los cristianos no evangélicos.

* Landon Klein, director de política estadounidense del Future of Life Institute, la organización que está detrás de una carta abierta, firmada conjuntamente por Elon Musk, consejero delegado de Tesla (TSLA.O), en la que se exige una pausa de seis meses en la investigación de la IA. «Vemos el momento actual similar al comienzo de la era nuclear, y tenemos el beneficio de la percepción pública que es consistente con la necesidad de tomar medidas».

Comprender la ética y la seguridad de la inteligencia artificial

Leslie, D. (2019). Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector. The Alan Turing Institute. https://doi.org/10.5281/zenodo.3240529

Texto completo

Comprender la ética y la seguridad de la inteligencia artificial
Una guía sobre la ética de la IA, que incluye el diseño y la implantación responsables de sistemas de IA en el sector público.

 

La convergencia de la disponibilidad cada vez mayor de macrodatos, la velocidad y la extensión de las plataformas de computación en la nube y el avance de algoritmos de aprendizaje automático cada vez más sofisticados han dado paso a una época extraordinaria para la humanidad.

Las innovaciones en IA ya están dejando huella en la administración pública, al mejorar la provisión de bienes y servicios sociales esenciales, desde la sanidad, la educación y el transporte hasta el suministro de alimentos, la energía y la gestión medioambiental. Es probable que estas recompensas sean sólo el principio.

La perspectiva de que los avances en IA ayuden a las administraciones públicas a afrontar algunos de sus retos más urgentes es apasionante, pero también suscita legítimas preocupaciones. Como ocurre con cualquier tecnología nueva y en rápida evolución, una curva de aprendizaje pronunciada significa que se cometerán errores y errores de cálculo y que se producirán efectos nocivos e imprevistos.

Consejos para los bibliotecarios que se enfrentan a acoso y amenazas

A tip sheet for librarians facing harassment. PEN America, 2022

Texto completo

Los intentos de prohibición de libros en las escuelas y bibliotecas reflejan una creciente campaña nacional por parte de grupos comunitarios y de padres, e incluso de algunos funcionarios electos, que exigen la retirada de libros, así como cambios en las políticas y procedimientos de las bibliotecas. Esta campaña ha dado lugar a acoso en línea, amenazas e incluso intimidación física y ataques contra los bibliotecarios y el personal de las bibliotecas.

Esta guía pretende dotar a los bibliotecarios de estrategias para hacer frente a los abusos en línea. Si bien este recurso reconoce las formas en que el abuso en línea puede trasladarse al espacio físico de la biblioteca, se centra principalmente en la seguridad digital. Para un análisis de la seguridad física en las bibliotecas, véase:  “We Need to Talk About Library Security” and Creating Safer Libraries. Si buscas recursos útiles sobre seguridad física, consulta:Front Line Defenders Workbook on Security and CPJ’s Journalist Security Guide (especialmente el capítulo 9); aunque estos recursos fueron diseñados para periodistas y activistas, los fundamentos de la seguridad física son ampliamente aplicables.

INFORMAR

Informar sobre el abuso que estás experimentando en línea te ayudará a determinar cómo responder, navegar y comunicarte al respecto. Entre las tácticas abusivas más comunes se encuentran: el discurso de odio (por ejemplo, llamar a la gente «groomers» o «pedófilos»); las amenazas de violencia física o sexual; las cuentas de suplantación de identidad; el doxxing; las imágenes íntimas no consentidas; el acoso sexual; y las bandas de acoso en línea. Para obtener más información sobre estos y otros tipos de abuso en línea, consulta la guía de campo de PEN América: Identifying Abusive Tactics Online.

DOCUMENTAR

Documentar el abuso en línea que experimentas crea un registro de lo que está sucediendo, lo que es fundamental si decides recurrir a la policía o emprender acciones legales, y puede ser útil en las conversaciones con aliados y gerentes. Te permite recopilar información sobre los acosadores y hacer un seguimiento de los patrones de abuso y de las escaladas de comportamiento perjudicial. Haz una captura de pantalla, guarda los enlaces directos a los mensajes de las redes sociales y guarda los correos electrónicos, los mensajes de voz o los mensajes de texto (incluyendo la plataforma, la dirección de correo electrónico, la fecha, la hora, etc.). NOTA: Si utilizas las herramientas de una plataforma en línea para denunciar un abuso en línea y el contenido abusivo se elimina antes de que lo hayas documentado, pierdes las pruebas. Ver: Documenting Online Abuse

EVALUAR LA SEGURIDAD

Tú eres quien mejor puede juzgar si el abuso en línea te ha hecho preocupar por tu seguridad física y/o la de tu familia o colegas. Si has recibido una amenaza directa o velada de violencia física o sexual -o si te enfrentas a la intimidación física o te preocupan las agresiones físicas-, considera la posibilidad de informar a tu institución, de ponerte en contacto con la seguridad de tu biblioteca o distrito escolar, y/o de recurrir a las fuerzas del orden locales. También puede ser útil ponerse en contacto con amigos y familiares de confianza, con un abogado o con una organización sin ánimo de lucro que apoye a las personas que sufren abusos. Ver: Assessing the ThreatEngaging Law Enforcement, and Online Harassment Resources.

NOTIFICAR Y COMUNICAR

Considera la posibilidad de alertar a tu jefe, al departamento de recursos humanos o a quien te sientas más cómodo para hablar en tu biblioteca o distrito escolar sobre el abuso en línea del que estás siendo objeto, y comparte la documentación. Aunque hablar sobre el abuso en línea puede provocar sentimientos de ansiedad o miedo, recuerda que el abuso tiene como objetivo aislar – comunicarse con aliados de confianza puede ayudar. Ver: Talking to Employers and Professional Contacts.

BLOQUEAR, SILENCIAR, DENUNCIAR

Las plataformas de las redes sociales cuentan con funciones que pueden ayudarte a evitar el abuso en línea. Puedes bloquear cuentas (para que no puedan comunicarse contigo o seguirte). Puedes silenciar cuentas o publicaciones o palabras específicas (para no tener que verlas). Y también puede denunciar el contenido abusivo para intentar que se retire una publicación o se suspenda una cuenta por violar las normas de la plataforma. Ver:  Digital Safety Snacks 

CONTROLAR LA SITUACIÓN

El abuso en línea puede resultar profundamente aislante y desalentador. Buscar el apoyo de amigos y familiares y conectarse con colegas y otros bibliotecarios puede ser de gran ayuda. Enfrentarse a los trolls abusivos puede llevar a una escalada de acoso y rara vez es productivo. Denunciar el acoso y tomar las riendas de la historia puede darnos poder, pero es importante que nos familiaricemos con las normas de las redes sociales y las expectativas de nuestra institución al respecto. Ver: Talking to Friends and Family 

CUIDA DE TI MISMO

El abuso en línea puede provocar sentimientos de miedo y vergüenza. Puede causar un daño real a la salud mental y física, y afecta a las personas de forma diferente en función de su experiencia vital, raza, género, origen, etc. Recuerda: el abuso en línea no es tu culpa y no estás solo. Resiste el impulso de ignorar cómo te sientes y trata de sacar tiempo para el autocuidado. Ver:  Advice from Psychologist and Practicing Self-Care