Archivo de la categoría: Tecnologías de la información

El impacto de la tecnología y las redes sociales en el cerebro adolescente: riesgos, beneficios y recomendaciones

CBC News. “Teen Brains, Technology, and Social Media: Can They Impact Cognitive Skills?CBC, fecha de publicación, 2025. https://www.cbc.ca/news/canada/teen-brains-technology-aids-1.7604341

El artículo plantea la cuestión de si la exposición intensa de los adolescentes a la tecnología —incluyendo redes sociales, inteligencia artificial, aplicaciones educativas, dispositivos digitales— puede tener efectos tanto beneficiosos como perjudiciales en el desarrollo cognitivo. Se presentan preocupaciones entre educadores, psicólogos y padres en cuanto a la dependencia que los jóvenes podrían desarrollar con herramientas tecnológicas: por ejemplo, el uso constante de ayudas digitales puede afectar su capacidad de concentración, memoria de trabajo o fijación en tareas que requieren atención prolongada.

Por otro lado, se discuten aspectos positivos: la tecnología permite acceso rápido a información, debe facilitar la colaboración, interdisciplinariedad, creatividad, y el aprendizaje personalizado. Algunas herramientas, incluidas aplicaciones educativas o de IA, pueden ayudar a reforzar habilidades cognitivas específicas, como el reconocimiento visual, la resolución de problemas o incluso ciertas funciones ejecutivas —cuando se usan con criterio y estructura—.

El artículo también explora cómo el contexto educativo, el tipo de usos tecnológicos y los límites (horarios, supervisión, tipos de contenido) influyen en los efectos observados: no toda exposición es igual. Se menciona que los efectos negativos tienden a aparecer cuando hay un uso desregulado, multitarea excesiva, interrupciones constantes (notificaciones, mensajes) o cuando la tecnología sustituye completamente formas tradicionales de aprendizaje o interacción humana. Además, se integran testimonios de educadores que ven cambios en la capacidad de atención de sus estudiantes, dificultades para mantener la concentración sin distracciones digitales, o una tendencia a “saltar” rápidamente entre tareas.

Una parte importante del artículo está dedicada a recomendaciones para equilibrar estos riesgos con los beneficios: fomentar hábitos saludables de uso tecnológico, establecer tiempos sin pantallas, promover pausas, diseñar entornos de aprendizaje que reduzcan las distracciones digitales, entrenar tanto a alumnos como a docentes para que sean conscientes de cómo usar la tecnología de forma óptima, y no simplemente incorporar más dispositivos sin una estrategia crítica. También se sugiere investigación continua, análisis de datos longitudinales para ver efectos a largo plazo, comparación entre diferentes tipos de tecnología, y seguimiento de casos donde se hayan aplicado intervenciones educativas para mitigar efectos adversos.

Teoría de la muerte de Internet: gran parte de la web está dominada por bots y contenido generado automáticamente

Hindy, Joe. “What Is the Dead Internet Theory? Zombie Internet Might Be a More Accurate Term.” Mashable, September 6, 2025. https://mashable.com/article/what-is-dead-internet-theory

La Dead Internet Theory sostiene que desde 2016 gran parte de la web está dominada por bots y contenido generado automáticamente, manipulado por algoritmos. Sus defensores creen que se usan para influir en el consumo y en la opinión pública, incluso por parte de gobiernos.

Dead Internet Theory (Teoría del Internet Muerto) postula que gran parte del contenido y la actividad en la web ya no proviene de seres humanos auténticos, sino de bots, cuentas automatizadas, contenido generado por IA y mecanismos algorítmicos diseñados para maximizar la participación (likes, clics, compartidos), muchas veces sin intervención humana real.

Según esta perspectiva, no solo se crean publicaciones automatizadas, sino que también las cuentas que interactúan con ellas (comentando, reaccionando, compartiendo) pueden estar controladas por IA, lo que produce una retroalimentación artificial de contenido. Esto habría generado un ciclo donde los algoritmos, motores de búsqueda y plataformas sociales priorizan lo que atrae métricas, no lo que es auténtico o humano.

Un ejemplo citado en fuentes relacionadas es el fenómeno de «Shrimp Jesus» — imágenes generadas por IA que combinan iconografía religiosa con absurdos visuales, que terminan haciéndose virales en redes sociales. Estas tendencias ilustran cómo contenido sin una lógica humana clara puede ganar tracción por su capacidad de generar reacción, no necesariamente por su valor informativo o cultural.

También se discute la implicación política y social de esta teoría: no se trata solo de curiosidad o fenómenos virales, sino de una posible manipulación de la opinión pública, desinformación, propaganda, o de estructuras de monetización que se benefician más de la atención que de la verdad. En algunos estudios se estima que casi la mitad del tráfico de internet podría estar generado por bots u operaciones automatizadas, lo que refuerza los temores de que lo que percibimos como conversación humana puede estar mediado o construido por sistemas no humanos.

Al mismo tiempo, los expertos señalan que muchos elementos de la teoría son especulativos o conjeturales. Si bien hay evidencias de aumento en contenido generado por IA, mayor uso de bots, y prácticas de engagement fraudulento o artificial, no hay consenso de que la “internet esté muerta” en el sentido literal que algunos proponentes afirman. La teoría sirve más como un lente crítico: nos permite pensar en hasta qué punto la autenticidad humana todavía está presente en nuestras interacciones en línea, y cómo se están transformando las dinámicas de visibilidad, verdad y confianza en la red.

Las bibliotecas como guías en el uso ético y comunitario de la inteligencia artificial

Enis, Matt “AI Influencers: Libraries Guiding AI Use.Library Journal, March 20, 2024. https://www.libraryjournal.com/story/news/ai-influencers-libraries-guiding-ai-use

El artículo aborda el creciente impacto de la inteligencia artificial generativa y el papel que pueden tener las bibliotecas para moldear su uso ético y efectivo. Se cita el libro Generative AI and Libraries: Claiming Our Place in the Center of a Shared Future de Chris Rosser y Michael Hanegan, que compara la velocidad de adopción de tecnologías como ChatGPT con la del teléfono o internet, subrayando que la IA “llega para quedarse” y transformará profundamente la sociedad.

Los autores sostienen que las bibliotecas están en una posición privilegiada para intervenir: enseñar sobre la IA, desarrollar competencias necesarias en las comunidades, colaborar con organizaciones locales de ámbito laboral, compartir recursos entre distintas bibliotecas y establecer políticas comunes. Por ejemplo, mencionan que las bibliotecas públicas se verán involucradas en una de las mayores reconversiones laborales de la historia.

Otro tema destacado es la desigualdad de acceso y conocimiento. Dr. Michael Hughes advierte que quienes entienden y tienen acceso a versiones más potentes de las herramientas de IA obtendrán ventajas, agudizando las brechas existentes. Las bibliotecas tienen ya experiencia crítica con IA y la capacidad para guiar a estudiantes y usuarios en un uso responsable.

El artículo también describe ejemplos prácticos de acciones ya en marcha. En Austin (EE.UU.), por ejemplo, la biblioteca pública y las oficinas municipales han promovido políticas de IA y formación profesional para el personal con el fin de asesorar sobre uso ético. Asimismo, la Universidad de Carolina del Norte ha creado un AI Studio en su sistema de bibliotecas, espacio destinado a talleres, diálogo comunitario, cooperación entre facultades y democratización del acceso a herramientas.

Finalmente, se destaca el reto del ritmo acelerado de cambio tecnológico. Las bibliotecas deben mantenerse al día, no solo en cuanto a las herramientas, sino también en los debates sobre implicaciones éticas, equidad, riesgos y desinformación. Se sugiere que el aprendizaje continuo, la colaboración entre bibliotecas, y la creación de políticas institucionales y locales son vías esenciales para que las bibliotecas realmente influyan.

¿Estamos construyendo nuestra propia destrucción con la inteligencia artificial?

Levy, Steven. «The Doomers Who Insist AI Will Kill Us AllWired, 5 de septiembre de 2025. https://www.wired.com/story/the-doomers-who-insist-ai-will-kill-us-all/

Las sombrías predicciones de Eliezer Yudkowsky y Nate Soares, quienes advierten que la inteligencia artificial superhumana representa una amenaza existencial para la humanidad. Su libro, If Anyone Builds It, Everyone Dies, sostiene que una vez que la IA supere la inteligencia humana, desarrollará preferencias propias que no se alinearán con los intereses humanos, viéndonos como obstáculos a eliminar.

Según los autores, la IA superhumana representa una amenaza existencial para la humanidad, y el subtítulo de su próximo libro, If Anyone Builds It, Everyone Dies, subraya que esta tecnología “mataría a todos los humanos” si no se toman medidas preventivas. El artículo señala que, incluso los propios autores no confían en que la sociedad tome las decisiones necesarias para evitar la catástrofe, lo que genera un tono extremadamente oscuro en su obra, comparado con notas escritas en la víspera de una ejecución.

Los comentaristas advierten que, aunque existe una probabilidad significativa —alrededor del 10% o más— de que estas predicciones sean correctas, el tema no ocupa un lugar central en el debate público. Esto se atribuye a una combinación de desinformación, desinterés y una orientación económica de los líderes actuales, así como a la influencia de ejecutivos tecnológicos que promueven la innovación sin considerar los riesgos potenciales. El artículo denuncia que el mundo está dominado por individuos egoístas y poderosos, cuya conducta aumenta la posibilidad de que la humanidad enfrente consecuencias catastróficas si no se gestionan adecuadamente los avances en IA.

Asimismo, se examinan las críticas a la perspectiva “doomer” de la IA. Algunos expertos consideran que este enfoque exagera la amenaza y refleja más la visión pesimista y misantrópica de sus proponentes que un análisis objetivo. Se discute que, aunque la superinteligencia podría actuar de manera hostil, también es posible que simplemente nos ignore, dado que no necesariamente comparte nuestras motivaciones ni emociones humanas. Se plantean escenarios alternativos, desde una automatización gradual de la economía que escape al control humano hasta el uso de la IA por dictadores como superarma, que llevaría a una autodestrucción indirecta de la humanidad.

El artículo concluye que la verdadera preocupación no reside únicamente en la intención de la IA, sino en la enorme incertidumbre sobre cómo se desarrollará esta tecnología y en cómo la humanidad responde a ella. La existencia de riesgos serios exige una discusión pública informada y regulaciones responsables, además de un enfoque equilibrado que considere tanto los beneficios de la IA como las posibles consecuencias catastróficas de su mal uso. En este contexto, los autores destacan la necesidad de estar preparados para escenarios extremos, aunque algunos escépticos sugieren que la exageración de los apocalípticos también puede reflejar motivaciones de autopromoción o fascinación por la ciencia ficción.

La dependencia excesiva de la inteligencia artificial (IA) que podría estar erosionando habilidades humanas esenciales

Daws, Ryan. «AI Obsession Is Costing Us Our Human SkillsArtificial Intelligence News, 6 de agosto de 2025. https://www.artificialintelligence-news.com/news/ai-obsession-costing-us-our-human-skills/

Un número creciente de evidencias sugiere que la dependencia excesiva de la inteligencia artificial (IA) podría estar erosionando las habilidades humanas necesarias para usarla de manera efectiva.

Aunque la inversión en IA promete transformar sectores económicos, Daws destaca que sin una inversión paralela en el desarrollo de capacidades humanas como el razonamiento analítico y la creatividad, el potencial de la IA podría no materializarse plenamente. Investigaciones de Multiverse identifican trece habilidades clave que distinguen a los usuarios avanzados de IA, enfocadas en el pensamiento crítico y la reflexión, más allá de la simple interacción técnica con las herramientas.

La advertencia es que, sin cultivar activamente nuestras propias habilidades humanas, esta inversión multimillonaria en IA no solo rendirá por debajo de lo esperado, sino que podría fracasar por completo. Corremos el riesgo de crear un déficit de habilidades humanas que podría lastrar la productividad durante años.

No se trata solo de lo que le pides a la IA, sino de cómo analizas, cuestionas y refinás lo que te devuelve. Tomemos el razonamiento analítico. Es la habilidad humana de examinar un problema complejo y descomponerlo en partes que la IA pueda manejar, pero también la sabiduría para reconocer cuándo una tarea simplemente no es adecuada para una máquina. Se trata de ser el piloto, no solo el pasajero.

De manera similar, la creatividad nos impulsa a experimentar y encontrar formas genuinamente nuevas de usar estas herramientas, en lugar de pedir solo una versión ligeramente mejor de algo que ya existe.

También entran en juego rasgos personales. Habilidades como la determinación (la paciencia de seguir intentando cuando la IA produce resultados deficientes) y la adaptabilidad son necesarias. Cualquiera que haya usado estas herramientas sabe que el éxito a la primera es raro. Se requiere cierta resiliencia y curiosidad profunda para mirar más allá de la respuesta de la IA y verificarla con tu propio conocimiento.

Gary Eimerman, director de aprendizaje en Multiverse, enfatiza que los líderes empresariales deben reconocer que los desafíos actuales no son únicamente tecnológicos, sino también humanos. La falta de atención al desarrollo de habilidades cognitivas y culturales podría generar un déficit de competencias humanas que obstaculizaría la adopción efectiva de la IA y limitaría su impacto positivo en la productividad.

El artículo subraya la necesidad de equilibrar la inversión en IA con el fortalecimiento de las habilidades humanas fundamentales para garantizar una integración exitosa y sostenible de la inteligencia artificial en la sociedad y la economía.

Análisis del uso de Claude: patrones de adopción de la IA en EE. UU. y el mundo

Anthropic. “Anthropic Economic Index: Tracking AI’s Role in the US and Global Economy.” Anthropic Research, 15 de septiembre de 2025. https://www.anthropic.com/research/economic-index-geography

El informe de Anthropic presenta el Economic Index, una herramienta que analiza cómo se utiliza Claude, su modelo de inteligencia artificial, en distintos países y estados de Estados Unidos. El objetivo es ofrecer una visión clara de los patrones tempranos de adopción de la IA y su impacto económico, explorando tanto diferencias geográficas como la evolución en los tipos de tareas realizadas.

A nivel internacional, Estados Unidos lidera el uso total, seguido por India, Brasil, Japón y Corea del Sur. Sin embargo, al ajustar por población activa, países como Israel, Singapur, Australia y Nueva Zelanda muestran niveles de adopción proporcionalmente más altos. El índice revela una fuerte correlación entre el ingreso per cápita y el uso relativo de la IA, con los países de mayor desarrollo económico y conectividad digital a la cabeza.

Dentro de Estados Unidos, el mismo patrón se repite: los estados con mayor PIB per cápita presentan un uso más intensivo de la IA. El Distrito de Columbia lidera el índice estatal, destacando en tareas de edición y búsqueda de información, mientras que California se orienta más hacia la programación y Nueva York hacia las finanzas. Las economías locales influyen en el tipo de tareas: por ejemplo, en Hawái se observan más usos vinculados al turismo.

El estudio también muestra una transición hacia una mayor automatización. Entre diciembre de 2024 y mediados de 2025, las tareas automatizadas directivas crecieron del 27 % al 39 %, mientras que las de colaboración y apoyo (augmentación) disminuyeron. Esto sugiere que los usuarios confían cada vez más en que Claude ejecute tareas con menor supervisión.

Finalmente, se destacan diferencias entre el uso empresarial y el de consumidores. Los clientes de la API —principalmente empresas— priorizan la automatización y las tareas más costosas, como programación y matemáticas, mientras que los usuarios de Claude.ai mantienen un equilibrio mayor entre colaboración y automatización. En conjunto, el informe concluye que la adopción de la IA está marcada por la desigualdad económica, la especialización local y una creciente tendencia hacia la delegación de responsabilidades a los sistemas automatizados.

Hasta el 70 % de las escuchas de música en Deezer son realizadas por bots de IA para cobrar regalías

Deezer. “Up to 70% of Streams of AI-Generated Music on Deezer Are Fraudulent, Says Report.The Guardian, 18 junio 2025

Siete de cada diez reproducciones de música generada por inteligencia artificial en la plataforma Deezer son fraudulentas, según la plataforma francesa de streaming.

Un informe reciente de Deezer advierte que hasta el 70 % de las reproducciones de canciones generadas íntegramente por inteligencia artificial (IA) en la plataforma son fraudulentas. Estas escuchas corresponden a bots u otras formas de manipulación destinadas a inflar las cifras y obtener regalías de manera indebida. Aunque las pistas creadas con IA suponen apenas el 0,5 % del total de reproducciones, su presencia es mucho más significativa en el volumen de cargas diarias: alrededor de 20.000 temas al día, lo que representa el 18 % de todas las canciones subidas.

Para hacer frente a esta situación, Deezer asegura disponer de herramientas capaces de identificar con total precisión los contenidos producidos por modelos como Suno y Udio. Los temas detectados como totalmente artificiales se etiquetan de forma explícita, quedan fuera de las recomendaciones algorítmicas y de las listas editoriales, y además, las reproducciones fraudulentas que generan no se contabilizan para el pago de regalías.

Deezer afirmó que la música generada por IA que los estafadores transmitían iba desde pop y rap falsos hasta pistas musicales artificiales que estimulaban el estado de ánimo. La plataforma ha decidido bloquear el pago de regalías por las reproducciones que ha identificado como fraudulentas.

En su último informe global sobre música, la IFPI afirmó que el streaming fraudulento roba dinero que «debería destinarse a artistas legítimos». Añadió que la IA generativa había «exacerbado significativamente» el problema.

El año pasado, el músico estadounidense Michael Smith fue acusado en relación con un plan para crear cientos de miles de canciones generadas por IA y reproducirlas miles de millones de veces, obteniendo 10 millones de dólares en regalías.

Según Thibault Roucou, director de regalías de la compañía, muchas de estas canciones creadas de manera automática carecen de una verdadera motivación artística y responden únicamente al ánimo de lucro mediante la manipulación del sistema.

Libros creados por bots: los bibliotecarios se enfrentan al material generado por IA en sus colecciones

Saleh, Reema. “Books by Bots: Librarians Grapple with AI-Generated Material in Collections.” American Libraries Magazine, 2 de septiembre de 2025. https://americanlibrariesmagazine.org/2025/09/02/books-by-bots/

El artículo analiza cómo la proliferación de libros creados con inteligencia artificial (IA) está generando desafíos inéditos para las bibliotecas y quienes las gestionan.

No siempre resulta sencillo detectar qué títulos han sido elaborados por estas herramientas: la simple revisión de catálogos o fichas de proveedores no basta, de modo que muchas obras producidas por IA pasan inadvertidas, complicando su evaluación.

Se mencionan casos concretos, como un libro infantil —Rabbits: Children’s Animal Fact Book, de la editorial Bold Kids— que presenta señales de haber sido generado mediante IA. Ejemplos así impulsan a los bibliotecarios a examinar con mayor detenimiento metadatos, descripciones editoriales y otras huellas que puedan revelar una autoría no humana.

Sus páginas contenían frases extrañamente redactadas, algunas de las cuales incluían datos inventados sobre los conejos (como la afirmación de que se hacen su propia ropa). Cada página de texto mostraba la misma imagen prediseñada de un conejito comiendo una zanahoria. Fotos de archivo de conejos llenaban las páginas, con sus ojos y narices desapareciendo en la sangría del libro.

Además se sospecha que el título y otros de Bold Kids, que no tiene sitio web ni autores asociados con sus libros, fueron creados por inteligencia artificial (IA). Para colmo, el libro se imprimió bajo demanda, por lo que no se podía devolver. Peor aún, algunos libros generados por IA pueden contener desinformación potencialmente peligrosa. La Sociedad Micológica de Nueva York, por ejemplo, ha advertido contra la compra de guías escritas por IA para la recolección de setas silvestres. Al consultar los registros de derechos de autor de los libros, descubrió que contenían menciones a «texto generado por IA».

El texto subraya además la urgencia de contar con políticas y directrices claras para afrontar esta nueva realidad: desde definir en qué circunstancias se incorporarán a las colecciones libros creados con IA, hasta exigir transparencia sobre su origen y mantener estándares de calidad que resguarden la integridad de los fondos bibliográficos.

Finalmente, se recogen las distintas respuestas de la profesión. Algunos bibliotecarios están estableciendo criterios de adquisición específicos que distingan entre materiales de origen humano y automatizado; otros reclaman etiquetas o declaraciones de autoría explícitas. En todos los casos se pone en valor la vigilancia constante, necesaria para identificar contenidos dudosos y garantizar que las decisiones de selección mantengan el rigor, la relevancia y el servicio a la comunidad lectora.

Cómo identificar libros generados por IA:

  • Investiga quién es el autor y cuán “real” parece ser
  • Otra señal de alerta: un libro sin autor listado en absoluto.
  • Ten precaución con los libros autopublicados, de editoriales pequeñas o de plataformas como Amazon, que filtran menos contenido generado por IA que otros proveedores.
  • Considera si el libro está aprovechando la posibilidad de que un lector lo confunda con otro más popular
  • Si el libro se ha registrado en la Oficina de Derechos de Autor de EE. UU., es posible que su registro mencione la IA.

Consideraciones sobre el impacto ambiental de la IA en la ciencia

Albornoz, Denisse; Natalia Norori. Considerations on the environmental impact of AI in science. Working Paper, International Science Council, septiembre de 2025. DOI:10.24948/2025.10.

Texto completo

El informe analiza las consecuencias ambientales del uso de inteligencia artificial en la investigación científica. Propone marcos conceptuales, metodologías de evaluación aplicables y estrategias para reducir la huella ecológica de los proyectos científicos impulsados por IA. Está dirigido a investigadores, instituciones y responsables de políticas interesados en comprender tanto los costos ambientales como las formas de mitigarlos.

En primer lugar, el informe ofrece una visión integral del ciclo de vida de una aplicación de IA en ciencia, desde la recolección y preparación de datos, pasando por el entrenamiento de modelos, hasta su despliegue, mantenimiento y eventual reemplazo. Se enfatiza que los impactos ambientales no se limitan al consumo inmediato de energía (por ejemplo, la electricidad necesaria durante el entrenamiento de los modelos), sino que abarcan también efectos indirectos o de “rebound”, como la creación de nuevos datasets para satisfacer demandas crecientes, la necesidad de hardware de alto consumo energético y los costos asociados a refrigeración, infraestructura de servidores y transporte.

El informe subraya además que la evidencia empírica detallada sobre los impactos ambientales específicos sigue siendo limitada, lo que dificulta estimar con precisión métricas como emisiones de carbono o consumo de agua en muchos proyectos científicos con IA. Ante esta falta de datos, es necesario apoyarse en modelos, simulaciones o ejemplos aislados, lo que restringe la generalización. Sin embargo, los autores presentan herramientas conceptuales para que científicos e instituciones puedan evaluar sus propios proyectos: plantillas de estimación, criterios de transparencia, métricas de consumo energético, huella de carbono, uso de hardware, ubicación geográfica (que afecta la eficiencia energética), entre otras.

Una aportación destacada del documento es su énfasis en alternativas más “frugales” o ligeras para determinados usos de IA, especialmente en contextos con menos recursos. Se promueven modelos más pequeños, entrenamientos locales o descentralizados, reutilización de modelos previamente entrenados, optimización de hardware y técnicas que reduzcan el consumo energético, como el ajuste fino en lugar del entrenamiento completo o la eficiencia algorítmica. Estas estrategias no solo disminuyen el impacto ambiental directo, sino que también fomentan la inclusión, permitiendo que centros de investigación en países con recursos limitados puedan participar activamente sin generar costos ecológicos excesivos.

Finalmente, el informe ofrece recomendaciones estratégicas para investigadores, instituciones y responsables de políticas: incorporar evaluaciones ambientales desde la fase de diseño de los proyectos de IA, transparentar los costos ecológicos en los informes científicos, fomentar políticas institucionales que promuevan el uso eficiente de la IA, invertir en infraestructuras energéticamente sostenibles, impulsar estándares comunes de medición de impacto y considerar la justicia ambiental, evaluando cómo las decisiones tecnológicas pueden afectar de manera desigual a distintas regiones, especialmente aquellas con menor capacidad técnica o energética.

Una mirada jurídica poliédrica a la normativa europea sobre inteligencia artificial

Estupiñán Cáceres, Rosalía; Fonticiella Hernández, Beatriz; Ojeda Tacoronte, Carolina J. Una mirada jurídica poliédrica a la normativa europea sobre inteligencia artificial. Madrid: Dykinson, 2025.

Descargar

El libro examina de forma multidisciplinar la reciente normativa europea sobre inteligencia artificial, especialmente el Reglamento (UE) 2024/1689 sobre IA y la Directiva (UE) 2024/2853 relativa a la responsabilidad por daños causados por productos defectuosos.

La irrupción de la inteligencia artificial en nuestra sociedad ha generado un profundo impacto jurídico que exige respuestas normativas claras y adaptadas. Esta obra colectiva ofrece un análisis crítico y multidisciplinar del nuevo Reglamento (UE) 2024/1689 sobre inteligencia artificial, así como de la reciente Directiva (UE) 2024/2853 sobre responsabilidad por daños causados por productos defectuosos. Fruto del Congreso celebrado en la Universidad de Las Palmas de Gran Canaria en 2024, el libro reúne aportaciones de destacados expertos que abordan los retos que plantea la IA en distintos ámbitos del Derecho: administrativo, penal, laboral, mercantil, constitucional, entre otros.

Se abordan los retos legales que plantea la IA en distintos ámbitos del Derecho —administrativo, penal, laboral, mercantil, constitucional entre otros— analizando aspectos como:

  • la gobernanza de la IA, es decir las instituciones, mecanismos de control, obligaciones reguladoras;
  • la protección de los derechos fundamentales frente al uso de IA;
  • el impacto de la IA en mercados financieros;
  • su utilización en procesos judiciales;
  • y los desafíos en materia de responsabilidad civil y compliance

Una obra esencial para comprender el alcance e implicaciones de las nuevas normativas europeas sobre inteligencia artificial.