Archivo de la categoría: Tecnologías de la información

Preparando los ecosistemas nacionales de investigación para la IA

International Science Council. Preparing National Research Ecosystems for AI – Second Edition (2025). Paris: The International Science Council, 2025.

Texto completo

¿Cómo influirá el uso creciente de la IA en la asignación de fondos para la investigación? ¿Qué estándares de datos de investigación evolucionarán? ¿Cómo cambiará la IA la naturaleza de los resultados científicos? ¿Cómo evolucionarán las carreras científicas con el aumento del uso de la IA en la investigación? ¿Qué inversiones en infraestructuras se requieren para el éxito de la IA en el sector científico? ¿Qué ajustes legales son necesarios para permitir el uso de la IA en la investigación, asegurando altos estándares en la conducta responsable de la ciencia? ¿Cómo afectará la IA las colaboraciones internacionales en investigación?

La noción dominante que se comunica sobre la influencia de la inteligencia artificial (IA) es su capacidad para cambiarlo todo en todos los sectores, incluida la ciencia. Más allá de las promesas de nuevos avances en diferentes campos de investigación, están surgiendo una serie de preguntas críticas sobre el impacto de la IA en la documentación, financiación e informes de la ciencia.

Las discusiones en torno a estas preguntas son cruciales para el futuro de la ciencia y los sistemas de investigación. Las instituciones de investigación y los ministerios están comenzando a abordarlas, aunque con recursos limitados para guiarlos. Como muestra este estudio, sigue existiendo una notable falta de literatura comprensiva sobre el impacto de la IA en los aspectos estructurales de la ciencia y la investigación.

Varios países han desarrollado estrategias generales de IA para establecer sus planes y aspiraciones en cuanto al desarrollo e implementación de la IA en diferentes sectores. A pesar de las implicaciones inmediatas y significativas de estas estrategias para la ciencia y la investigación, estos documentos generalmente solo ofrecen declaraciones generales sobre la participación de las instituciones científicas y de investigación en la ejecución de los planes nacionales, sin profundizar en las implicaciones concretas.

Esto no sugiere que los países estén inactivos. Al contrario, se están formando asociaciones, lanzando iniciativas de capacitación, estableciendo infraestructuras e implementando políticas. Sin embargo, las personas en los ministerios gubernamentales, universidades y empresas de consultoría encargadas de preparar el entorno de investigación para la IA están trabajando en gran medida con especulaciones sobre los principales desafíos y tienen una visión limitada sobre los enfoques adoptados por países de tamaño y capacidad similares.

Los marcos que delinean los problemas clave para que los países consideren al planificar la integración de la IA en sus ecosistemas de investigación pueden ser de gran ayuda en esta etapa crítica. Este documento de trabajo ofrece uno de estos marcos, derivado de un análisis de la literatura existente.

La segunda edición del documento presenta un total de 18 estudios de caso de países de diferentes tamaños y regiones, elaborados por personas directamente involucradas en estas discusiones en sus respectivos países. Este documento es una expansión de la edición anterior publicada en marzo de 2024.

Es importante considerar las circunstancias de países de diversos tamaños, que también son grandes contribuyentes a los avances científicos, en lugar de centrarse únicamente en las grandes potencias de la IA. Se buscó deliberadamente obtener información sobre cómo los países pequeños y medianos están preparando sus ecosistemas de investigación para la adopción de la IA.

Este documento de trabajo tiene como objetivo:

  • Recopilar conocimientos e información sobre los problemas y los esfuerzos actuales para preparar los sistemas de ciencia e investigación para la IA.
  • Ayudar a los países a desarrollar hojas de ruta para la adopción de la IA en sus sistemas científicos.
  • Crear redes regionales y globales de personas involucradas en la reflexión sobre la adaptación e implementación de la IA para la ciencia.
  • Sensibilizar y ayudar a dar forma a una discusión crítica entre las comunidades científicas y políticas sobre los problemas cruciales que plantea la IA para la organización de la ciencia y la investigación.

El desarrollo del documento de trabajo se benefició de un taller convocado en octubre de 2023 en Kuala Lumpur, Malasia, y un taller en Santiago de Chile, Chile, en abril de 2024, que reunió a participantes de alrededor de 12 países de cada región de Asia y el Pacífico, y América Latina y el Caribe. Las contribuciones de algunos países que participaron en los talleres se han incorporado a la segunda versión del documento. La coordinación de los talleres fue generosamente apoyada por la Academia Australiana de Ciencias y la Academia de Ciencias de Malasia para el taller en Malasia, y la Iniciativa Latinoamericana para Datos Abiertos (ILDA) y la Academia Colombiana de Ciencias Exactas, Físicas y Naturales (ACCEFYN) para el taller en Chile.

Identificación de las implicaciones económicas de la inteligencia artificial para la política de derechos de autor

: Lutes, Brent A. ed., Identifying the Economic Implications of Artificial Intelligence for Copyright Policy: Context and Direction for Economic Research, U.S. Copyright Office, 2025

Texto completo

Las cuestiones económicas en torno a la inteligencia artificial (IA) son amplias y complejas. Este análisis no pretende abordarlas en su totalidad ni ofrecer respuestas definitivas, sino identificar las preguntas económicas más relevantes en el contexto específico de la política de derechos de autor y proporcionar un marco para aplicar las respuestas provenientes de la comunidad económica a los debates de políticas públicas.

Antes de ello, se ofrece un repaso sobre la economía del copyright, los términos clave y el contexto tecnológico. El documento se divide en siete partes:

  • Partes 2, 3 y 4: Analizan el impacto de la IA en la producción de contenido, incluyendo la competencia entre obras generadas por IA y creaciones humanas, la replicación de obras humanas por parte de la IA y los derechos de imagen y publicidad.
  • Partes 5 a 8: Se centran en el uso de obras con copyright como insumo para la IA, abordando su efecto en los incentivos creativos, el desarrollo tecnológico e industrial de la IA, el control de acceso a obras protegidas y los efectos colaterales de las políticas de IA.

Dado que estos temas están interconectados (por ejemplo, el poder de mercado influye en varios de ellos), es esencial considerarlos de manera integral y no abordar cada cuestión de forma aislada.

Inteligencia Artificial y Periodismo

«Generative AI and Journalism: Content, Journalistic Perceptions, and Audience Experiences«, Reuters, BBC, Tow Center for Digital Journalism y Centre for Media Transition 2025

Texto completo

La inteligencia artificial existe desde la década de 1950, y la IA generativa desde la invención del primer chatbot en los años 60. Sin embargo, los avances recientes en la década de 2020 han convertido a la IA generativa en un tema de gran relevancia. En particular, 2023 fue denominado «el año de la IA generativa», ya que ese año se produjo un notable aumento en las referencias a esta tecnología en el discurso público. Fue también uno de los términos más buscados en los motores de búsqueda, reflejando el creciente interés mundial en entender qué es, cómo funciona, sus riesgos y su potencial.

La IA generativa es una tecnología polarizadora: algunos la ven como una fuente de disrupción y caos, mientras que otros la consideran un avance tecnológico con enormes beneficios. Se emplea en múltiples ámbitos a través de comandos que generan textos, imágenes, videos, audios, código de programación y más. En el periodismo, representa la última fase de un proceso continuo de automatización en la producción, edición y presentación de noticias, aplicándose tanto en tareas invisibles como en la creación de contenido que el público consume directamente.

Este informe reúne seis investigaciones y actividades de participación realizadas entre 2022 y 2024, basadas en trabajo de campo en siete países (Australia, Alemania, EE. UU., Reino Unido, Noruega, Suiza y Francia). Su enfoque se centra en tres áreas principales: el contenido generado por IA en el periodismo, la percepción y uso de esta tecnología por parte de los periodistas, y la reacción del público ante su implementación en la producción de noticias.

Estas seis investigaciones destacan tanto los riesgos como las oportunidades que la inteligencia artificial plantea en el periodismo, al tiempo que proponen recomendaciones para su uso seguro, responsable y ético en la industria.

Este informe se suma a otros estudios sobre IA en el periodismo, como los realizados por el Instituto Reuters, la BBC, el Tow Center for Digital Journalism y el Centre for Media Transition de la UTS. Sin embargo, su enfoque es único, ya que se centra en la IA multimodal y visual, abordando distintos ámbitos, como la producción, edición y recepción del contenido por parte de la audiencia. Además, complementa con profundidad cualitativa y matices los estudios previos basados en encuestas, especialmente en lo que respecta a la percepción del público sobre la IA en el periodismo.

El informe busca familiarizar al lector con diversos usos de la IA en el periodismo, analizar los desafíos legales y éticos que esta tecnología plantea para periodistas y audiencias, y explorar las expectativas del público sobre cómo debería o no utilizarse. Concluye con una serie de preguntas dirigidas a periodistas y organizaciones de noticias para guiar su experimentación y la formulación de directrices en torno al uso de la IA en el periodismo.

Inteligencia artificial generativa en la educación superior: prácticas actuales y caminos a seguir

Liu, Danny Y.T., y Simon Bates. Generative AI in Higher Education: Current Practices and Ways Forward. Whitepaper del proyecto «Generative AI in Education: Opportunities, Challenges and Future Directions in Asia and the Pacific». Enero de 2025.

Texto completo

El acceso generalizado a la inteligencia artificial generativa representa un momento crucial para la educación superior, que va más allá de simplemente acomodar una nueva innovación tecnológica. Este cambio desafía fundamentalmente nuestras suposiciones sobre la enseñanza, el aprendizaje, la investigación y el propósito mismo de las universidades.

Este informe, surgido de la colaboración entre universidades del Pacífico, presenta tanto un marco de acción como un llamado a un cambio transformador en la preparación de estudiantes, docentes e instituciones para un futuro habilitado por la IA.

Actualmente, las universidades enfrentan una presión sin precedentes para responder a la inteligencia artificial generativa, mientras mantienen la integridad y el valor de la educación superior. Los enfoques actuales suelen ser fragmentarios y reactivos, centrados en preocupaciones inmediatas como la integridad académica, en lugar de integrar de manera sistemática la IA en la práctica educativa de forma responsable y productiva. Mientras tanto, los estudiantes, que ya cuestionan el valor de la educación superior tradicional, están adoptando herramientas de IA sin importar la preparación institucional. El sector debe pasar rápidamente de la vigilancia a la exploración, del pánico al propósito.

El trabajo identifica cinco elementos interdependientes esenciales para una integración exitosa de la IA generativa, formando el marco «CRAFT»: cultura, reglas, acceso, familiaridad y confianza. La cultura representa tanto el mayor desafío como la mayor oportunidad. Más allá de las diferencias regionales e institucionales en la aceptación y adopción de la IA generativa, se deben abordar preguntas fundamentales sobre el papel de la universidad en un mundo habilitado por la IA. Las reglas deben ir más allá de las restricciones para permitir la experimentación e innovación, con marcos de gobernanza efectivos que proporcionen directrices claras. Las prácticas de evaluación deben rediseñarse para asegurar tanto la validez como la relevancia en un mundo habilitado por la IA.

El acceso sigue siendo una cuestión crítica de equidad, ya que, sin intervención deliberada, la IA podría ampliar las brechas digitales existentes. Las instituciones deben asegurar un acceso equitativo no solo a las herramientas, sino también a la infraestructura, el apoyo y las oportunidades necesarias para aprovechar la IA de manera efectiva. La familiaridad requiere un desarrollo sistemático entre todos los actores involucrados. Además de la alfabetización digital básica, es necesario un entendimiento profundo de las capacidades, limitaciones e implicaciones éticas de la IA, lo que demanda una inversión sostenida en desarrollo y apoyo a los estudiantes. La confianza es fundamental para todo el progreso: debe construirse y mantenerse de manera activa a través de la transparencia, la colaboración y el valor demostrado.

Las respuestas institucionales individuales no son suficientes para la magnitud del cambio requerido. El informe propone dos prioridades clave para una acción inmediata a nivel sectorial: la formación de clústeres colaborativos donde las universidades pasen de la competencia a la cooperación en áreas clave, como el desarrollo conjunto de aplicaciones de IA generativa, enfoques pedagógicos, marcos compartidos para el rediseño de evaluaciones, promoción coordinada del acceso equitativo, iniciativas combinadas de desarrollo del profesorado y marcos de gobernanza unificados que respeten los contextos locales. En segundo lugar, se propone elevar a los estudiantes como socios a través de redes de apoyo entre pares, programas de embajadores de IA, co-diseño de experiencias de aprendizaje, participación directa en el rediseño de evaluaciones y desarrollo colaborativo de recursos.

La aparición de la IA generativa podría ser nuestra mejor oportunidad para reimaginar la educación superior para el siglo XXI. El éxito requiere que pasemos de la adaptación incremental a una transformación fundamental, preservando nuestros valores educativos fundamentales. Este informe proporciona una hoja de ruta sugerida, pero su implementación requiere una acción coordinada inmediata a nivel sectorial. Es necesario desarrollar estrategias institucionales de IA que aborden la cultura, las reglas, el acceso, la familiaridad y la confianza, trabajando juntos para abordar desafíos compartidos y aprovechar oportunidades compartidas. La elección que enfrentamos no es si debemos comprometernos con la IA, sino cómo moldear su integración para mejorar, en lugar de disminuir, el valor y el poder transformador de la educación superior.

Libros de texto inteligentes: Pasado, presente y futuro

Brusilovsky, Peter, y Sergey Sosnovsky. 2024. «Intelligent Textbooks: Past, Present, and Future.» International Journal of Artificial Intelligence in Education. https://link.springer.com/article/10.1007/s40593-024-00451-9.

Los libros de texto siguen siendo una herramienta clave en la educación, pero han evolucionado significativamente en las últimas décadas en términos de creación, publicación, formato, acceso y mantenimiento. Actualmente, la mayoría tiene versiones digitales y se pueden consultar en línea, con un número creciente de recursos educativos abiertos. Además, muchos incluyen bibliotecas de materiales complementarios e incluso se integran en plataformas educativas digitales.

El paso de los libros impresos a los digitales ha impulsado la incorporación de funciones interactivas como búsquedas avanzadas, anotaciones, contenido interactivo, evaluaciones automatizadas y chatbots. Estas mejoras han generado nuevos desafíos y oportunidades para aplicar inteligencia artificial (IA) en el desarrollo y uso de los libros de texto digitales.

Algunas cuestiones clave en este ámbito incluyen cómo mejorar el acceso y la lectura, extraer conocimiento implícito en los textos para optimizar el aprendizaje, analizar los registros de interacción de los estudiantes, enriquecer el contenido con información externa y utilizar tecnologías de lenguaje avanzado para personalizar la experiencia educativa.

En este contexto, el campo de los Libros de Texto Inteligentes ha pasado por distintas generaciones de desarrollo. La primera generación, basada en sistemas de tutoría inteligente e hipertexto educativo, ofrecía personalización a través de estructuras predefinidas por expertos en el dominio. Con el avance de la web, estos libros adoptaron formatos tradicionales con tablas de contenido y glosarios, incorporando técnicas como navegación adaptativa, recomendación de contenido y personalización del aprendizaje. Sin embargo, operaban en entornos cerrados con materiales cuidadosamente seleccionados y estructurados.

Este desarrollo ha generado diversas generaciones de «libros de texto inteligentes»:

Primera Generación: Inteligencia Diseñada

Esta fase inicial surgió de la intersección entre los sistemas de tutoría inteligentes y los hipermedios educativos adaptativos. Los primeros prototipos no presentaban el formato tradicional de los libros de texto; en su lugar, proporcionaban a los estudiantes acceso adaptativo a elementos de información o «hiper-tarjetas» en respuesta al rendimiento en ejercicios asociados. Con la popularización de la web, estos libros adoptaron una estructura más convencional, incorporando técnicas de personalización como soporte de navegación, manipulación adaptativa de páginas, recomendación de contenido y secuenciación de contenidos. Estos sistemas eran entornos de corpus cerrado, ofreciendo colecciones limitadas de textos y ejercicios diseñados meticulosamente.

Segunda Generación: Inteligencia Integrada

En esta etapa, la atención se centró en aspectos prácticos como arquitecturas abiertas, integración con recursos educativos externos y estandarización de modelos semánticos. El desarrollo de tecnologías de la Web Semántica permitió la representación de conocimientos compartibles y soluciones arquitectónicas para software inteligente. Esto facilitó la implementación de modelos de conocimiento como ontologías y la integración de materiales educativos interconectados, permitiendo a los libros de texto «comprender» su contenido y participar en interacciones más significativas con los estudiantes, como responder preguntas y crear mapas conceptuales.

Tercera Generación: Inteligencia Extraída

Con el avance de técnicas de Procesamiento de Lenguaje Natural (PLN) y Aprendizaje Automático (AA), los investigadores comenzaron a ver los libros de texto no solo como herramientas educativas, sino también como fuentes ricas de contenido de alta calidad. Se aplicaron métodos para extraer automáticamente temas, conceptos, relaciones e incluso modelos completos de conocimiento de los textos digitales. Esta capacidad permitió transformar automáticamente libros de texto en versiones inteligentes, enlazándolos con contenido interactivo externo y conectándolos entre sí.

Cuarta Generación: Inteligencia Minada de Datos

La adopción creciente de libros de texto digitales generó una abundancia de datos sobre la interacción de los estudiantes. Se emplearon métodos de minería de datos para analizar estos registros, permitiendo comprender mejor los comportamientos de lectura y su relación con el progreso académico. Los patrones de navegación y las actividades de anotación se utilizaron para predecir el éxito o fracaso de los estudiantes, facilitando intervenciones oportunas. Además, estos datos ayudaron a modelar el conocimiento de los estudiantes sobre conceptos específicos y mejorar la organización y presentación de los contenidos.

Quinta Generación: Inteligencia Generada

Recientemente, la incorporación de modelos de lenguaje de gran escala (LLMs) ha revolucionado los libros de texto inteligentes. Estos modelos, entrenados con vastas cantidades de datos textuales, pueden extraer y sintetizar información de los libros de texto, ofreciendo respuestas automáticas a preguntas y reduciendo problemas como las «alucinaciones» en las respuestas generadas. Además, se han utilizado para crear experiencias interactivas, como chatbots que simulan conversaciones tutor-estudiante, mejorando la interacción y personalización del aprendizaje.

Conclusiones

A pesar de su larga historia, los libros de texto inteligentes siguen siendo un campo de innovaciones en el que se introducen y exploran nuevos enfoques en diversos estudios. Los investigadores de libros de texto inteligentes adoptan con entusiasmo tecnologías desarrolladas fuera de este campo y plantean casos de uso y escenarios de aplicación que amplían las capacidades y la eficacia potencial de los prototipos de libros de texto. Los libros de texto siguen siendo una de las principales fuentes de conocimiento para los estudiantes, a pesar de que los contenidos más interactivos y no textuales están ganando popularidad en muchas otras tareas y contextos.

Ha llegado el momento de que los libros de texto aumenten su funcionalidad con características interactivas que mejoren la eficacia general de los libros de texto como herramientas de aprendizaje. Las interfaces adaptables de los libros de texto, los contenidos inteligentes, los servicios inteligentes y las herramientas centradas en la comunidad para interactuar con otros usuarios transformarán el estudio de los alumnos con libros de texto en una experiencia de aprendizaje más interactiva y social. La nueva ola de IA generativa que ya alimenta la actual generación de libros de texto inteligentes abre un amplio abanico de posibilidades para hacer que el aprendizaje con libros de texto sea aún más interactivo y atractivo. Los LLM son muy capaces de transferir eficazmente lo que aprenden del preentrenamiento en textos a escala web a diferentes contextos, lo que se traduce en altos niveles de fluidez y coherencia del texto generado. Actualmente, la dirección más popular de estos trabajos es utilizar los LLM para producir automáticamente preguntas de evaluación para libros de texto inteligentes, con resultados iniciales prometedores. Además, se están construyendo nuevos prototipos de libros de texto inteligentes que emplean IA generativa para apoyar nuevas formas significativas de interacción. Esperamos más trabajos interesantes que utilicen el potencial de estos modelos en diversas formas de apoyo al alumno en torno a los libros de texto inteligentes, especialmente si se basan en el éxito de la investigación anterior.

Educase 2025: impacto de la inteligencia artificial (IA) en la educación superior

Robert, Jenay, y Mark McCormack. 2025 EDUCAUSE AI Landscape Study: Into the Digital AI Divide. EDUCAUSE, 17 de febrero de 2025. https://www.educause.edu/content/2025/2025-educause-ai-landscape-study/introduction-and-key-findings

Este estudio examina el impacto de la inteligencia artificial (IA) en la educación superior, abordando estrategias institucionales, normativas, casos de uso, el impacto en la fuerza laboral y la brecha digital entre instituciones. La investigación se basó en una encuesta realizada entre el 4 y el 18 de noviembre de 2024.

Los hallazgos clave incluyen el aumento en la percepción de la IA como una prioridad estratégica, la expansión de políticas de uso aceptable, la predominancia de la enseñanza y el aprendizaje como áreas de aplicación y la diferencia de recursos entre instituciones grandes y pequeñas. Además, el estudio destaca la necesidad de alfabetización en IA y el desafío de financiar su implementación.

Hallazgos clave

  1. Estrategia y liderazgo
    • El 57% de los encuestados considera que la IA es una prioridad estratégica, un aumento respecto al 49% del año anterior.
    • La formación en IA para el profesorado (63%) y el personal administrativo (56%) es un enfoque clave en la planificación estratégica.
    • Solo el 2% de las instituciones financia los costos adicionales de la IA con nuevas fuentes de financiación, y el 34% de los líderes ejecutivos considera que se han subestimado estos costos.
  2. Políticas y normativas
    • El número de instituciones con políticas de uso aceptable de IA aumentó del 23% al 39% en un año.
    • Solo el 9% considera que sus políticas de ciberseguridad y privacidad son adecuadas para gestionar los riesgos asociados con la IA.
  3. Casos de uso
    • La enseñanza y el aprendizaje son los principales ámbitos de aplicación de la IA, con énfasis en la integridad académica (74%), la realización de trabajos (65%), las evaluaciones (54%) y el diseño curricular (54%).
    • El 68% de los encuestados indica que los estudiantes usan IA más que los docentes, aunque la formación está más centrada en el profesorado.
  4. Fuerza laboral
    • El 37% de las instituciones están enfocadas en mejorar las habilidades de IA del personal existente en lugar de contratar nuevos empleados (1%).
    • Se destaca la importancia de la «alfabetización en IA» para todos los trabajadores y el uso de IA para aumentar la productividad.
  5. Brecha digital en IA entre instituciones
    • Instituciones pequeñas y grandes tienen percepciones similares sobre el uso personal y futuro de la IA.
    • Sin embargo, las instituciones más grandes cuentan con más recursos y capacidades para adoptar la IA de manera efectiva.

Este informe resalta la creciente importancia de la IA en la educación superior, la necesidad de políticas claras y formación especializada, y la persistente desigualdad en el acceso a los beneficios de la IA entre instituciones de distintos tamaños.

Sam Altman, CEO de OpenAI, admite que los beneficios de la IA podrían no distribuirse ampliamente

Wiggers, Kyle. «OpenAI CEO Sam Altman Admits That AI’s Benefits May Not Be Widely DistributedTechCrunch, 9 de febrero de 2025. https://techcrunch.com/2025/02/09/openai-ceo-sam-altman-admits-that-ais-benefits-may-not-be-widely-distributed/

En un ensayo reciente en su blog personal, Sam Altman, CEO de OpenAI, expresó que la compañía está abierta a ideas inusuales, como el concepto de un «presupuesto de cómputo», para permitir que todos en el mundo utilicen IA y garantizar que sus beneficios sean distribuidos de manera más equitativa. Altman destacó que, aunque los avances tecnológicos mejoran indicadores como la salud y la prosperidad económica, la igualdad no está garantizada por la tecnología y puede requerir intervenciones tempranas.

El concepto del «presupuesto de cómputo» de Altman podría ser difícil de ejecutar, ya que la IA ya está impactando el mercado laboral con recortes de empleos. Expertos advierten que el desempleo masivo podría ser una consecuencia si no se implementan políticas gubernamentales adecuadas y programas de reentrenamiento.

Altman también habló sobre la inteligencia artificial general (AGI), que define como un sistema de IA capaz de resolver problemas complejos a nivel humano en diversas áreas. Aunque la AGI está cerca, según Altman, no será perfecta y necesitará supervisión humana. La verdadera utilidad de la AGI, según él, provendrá de su escala masiva, con miles o millones de sistemas de IA trabajando en diversas tareas.

A pesar de los altos costos asociados al desarrollo de IA, Altman mencionó que el costo de usar un nivel determinado de IA disminuye cada 12 meses. OpenAI está trabajando en la creación de una red de datos masiva y buscando inversiones de hasta 40 mil millones de dólares.

En cuanto a la seguridad de la AGI, Altman indicó que OpenAI tomará decisiones y limitaciones impopulares para asegurar que la tecnología no sea mal utilizada, especialmente por gobiernos autoritarios. Además, subrayó que OpenAI tiene como objetivo empoderar a los individuos, sin perder de vista la necesidad de equilibrar la seguridad con la autonomía personal.

OpenAI podría marcar con una «marca de agua» el texto generado por ChatGPT, pero aún no lo ha hecho

Beschizza, Rob. «OpenAI Could Watermark the Text ChatGPT Generates, but Hasn’t.» Boing Boing, 5 de agosto de 2024. https://boingboing.net/2024/08/05/openai-could-watermark-the-text-chatgpt-generates-but-hasnt.html

OpenAI ha desarrollado un sistema de «marca de agua» para detectar cuando ChatGPT genera texto, pero ha decidido no implementarlo, según informes de The Wall Street Journal. El sistema, que podría detectar con precisión si un estudiante usó ChatGPT para escribir un ensayo, ha estado listo durante un año, pero ha sido objeto de debates internos dentro de la compañía.

OpenAI afirma que aunque el sistema es 99.9% fiable en textos sin editar, es «fácil de evadir». La marca de agua funciona bien contra alteraciones locales, como la paráfrasis, pero es menos efectiva contra ediciones más globales, como la traducción o el uso de otros modelos generativos. Además, la compañía ha señalado que este método podría tener efectos negativos, como estigmatizar a los no hablantes nativos de inglés que usan la IA como herramienta de escritura.

De modo que aunque la tecnología de marca de agua de OpenAI es precisa en situaciones controladas, se puede eludir fácilmente con modificaciones más profundas, lo que hace que su uso sea poco confiable para detectar textos generados por IA en la práctica.

Thomson Reuters gana una sentencia de «uso justo» de los derechos de autor de IA contra Ross Intelligence

Reuters. «Thomson Reuters Wins AI Copyright Fair Use Ruling Against One-Time Competitor.» Reuters, 11 de febrero de 2025. https://www.reuters.com/legal/thomson-reuters-wins-ai-copyright-fair-use-ruling-against-one-time-competitor-2025-02-11/

Sentencia

El fallo reciente de un juez federal en Delaware a favor de Thomson Reuters en un caso de derechos de autor contra Ross Intelligence ha generado un importante precedente legal en el ámbito de la inteligencia artificial (IA) y el uso de contenido protegido. Este veredicto, emitido por el juez Stephanos Bibas, es el primero en los Estados Unidos que aborda específicamente la doctrina de uso justo (fair use) en el contexto de litigios relacionados con la IA.

Ross Intelligence, una firma de investigación legal que ya no está operativa, fue acusada de utilizar contenido protegido por derechos de autor de Thomson Reuters para desarrollar una plataforma de investigación legal basada en IA que competía directamente con Westlaw, el reconocido servicio de investigación legal de Thomson Reuters. En su decisión, Bibas reconsideró un fallo anterior en el que había sugerido que la determinación sobre el uso justo debería ser realizada por un jurado. Tras un análisis más detallado de los materiales del caso, el juez concluyó que Ross había infringido los derechos de autor al desarrollar un sustituto de mercado utilizando contenido de Thomson Reuters.

La doctrina de uso justo permite, bajo ciertas condiciones, el uso de obras protegidas sin permiso expreso, como en parodias, investigación no comercial o producción de noticias. Sin embargo, los tribunales evalúan el uso justo mediante un test de cuatro factores: el propósito del uso, la naturaleza de la obra original, la cantidad utilizada y el impacto en el valor de mercado de la obra original. Thomson Reuters prevaleció en dos de estos cuatro factores, y el juez Bibas enfatizó que el cuarto factor, el impacto en el mercado, era el más crucial, ya que Ross buscaba competir directamente con Westlaw.

Este fallo ha generado preocupación entre las empresas de IA, ya que podría influir en otros casos similares en curso contra gigantes tecnológicos como OpenAI y Microsoft. James Grimmelmann, profesor de derecho digital e internet en la Universidad de Cornell, señaló que si esta decisión se adopta en otros tribunales, representaría un obstáculo significativo para las empresas de IA generativa, ya que muchos de los argumentos legales que utilizan para defenderse podrían considerarse irrelevantes.

Es importante destacar que este caso involucra una IA no generativa, a diferencia de las herramientas de IA generativa como los modelos de lenguaje de gran tamaño (LLM). Ross Intelligence cerró en 2021, alegando que la demanda de Thomson Reuters era infundada, pero que no podía recaudar suficientes fondos para continuar operando mientras se enfrentaba al litigio.

Este precedente podría afectar profundamente el desarrollo y uso de la IA, especialmente en el contexto de la utilización de contenido protegido, y plantea interrogantes sobre cómo las empresas de tecnología podrán entrenar sus modelos sin infringir derechos de autor. A medida que otros casos similares avanzan en los tribunales, la industria de la IA está atenta a las posibles implicaciones legales de este fallo.

La Comisión Europea publica unas directrices sobre la definición de sistemas de inteligencia artificial (IA)

European Commission. (2025, February 2). The Commission publishes guidelines on prohibited artificial intelligence (AI) practices as defined by the AI Act. Digital Strategy. https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act

La Comisión Europea ha publicado unas directrices sobre la definición de sistemas de inteligencia artificial (IA) para facilitar la aplicación de las primeras normas del Acta de Inteligencia Artificial (AI Act).

Estas directrices tienen como objetivo ayudar a los proveedores y otras partes relevantes a determinar si un sistema de software califica como un sistema de IA, promoviendo así una aplicación efectiva de las reglas establecidas. Aunque no son vinculantes, las directrices se actualizarán conforme surjan nuevas experiencias, cuestiones o casos de uso.

El AI Act clasifica los sistemas de IA en diversas categorías de riesgo, como prohibidos, de alto riesgo y aquellos sujetos a obligaciones de transparencia. Desde el 2 de febrero, han comenzado a aplicarse las primeras reglas bajo este acta, que incluyen la definición de sistemas de IA, la alfabetización en IA y un número limitado de casos de uso de IA prohibidos debido a los riesgos inaceptables que representan en la Unión Europea.