Archivo de la etiqueta: Inteligencia artificial

Inteligencia Artificial y Periodismo

«Generative AI and Journalism: Content, Journalistic Perceptions, and Audience Experiences«, Reuters, BBC, Tow Center for Digital Journalism y Centre for Media Transition 2025

Texto completo

La inteligencia artificial existe desde la década de 1950, y la IA generativa desde la invención del primer chatbot en los años 60. Sin embargo, los avances recientes en la década de 2020 han convertido a la IA generativa en un tema de gran relevancia. En particular, 2023 fue denominado «el año de la IA generativa», ya que ese año se produjo un notable aumento en las referencias a esta tecnología en el discurso público. Fue también uno de los términos más buscados en los motores de búsqueda, reflejando el creciente interés mundial en entender qué es, cómo funciona, sus riesgos y su potencial.

La IA generativa es una tecnología polarizadora: algunos la ven como una fuente de disrupción y caos, mientras que otros la consideran un avance tecnológico con enormes beneficios. Se emplea en múltiples ámbitos a través de comandos que generan textos, imágenes, videos, audios, código de programación y más. En el periodismo, representa la última fase de un proceso continuo de automatización en la producción, edición y presentación de noticias, aplicándose tanto en tareas invisibles como en la creación de contenido que el público consume directamente.

Este informe reúne seis investigaciones y actividades de participación realizadas entre 2022 y 2024, basadas en trabajo de campo en siete países (Australia, Alemania, EE. UU., Reino Unido, Noruega, Suiza y Francia). Su enfoque se centra en tres áreas principales: el contenido generado por IA en el periodismo, la percepción y uso de esta tecnología por parte de los periodistas, y la reacción del público ante su implementación en la producción de noticias.

Estas seis investigaciones destacan tanto los riesgos como las oportunidades que la inteligencia artificial plantea en el periodismo, al tiempo que proponen recomendaciones para su uso seguro, responsable y ético en la industria.

Este informe se suma a otros estudios sobre IA en el periodismo, como los realizados por el Instituto Reuters, la BBC, el Tow Center for Digital Journalism y el Centre for Media Transition de la UTS. Sin embargo, su enfoque es único, ya que se centra en la IA multimodal y visual, abordando distintos ámbitos, como la producción, edición y recepción del contenido por parte de la audiencia. Además, complementa con profundidad cualitativa y matices los estudios previos basados en encuestas, especialmente en lo que respecta a la percepción del público sobre la IA en el periodismo.

El informe busca familiarizar al lector con diversos usos de la IA en el periodismo, analizar los desafíos legales y éticos que esta tecnología plantea para periodistas y audiencias, y explorar las expectativas del público sobre cómo debería o no utilizarse. Concluye con una serie de preguntas dirigidas a periodistas y organizaciones de noticias para guiar su experimentación y la formulación de directrices en torno al uso de la IA en el periodismo.

Inteligencia artificial generativa en la educación superior: prácticas actuales y caminos a seguir

Liu, Danny Y.T., y Simon Bates. Generative AI in Higher Education: Current Practices and Ways Forward. Whitepaper del proyecto «Generative AI in Education: Opportunities, Challenges and Future Directions in Asia and the Pacific». Enero de 2025.

Texto completo

El acceso generalizado a la inteligencia artificial generativa representa un momento crucial para la educación superior, que va más allá de simplemente acomodar una nueva innovación tecnológica. Este cambio desafía fundamentalmente nuestras suposiciones sobre la enseñanza, el aprendizaje, la investigación y el propósito mismo de las universidades.

Este informe, surgido de la colaboración entre universidades del Pacífico, presenta tanto un marco de acción como un llamado a un cambio transformador en la preparación de estudiantes, docentes e instituciones para un futuro habilitado por la IA.

Actualmente, las universidades enfrentan una presión sin precedentes para responder a la inteligencia artificial generativa, mientras mantienen la integridad y el valor de la educación superior. Los enfoques actuales suelen ser fragmentarios y reactivos, centrados en preocupaciones inmediatas como la integridad académica, en lugar de integrar de manera sistemática la IA en la práctica educativa de forma responsable y productiva. Mientras tanto, los estudiantes, que ya cuestionan el valor de la educación superior tradicional, están adoptando herramientas de IA sin importar la preparación institucional. El sector debe pasar rápidamente de la vigilancia a la exploración, del pánico al propósito.

El trabajo identifica cinco elementos interdependientes esenciales para una integración exitosa de la IA generativa, formando el marco «CRAFT»: cultura, reglas, acceso, familiaridad y confianza. La cultura representa tanto el mayor desafío como la mayor oportunidad. Más allá de las diferencias regionales e institucionales en la aceptación y adopción de la IA generativa, se deben abordar preguntas fundamentales sobre el papel de la universidad en un mundo habilitado por la IA. Las reglas deben ir más allá de las restricciones para permitir la experimentación e innovación, con marcos de gobernanza efectivos que proporcionen directrices claras. Las prácticas de evaluación deben rediseñarse para asegurar tanto la validez como la relevancia en un mundo habilitado por la IA.

El acceso sigue siendo una cuestión crítica de equidad, ya que, sin intervención deliberada, la IA podría ampliar las brechas digitales existentes. Las instituciones deben asegurar un acceso equitativo no solo a las herramientas, sino también a la infraestructura, el apoyo y las oportunidades necesarias para aprovechar la IA de manera efectiva. La familiaridad requiere un desarrollo sistemático entre todos los actores involucrados. Además de la alfabetización digital básica, es necesario un entendimiento profundo de las capacidades, limitaciones e implicaciones éticas de la IA, lo que demanda una inversión sostenida en desarrollo y apoyo a los estudiantes. La confianza es fundamental para todo el progreso: debe construirse y mantenerse de manera activa a través de la transparencia, la colaboración y el valor demostrado.

Las respuestas institucionales individuales no son suficientes para la magnitud del cambio requerido. El informe propone dos prioridades clave para una acción inmediata a nivel sectorial: la formación de clústeres colaborativos donde las universidades pasen de la competencia a la cooperación en áreas clave, como el desarrollo conjunto de aplicaciones de IA generativa, enfoques pedagógicos, marcos compartidos para el rediseño de evaluaciones, promoción coordinada del acceso equitativo, iniciativas combinadas de desarrollo del profesorado y marcos de gobernanza unificados que respeten los contextos locales. En segundo lugar, se propone elevar a los estudiantes como socios a través de redes de apoyo entre pares, programas de embajadores de IA, co-diseño de experiencias de aprendizaje, participación directa en el rediseño de evaluaciones y desarrollo colaborativo de recursos.

La aparición de la IA generativa podría ser nuestra mejor oportunidad para reimaginar la educación superior para el siglo XXI. El éxito requiere que pasemos de la adaptación incremental a una transformación fundamental, preservando nuestros valores educativos fundamentales. Este informe proporciona una hoja de ruta sugerida, pero su implementación requiere una acción coordinada inmediata a nivel sectorial. Es necesario desarrollar estrategias institucionales de IA que aborden la cultura, las reglas, el acceso, la familiaridad y la confianza, trabajando juntos para abordar desafíos compartidos y aprovechar oportunidades compartidas. La elección que enfrentamos no es si debemos comprometernos con la IA, sino cómo moldear su integración para mejorar, en lugar de disminuir, el valor y el poder transformador de la educación superior.

Libros de texto inteligentes: Pasado, presente y futuro

Brusilovsky, Peter, y Sergey Sosnovsky. 2024. «Intelligent Textbooks: Past, Present, and Future.» International Journal of Artificial Intelligence in Education. https://link.springer.com/article/10.1007/s40593-024-00451-9.

Los libros de texto siguen siendo una herramienta clave en la educación, pero han evolucionado significativamente en las últimas décadas en términos de creación, publicación, formato, acceso y mantenimiento. Actualmente, la mayoría tiene versiones digitales y se pueden consultar en línea, con un número creciente de recursos educativos abiertos. Además, muchos incluyen bibliotecas de materiales complementarios e incluso se integran en plataformas educativas digitales.

El paso de los libros impresos a los digitales ha impulsado la incorporación de funciones interactivas como búsquedas avanzadas, anotaciones, contenido interactivo, evaluaciones automatizadas y chatbots. Estas mejoras han generado nuevos desafíos y oportunidades para aplicar inteligencia artificial (IA) en el desarrollo y uso de los libros de texto digitales.

Algunas cuestiones clave en este ámbito incluyen cómo mejorar el acceso y la lectura, extraer conocimiento implícito en los textos para optimizar el aprendizaje, analizar los registros de interacción de los estudiantes, enriquecer el contenido con información externa y utilizar tecnologías de lenguaje avanzado para personalizar la experiencia educativa.

En este contexto, el campo de los Libros de Texto Inteligentes ha pasado por distintas generaciones de desarrollo. La primera generación, basada en sistemas de tutoría inteligente e hipertexto educativo, ofrecía personalización a través de estructuras predefinidas por expertos en el dominio. Con el avance de la web, estos libros adoptaron formatos tradicionales con tablas de contenido y glosarios, incorporando técnicas como navegación adaptativa, recomendación de contenido y personalización del aprendizaje. Sin embargo, operaban en entornos cerrados con materiales cuidadosamente seleccionados y estructurados.

Este desarrollo ha generado diversas generaciones de «libros de texto inteligentes»:

Primera Generación: Inteligencia Diseñada

Esta fase inicial surgió de la intersección entre los sistemas de tutoría inteligentes y los hipermedios educativos adaptativos. Los primeros prototipos no presentaban el formato tradicional de los libros de texto; en su lugar, proporcionaban a los estudiantes acceso adaptativo a elementos de información o «hiper-tarjetas» en respuesta al rendimiento en ejercicios asociados. Con la popularización de la web, estos libros adoptaron una estructura más convencional, incorporando técnicas de personalización como soporte de navegación, manipulación adaptativa de páginas, recomendación de contenido y secuenciación de contenidos. Estos sistemas eran entornos de corpus cerrado, ofreciendo colecciones limitadas de textos y ejercicios diseñados meticulosamente.

Segunda Generación: Inteligencia Integrada

En esta etapa, la atención se centró en aspectos prácticos como arquitecturas abiertas, integración con recursos educativos externos y estandarización de modelos semánticos. El desarrollo de tecnologías de la Web Semántica permitió la representación de conocimientos compartibles y soluciones arquitectónicas para software inteligente. Esto facilitó la implementación de modelos de conocimiento como ontologías y la integración de materiales educativos interconectados, permitiendo a los libros de texto «comprender» su contenido y participar en interacciones más significativas con los estudiantes, como responder preguntas y crear mapas conceptuales.

Tercera Generación: Inteligencia Extraída

Con el avance de técnicas de Procesamiento de Lenguaje Natural (PLN) y Aprendizaje Automático (AA), los investigadores comenzaron a ver los libros de texto no solo como herramientas educativas, sino también como fuentes ricas de contenido de alta calidad. Se aplicaron métodos para extraer automáticamente temas, conceptos, relaciones e incluso modelos completos de conocimiento de los textos digitales. Esta capacidad permitió transformar automáticamente libros de texto en versiones inteligentes, enlazándolos con contenido interactivo externo y conectándolos entre sí.

Cuarta Generación: Inteligencia Minada de Datos

La adopción creciente de libros de texto digitales generó una abundancia de datos sobre la interacción de los estudiantes. Se emplearon métodos de minería de datos para analizar estos registros, permitiendo comprender mejor los comportamientos de lectura y su relación con el progreso académico. Los patrones de navegación y las actividades de anotación se utilizaron para predecir el éxito o fracaso de los estudiantes, facilitando intervenciones oportunas. Además, estos datos ayudaron a modelar el conocimiento de los estudiantes sobre conceptos específicos y mejorar la organización y presentación de los contenidos.

Quinta Generación: Inteligencia Generada

Recientemente, la incorporación de modelos de lenguaje de gran escala (LLMs) ha revolucionado los libros de texto inteligentes. Estos modelos, entrenados con vastas cantidades de datos textuales, pueden extraer y sintetizar información de los libros de texto, ofreciendo respuestas automáticas a preguntas y reduciendo problemas como las «alucinaciones» en las respuestas generadas. Además, se han utilizado para crear experiencias interactivas, como chatbots que simulan conversaciones tutor-estudiante, mejorando la interacción y personalización del aprendizaje.

Conclusiones

A pesar de su larga historia, los libros de texto inteligentes siguen siendo un campo de innovaciones en el que se introducen y exploran nuevos enfoques en diversos estudios. Los investigadores de libros de texto inteligentes adoptan con entusiasmo tecnologías desarrolladas fuera de este campo y plantean casos de uso y escenarios de aplicación que amplían las capacidades y la eficacia potencial de los prototipos de libros de texto. Los libros de texto siguen siendo una de las principales fuentes de conocimiento para los estudiantes, a pesar de que los contenidos más interactivos y no textuales están ganando popularidad en muchas otras tareas y contextos.

Ha llegado el momento de que los libros de texto aumenten su funcionalidad con características interactivas que mejoren la eficacia general de los libros de texto como herramientas de aprendizaje. Las interfaces adaptables de los libros de texto, los contenidos inteligentes, los servicios inteligentes y las herramientas centradas en la comunidad para interactuar con otros usuarios transformarán el estudio de los alumnos con libros de texto en una experiencia de aprendizaje más interactiva y social. La nueva ola de IA generativa que ya alimenta la actual generación de libros de texto inteligentes abre un amplio abanico de posibilidades para hacer que el aprendizaje con libros de texto sea aún más interactivo y atractivo. Los LLM son muy capaces de transferir eficazmente lo que aprenden del preentrenamiento en textos a escala web a diferentes contextos, lo que se traduce en altos niveles de fluidez y coherencia del texto generado. Actualmente, la dirección más popular de estos trabajos es utilizar los LLM para producir automáticamente preguntas de evaluación para libros de texto inteligentes, con resultados iniciales prometedores. Además, se están construyendo nuevos prototipos de libros de texto inteligentes que emplean IA generativa para apoyar nuevas formas significativas de interacción. Esperamos más trabajos interesantes que utilicen el potencial de estos modelos en diversas formas de apoyo al alumno en torno a los libros de texto inteligentes, especialmente si se basan en el éxito de la investigación anterior.

Educase 2025: impacto de la inteligencia artificial (IA) en la educación superior

Robert, Jenay, y Mark McCormack. 2025 EDUCAUSE AI Landscape Study: Into the Digital AI Divide. EDUCAUSE, 17 de febrero de 2025. https://www.educause.edu/content/2025/2025-educause-ai-landscape-study/introduction-and-key-findings

Este estudio examina el impacto de la inteligencia artificial (IA) en la educación superior, abordando estrategias institucionales, normativas, casos de uso, el impacto en la fuerza laboral y la brecha digital entre instituciones. La investigación se basó en una encuesta realizada entre el 4 y el 18 de noviembre de 2024.

Los hallazgos clave incluyen el aumento en la percepción de la IA como una prioridad estratégica, la expansión de políticas de uso aceptable, la predominancia de la enseñanza y el aprendizaje como áreas de aplicación y la diferencia de recursos entre instituciones grandes y pequeñas. Además, el estudio destaca la necesidad de alfabetización en IA y el desafío de financiar su implementación.

Hallazgos clave

  1. Estrategia y liderazgo
    • El 57% de los encuestados considera que la IA es una prioridad estratégica, un aumento respecto al 49% del año anterior.
    • La formación en IA para el profesorado (63%) y el personal administrativo (56%) es un enfoque clave en la planificación estratégica.
    • Solo el 2% de las instituciones financia los costos adicionales de la IA con nuevas fuentes de financiación, y el 34% de los líderes ejecutivos considera que se han subestimado estos costos.
  2. Políticas y normativas
    • El número de instituciones con políticas de uso aceptable de IA aumentó del 23% al 39% en un año.
    • Solo el 9% considera que sus políticas de ciberseguridad y privacidad son adecuadas para gestionar los riesgos asociados con la IA.
  3. Casos de uso
    • La enseñanza y el aprendizaje son los principales ámbitos de aplicación de la IA, con énfasis en la integridad académica (74%), la realización de trabajos (65%), las evaluaciones (54%) y el diseño curricular (54%).
    • El 68% de los encuestados indica que los estudiantes usan IA más que los docentes, aunque la formación está más centrada en el profesorado.
  4. Fuerza laboral
    • El 37% de las instituciones están enfocadas en mejorar las habilidades de IA del personal existente en lugar de contratar nuevos empleados (1%).
    • Se destaca la importancia de la «alfabetización en IA» para todos los trabajadores y el uso de IA para aumentar la productividad.
  5. Brecha digital en IA entre instituciones
    • Instituciones pequeñas y grandes tienen percepciones similares sobre el uso personal y futuro de la IA.
    • Sin embargo, las instituciones más grandes cuentan con más recursos y capacidades para adoptar la IA de manera efectiva.

Este informe resalta la creciente importancia de la IA en la educación superior, la necesidad de políticas claras y formación especializada, y la persistente desigualdad en el acceso a los beneficios de la IA entre instituciones de distintos tamaños.

Sam Altman, CEO de OpenAI, admite que los beneficios de la IA podrían no distribuirse ampliamente

Wiggers, Kyle. «OpenAI CEO Sam Altman Admits That AI’s Benefits May Not Be Widely DistributedTechCrunch, 9 de febrero de 2025. https://techcrunch.com/2025/02/09/openai-ceo-sam-altman-admits-that-ais-benefits-may-not-be-widely-distributed/

En un ensayo reciente en su blog personal, Sam Altman, CEO de OpenAI, expresó que la compañía está abierta a ideas inusuales, como el concepto de un «presupuesto de cómputo», para permitir que todos en el mundo utilicen IA y garantizar que sus beneficios sean distribuidos de manera más equitativa. Altman destacó que, aunque los avances tecnológicos mejoran indicadores como la salud y la prosperidad económica, la igualdad no está garantizada por la tecnología y puede requerir intervenciones tempranas.

El concepto del «presupuesto de cómputo» de Altman podría ser difícil de ejecutar, ya que la IA ya está impactando el mercado laboral con recortes de empleos. Expertos advierten que el desempleo masivo podría ser una consecuencia si no se implementan políticas gubernamentales adecuadas y programas de reentrenamiento.

Altman también habló sobre la inteligencia artificial general (AGI), que define como un sistema de IA capaz de resolver problemas complejos a nivel humano en diversas áreas. Aunque la AGI está cerca, según Altman, no será perfecta y necesitará supervisión humana. La verdadera utilidad de la AGI, según él, provendrá de su escala masiva, con miles o millones de sistemas de IA trabajando en diversas tareas.

A pesar de los altos costos asociados al desarrollo de IA, Altman mencionó que el costo de usar un nivel determinado de IA disminuye cada 12 meses. OpenAI está trabajando en la creación de una red de datos masiva y buscando inversiones de hasta 40 mil millones de dólares.

En cuanto a la seguridad de la AGI, Altman indicó que OpenAI tomará decisiones y limitaciones impopulares para asegurar que la tecnología no sea mal utilizada, especialmente por gobiernos autoritarios. Además, subrayó que OpenAI tiene como objetivo empoderar a los individuos, sin perder de vista la necesidad de equilibrar la seguridad con la autonomía personal.

OpenAI podría marcar con una «marca de agua» el texto generado por ChatGPT, pero aún no lo ha hecho

Beschizza, Rob. «OpenAI Could Watermark the Text ChatGPT Generates, but Hasn’t.» Boing Boing, 5 de agosto de 2024. https://boingboing.net/2024/08/05/openai-could-watermark-the-text-chatgpt-generates-but-hasnt.html

OpenAI ha desarrollado un sistema de «marca de agua» para detectar cuando ChatGPT genera texto, pero ha decidido no implementarlo, según informes de The Wall Street Journal. El sistema, que podría detectar con precisión si un estudiante usó ChatGPT para escribir un ensayo, ha estado listo durante un año, pero ha sido objeto de debates internos dentro de la compañía.

OpenAI afirma que aunque el sistema es 99.9% fiable en textos sin editar, es «fácil de evadir». La marca de agua funciona bien contra alteraciones locales, como la paráfrasis, pero es menos efectiva contra ediciones más globales, como la traducción o el uso de otros modelos generativos. Además, la compañía ha señalado que este método podría tener efectos negativos, como estigmatizar a los no hablantes nativos de inglés que usan la IA como herramienta de escritura.

De modo que aunque la tecnología de marca de agua de OpenAI es precisa en situaciones controladas, se puede eludir fácilmente con modificaciones más profundas, lo que hace que su uso sea poco confiable para detectar textos generados por IA en la práctica.

Thomson Reuters gana una sentencia de «uso justo» de los derechos de autor de IA contra Ross Intelligence

Reuters. «Thomson Reuters Wins AI Copyright Fair Use Ruling Against One-Time Competitor.» Reuters, 11 de febrero de 2025. https://www.reuters.com/legal/thomson-reuters-wins-ai-copyright-fair-use-ruling-against-one-time-competitor-2025-02-11/

Sentencia

El fallo reciente de un juez federal en Delaware a favor de Thomson Reuters en un caso de derechos de autor contra Ross Intelligence ha generado un importante precedente legal en el ámbito de la inteligencia artificial (IA) y el uso de contenido protegido. Este veredicto, emitido por el juez Stephanos Bibas, es el primero en los Estados Unidos que aborda específicamente la doctrina de uso justo (fair use) en el contexto de litigios relacionados con la IA.

Ross Intelligence, una firma de investigación legal que ya no está operativa, fue acusada de utilizar contenido protegido por derechos de autor de Thomson Reuters para desarrollar una plataforma de investigación legal basada en IA que competía directamente con Westlaw, el reconocido servicio de investigación legal de Thomson Reuters. En su decisión, Bibas reconsideró un fallo anterior en el que había sugerido que la determinación sobre el uso justo debería ser realizada por un jurado. Tras un análisis más detallado de los materiales del caso, el juez concluyó que Ross había infringido los derechos de autor al desarrollar un sustituto de mercado utilizando contenido de Thomson Reuters.

La doctrina de uso justo permite, bajo ciertas condiciones, el uso de obras protegidas sin permiso expreso, como en parodias, investigación no comercial o producción de noticias. Sin embargo, los tribunales evalúan el uso justo mediante un test de cuatro factores: el propósito del uso, la naturaleza de la obra original, la cantidad utilizada y el impacto en el valor de mercado de la obra original. Thomson Reuters prevaleció en dos de estos cuatro factores, y el juez Bibas enfatizó que el cuarto factor, el impacto en el mercado, era el más crucial, ya que Ross buscaba competir directamente con Westlaw.

Este fallo ha generado preocupación entre las empresas de IA, ya que podría influir en otros casos similares en curso contra gigantes tecnológicos como OpenAI y Microsoft. James Grimmelmann, profesor de derecho digital e internet en la Universidad de Cornell, señaló que si esta decisión se adopta en otros tribunales, representaría un obstáculo significativo para las empresas de IA generativa, ya que muchos de los argumentos legales que utilizan para defenderse podrían considerarse irrelevantes.

Es importante destacar que este caso involucra una IA no generativa, a diferencia de las herramientas de IA generativa como los modelos de lenguaje de gran tamaño (LLM). Ross Intelligence cerró en 2021, alegando que la demanda de Thomson Reuters era infundada, pero que no podía recaudar suficientes fondos para continuar operando mientras se enfrentaba al litigio.

Este precedente podría afectar profundamente el desarrollo y uso de la IA, especialmente en el contexto de la utilización de contenido protegido, y plantea interrogantes sobre cómo las empresas de tecnología podrán entrenar sus modelos sin infringir derechos de autor. A medida que otros casos similares avanzan en los tribunales, la industria de la IA está atenta a las posibles implicaciones legales de este fallo.

Microsoft ofrece a los autores 5.000 dólares por entrenar la IA con sus libros

Bastian, Matthias. «Microsoft Offers Authors $5,000 to Train AI on Their BooksTHE DECODER, February 9, 2025. https://the-decoder.com/microsoft-offers-authors-5000-to-train-ai-on-their-books/

Microsoft ha adoptado un enfoque innovador para utilizar libros con derechos de autor en el entrenamiento de inteligencia artificial (IA) al ofrecer pagos a los autores de HarperCollins. Este acuerdo pone de relieve cómo la industria valora el trabajo creativo en la era de la IA.

Microsoft ha propuesto un acuerdo de licencias con el editor HarperCollins para utilizar libros con derechos de autor en el entrenamiento de inteligencia artificial (IA), ofreciendo 5.000 dólares por cada libro. Los autores recibirían la mitad de esa cantidad, es decir, 2.500 dólares por libro. Esta oferta ha generado dudas entre los autores, quienes deben decidir si aceptan o no, ya que es difícil determinar si la compensación es justa. La autora Alice Robb, que recibió esta oferta para su libro Why We Dream, comenta que su obra ya se había utilizado sin permiso para entrenar sistemas de IA, probablemente por Microsoft o OpenAI.

El acuerdo refleja un intento de Microsoft por establecer un valor monetario para los derechos de entrenamiento de IA sobre libros, dirigiéndose especialmente a libros antiguos cuyos autores no reciben regalías. Mientras tanto, algunas empresas de IA defienden que el «uso justo» les permite entrenar IA con obras protegidas por derechos de autor sin compensación, lo que ha llevado a múltiples demandas.

Este enfoque de Microsoft sugiere que las grandes compañías de IA podrían estar retrocediendo en su postura de que usar contenido protegido por derechos de autor sin permiso es legal, adoptando un enfoque más reflexivo sobre la compensación a los creadores.

La Comisión Europea publica unas directrices sobre la definición de sistemas de inteligencia artificial (IA)

European Commission. (2025, February 2). The Commission publishes guidelines on prohibited artificial intelligence (AI) practices as defined by the AI Act. Digital Strategy. https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act

La Comisión Europea ha publicado unas directrices sobre la definición de sistemas de inteligencia artificial (IA) para facilitar la aplicación de las primeras normas del Acta de Inteligencia Artificial (AI Act).

Estas directrices tienen como objetivo ayudar a los proveedores y otras partes relevantes a determinar si un sistema de software califica como un sistema de IA, promoviendo así una aplicación efectiva de las reglas establecidas. Aunque no son vinculantes, las directrices se actualizarán conforme surjan nuevas experiencias, cuestiones o casos de uso.

El AI Act clasifica los sistemas de IA en diversas categorías de riesgo, como prohibidos, de alto riesgo y aquellos sujetos a obligaciones de transparencia. Desde el 2 de febrero, han comenzado a aplicarse las primeras reglas bajo este acta, que incluyen la definición de sistemas de IA, la alfabetización en IA y un número limitado de casos de uso de IA prohibidos debido a los riesgos inaceptables que representan en la Unión Europea.

Varias bibliotecas universitarias estadounidenses trabajan en un proyecto cooperativo de definición e Implementación de Alfabetización en IA

MacDougall, R., McBride, M., & Ruediger, D. (2025). Defining and implementing AI literacy: Announcing a new cohort project. Ithaka S+R. https://www.ithaka.org/defining-implementing-ai-literacy

Ante la expansión de la inteligencia artificial generativa, las universidades están reconociendo la necesidad de que los estudiantes aprendan a utilizar la IA de manera responsable y piensen críticamente sobre su rol en la sociedad. Sin embargo, definir e implementar la alfabetización en IA es un desafío debido a la rápida evolución de las tecnologías y la dificultad de predecir el impacto que la IA tendrá en la enseñanza, el aprendizaje, la preparación profesional y la vida cívica.

Crear marcos institucionales específicos para la alfabetización en IA y desarrollar los programas y recursos necesarios para integrarla en la educación universitaria requerirá la colaboración de diversos sectores dentro de la universidad. Las bibliotecas están en una posición privilegiada para liderar estos esfuerzos, tanto a nivel campus como nacional. Emplean expertos en ciencias de la información y, en muchas instituciones, tienen una larga tradición como proveedores clave de enseñanza sobre otras literacidades modernas esenciales, como la alfabetización en datos o la alfabetización digital. Ithaka S+R está ha anunciado un nuevo proyecto de cohorte, patrocinado parcialmente por JSTOR, que se centra en ayudar a las bibliotecas a enfrentar el desafío de la alfabetización en IA.

Ithaka S+R organizará un grupo de 15 universidades comprometidas con promover la alfabetización en IA como un resultado clave del aprendizaje. Durante la fase de exploración, las instituciones participantes se reunirán para conversaciones estructuradas e intercambio de información, con el objetivo de situar sus metas de alfabetización en IA en relación con los marcos existentes de alfabetización en IA e información. Los participantes colaborarán con Ithaka S+R para crear y personalizar una guía de entrevistas diseñada para comprender mejor las expectativas, experiencias y necesidades de estudiantes y profesores.

En la fase de investigación del proyecto, los equipos de investigación locales realizarán entrevistas con las comunidades del campus. Ithaka S+R trabajará con cada institución para finalizar los instrumentos, ayudar a desarrollar una estrategia de muestreo y reclutamiento para las entrevistas con estudiantes e instructores, y proporcionar apoyo durante todo el proceso. En la fase de difusión, los participantes compartirán los resultados de sus entrevistas y trabajarán en colaboración para idear nuevos servicios o revisiones de servicios existentes en un simposio interno. Ithaka S+R publicará un informe final basado en el análisis agregado de las entrevistas realizadas durante el proyecto.

Las instituciones que han confirmado su participación en el proyecto de alfabetización en IA son Alfred University, Buffalo State University, Chapman University, Montana State University, Santa Clara University, SUNY-Empire State y Virginia Tech. Estas universidades se han comprometido a promover la alfabetización en IA como un objetivo clave de aprendizaje, contribuyendo al desarrollo de marcos específicos que integren esta competencia en la educación universitaria.