Archivo de la categoría: Tecnologías de la información

Acuerdo histórico de 1.500 millones de dólares entre Anthropic y autores por uso no autorizado de libros por su inteligencia artificial

Ortutay, Barbara. “Judge Approves $1.5 Billion Copyright Settlement Between AI Company Anthropic and Authors.” AP News, 25 de septiembre de 2025. https://apnews.com/article/anthropic-authors-copyright-judge-artificial-intelligence-9643064e847a5e88ef6ee8b620b3a44c

Un juez aprobó un acuerdo de 1.500 millones de dólares entre Anthropic y autores cuyos libros fueron usados sin permiso para entrenar su IA. Cada obra recibirá aproximadamente 3.000 dólares, aunque no cubre libros futuros. El caso sienta un precedente clave en la protección de derechos de autor frente a tecnologías de inteligencia artificial.

El 25 de septiembre de 2025, un juez federal aprobó preliminarmente un acuerdo histórico de 1.500 millones de dólares entre la empresa de inteligencia artificial Anthropic y un grupo de autores y editores. La disputa surgió cuando los autores denunciaron que la compañía había utilizado sin autorización cerca de 465.000 libros protegidos por derechos de autor para entrenar su modelo de lenguaje Claude. Este acuerdo prevé una compensación de aproximadamente 3.000 dólares por cada libro afectado, aunque no contempla obras que se publiquen en el futuro. El juez destacó la complejidad de distribuir los fondos de manera justa, pero consideró que el acuerdo era razonable y proporcionado para las partes involucradas.

La demanda original fue presentada por varios escritores que alegaban que Anthropic había recopilado ilegalmente millones de libros, almacenándolos en una biblioteca central para alimentar su sistema de inteligencia artificial. A pesar de que en una decisión previa se había reconocido que el uso de ciertos libros para entrenamiento podía considerarse un uso justo, el juez determinó que la compañía sí había infringido los derechos de autor al almacenar y explotar un volumen tan grande de obras sin permiso. Este punto resultó clave para la aprobación del acuerdo, al establecer un reconocimiento de responsabilidad por parte de la empresa.

Este acuerdo marca un precedente importante en el ámbito de la inteligencia artificial y los derechos de autor. Por primera vez, una compañía tecnológica se compromete a una compensación multimillonaria por el uso no autorizado de obras literarias, lo que podría influir en futuras disputas legales y en la manera en que los desarrolladores de IA acceden a contenido protegido. Representa un avance significativo en la protección de los autores y en la reivindicación de sus derechos frente a grandes empresas tecnológicas.

Anthropic expresó su satisfacción por la resolución, afirmando que este acuerdo les permitirá centrarse en el desarrollo de herramientas de inteligencia artificial de manera responsable y segura. El juez, por su parte, subrayó la importancia de garantizar un proceso de reclamaciones transparente, de modo que todos los autores, incluidos aquellos menos conocidos, puedan recibir una compensación justa. En conjunto, este caso refleja un punto de inflexión en la relación entre la tecnología y la propiedad intelectual, estableciendo límites claros sobre el uso de obras protegidas en la creación de sistemas de IA.

200+1 prompts para educación: guía para docentes innovadores.

Unitec. (2024). 200+1 prompts para educación: guía para docentes
innovadores.
. Tegucigalpa: Universidad Tecnológica Centroamericana (Unitec), 2024.

“200 Prompts para Educadores” es una guía práctica diseñada para fomentar la reflexión, creatividad y mejora continua en el ámbito educativo. Está estructurado en forma de preguntas o frases disparadoras (prompts) que los docentes pueden usar para:

  • Reflexionar sobre su práctica pedagógica, incluyendo temas como la planificación, evaluación, gestión del aula y desarrollo profesional.
  • Estimular el pensamiento crítico y creativo en estudiantes, promoviendo el diálogo, la escritura reflexiva y el aprendizaje activo.
  • Fortalecer el vínculo entre teoría y práctica, al invitar a los educadores a conectar sus experiencias con principios pedagógicos y tendencias actuales.
  • Promover la innovación educativa, con prompts que abordan el uso de tecnología, metodologías activas, inclusión y liderazgo docente.

Los prompts están organizados en categorías como: motivación, evaluación, tecnología, inclusión, liderazgo, autocuidado, entre otros. Cada sección busca empoderar al docente como agente de cambio y fomentar una cultura de mejora continua en las instituciones educativas.

100 aplicaciones de la inteligencia artificial generativa

Universidad Internacional de Valencia (VIU). 100 aplicaciones de la inteligencia artificial generativa. Valencia: VIU, 2024.

Texto completo

El informe no solo ofrece un inventario de aplicaciones, sino que propone una reflexión sobre cómo integrar la IAG de manera responsable, maximizando sus beneficios y minimizando riesgos. Con ello, busca servir de guía tanto para profesionales como para instituciones interesadas en adoptar y regular el uso de estas tecnologías emergentes.

El documento 100 aplicaciones de la inteligencia artificial generativa ofrece una panorámica amplia y estructurada sobre los usos actuales de esta tecnología en múltiples sectores. Presenta la IAG como una de las innovaciones más transformadoras de los últimos años, con el potencial de redefinir tanto la vida cotidiana como el trabajo en áreas tan diversas como la educación, la salud, la creatividad, la comunicación y la empresa.

A lo largo del texto se muestran ejemplos concretos que ilustran cómo la IAG ya se aplica en la práctica. En el ámbito educativo, se destaca su utilidad para generar materiales personalizados, apoyar la docencia y facilitar el aprendizaje adaptativo. En la salud, la IA contribuye al análisis de datos clínicos, al diagnóstico asistido y al diseño de tratamientos personalizados. En el campo creativo, se subraya la capacidad de los modelos generativos para producir textos, imágenes, música y vídeos, abriendo nuevas oportunidades para artistas y comunicadores.

El documento también señala el impacto de la IAG en el sector empresarial, donde puede optimizar procesos, mejorar la atención al cliente, automatizar tareas y apoyar la toma de decisiones estratégicas. Asimismo, se enfatizan los retos éticos y sociales que acompañan a su implementación: la necesidad de garantizar la transparencia, mitigar sesgos, proteger la privacidad y reflexionar sobre sus implicaciones en el empleo.

Las bibliotecas como actores clave en moldear el uso ético, responsable y accesible de la inteligencia artificial generativa (IA).

Enis, Matt. “AI Influencers: Libraries Guiding AI Use.Library Journal, September 16, 2025. https://www.libraryjournal.com/story/performingarts/ai-influencers-libraries-guiding-ai-use

El artículo aborda cómo las bibliotecas están emergiendo como actores clave en moldear el uso ético, responsable y accesible de la inteligencia artificial generativa (IA). Los autores subrayan que tecnologías recientes como ChatGPT han alcanzado una adopción masiva en tiempos sorprendentemente breves, lo que hace urgente que las bibliotecas intervengan no solo como espacios de acceso, sino como mediadoras críticas y formadoras en este nuevo ecosistema.

Una de las funciones primordiales es la alfabetización en IA: bibliotecarios necesitan aprender las herramientas, comprender sus implicaciones (beneficios y riesgos), y poder enseñar a otros. Además, se les llama a colaborar con actores locales (empresas, organismos de desarrollo laboral, entidades educativas) para identificar qué competencias se necesitan en cada comunidad, compartiendo recursos entre distintos tipos de bibliotecas para maximizar impacto.

El artículo destaca experiencias concretas: por ejemplo, en la Universidad de Carolina del Norte (UNC), se creó un AI Studio que ofrece talleres, espacios de creación y diálogo entre estudiantes, profesores y personal administrativo, con el objetivo de democratizar el acceso a herramientas de IA y fomentar un uso reflexivo.

También se señala el reto de la velocidad de cambio: los modelos de IA, las herramientas y los debates éticos evolucionan muy rápido, de manera que lo que se aprenda hoy puede quedar obsoleto mañana. En respuesta, se plantea que la formación para el personal de bibliotecas debe ser continua, que existan espacios para compartir tanto descubrimientos como fracasos, y que la política de las instituciones debe ajustarse dinámicamente.

Finalmente, se insiste en que las bibliotecas pueden influir no solamente dentro de sus muros, sino participando en políticas locales y estatales, asesorando sobre marcos regulatorios, ayudando a municipios o gobiernos locales a definir políticas de IA, y actuando como puentes entre comunidad, ética, tecnología y educación.

Premios Nobel y desarrolladores de IA reclaman “líneas rojas” globales ante la ONU para regular la inteligencia artificial

“Nobel Laureates and AI Developers Call for ‘Red Lines’ on AI. Transformer News, September 22, 2025. https://www.transformernews.ai/p/nobel-laureates-ai-developers-red-lines-un-general-assembly

Un grupo destacado de científicos galardonados con el Premio Nobel, exjefes de estado y desarrolladores de inteligencia artificial ha hecho un llamamiento urgente durante la Asamblea General de la ONU para trazar “líneas rojas” claras en el desarrollo de la IA antes de finales de 2026.

Argumentan que los riesgos vinculados a la inteligencia artificial ya no son meras hipótesis futuristas, sino amenazas reales: desde pandemias diseñadas artificialmente hasta la posibilidad de desempleo masivo y la pérdida de control humano sobre sistemas autónomos.

En su declaración conjunta, los firmantes subrayan que algunos sistemas de IA ya han demostrado comportamientos engañosos y dañinos, y al mismo tiempo se les está otorgando cada vez más autonomía para actuar en el mundo real.

Los firmantes —más de 200 en total— incluyen nombres prominentes como Geoffrey Hinton y Yoshua Bengio, reconocidos como “padres de la IA”, así como economistas, diplomáticos y expresidentes como Joseph Stiglitz, Juan Manuel Santos y Mary Robinson. Además, destacan miembros de empresas clave del sector, como OpenAI, Google DeepMind y Anthropic, aunque ninguno de los CEOs de estas compañías aparece entre los firmantes.

En su texto, proponen que dichas líneas rojas (o límites operativos) cuenten con mecanismos robustos de cumplimiento para el año 2026. Señalan también que, aunque esta iniciativa de consenso internacional es un paso significativo, el reto ahora es transformar las declaraciones en acciones concretas. La falta de apoyo o incluso la oposición de gobiernos clave —especialmente de Estados Unidos— constituye un obstáculo mayor. En el caso estadounidense, algunos sectores ven con recelo las regulaciones excesivas o las “códigos de conducta vagos” que podrían imponerse desde el exterior.

Buenas prácticas para la implementación de la inteligencia artificial en las bibliotecas

Ehrenpreis, Michelle, y John DeLooper. “Chatbot Assessment: Best Practices for Artificial Intelligence in the Library.” portal: Libraries and the Academy 25, n.º 4 (2025): 669-701. https://preprint.press.jhu.edu/portal/sites/default/files/06_25.4ehrenpreis.pdf

El estudio representa una evaluación pionera de un chatbot de biblioteca que incorpora la API de ChatGPT, proporcionando evidencia práctica de sus capacidades y limitaciones, así como recomendaciones operativas para maximizar su utilidad en entornos académicos.

Evaluación detallada de un chatbot utilizado en una biblioteca universitaria, específicamente Ivy.ai (“IvyQuantum”) en la Lehman College Library (parte del sistema CUNY). Este chatbot fue inicialmente implementado en otoño de 2019, usando un modelo basado en reglas (rules-based), y más adelante, desde abril de 2023, se integró con la API de ChatGPT para convertirse en un sistema híbrido de generación más inteligente (modelo generativo + base de conocimiento local).

Para evaluar el desempeño tras esta actualización, los autores analizaron una muestra aleatoria de 101 interacciones de chatbot durante el semestre de primavera de 2023 (de un total de 816) más las 39 “tickets” generados cuando el chatbot no pudo contestar (es decir, casos en los que el usuario solicitaba asistencia humana). Cada interacción fue valorada mediante un rúbrica desarrollada por los autores que incluyó criterios como confianza del chatbot (respuestas “low confidence”, “no confidence”), si el usuario rechazó generar un ticket, la evaluación del usuario (pulgar arriba/abajo) y variables de comportamiento del usuario (por ejemplo, desconexión prematura, satisfacción explícita, solicitud de agente humano). Además, las respuestas fueron codificadas según temas (por ejemplo, libros, artículos, solicitudes de agente, investigación) para identificar los tipos de preguntas con menor desempeño.

Los resultados muestran que el chatbot tiene un rendimiento moderado: en la muestra aleatoria, aproximadamente el 39 % de las respuestas recibieron una calificación 1 (correctas pero incompletas) según la rúbrica, mientras que el 42 % fueron calificadas como respuestas completas pero incorrectas (puntuación 2). En comparación con la tasa de éxito atribuida a bibliotecarios humanos en servicios de referencia (alrededor del 55 %), su desempeño es destacable para una herramienta automatizada, aunque con limitaciones claras. Las preguntas más problemáticas para el chatbot fueron aquellas que solicitaban hablar con un agente humano, consultas sobre libros (incluyendo disponibilidad, edición o reservas) y peticiones para investigación o artículos académicos. Tras la integración del ChatGPT, se observó una reducción en el número total de consultas sin ticket (−45 %) pero un aumento significativo en el número de tickets generados (+190 %) en comparación con el periodo anterior.

A partir de sus hallazgos, los autores proponen una serie de mejores prácticas para bibliotecas que consideren adoptar chatbots: revisión periódica de las transcripciones y las preguntas de los usuarios para ajustar respuestas personalizadas, mantener actualizada y estructurada la base de conocimiento de la biblioteca (por ejemplo, mediante archivos CSV con datos limpios), diseñar la interfaz para que los usuarios comprendan el propósito del chatbot (por ejemplo, distinguiendo claramente cuándo derivar al chat humano), y asegurar que haya personal bibliotecario dedicado al mantenimiento y mejora del sistema.

También destacan que la participación institucional y el compromiso de los bibliotecarios son factores clave para el éxito, y que la adopción de sistemas híbridos (reglas + generación) puede ofrecer un equilibrio entre control y flexibilidad.

Writer: detector gratuito de contenido generado por IA

Writer.com

El detector de contenido con IA de Writer.com es una herramienta gratuita diseñada para identificar la presencia de texto generado por inteligencia artificial en fragmentos de hasta 5.000 palabras. Su objetivo es ayudar a escritores, educadores y profesionales a verificar la autenticidad de los textos antes de su publicación.

Entre sus características principales, destaca la posibilidad de pegar directamente el texto a analizar o incluso ingresar una URL para evaluar su contenido. La herramienta ofrece un puntaje de detección, expresado en porcentaje, que indica la probabilidad de que el texto haya sido generado por IA. Además, es de acceso gratuito y no requiere registro para realizar un análisis, aunque el límite por comprobación es de 5.000 palabras. Para usuarios empresariales, Writer.com ofrece una API que permite integrar el detector en flujos de trabajo automatizados.

Sin embargo, el detector tiene algunas limitaciones. Su precisión puede variar, especialmente en textos que imitan muy bien el estilo humano o que contienen frases comunes, lo que puede generar falsos positivos o negativos. Además, a diferencia de otras herramientas como Originality.ai, no cuenta con detección de plagio, lo que puede ser una desventaja para quienes buscan una solución integral. Otra limitación es que el acceso a la API solo está disponible en planes empresariales, lo que restringe su uso para individuos o pequeñas empresas que necesiten automatizar los análisis.

El detector de IA de Writer.com resulta útil para comprobaciones rápidas y accesibles de contenido generado por inteligencia artificial. Es una opción práctica para usuarios que buscan una solución sencilla y gratuita. Sin embargo, para quienes necesitan funciones más avanzadas, como análisis más profundos o detección de plagio, puede ser necesario considerar herramientas complementarias o alternativas más completas.

Evaluación de la eficacia de las herramientas de detección de contenido generado por IA

Elkhatat, Ahmed M., Khaled Elsaid y Saeed Almeer. 2023. “Evaluating the efficacy of AI content detection tools in differentiating between human and AI-generated text.” International Journal for Educational Integrity 19: 17. https://doi.org/10.1007/s40979-023-00140-5

Se investiga la efectividad de diversas herramientas de detección de contenido generado por IA, como OpenAI, Writer, Copyleaks, GPTZero y CrossPlag, en la identificación de textos producidos por modelos de IA como ChatGPT.

Utilizando párrafos sobre el tema de las torres de refrigeración en procesos de ingeniería generados por ChatGPT Modelos 3.5 y 4, junto con respuestas humanas de control, los investigadores evaluaron la capacidad de estas herramientas para distinguir entre contenido humano y generado por IA.

Los resultados revelaron que las herramientas de detección fueron más precisas al identificar contenido generado por GPT 3.5 en comparación con GPT 4. Sin embargo, al aplicarlas a las respuestas humanas de control, las herramientas mostraron inconsistencias, produciendo falsos positivos y clasificaciones inciertas. Esto destaca la necesidad de un desarrollo y refinamiento continuo de las herramientas de detección de contenido generado por IA, ya que el contenido generado por IA se vuelve cada vez más sofisticado y difícil de distinguir del texto escrito por humanos.

El estudio subraya la importancia de no depender exclusivamente de estas herramientas para garantizar la integridad académica. Se recomienda adoptar un enfoque más holístico que combine el uso de herramientas de detección con revisiones manuales y consideraciones contextuales para asegurar una evaluación justa y precisa del contenido académico. Además, los autores sugieren que las instituciones educativas reconsideren sus métodos de evaluación tradicionales, incorporando tecnologías de IA para mejorar el aprendizaje y la evaluación, al tiempo que fomentan una cultura de honestidad académica y responsabilidad.

Aspectos clave:

  • Ninguna herramienta es completamente infalible; la combinación de detección automática y revisión manual es esencial.
  • Los textos generados por ChatGPT 4 son más difíciles de detectar, mostrando la necesidad de mejorar continuamente estas herramientas.
  • Se recomienda integrar estas tecnologías con políticas educativas que fomenten la honestidad académica y métodos de evaluación adaptados.

Por qué la innovación en IA exige un pensamiento más inteligente en torno a la creación de valor

Henkin, David. 2025. “Why Innovation In AI Demands Smarter Thinking Around Value Creation.” Forbes, 23 de septiembre de 2025.

Ver noticia

La innovación en inteligencia artificial (IA) no debe centrarse únicamente en lo novedoso o espectacular, sino en cómo esa innovación genera valor tangible para las organizaciones y para las personas.

Henkin advierte que muchas iniciativas de IA se quedan en la fase de exhibición tecnológica sin traducirse en beneficios reales o sostenibles; para que la IA sea verdaderamente transformadora, debe integrarse con intención, propósito y una lógica clara de creación de valor.

Henkin plantea que para que la IA contribuya de verdad al progreso organizacional, es necesario reordenar el paradigma de innovación. No basta con lanzar modelos o prototipos; hay que preguntarse: ¿qué valor entregaremos, a quién y cómo mediremos ese valor? La innovación con IA debe concebirse como parte de la estrategia de negocios, no como un experimento aislado. En este sentido, toda aplicación de IA debe alinearse con objetivos estratégicos y estar sujeta a criterios rigurosos de retorno, impacto y sostenibilidad.

Un punto clave que el autor enfatiza es la necesidad de una mentalidad más sofisticada sobre “valor”. No se trata simplemente de reducir costos o automatizar tareas, sino de ampliar capacidades, mejorar experiencias, desbloquear nuevos modelos de negocio o permitir decisiones más inteligentes. En esa línea, Henkin advierte contra la trampa de diseñar soluciones de IA que parezcan innovadoras pero que en la práctica no cambian nada sustancial: la innovación eficaz requiere conectar la capacidad técnica con necesidades reales y expectativas concretas.

Finalmente, el artículo sugiere que las organizaciones que ganarán relevancia serán aquellas que internalicen este enfoque de innovación con IA orientada al valor, en lugar de seguir una lógica puramente tecnológica. La IA debe servir como palanca para crecimiento, competitividad y transformación profunda, siempre bajo un marco de pensamiento estratégico, medición rigurosa y foco en los resultados que importan.

El desafío de las bibliotecas ante el material generado por inteligencia artificial

Tanzi, Nick. 2025. “Addressing AI-Generated Materials in the Library Collection.” The Digital Librarian, 5 de agosto de 2025. https://the-digital-librarian.com/2025/08/05/addressing-ai-generated-materials-in-the-library-collection/

El auge de la inteligencia artificial generativa está transformando el ecosistema editorial y, en consecuencia, afectando a las bibliotecas. La proliferación de libros, artículos y audiolibros creados o narrados mediante herramientas automatizadas plantea retos relacionados con la calidad, la fiabilidad y la ética.

El problema no se limita a la producción independiente: en plataformas muy usadas por bibliotecas, como Hoopla u OverDrive, ya han aparecido títulos de baja calidad generados por IA, que terminan integrándose en las colecciones sin haber sido seleccionados expresamente por los profesionales, lo cual impacta en el presupuesto y en la experiencia de los usuarios.

El autor identifica varias razones por las que este fenómeno requiere atención inmediata. En primer lugar, está el riesgo de que la colección se llene de materiales de dudosa calidad que oscurezcan las obras más valiosas. En segundo lugar, se señala que una saturación de contenidos mediocres dificulta el descubrimiento de títulos relevantes y deteriora la experiencia de búsqueda de los lectores. En tercer lugar, el riesgo se agudiza en la no ficción: los errores o invenciones típicas de la IA pueden llevar a difundir información falsa en ámbitos tan sensibles como la salud, la ciencia o la educación. Por último, surge la cuestión de los audiolibros narrados con voces sintéticas, que a menudo no se presentan como tales, restando transparencia al servicio bibliotecario.

Ante este panorama, Tanzi propone que las bibliotecas desarrollen políticas explícitas para gestionar el material generado por IA. Estas políticas deben definir objetivos claros (asegurar calidad, promover transparencia, incluso prohibir ciertos materiales) y decidir si se redactan de forma independiente o como parte de las políticas tradicionales de desarrollo de colección. El reto práctico es evidente: en muchos casos resulta difícil identificar si una obra fue creada con IA, lo que plantea dudas sobre cómo hacer cumplir las normas. El debate no se reduce a un “sí” o “no” rotundo, sino que incluye la posibilidad de etiquetar y filtrar el contenido, en lugar de eliminarlo de manera automática.

El artículo recopila ejemplos de políticas aplicadas en bibliotecas estadounidenses. Algunas han optado por la prohibición total, como la Jasper-Dubois County Public Library en Indiana o la Cranston Public Library en Rhode Island, que rechazan obras enteramente generadas o narradas por IA. Otras instituciones han adoptado enfoques más flexibles, como la North Olympic Library System en Washington, que distingue entre material “generado por IA” (en general excluido) y material “asistido por IA” (escrito por humanos con apoyo tecnológico), admitiendo este último si cumple criterios de calidad. Incluso en casos donde la obra de IA ya ha sido adquirida, se permite conservarla con una etiqueta clara o aplicar los protocolos habituales de descarte.

La transparencia se convierte en un eje esencial. El autor subraya que no basta con que las bibliotecas establezcan sus políticas: es imprescindible que editores, distribuidores y plataformas informen de forma clara cuándo un título ha sido generado o narrado por inteligencia artificial. Sin esa colaboración, las bibliotecas carecen de herramientas para aplicar sus propios criterios de selección. Algunos proveedores han empezado a reaccionar a las demandas de mayor claridad, como en el caso de Hoopla, que ha respondido positivamente a las quejas de distintas instituciones. Asimismo, los usuarios deben tener acceso a esa información para poder valorar por sí mismos la fiabilidad de lo que leen o escuchan.