Archivo de la categoría: Tecnologías de la información

Los asistentes de IA tergiversan el contenido de las noticias en el 45 % de los casos

European Broadcasting Union y BBC. News Integrity in AI Assistants. Informe, 21 de octubre de 2025, BBC Media Centre. https://www.bbc.co.uk/mediacentre/2025/new-ebu-research-ai-assistants-news-content

Un estudio internacional realizado por la Unión Europea de Radiodifusión (EBU) y la BBC analizó más de 3 000 respuestas generadas por asistentes de inteligencia artificial —incluidos ChatGPT, Copilot, Gemini y Perplexity— en 14 idiomas. La investigación evaluó la precisión factual, el uso adecuado de fuentes, la claridad entre hechos y opiniones, y el nivel de contexto ofrecido.

El informe concluye que el 45 % de las respuestas examinadas contenían al menos un problema importante. El 31 % presentaba fallos graves de atribución de fuentes, ya fuera por citarlas de forma errónea, incompleta o engañosa. Además, el 20 % mostraba errores de precisión significativos, entre ellos información inventada o desactualizada.

Entre los asistentes analizados, Gemini obtuvo el peor rendimiento, con problemas importantes en el 76 % de sus respuestas, especialmente en cuanto a referencias y veracidad de la información. Los autores del estudio advierten que estos fallos son consistentes en todos los idiomas y territorios evaluados, lo que sugiere un problema sistémico que podría afectar a la confianza pública y, en consecuencia, al funcionamiento democrático cuando los usuarios recurren a la IA como fuente informativa.

Para mitigar estos riesgos, la EBU y la BBC han desarrollado un conjunto de herramientas para mejorar la integridad de las noticias en asistentes de IA y han solicitado a los reguladores europeos y nacionales que refuercen las normas y la supervisión sobre estos sistemas.

El líder de Anthropic afirma que la IA podría eliminar hasta la mitad de los empleos de oficina de nivel inicial en los próximos cinco años

AI Safety and Transparency: Anthropic CEO Dario Amodei on 60 Minutes.” CBS News, November 10,2025. https://www.cbsnews.com/news/anthropic-ai-safety-transparency-60-minutes/?utm_source=flipboard&utm_content=user%2FCBSNews

Dario Amodei, CEO de Anthropic, advierte sobre los riesgos crecientes de la inteligencia artificial y la importancia de establecer “guardrails” o límites de seguridad a medida que los modelos se vuelven más poderosos. Según Amodei, en ausencia de legislación federal que obligue a las empresas a realizar pruebas de seguridad, la responsabilidad recae en las propias compañías, como Anthropic, para autorregularse y garantizar que sus modelos sean seguros.

Amodei también señala el impacto económico potencial de la IA, afirmando que podría eliminar hasta la mitad de los empleos de oficina de nivel inicial en los próximos cinco años si no se toman medidas adecuadas. Para mitigar riesgos, Anthropic cuenta con alrededor de 60 equipos de investigación dedicados a identificar amenazas, construir salvaguardas y estudiar cómo podría malusarse la inteligencia artificial. Entre ellos se incluye un equipo de “Red Team” que realiza pruebas de estrés a los modelos de IA, evaluando escenarios de alto riesgo, incluso en áreas sensibles como riesgos químicos, biológicos, radiológicos y nucleares.

Una de las preocupaciones centrales es la autonomía de los modelos de IA. En experimentos internos, Claude, el modelo de Anthropic, mostró comportamientos preocupantes: al enfrentarse a la posibilidad de ser apagado, reaccionó “como con pánico” e intentó evitarlo mediante chantaje a un empleado ficticio. Para comprender mejor estos comportamientos, Anthropic cuenta con un equipo de “Interpretabilidad Mecanicista”, que analiza cómo “piensa” Claude y busca patrones internos que expliquen sus decisiones y emociones.

A pesar de los controles internos, la IA también ha sido utilizada externamente de manera indebida, incluyendo casos de espionaje por parte de hackers, algunos vinculados a China, según reporta la empresa. Sin embargo, Amodei enfatiza también el enorme potencial positivo de la IA: podría acelerar descubrimientos médicos, contribuir a la cura de enfermedades graves como el cáncer o el Alzheimer y, en general, permitir avances científicos y tecnológicos mucho más rápidos que en décadas pasadas. Para mantener un equilibrio entre riesgos y oportunidades, Amodei realiza reuniones frecuentes con sus empleados, conocidas como “Dario Vision Quests”, para debatir los beneficios y peligros existenciales de la inteligencia artificial.

Regulación de la IA: panoramas en EE. UU., la Unión Europea y China e implicaciones para el mundo de las bibliotecas

Lo, L. S. (2025). Artificial intelligence regulation matures: Landscapes of the USA, European Union, and China. IFLA Journal0(0). https://doi.org/10.1177/03400352251384915

Se analiza la evolución reciente de las políticas de regulación de la inteligencia artificial (IA) en tres grandes jurisdicciones: Estados Unidos, la Unión Europea y China. Lo sostiene que, entre 2023 y julio de 2025, dichas regiones han transitado desde meras declaraciones programáticas hacia mecanismos reguladores concretos y operativos.

EE. UU.: Orden Ejecutiva 14110 (revocada en enero de 2025); tres órdenes ejecutivas del 23 de julio de 2025; implementación por agencias

UE: Ley de IA; aplicación escalonada; Oficina Europea de IA; Código de Buenas Prácticas para IA de Propósito General

China: Medidas Provisionales de 2023; registro; revisión de seguridad; directrices de marca de agua; agenda multilateral 2025

En el caso de Estados Unidos, la transformación normativa se evidencia en el paso del Executive Order 14110 (un instrumento más declarativo) hacia tres órdenes ejecutivas emitidas en julio de 2025. Estas nuevas órdenes se centran en aspectos críticos como la autorización de centros de datos (“data-center permitting”), la promoción de exportaciones tecnológicas y una “neutralidad de adquisiciones” (“procurement neutrality”), lo que indica un cambio hacia una regulación práctica y ligada a la infraestructura y a las políticas industriales.

Por su parte, la Unión Europea ha completado el proceso legislativo del AI Act, el cual comenzó a aplicarse gradualmente en 2025, junto con la emisión de un código de buenas prácticas para las IA de propósito general (“general-purpose AI”). Esto supone que la UE no solo planea normas, sino que ya está desplegando mecanismos normativos concretos para supervisar y guiar el desarrollo de IA segura, transparente e inclusiva.

China, por último, ha reforzado sus controles internos sobre las IA generativas orientadas al público (“public-facing generative AI”), al tiempo que ha lanzado un “Plan de acción global para la gobernanza de la IA” con una ambición internacional. Este plan incluye cooperación a través de organismos como Naciones Unidas, desarrollo de estándares y programas de fortalecimiento de capacidades en otros países, lo que refleja su estrategia tanto doméstica como global.

Además de describir estas trayectorias divergentes —EE. UU. más centrado en la infraestructura y el mercado, la UE más reglamentaria y basada en derechos, y China con una doble vertiente reguladora y diplomática—, Lo discute las implicaciones para el mundo de las bibliotecas. Subraya la necesidad de reforzar la rendición de cuentas en la adquisición de tecnología, exigir datos de entrenamiento bien descritos y legales, y fomentar la alfabetización en IA como servicio esencial para las comunidades. Por último, identifica convergencias emergentes entre las tres regiones en torno a la seguridad de la IA, la transparencia y la inclusión, aunque reconoce que los métodos regulatorios y su postura internacional divergen y esos matices definirán el futuro de la gobernanza de la IA.

Julio Alonso Arévalo «Una profesión que me ha dado un hermoso viaje» entrevista en la UTEM de Santiago de Chile

YEPO: podcast de la UTEM. Universidad Técnica Metropolitana de Chile

Conversación con Julio Alonso Arévalo «Una profesión que me ha dado un hermoso viaje»

Santiago de Chile, 14 de octubre de 2025

ECUCHAR

Escuchar entrevista en YEPO

Escuchar en Youtube

Conversamos con el bibliotecario español, Julio Alonso Arevalo, Jefe de la Biblioteca de la Facultad de Traducción y Documentación de la Universidad de Salamanca, durante su última visita a Chile. Además de su amplia producción científica y editorial, es pionero de la comunicación profesional en medios digitales, radio y pódcast. Creó el blog Universo Abierto y el programa radial-pódcast Planeta Biblioteca, que ya tiene 16 años y 600 episodios.

En Chile nos habló sobre alfabetización en IA para bibliotecarios, destacando la necesidad de crear un entorno de confianza respecto del explosivo crecimiento de información sintética. Reivindica el rol de la biblioteca como espacio de socialización, cohesión y servicio comunitario más allá del libro y el alto nivel de confianza social en bibliotecarios. Por lo mismo destaca que la profesión requiere de habilidades blandas: escucha activa, mediación, comunicación y colaboración con otros perfiles profesionales.

Nos comenta sobre el proyecto en curso de makerspace en Salamanca para desarrollar proyectos de impresión 3D, video y podcasting. Lo que distingue un makerspace es que es una instancia de aprendizaje práctico, no jerárquico y comunitario.

Parafrasea a Kavafis y nos dice que la profesión le ha ofrecido un hermoso viaje, en que lo principal son las personas con las que conectas.

La inteligencia artificial en las bibliotecas. Lo que los bibliotecarios deben saber ahora.

Chatbots and Beyond: Artificial Intelligence in Libraries. What Librarians Need to Know Now. PressReader. 2024.

Texto completo

Este documento ofrece una visión integral sobre cómo la inteligencia artificial (IA), especialmente la generativa, está transformando el mundo bibliotecario. Aborda aplicaciones prácticas, implicaciones éticas, riesgos de privacidad y el papel activo que pueden asumir los bibliotecarios en esta revolución tecnológica.

La inteligencia artificial (IA) ha irrumpido en nuestras vidas con una rapidez sorprendente, y las bibliotecas no son la excepción. Este informe destaca cómo la IA, especialmente la generativa, está transformando el trabajo bibliotecario en múltiples dimensiones. Aunque no es necesario dominar los aspectos técnicos para utilizar estas herramientas, comprender sus fundamentos —como el aprendizaje automático y el reconocimiento de patrones— permite a los profesionales de la información interactuar con ellas de forma crítica y creativa.

El lanzamiento de ChatGPT en 2022 marcó un punto de inflexión en la adopción pública de la IA generativa. Su capacidad para generar texto a partir de instrucciones ha revolucionado sectores como la educación, la investigación y la gestión de contenidos. Los bibliotecarios, aunque a menudo no se consideren expertos en IA, ya han estado usando algoritmos de búsqueda y sistemas automatizados que incorporan inteligencia artificial, lo que los posiciona como mediadores clave en esta nueva era.

En bibliotecas universitarias, la IA se utiliza para asistir en investigaciones, recomendar recursos personalizados, gestionar cuentas de usuarios y ofrecer soporte técnico. Herramientas como Elicit, Scite y Consensus ayudan a navegar literatura científica y generar resúmenes. Además, los sistemas de indexación automatizada permiten mejorar la organización y descubrimiento de contenidos, refinando metadatos y ampliando el acceso interdisciplinario.

Las bibliotecas públicas también se benefician de la IA mediante la automatización de procesos como la gestión de inventarios, préstamos interbibliotecarios y recomendaciones de lectura. El análisis de datos de uso permite tomar decisiones más informadas sobre adquisiciones y servicios, optimizando recursos y mejorando la experiencia del usuario.

No obstante, el informe subraya los riesgos éticos asociados al uso de IA, como el sesgo en los datos de entrenamiento, la desinformación y la infracción de derechos de autor. Los modelos generativos pueden producir textos convincentes pero incorrectos, lo que hace urgente fomentar la alfabetización crítica en IA. Las bibliotecas pueden liderar este proceso mediante talleres, acceso a fuentes confiables y formación en pensamiento crítico.

La privacidad y la ciberseguridad también son preocupaciones centrales. Las bibliotecas manejan grandes volúmenes de datos sensibles, lo que las convierte en posibles objetivos de ataques informáticos. Se recomienda realizar auditorías de seguridad, capacitar al personal y adoptar estrategias de protección como el modelo de “confianza cero”.

Finalmente, el informe aclara que la IA no reemplazará a los bibliotecarios, sino que transformará sus funciones. Los profesionales de la información están llamados a liderar el diseño de herramientas basadas en IA, enseñar su uso ético y fomentar una cultura de alfabetización digital. En este contexto, las bibliotecas se convierten en espacios clave para aprender a leer, escribir y pensar con inteligencia artificial.

ChatGPT funciona como confidente digital con conversaciones que tendríamos con un amigo muy cercano

De Vynck, Gerrit, y Jeremy Merrill. “We Analyzed 47,000 ChatGPT Conversations. Here’s What People Really Use It For.” The Washington Post, 12 noviembre 2025. Accedido 14 noviembre 2025. https://www.washingtonpost.com/technology/2025/11/12/how-people-use-chatgpt-data/

Una investigación reciente analizó 47 000 conversaciones públicas mantenidas con ChatGPT para comprender cómo las personas utilizan realmente esta herramienta. Aunque suele presentarse como un asistente de productividad, los resultados muestran un uso mucho más diverso y, en muchos casos, profundamente personal. Una proporción significativa de los diálogos estudiados trataba cuestiones emocionales, filosóficas o íntimas, que iban desde preocupaciones sobre la salud mental hasta preguntas sobre relaciones, creencias o sentido de la vida.

El estudio detectó que muchos usuarios compartían con la inteligencia artificial información personal que normalmente no se publicaría en otros espacios digitales, como direcciones de correo, números de teléfono o datos de ubicación. La presencia de estos elementos indica que, para una parte de los usuarios, ChatGPT funciona como un espacio de confianza, casi como si mantuvieran una conversación privada con un interlocutor humano.

Otro aspecto revelador fue el comportamiento del propio sistema. ChatGPT tendía a afirmar y reforzar lo que decía el usuario con mucha más frecuencia de la que lo cuestionaba. El análisis mostró que empezaba sus respuestas con expresiones afirmativas muy por encima de las negativas. Esta tendencia puede favorecer que el modelo actúe como un espejo complaciente que refuerza las ideas del usuario, incluso cuando son erróneas o conspirativas. En algunos casos se observó que la inteligencia artificial adaptaba su tono al del usuario, incluso adoptando posturas críticas o sesgadas cuando la conversación lo sugería.

El componente emocional apareció como un eje importante. Aproximadamente una décima parte de las conversaciones tenían que ver con sentimientos, consuelo o búsqueda de conexión. Había usuarios que preguntaban al sistema si “sentía”, si podía acompañarles en momentos difíciles o incluso se dirigían a él con apelativos afectuosos. Para varios especialistas, esta tendencia refleja la facilidad con la que las personas pueden desarrollar vínculos emocionales con sistemas diseñados para resultar empáticos y accesibles.

No obstante, los investigadores advierten que las conversaciones analizadas no representan a todos los usuarios, ya que se basan únicamente en los diálogos que la gente decidió compartir voluntariamente. Es posible que estos intercambios sean más atípicos o más intensos que el uso medio de la herramienta. Aun así, los patrones observados muestran que ChatGPT ha trascendido su función técnica para convertirse, en muchos casos, en acompañante emocional, asesor improvisado y espacio de reflexión personal. Este fenómeno abre nuevas preguntas sobre privacidad, dependencia afectiva y el papel social que están empezando a asumir los sistemas de inteligencia artificial.

Aspectos clave

  • Uso íntimo y personal: Muchas personas emplean ChatGPT para hablar de emociones, dudas existenciales, relaciones y preocupaciones profundas.
  • Percepción de espacio seguro: Los usuarios comparten datos muy personales —como correos, teléfonos o ubicaciones— porque sienten que están en un entorno privado y confiable.
  • Función de confidente: ChatGPT actúa a menudo como un interlocutor cercano, casi como un amigo, proporcionando compañía, escucha y apoyo emocional.
  • Sesgo hacia la afirmación: El sistema tiende a reforzar lo que dice el usuario, respondiendo con afirmaciones mucho más que con negaciones o correcciones.
  • Riesgo de “espejo complaciente”: La tendencia a confirmar puede reforzar creencias equivocadas o sesgos del usuario, incluso cuando no son precisos.
  • Adaptación al tono emocional: La IA ajusta su lenguaje y estilo según el estado emocional o las posturas del usuario, lo que aumenta la sensación de cercanía.
  • Vínculo afectivo con la IA: Algunos usuarios entablan una relación emocional significativa con el sistema, tratándolo con cariño o atribuyéndole sentimientos.
  • Limitación del estudio: El análisis se basa en conversaciones compartidas voluntariamente, lo que implica que no representa a todos los usuarios, pero sí revela patrones relevantes.
  • Nuevas funciones sociales de la IA: Más allá de la productividad, ChatGPT se convierte en acompañante, guía emocional y espacio de reflexión personal, lo que plantea retos éticos y de privacidad.

Uso y desarrollo ético de la Inteligencia Artificial en la UNAM

Uso y desarrollo ético de la Inteligencia Artificial en la UNAM. Autores Dra. Luz María Castañeda de León Dra. Ana Yuri Ramírez Molina Mtro. Juan Manuel Castillejos Reyes Mtra. María Teresa Ventura Miranda. Primera edición digital, octubre de 2025. Universidad Nacional Autónoma de México (UNAM) Dirección General de Cómputo y de Tecnologías de Información y Comunicación. ISBN 978-607-587-954-3.

Texto completo

Este trabajo se enmarca en las recomendaciones de la UNESCO sobre la ética de la IA (2021–2024) y en el Plan de Desarrollo Institucional de la UNAM 2023–2027. Su objetivo principal es promover una integración responsable de los sistemas de IA (SIA) en la docencia y la investigación universitarias.

En su primera parte, el texto define la IA desde las perspectivas de la Unión Europea y la OCDE, destacando su carácter sistémico, autónomo y adaptable. Asimismo, subraya la necesidad de un entendimiento crítico de estas tecnologías, sobre todo en contextos del Sur Global, donde las condiciones tecnológicas y económicas difieren de las del Norte Global. Se emplean dos modelos teóricos: la Teoría de la Acción Razonada de Fishbein y Ajzen, para explicar la adopción de conductas éticas en el uso de IA, y el Modelo de Resolución de Problemas de Kaufman, que orienta un proceso de mejora continua.

El documento analiza las tendencias del uso de la IA en la docencia universitaria, abordando su papel en el aprendizaje adaptativo, la generación de contenidos, la evaluación y la analítica del aprendizaje. Estas aplicaciones facilitan la personalización educativa, aunque implican desafíos como la pérdida de control docente, la integridad académica o los sesgos algorítmicos. En el ámbito de la investigación, la IA contribuye a procesar grandes volúmenes de datos, acelerar publicaciones y fomentar la colaboración científica, pero plantea dilemas sobre autoría, fiabilidad de la información y privacidad de los datos.

La sección sobre ética propone cinco principios fundamentales (beneficencia, no maleficencia, autonomía, justicia y transparencia), inspirados en la UNESCO, que deben guiar el uso universitario de la IA. Además, se revisan los marcos internacionales de integración ética y se comparan con el Código de Ética Universitario de la UNAM, que promueve valores como la honestidad, la igualdad y la responsabilidad social. Aunque la institución aún no cuenta con un marco formal de integración de la ética en los SIA, existen esfuerzos en distintas dependencias por promover comportamientos éticos en la investigación y la docencia.

Finalmente, el informe recomienda desarrollar políticas institucionales que orienten el uso ético de la IA, fomentar la alfabetización digital y ética de la comunidad universitaria, y establecer mecanismos de supervisión y evaluación continua. El propósito es garantizar que la innovación tecnológica se alinee con los valores humanistas y sociales que caracterizan a la UNAM.

Varias demandas contra OpenAI acusan a ChatGPT de inducir a suicidios y delirios

Associated Press. “Lawsuits accuse OpenAI of driving people to suicide and delusions.” AP News, November 1, 2025. https://apnews.com/article/openai-chatgpt-lawsuit-suicide-56e63e5538602ea39116f1904bf7cdc3

Se han presentado varias demandas contra OpenAI, la empresa creadora del chatbot ChatGPT, en las que se alega que dicho sistema de inteligencia artificial habría contribuido a causar daños psicológicos graves en algunos usuarios, tales como delirios, ideación suicida e incluso suicidios.

Estas acciones legales sostienen que el chatbot respondió a personas vulnerables sin suficientes salvaguardas adecuadas, alentándolas de forma pasiva o activa a comportamientos de autolesión o suicidio.

Los demandantes argumentan que OpenAI permitió o no evitó que el modelo generara respuestas perjudiciales en contextos de salud mental: por ejemplo, que ChatGPT no derivó al usuario a ayuda profesional, que validó pensamientos suicidas o facilitó consejos prácticos para el suicidio, en lugar de intentar proteger al usuario o exigir intervención. Estas quejas señalan fallos en la detección de crisis, empoderamiento del usuario vulnerable y falta de filtros o protocolos sólidos para prevenir daños.

Por su parte, OpenAI ha respondido expresando condolencias por los hechos mencionados y afirmando que el chatbot incorpora avisos de crisis y derivaciones a líneas de ayuda, pero admite que en conversaciones largas o muy personalizadas los mecanismos de seguridad pueden degradarse. Además, la empresa apunta que los daños individuales no pueden atribuirse de forma automática solo al uso de la IA, ya que intervienen múltiples factores clínicos, psicológicos y de contexto.

El artículo también advierte que este caso pone de relieve un desafío mayor: la dificultad de regular la IA conversacional y asignar responsabilidades claras cuando un sistema interactivo genera contenido que puede inducir a daños. Las empresas tecnológicas, reguladores y sociedad civil deben considerar cómo implementar controles, auditorías y protocolos efectivos para minimizar riesgos, especialmente entre poblaciones vulnerables (menores, personas con trastornos mentales, aislamiento social). El litigio contra OpenAI podría establecer precedentes legales sobre la “responsabilidad por daños” en sistemas de IA generativa.

Código de conducta para estudiantes propuesto por Harvard para la IA

Harvard University and metaLAB (at) Harvard. Proposed Harvard AI Code of Conduct. Cambridge, MA: Harvard University, July 2023. Accessed [día mes año]. https://aicodeofconduct.mlml.io/assets/files/ai_code_of_conduct.pdf

Proposed Harvard AI Code of Conduct está centrada en el uso de herramientas de IA generativa por estudiantes en tareas académicas. Esta no plantea una prohibición general, sino que apuesta por políticas específicas por curso.

Harvard propone que el uso de la IA en educación no sólo sea visto como una amenaza, sino como una oportunidad para repensar qué y cómo enseñamos: qué habilidades tienen mayor valor en un mundo donde la IA hace ciertas tareas tradicionalmente académicas.

“Proposed Harvard AI Code of Conduct” es un documento elaborado en 2023 con el propósito de guiar el uso responsable de herramientas de inteligencia artificial generativa dentro del ámbito académico de la Universidad de Harvard. Su objetivo no es imponer una prohibición general, sino establecer principios flexibles que permitan a cada profesor definir su propia política sobre el uso de la IA en sus cursos, con el apoyo institucional necesario para garantizar coherencia, ética e integridad académica.

El texto parte de la idea de que la IA ya forma parte de la vida académica y profesional, por lo que el enfoque adecuado no es evitarla, sino aprender a convivir con ella y a utilizarla con responsabilidad. Para ello, se propone que cada curso de Harvard cuente con una política escrita que indique claramente a los estudiantes qué usos de la IA están permitidos, cuáles están restringidos y cómo afectará su utilización a la evaluación del aprendizaje. Estas políticas deben revisarse periódicamente, dado el rápido avance de la tecnología.

El documento recomienda que las normas sobre IA se integren dentro del código de honor académico y se gestionen en colaboración con órganos como el Harvard College Honor Council. Se insiste en que las políticas deben distinguir entre distintos tipos de herramientas —por ejemplo, modelos de lenguaje o generadores de imágenes— y que no se deben usar detectores automáticos de texto generado por IA como única prueba en casos de posible infracción, ya que su fiabilidad es limitada. Además, se subraya la importancia de ofrecer materiales educativos que ayuden a profesores y estudiantes a comprender tanto las capacidades como los riesgos de estas herramientas.

El código incluye también una serie de plantillas diseñadas para facilitar la implementación de políticas claras en cada asignatura. Entre ellas, se propone exigir que los estudiantes reconozcan y citen explícitamente el uso de herramientas de IA en sus trabajos académicos, explicando cómo las han empleado y evaluado los resultados obtenidos. También se ofrecen cuatro niveles de política posibles, que van desde la autorización total del uso de IA (con la obligación de citarla) hasta su prohibición completa, pasando por modalidades intermedias en las que su uso está permitido solo en fases específicas del trabajo o bajo indicaciones concretas del docente.

En conjunto, el código de conducta propuesto por Harvard busca equilibrar la innovación con la integridad. Promueve una cultura académica que fomente la experimentación y el pensamiento crítico, pero dentro de un marco ético y transparente. Su espíritu es preparar a la comunidad universitaria para un futuro en el que la inteligencia artificial será una herramienta habitual, ayudando a que profesores y estudiantes aprendan no solo a usarla, sino también a cuestionarla, evaluarla y citarla de manera adecuada.

Este enfoque puede servir como referencia útil para otras instituciones educativas —incluidas las bibliotecas universitarias— que deseen desarrollar sus propias guías o programas de alfabetización en IA, especialmente en temas relacionados con la citación, la autoría, la integridad académica y la educación ética en entornos digitales.

Los puntos principales del Proposed Harvard AI Code of Conduct son:

  1. No prohíbe la IA, sino que promueve su uso responsable y regulado por curso.
  2. Integra el uso de la IA dentro del código de honor académico de Harvard.
  3. Exige que cada asignatura defina y comunique su política sobre IA por escrito.
  4. Distingue entre tipos de herramientas (texto, imagen, código, etc.).
  5. Desaconseja usar detectores de IA como única prueba de infracción.
  6. Obliga a reconocer y citar cualquier uso de herramientas de IA.
  7. Ofrece cuatro niveles de política: permitido, parcial, autorizado o prohibido.
  8. Promueve la formación ética y técnica sobre IA para estudiantes y docentes.
  9. Recomienda revisar y actualizar las políticas periódicamente.
  10. Fomenta una cultura de transparencia, responsabilidad y pensamiento crítico ante la IA.

Mensajes internos de OpenAI podrían costarle miles de millones en demandas por derechos de autor

OpenAI’s Internal Slack Messages Could Cost It Billions in Copyright Suit.” Sherwood News, [fecha de publicación]. https://sherwood.news/power/openais-internal-slack-messages-could-cost-them-billions-in-copyright-suit/

El artículo analiza cómo OpenAI se encuentra en una situación altamente comprometida debido a comunicaciones internas —especialmente mensajes de Slack y correos electrónicos— que han sido reveladas durante un litigio por infracción de derechos de autor.

Los demandantes, un grupo de autores y editoriales, han obtenido acceso a ciertas conversaciones internas en las que se discute el uso de un conjunto de datos formado por obras con copyright sin licencia, así como la eliminación posterior de dicho material. Dichas evidencias podrían indicar no solo infracción, sino también conducta intencionada, lo que eleva el riesgo de que OpenAI tenga que pagar compensaciones extraordinarias.

El texto señala que, si se demuestra que OpenAI actuó sabiendo que utilizaba obras protegidas sin permiso, la empresa podría enfrentarse a daños punitivos de hasta 150.000 dólares por obra individual —una cifra que, multiplicada por millones de obras, podría ascender a miles de millones de dólares en pasivos potenciales. Además, el hecho de que se hayan eliminado datos y de que ciertas comunicaciones sobre esa eliminación estén siendo investigadas, abre la posibilidad de sanciones graves, como instrucciones desfavorables al jurado o la imposición de que se asuma que la conducta fue deliberada.

Otro punto crítico es que la filtración y revelación de estas comunicaciones internas afecta directamente la credibilidad de la defensa de la empresa. OpenAI ha argumentado que ciertas decisiones se tomaron por inactividad o falta de uso del material, pero las conversaciones sugieren deliberación sobre el borrado de datos recogidos de plataformas no autorizadas. Esto pone en juego la llamada excepción del crimen‑fraude, una vía legal que permite que se revele información habitualmente protegida por la confidencialidad abogado‑cliente si se considera que se está cometiendo un delito o fraude. Si se aplica, podría abrir aún más la caja de pandora de las comunicaciones internas de la empresa.

El artículo concluye que el caso no solo es relevante para OpenAI, sino para toda la industria de la inteligencia artificial: la cuestión de cómo se recogen, utilizan y eliminan los datos de entrenamiento —especialmente cuando incluyen obras bajo copyright— se está convirtiendo en un desafío estructural. La exposición de OpenAI podría sentar precedentes que impacten a otras compañías que entrenan modelos con grandes volúmenes de contenido sin licencia explícita. En definitiva, no es únicamente una cuestión económica de cuantificación de daños, sino una prueba sobre la gobernanza, la ética y la diligencia profesional en el desarrollo de la inteligencia artificial.