
“OpenAI’s Internal Slack Messages Could Cost It Billions in Copyright Suit.” Sherwood News, [fecha de publicación]. https://sherwood.news/power/openais-internal-slack-messages-could-cost-them-billions-in-copyright-suit/
El artículo analiza cómo OpenAI se encuentra en una situación altamente comprometida debido a comunicaciones internas —especialmente mensajes de Slack y correos electrónicos— que han sido reveladas durante un litigio por infracción de derechos de autor.
Los demandantes, un grupo de autores y editoriales, han obtenido acceso a ciertas conversaciones internas en las que se discute el uso de un conjunto de datos formado por obras con copyright sin licencia, así como la eliminación posterior de dicho material. Dichas evidencias podrían indicar no solo infracción, sino también conducta intencionada, lo que eleva el riesgo de que OpenAI tenga que pagar compensaciones extraordinarias.
El texto señala que, si se demuestra que OpenAI actuó sabiendo que utilizaba obras protegidas sin permiso, la empresa podría enfrentarse a daños punitivos de hasta 150.000 dólares por obra individual —una cifra que, multiplicada por millones de obras, podría ascender a miles de millones de dólares en pasivos potenciales. Además, el hecho de que se hayan eliminado datos y de que ciertas comunicaciones sobre esa eliminación estén siendo investigadas, abre la posibilidad de sanciones graves, como instrucciones desfavorables al jurado o la imposición de que se asuma que la conducta fue deliberada.
Otro punto crítico es que la filtración y revelación de estas comunicaciones internas afecta directamente la credibilidad de la defensa de la empresa. OpenAI ha argumentado que ciertas decisiones se tomaron por inactividad o falta de uso del material, pero las conversaciones sugieren deliberación sobre el borrado de datos recogidos de plataformas no autorizadas. Esto pone en juego la llamada excepción del crimen‑fraude, una vía legal que permite que se revele información habitualmente protegida por la confidencialidad abogado‑cliente si se considera que se está cometiendo un delito o fraude. Si se aplica, podría abrir aún más la caja de pandora de las comunicaciones internas de la empresa.
El artículo concluye que el caso no solo es relevante para OpenAI, sino para toda la industria de la inteligencia artificial: la cuestión de cómo se recogen, utilizan y eliminan los datos de entrenamiento —especialmente cuando incluyen obras bajo copyright— se está convirtiendo en un desafío estructural. La exposición de OpenAI podría sentar precedentes que impacten a otras compañías que entrenan modelos con grandes volúmenes de contenido sin licencia explícita. En definitiva, no es únicamente una cuestión económica de cuantificación de daños, sino una prueba sobre la gobernanza, la ética y la diligencia profesional en el desarrollo de la inteligencia artificial.