
Spawning AI: https://spawning.ai/
Blog: https://spawning.ai/
Spawning AI trabaja para equilibrar los intereses de los creadores de contenido y los desarrolladores de IA, promoviendo un uso ético y consentido de los datos en la era de la inteligencia artificial. Spawning ofrece un conjunto de herramientas que facilita la declaración de las preferencias de datos y su respeto
Spawning AI es una organización que se dedica a la gobernanza de datos para la inteligencia artificial generativa. Han creado una herramienta llamada “Do Not Train Tool Suite” («No entrenar»), que permite a los titulares de derechos añadir sus medios de comunicación al “Do Not Train Registry” y así evitar que sus obras sean utilizadas para entrenar modelos de IA sin su consentimiento. Este registro es respetado por socios como Stability AI y Hugging Face.
El término “Spawning” lo acuñaron para describir el acto de crear medios completamente nuevos con un sistema de IA entrenado en medios más antiguos. Es una forma de distinguir este proceso de técnicas más antiguas como el muestreo o el collage. Spawning AI también proporciona herramientas para desarrolladores, facilitando el filtrado de solicitudes de no entrenamiento y ayudando a cumplir con las excepciones de derechos de autor de TDM de la UE1.
Spawning ofrece un conjunto de herramientas que facilita la declaración de las preferencias de datos y su respeto. Este conjunto de herramientas incluye:
- Una API para que los titulares de derechos puedan registrar sus datos en el «Do Not Train Registry».
- Una extensión del navegador para que los usuarios puedan marcar fácilmente el contenido que no desean que se utilice para entrenar modelos de IA.
- Una herramienta de línea de comandos para que los desarrolladores de IA puedan integrar el «Do Not Train Registry» en sus flujos de trabajo.
Spawning AI está trabajando para garantizar que la inteligencia artificial generativa se desarrolle y utilice de manera responsable y ética. La empresa cree que es importante que los titulares de derechos tengan el control sobre sus datos y que los desarrolladores de IA sean conscientes de las posibles consecuencias de sus modelos.