Archivo de la etiqueta: Ética de la información

OpenAI se esta enfrentando a varias demandas que alegan que la compañía utilizó conjuntos de datos con información personal y materiales bajo derechos de autor para entrenar a ChatGPT

OpenAI ha enfrentado múltiples demandas en las últimas semanas debido al uso de conjuntos de datos que contienen información personal y materiales con derechos de autor en el entrenamiento de sus modelos de IA, como ChatGPT. Estas demandas plantean preocupaciones sobre presuntas infracciones de derechos de autor y el uso indebido de datos sensibles, como registros médicos y conversaciones privadas, sin el consentimiento apropiado.


OpenAI se ha enfrentado a varias demandas presentadas en las últimas semanas. Estas demandas han planteado preocupaciones sobre el uso de conjuntos de datos que contienen información personal y materiales con derechos de autor para entrenar a sus modelos de IA, como ChatGPT. Algunas de las demandas alegan infracciones de derechos de autor, mientras que otras afirman que OpenAI utilizó datos sensibles, como conversaciones privadas y registros médicos, sin el consentimiento adecuado.

Entre las demandas más destacadas se encuentra una demanda presentada por 16 demandantes no identificados que afirman que OpenAI utilizó datos sensibles en el entrenamiento de sus modelos de IA. Además, la comediante y autora Sarah Silverman, junto con los autores Christopher Golden y Richard Kadrey, han presentado demandas por infracción de derechos de autor contra OpenAI y Meta en un tribunal de distrito de Estados Unidos. Las demandas alegan, entre otras cosas, que los modelos ChatGPT de OpenAI y LLaMA de Meta fueron entrenados utilizando conjuntos de datos adquiridos ilegalmente que contenían sus obras, las cuales afirman haber sido obtenidas de sitios web de «bibliotecas piratas» como Bibliotik, Library Genesis, Z-Library y otros, mencionando que los libros están «disponibles en masa a través de sistemas de torrents». En la demanda contra OpenAI, los creadores presenta pruebas que demuestran que cuando se le solicita, ChatGPT resume sus libros, infringiendo sus derechos de autor. En las pruebas se muestra que el primer libro resumido por ChatGPT es Bedwetter de Silverman, mientras que también se utiliza como ejemplo el libro Ararat de Golden y el libro Sandman Slim de Kadrey. La demanda afirma que el chatbot no se preocupó por «reproducir ninguna de las informaciones de gestión de derechos de autor que los demandantes incluyeron en sus obras publicadas».

Una demanda presentada en un tribunal federal en San Francisco alega que OpenAI copió texto de libros ilegalmente al no obtener el consentimiento de los titulares de los derechos de autor, darles crédito ni compensarlos. La demanda, Tremblay v. OpenAI Inc, afirma que ChatGPT puede resumir de manera precisa los libros de ciencia ficción y terror de los autores. Esto sugiere que el chatbot ha leído y absorbido sus obras. Los autores alegan que ChatGPT violó la ley de derechos de autor al eliminar los avisos de derechos de autor de estos libros.

Otra demanda alega que los modelos de aprendizaje automático de OpenAI, incluyendo ChatGPT y DALL-E, recopilan ilegalmente la información personal de las personas en Internet, violando diversas leyes de privacidad. La demanda, conocida como PM v. OpenAI LP, afirma que OpenAI obtiene información privada de las personas directamente a través de sus sistemas de IA y otras aplicaciones que incorporan ChatGPT. La demanda alega que OpenAI ha incorporado sus sistemas en varias plataformas como Snapchat, Spotify, Stripe, Slack y Microsoft Teams. Afirma que OpenAI recopiló clandestinamente imágenes, ubicaciones, preferencias musicales, información financiera y comunicaciones privadas de los usuarios a través de estas integraciones. Además, la denuncia argumenta que esta recopilación y uso de datos violaron las leyes de privacidad, especialmente en lo que respecta a los datos de los niños.

Estas demandas han generado un debate sobre la ética y las prácticas de recopilación de datos utilizadas en el desarrollo de modelos de IA. OpenAI aún no ha hecho comentarios públicos específicos sobre las demandas y se espera que el proceso legal siga su curso para determinar los resultados. Las acusaciones resaltan la importancia de abordar de manera ética y legal la recopilación y el uso de datos en el desarrollo de la inteligencia artificial. El proceso legal determinará los resultados de estas demandas y puede tener implicaciones significativas para la industria, y la regulación en el campo de la IA.

Las herramientas de detección de texto mediante inteligencia artificial son muy fáciles de engañar

Weber-Wulff, Debora, Alla Anohina-Naumeca, Sonja Bjelobaba, Tomáš Foltýnek, Jean Guerrero-Dib, Olumide Popoola, Petr Šigut, y Lorna Waddington. «Testing of Detection Tools for AI-Generated Text». arXiv, 21 de junio de 2023. https://doi.org/10.48550/arXiv.2306.15666.

Después de semanas después del lanzamiento de ChatGPT, surgieron temores de que los estudiantes utilizaran el chatbot para generar ensayos aceptables en cuestión de segundos. En respuesta a estos temores, las startups comenzaron a desarrollar productos que prometían detectar si un texto había sido escrito por un humano o por una máquina.

El problema es que, según una nueva investigación que aún no ha sido revisada por pares, es relativamente fácil engañar estas herramientas y evitar su detección. Debora Weber-Wulff, profesora de medios y computación en la Universidad de Ciencias Aplicadas, HTW Berlin, trabajó con un grupo de investigadores de diversas universidades para evaluar la capacidad de 14 herramientas, incluyendo Turnitin, GPT Zero y Compilatio, para detectar textos escritos por ChatGPT de OpenAI.

La mayoría de estas herramientas funcionan buscando características distintivas de textos generados por IA, como la repetición, y luego calculando la probabilidad de que el texto haya sido generado por una IA. Sin embargo, el equipo descubrió que todas las herramientas probadas tenían dificultades para detectar textos generados por ChatGPT que habían sido ligeramente reorganizados por humanos y ocultados por una herramienta de parafraseo, lo que sugiere que todo lo que los estudiantes necesitan hacer es adaptar ligeramente los ensayos generados por la IA para evadir los detectores.

Los investigadores evaluaron las herramientas escribiendo ensayos cortos de nivel universitario sobre una variedad de temas, que incluían ingeniería civil, ciencias de la computación, economía, historia, lingüística y literatura. Los ensayos fueron escritos por los propios investigadores para asegurarse de que el texto no estuviera ya en línea, lo que significaría que podría haber sido utilizado para entrenar a ChatGPT. Luego, cada investigador escribió un texto adicional en bosnio, checo, alemán, letón, eslovaco, español o sueco. Esos textos se pasaron por la herramienta de traducción de IA DeepL o Google Translate para traducirlos al inglés.

El equipo luego utilizó ChatGPT para generar otros dos textos cada uno, que modificaron ligeramente en un intento de ocultar que habían sido generados por IA. Un conjunto fue editado manualmente por los investigadores, que reorganizaron las oraciones e intercambiaron palabras, mientras que otro fue reescrito utilizando una herramienta de parafraseo de IA llamada Quillbot. Al final, tenían 54 documentos para probar las herramientas de detección.

Descubrieron que si bien las herramientas eran buenas para identificar textos escritos por humanos (con una precisión promedio del 96%), tenían un desempeño más deficiente cuando se trataba de detectar textos generados por IA, especialmente cuando habían sido editados. Aunque las herramientas identificaron textos generados por ChatGPT con un 74% de precisión, esta cifra disminuyó al 42% cuando el texto generado por ChatGPT había sido ligeramente modificado.

Compilatio, que fabrica una de las herramientas probadas por los investigadores, señala que es importante recordar que su sistema solo indica pasajes sospechosos, que clasifica como posible plagio o contenido potencialmente generado por IA.

Directrices éticas sobre el uso de la inteligencia artificial (IA) y datos en la enseñanza y el aprendizaje para educadores

 Directrices éticas sobre el uso de la inteligencia artificial (IA) y datos en la enseñanza y el aprendizaje para educadores. Publications Office of the European Union, 2022, 

Texto completo

Dado que los sistemas de inteligencia artificial (IA) y el uso de datos están presentes en todos los aspectos de la actividad humana, parece esencial desarrollar una comprensión básica de la IA y del uso de datos entre el alumnado y los educadores para que puedan explotar todo su potencial de forma ética.

Por consiguiente, un grupo de expertos de la Comisión Europea ha publicado esta guía de directrices éticas que se enmarcan dentro del Plan de Acción de Educación Digital (2021-2027) para ayudar a los educadores a abordar los conceptos erróneos sobre la IA y promover su uso ético.

Estas directrices contienen:

  • la aclaración de conceptos erróneos generalizados sobre la IA
  • ejemplos de uso de datos e IA para facilitar el proceso de enseñanza-aprendizaje de los estudiantes, apoyar a los docentes y dar soporte al sistema
  • consideraciones y requisitos éticos sobre la IA en la educación
  • orientaciones para educadores y directivos escolares
  • un glosario de términos de IA y datos

Actualmente, los sistemas de IA en la educación están ayudando a algunos educadores a identificar necesidades específicas de aprendizaje, brindando al alumnado experiencias de aprendizaje personalizadas e inclusivas y facilitando a los centros educativos el uso efectivo de los datos educativos y recursos de enseñanza disponibles. De tal modo, se deben garantizar que todos los datos procesados se almacenen de forma confidencial y segura y se haga un uso ético de los mismos de conformidad con el Reglamento general de protección de datos (GDPR).

Concluyendo, estas directrices son un punto de partida para que los educadores, el alumnado y los centros tengan conciencia sobre el uso ético de la inteligencia artificial y los datos en la educación. De este modo, se pretende generar una base sólida para ampliar el uso de estas tecnologías de manera segura en la educación.

Inteligencia Artificial, Ética y Creatividad Artística: actividades

Inteligencia Artificial, Ética y Creatividad Artística: actividades. Santiago de Chile: Ministerio de Educación, 2023

Texto completo

Programa de inteligencia artificial para 7° básico a I medio: fundamentos, ética y creatividad artística, desarrollado para fomentar el trabajo y reforzar la capacidad creativa e imaginativa de niñas, niños y adolescentes.

Promueve la discusión sobre temas éticos en torno a la Inteligencia Artificial generativa, junto al plan de estudios del MIT “Creative AI: A middle school curriculum about Creativity, Generative AI and Ethics” (Inteligencia artificial creativa: un currículum sobre creatividad, inteligencia artificial generativa y ética para la enseñanza media), en español.

Compuesto por 6 módulos con actividades autoexplicativas y recursos para el trabajo teórico y práctico (suma equivalente a 14 clases de 45 minutos). Está desarrollado para las asignaturas de Tecnología e Historia, Geografía y Ciencias Sociales de 7° básico a I medio, con oportunidades de integración curricular con Artes Visuales, Historia, Geografía y Ciencias Sociales y Orientación. Estas actividades son perfectamente adaptables, a otras asignaturas o niveles, así como a talleres y actividades extracurriculares.

Herramientas gratuitas para detectar tesis, trabajos de investigación, tareas, documentación y blogs generados por modelos de IA. ChatGPT, GPT-4, Bard y Claude

«Top 10 Tools for Detecting ChatGPT, GPT-4, Bard, and Claude». KDnuggets (blog). Accedido 30 de mayo de 2023. https://www.kdnuggets.com/top-10-tools-for-detecting-chatgpt-gpt-4-bard-and-claude.html.

Vivimos en una época de auge de la inteligencia artificial (IA), en la que cada semana aparecen nuevos modelos lingüísticos de gran tamaño (LLM) que pueden escribir como los humanos. Estos modelos pueden generar contenidos muy creativos y, por desgracia, algunos estudiantes y profesionales los utilizan indebidamente para plagiar.

Como resultado, las herramientas de detección de IA se han convertido en algo esencial en todas las aulas, lugares de trabajo e institutos de investigación. Todas las herramientas mencionadas en este blog son gratuitas, y algunas de ellas incluso vienen con extensiones de Chrome para que puedas detectar contenidos sobre la marcha.

  1. GPTZero

GPTZero se ha mejorado significativamente. Ahora es muy preciso, fácil de usar e incluye una extensión para Chrome. Puede utilizarlo para detectar una amplia gama de texto generado por IA, incluido el texto de los últimos modelos como Bard (PalM 2), ChatGPT, GPT-4 y otros modelos de código abierto. Además, es rápido y resalta el texto generado para facilitar su identificación.

  1. OpenAI AI Text Classifier

AI Text Classifier de OpenAI es muy preciso, pero no proporciona información adicional sobre el contenido. Funciona para New Bard, ChatGPT, GPT-4 y otros modelos basados en LLaMA.

  1. CopyLeaks

CopyLeaks. Es un verificador de plagio rápido y preciso que viene con una simple extensión de Chrome. Incluso puedes pasar el ratón sobre el texto resaltado para comprobar la popularidad de la IA. Puede detectar Bard, ChatGPT, GPT-4 y otros grandes modelos lingüísticos (LLM).

  1. Typeset

Academic AI Detector es un poco diferente de las otras herramientas mencionadas. Es muy preciso, pero se diseñó específicamente para detectar contenido académico en PDF. No hay opción de copiar y pegar por el momento, pero el equipo técnico está trabajando para añadir esa característica. Puedes cargar cualquier tipo de trabajo académico como PDF y Typeset generará resultados. Typeset detecta contenido generado por Bard, ChatGPT y HuggingChat, y lo ha detectado todo con precisión.

  1. Moderación de Hive

La detección de contenidos generados por AI Generative Content Detection a veces identifica erróneamente contenidos generados por humanos como IA. Para garantizar resultados fiables, es aconsejable disponer de una herramienta de respaldo cuando se utilice como recurso principal. Además, ofrece la capacidad de detectar imágenes generadas por IA de plataformas como DALL-E, Midjourney y Stable Diffusion.

  1. Content at Scale

AI Content Detector de Content at Scale es fácil de usar y produce informes bastante precisos sobre predictibilidad, probabilidad y patrón. Funciona con todo tipo de modelos lingüísticos de gran tamaño (LLM) más recientes y destaca el contenido en función de la probabilidad variable de que la IA genere trabajo…

  1. Hello Simple AI

 ChatGPT Detector de Hello Simple AI es una herramienta gratuita y de código abierto que puede utilizarse para detectar texto generado por ChatGPT. Está alojada en Hugging Face Spaces y proporciona resultados rápidos y bastante precisos. El detector no es tan preciso como OpenAI AI Text Classifier, pero proporciona dos métricas (GLTR y probabilidad PPL) que pueden ayudar a determinar si el contenido está generado por IA o no.

  1. OpenAI Detector

OpenAI Detector es una herramienta gratuita y de código abierto que puede utilizarse para detectar texto generado por el modelo de lenguaje GPT de OpenAI. Está alojado en Hugging Face Spaces y proporciona resultados rápidos. Sin embargo, el detector puede ser muy impreciso, especialmente cuando se trata de detectar versiones más recientes de los modelos de OpenAI y otros modelos de lenguaje de gran tamaño de código abierto.

  1. AI Detector 

AI Detector  es una herramienta bastante precisa que puede utilizarse para detectar texto generado por ChatGPT, Bard y otras versiones antiguas de grandes modelos lingüísticos (LLM). Sin embargo, no es capaz de detectar versiones más recientes de LLM. Esto se debe a que funciona analizando la sintaxis y la semántica del texto, y los LLM más recientes son mejores generando texto que no se distingue del texto escrito por humanos.

  1. Writer.com

El Detector de Contenido AI de Writer se presenta como la opción menos precisa con una limitación de 1500 caracteres. Sirve como solución alternativa cuando otras herramientas no están disponibles o son ineficaces.

Comprender la ética y la seguridad de la inteligencia artificial

Leslie, D. (2019). Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector. The Alan Turing Institute. https://doi.org/10.5281/zenodo.3240529

Texto completo

Comprender la ética y la seguridad de la inteligencia artificial
Una guía sobre la ética de la IA, que incluye el diseño y la implantación responsables de sistemas de IA en el sector público.

 

La convergencia de la disponibilidad cada vez mayor de macrodatos, la velocidad y la extensión de las plataformas de computación en la nube y el avance de algoritmos de aprendizaje automático cada vez más sofisticados han dado paso a una época extraordinaria para la humanidad.

Las innovaciones en IA ya están dejando huella en la administración pública, al mejorar la provisión de bienes y servicios sociales esenciales, desde la sanidad, la educación y el transporte hasta el suministro de alimentos, la energía y la gestión medioambiental. Es probable que estas recompensas sean sólo el principio.

La perspectiva de que los avances en IA ayuden a las administraciones públicas a afrontar algunos de sus retos más urgentes es apasionante, pero también suscita legítimas preocupaciones. Como ocurre con cualquier tecnología nueva y en rápida evolución, una curva de aprendizaje pronunciada significa que se cometerán errores y errores de cálculo y que se producirán efectos nocivos e imprevistos.

ChatGPT y una nueva realidad académica: los trabajos de investigación escritos con Inteligencia Artificial y la ética en la publicación

Lund, Brady D., Ting Wang, Nishith Reddy Mannuru, Bing Nie, Somipam Shimray, y Ziang Wang. «ChatGPT and a New Academic Reality: Artificial Intelligence-Written Research Papers and the Ethics of the Large Language Models in Scholarly Publishing». Journal of the Association for Information Science and Technology n/a, n.o n/a. Accedido 20 de marzo de 2023. https://doi.org/10.1002/asi.24750.

Texto completo

En este artículo se analiza ChatGPT de OpenAI, un transformador generativo preentrenado que utiliza el procesamiento del lenguaje natural para satisfacer las peticiones de texto de los usuarios (es decir, un «chatbot»). Se analizan la historia y los principios en los que se basan ChatGPT y otros modelos similares. A continuación, se analiza el impacto potencial de esta tecnología en el mundo académico y en la investigación y publicación académicas. ChatGPT se considera un modelo potencial para la preparación automatizada de ensayos y otros tipos de manuscritos académicos. Los posibles problemas éticos que podrían surgir con la aparición de grandes modelos lingüísticos como GPT-3, la tecnología subyacente detrás de ChatGPT y su uso por académicos e investigadores, se discuten y se sitúan en el contexto de avances más amplios en inteligencia artificial, aprendizaje automático y procesamiento del lenguaje natural para la investigación y la publicación académica.

Cambridge University Press publica los principios de política de ética en la investigación de la IA, que prohíbe tratarla como «autora» de artículos y libros académicos.

Cambridge principles for generative AI in research publishing, Cambridge University Press, 2023

Las normas se recogen en la primera política ética de la IA de Cambridge University Press y se aplican a artículos de investigación, libros y otros trabajos académicos.

Incluyen la prohibición de que la IA sea tratada como «autora» de los artículos académicos y libros que publicamos. Esta medida aporta claridad a los académicos en medio de la preocupación por el uso erróneo o engañoso de potentes modelos lingüísticos de gran tamaño como ChatGPT en la investigación, junto con el entusiasmo por su potencial.

Mandy Hill, Directora General de Publicaciones Académicas de Cambridge, ha declarado: «La IA generativa puede abrir nuevas vías de investigación y experimentación. Los investigadores nos han pedido que les orientemos sobre su uso».

Creemos que los autores académicos, los revisores y los editores deben tener libertad para utilizar las tecnologías emergentes como consideren oportuno dentro de unas directrices adecuadas, al igual que hacen con otras herramientas de investigación».

«Al igual que nuestra comunidad académica, abordamos esta nueva tecnología con un espíritu de compromiso crítico. Al dar prioridad a la transparencia, la responsabilidad, la precisión y la originalidad, vemos tanto continuidad como cambio en el uso de la IA para la investigación.

Los principios de Cambridge para la IA generativa en la publicación de investigaciones incluyen que:

  • La IA debe declararse y explicarse claramente en publicaciones como los trabajos de investigación, al igual que hacen los académicos con otros programas informáticos, herramientas y metodologías.
  • La IA no cumple los requisitos de Cambridge sobre autoría, dada la necesidad de rendir cuentas. Las herramientas de IA y LLM no pueden figurar como autor en ningún trabajo académico publicado por Cambridge.
  • Cualquier uso de la IA no debe infringir la política de plagio de Cambridge. Los trabajos académicos deben ser propios del autor y no presentar ideas, datos, palabras u otro material de otros sin una citación adecuada y una referenciación transparente.
  • Los autores son responsables de la exactitud, integridad y originalidad de sus trabajos de investigación, incluido cualquier uso de la IA.

Ética e integridad de la investigación en el contexto del compromiso público

Europe, Science. «2022 High Level Workshop Report: Research Ethics and Integrity in the Context of Public Engagement». Science Europe, 2022

Texto completo

El taller High Level Workshop on the European Research Area 2022 se centró en la ética y la integridad cuando la ciencia se relaciona con el público, por ejemplo al asesorar a los responsables de la toma de decisiones, comunicarse con los ciudadanos o hacer que el público participe en el proceso de investigación.

En la situación actual, en la que nos enfrentamos a muchos retos diferentes, los responsables de la toma de decisiones y el público esperan que los investigadores hablen con una voz clara y ofrezcan orientación y soluciones. Al mismo tiempo, a veces se cuestiona la pertinencia, fiabilidad y responsabilidad de los conocimientos de los expertos.

El compromiso con el público se convierte en una prioridad cada vez más importante. Puede ajustar mejor las expectativas y necesidades de la sociedad a lo que la ciencia puede hacer, y permite a la ciencia responder mejor a las preocupaciones de la sociedad. El taller examinó cómo puede llevarse a cabo este compromiso con las normas éticas y de integridad más estrictas.

ChatGPT y ética de la investigación: la posición del Committee on Publication Ethics (COPE)

COPE: Committee on Publication Ethics. «Authorship and AI Tools». Accedido 16 de febrero de 2023. https://publicationethics.org/cope-position-statements/ai-author.

El uso de herramientas de inteligencia artificial (IA) como ChatGPT o Large Language Models en las publicaciones de investigación se está extendiendo rápidamente. COPE se une a organizaciones como WAME y la Red JAMA, entre otras, para afirmar que las herramientas de IA no pueden figurar como autoras de un artículo.

Las herramientas de IA no pueden cumplir los requisitos de autoría, ya que no pueden asumir la responsabilidad del trabajo presentado. Como entidades no jurídicas, no pueden afirmar la presencia o ausencia de conflictos de intereses ni gestionar los derechos de autor y los acuerdos de licencia.

Los autores que utilicen herramientas de IA en la redacción de un manuscrito, la producción de imágenes o elementos gráficos del artículo, o en la recogida y análisis de datos, deben ser transparentes al revelar en los Materiales y Métodos (o sección similar) del artículo cómo se ha utilizado la herramienta de IA y qué herramienta se ha utilizado. Los autores son plenamente responsables del contenido de su manuscrito, incluso de las partes producidas por una herramienta de IA, y por tanto son responsables de cualquier infracción de la ética de publicación.