Archivo de la etiqueta: Ética de la información

Directrices éticas sobre el uso de la inteligencia artificial (IA) y datos en la enseñanza y el aprendizaje para educadores

 Directrices éticas sobre el uso de la inteligencia artificial (IA) y datos en la enseñanza y el aprendizaje para educadores. Publications Office of the European Union, 2022, 

Texto completo

Dado que los sistemas de inteligencia artificial (IA) y el uso de datos están presentes en todos los aspectos de la actividad humana, parece esencial desarrollar una comprensión básica de la IA y del uso de datos entre el alumnado y los educadores para que puedan explotar todo su potencial de forma ética.

Por consiguiente, un grupo de expertos de la Comisión Europea ha publicado esta guía de directrices éticas que se enmarcan dentro del Plan de Acción de Educación Digital (2021-2027) para ayudar a los educadores a abordar los conceptos erróneos sobre la IA y promover su uso ético.

Estas directrices contienen:

  • la aclaración de conceptos erróneos generalizados sobre la IA
  • ejemplos de uso de datos e IA para facilitar el proceso de enseñanza-aprendizaje de los estudiantes, apoyar a los docentes y dar soporte al sistema
  • consideraciones y requisitos éticos sobre la IA en la educación
  • orientaciones para educadores y directivos escolares
  • un glosario de términos de IA y datos

Actualmente, los sistemas de IA en la educación están ayudando a algunos educadores a identificar necesidades específicas de aprendizaje, brindando al alumnado experiencias de aprendizaje personalizadas e inclusivas y facilitando a los centros educativos el uso efectivo de los datos educativos y recursos de enseñanza disponibles. De tal modo, se deben garantizar que todos los datos procesados se almacenen de forma confidencial y segura y se haga un uso ético de los mismos de conformidad con el Reglamento general de protección de datos (GDPR).

Concluyendo, estas directrices son un punto de partida para que los educadores, el alumnado y los centros tengan conciencia sobre el uso ético de la inteligencia artificial y los datos en la educación. De este modo, se pretende generar una base sólida para ampliar el uso de estas tecnologías de manera segura en la educación.

Inteligencia Artificial, Ética y Creatividad Artística: actividades

Inteligencia Artificial, Ética y Creatividad Artística: actividades. Santiago de Chile: Ministerio de Educación, 2023

Texto completo

Programa de inteligencia artificial para 7° básico a I medio: fundamentos, ética y creatividad artística, desarrollado para fomentar el trabajo y reforzar la capacidad creativa e imaginativa de niñas, niños y adolescentes.

Promueve la discusión sobre temas éticos en torno a la Inteligencia Artificial generativa, junto al plan de estudios del MIT “Creative AI: A middle school curriculum about Creativity, Generative AI and Ethics” (Inteligencia artificial creativa: un currículum sobre creatividad, inteligencia artificial generativa y ética para la enseñanza media), en español.

Compuesto por 6 módulos con actividades autoexplicativas y recursos para el trabajo teórico y práctico (suma equivalente a 14 clases de 45 minutos). Está desarrollado para las asignaturas de Tecnología e Historia, Geografía y Ciencias Sociales de 7° básico a I medio, con oportunidades de integración curricular con Artes Visuales, Historia, Geografía y Ciencias Sociales y Orientación. Estas actividades son perfectamente adaptables, a otras asignaturas o niveles, así como a talleres y actividades extracurriculares.

Herramientas gratuitas para detectar tesis, trabajos de investigación, tareas, documentación y blogs generados por modelos de IA. ChatGPT, GPT-4, Bard y Claude

«Top 10 Tools for Detecting ChatGPT, GPT-4, Bard, and Claude». KDnuggets (blog). Accedido 30 de mayo de 2023. https://www.kdnuggets.com/top-10-tools-for-detecting-chatgpt-gpt-4-bard-and-claude.html.

Vivimos en una época de auge de la inteligencia artificial (IA), en la que cada semana aparecen nuevos modelos lingüísticos de gran tamaño (LLM) que pueden escribir como los humanos. Estos modelos pueden generar contenidos muy creativos y, por desgracia, algunos estudiantes y profesionales los utilizan indebidamente para plagiar.

Como resultado, las herramientas de detección de IA se han convertido en algo esencial en todas las aulas, lugares de trabajo e institutos de investigación. Todas las herramientas mencionadas en este blog son gratuitas, y algunas de ellas incluso vienen con extensiones de Chrome para que puedas detectar contenidos sobre la marcha.

  1. GPTZero

GPTZero se ha mejorado significativamente. Ahora es muy preciso, fácil de usar e incluye una extensión para Chrome. Puede utilizarlo para detectar una amplia gama de texto generado por IA, incluido el texto de los últimos modelos como Bard (PalM 2), ChatGPT, GPT-4 y otros modelos de código abierto. Además, es rápido y resalta el texto generado para facilitar su identificación.

  1. OpenAI AI Text Classifier

AI Text Classifier de OpenAI es muy preciso, pero no proporciona información adicional sobre el contenido. Funciona para New Bard, ChatGPT, GPT-4 y otros modelos basados en LLaMA.

  1. CopyLeaks

CopyLeaks. Es un verificador de plagio rápido y preciso que viene con una simple extensión de Chrome. Incluso puedes pasar el ratón sobre el texto resaltado para comprobar la popularidad de la IA. Puede detectar Bard, ChatGPT, GPT-4 y otros grandes modelos lingüísticos (LLM).

  1. Typeset

Academic AI Detector es un poco diferente de las otras herramientas mencionadas. Es muy preciso, pero se diseñó específicamente para detectar contenido académico en PDF. No hay opción de copiar y pegar por el momento, pero el equipo técnico está trabajando para añadir esa característica. Puedes cargar cualquier tipo de trabajo académico como PDF y Typeset generará resultados. Typeset detecta contenido generado por Bard, ChatGPT y HuggingChat, y lo ha detectado todo con precisión.

  1. Moderación de Hive

La detección de contenidos generados por AI Generative Content Detection a veces identifica erróneamente contenidos generados por humanos como IA. Para garantizar resultados fiables, es aconsejable disponer de una herramienta de respaldo cuando se utilice como recurso principal. Además, ofrece la capacidad de detectar imágenes generadas por IA de plataformas como DALL-E, Midjourney y Stable Diffusion.

  1. Content at Scale

AI Content Detector de Content at Scale es fácil de usar y produce informes bastante precisos sobre predictibilidad, probabilidad y patrón. Funciona con todo tipo de modelos lingüísticos de gran tamaño (LLM) más recientes y destaca el contenido en función de la probabilidad variable de que la IA genere trabajo…

  1. Hello Simple AI

 ChatGPT Detector de Hello Simple AI es una herramienta gratuita y de código abierto que puede utilizarse para detectar texto generado por ChatGPT. Está alojada en Hugging Face Spaces y proporciona resultados rápidos y bastante precisos. El detector no es tan preciso como OpenAI AI Text Classifier, pero proporciona dos métricas (GLTR y probabilidad PPL) que pueden ayudar a determinar si el contenido está generado por IA o no.

  1. OpenAI Detector

OpenAI Detector es una herramienta gratuita y de código abierto que puede utilizarse para detectar texto generado por el modelo de lenguaje GPT de OpenAI. Está alojado en Hugging Face Spaces y proporciona resultados rápidos. Sin embargo, el detector puede ser muy impreciso, especialmente cuando se trata de detectar versiones más recientes de los modelos de OpenAI y otros modelos de lenguaje de gran tamaño de código abierto.

  1. AI Detector 

AI Detector  es una herramienta bastante precisa que puede utilizarse para detectar texto generado por ChatGPT, Bard y otras versiones antiguas de grandes modelos lingüísticos (LLM). Sin embargo, no es capaz de detectar versiones más recientes de LLM. Esto se debe a que funciona analizando la sintaxis y la semántica del texto, y los LLM más recientes son mejores generando texto que no se distingue del texto escrito por humanos.

  1. Writer.com

El Detector de Contenido AI de Writer se presenta como la opción menos precisa con una limitación de 1500 caracteres. Sirve como solución alternativa cuando otras herramientas no están disponibles o son ineficaces.

Comprender la ética y la seguridad de la inteligencia artificial

Leslie, D. (2019). Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector. The Alan Turing Institute. https://doi.org/10.5281/zenodo.3240529

Texto completo

Comprender la ética y la seguridad de la inteligencia artificial
Una guía sobre la ética de la IA, que incluye el diseño y la implantación responsables de sistemas de IA en el sector público.

 

La convergencia de la disponibilidad cada vez mayor de macrodatos, la velocidad y la extensión de las plataformas de computación en la nube y el avance de algoritmos de aprendizaje automático cada vez más sofisticados han dado paso a una época extraordinaria para la humanidad.

Las innovaciones en IA ya están dejando huella en la administración pública, al mejorar la provisión de bienes y servicios sociales esenciales, desde la sanidad, la educación y el transporte hasta el suministro de alimentos, la energía y la gestión medioambiental. Es probable que estas recompensas sean sólo el principio.

La perspectiva de que los avances en IA ayuden a las administraciones públicas a afrontar algunos de sus retos más urgentes es apasionante, pero también suscita legítimas preocupaciones. Como ocurre con cualquier tecnología nueva y en rápida evolución, una curva de aprendizaje pronunciada significa que se cometerán errores y errores de cálculo y que se producirán efectos nocivos e imprevistos.

ChatGPT y una nueva realidad académica: los trabajos de investigación escritos con Inteligencia Artificial y la ética en la publicación

Lund, Brady D., Ting Wang, Nishith Reddy Mannuru, Bing Nie, Somipam Shimray, y Ziang Wang. «ChatGPT and a New Academic Reality: Artificial Intelligence-Written Research Papers and the Ethics of the Large Language Models in Scholarly Publishing». Journal of the Association for Information Science and Technology n/a, n.o n/a. Accedido 20 de marzo de 2023. https://doi.org/10.1002/asi.24750.

Texto completo

En este artículo se analiza ChatGPT de OpenAI, un transformador generativo preentrenado que utiliza el procesamiento del lenguaje natural para satisfacer las peticiones de texto de los usuarios (es decir, un «chatbot»). Se analizan la historia y los principios en los que se basan ChatGPT y otros modelos similares. A continuación, se analiza el impacto potencial de esta tecnología en el mundo académico y en la investigación y publicación académicas. ChatGPT se considera un modelo potencial para la preparación automatizada de ensayos y otros tipos de manuscritos académicos. Los posibles problemas éticos que podrían surgir con la aparición de grandes modelos lingüísticos como GPT-3, la tecnología subyacente detrás de ChatGPT y su uso por académicos e investigadores, se discuten y se sitúan en el contexto de avances más amplios en inteligencia artificial, aprendizaje automático y procesamiento del lenguaje natural para la investigación y la publicación académica.

Cambridge University Press publica los principios de política de ética en la investigación de la IA, que prohíbe tratarla como «autora» de artículos y libros académicos.

Cambridge principles for generative AI in research publishing, Cambridge University Press, 2023

Las normas se recogen en la primera política ética de la IA de Cambridge University Press y se aplican a artículos de investigación, libros y otros trabajos académicos.

Incluyen la prohibición de que la IA sea tratada como «autora» de los artículos académicos y libros que publicamos. Esta medida aporta claridad a los académicos en medio de la preocupación por el uso erróneo o engañoso de potentes modelos lingüísticos de gran tamaño como ChatGPT en la investigación, junto con el entusiasmo por su potencial.

Mandy Hill, Directora General de Publicaciones Académicas de Cambridge, ha declarado: «La IA generativa puede abrir nuevas vías de investigación y experimentación. Los investigadores nos han pedido que les orientemos sobre su uso».

Creemos que los autores académicos, los revisores y los editores deben tener libertad para utilizar las tecnologías emergentes como consideren oportuno dentro de unas directrices adecuadas, al igual que hacen con otras herramientas de investigación».

«Al igual que nuestra comunidad académica, abordamos esta nueva tecnología con un espíritu de compromiso crítico. Al dar prioridad a la transparencia, la responsabilidad, la precisión y la originalidad, vemos tanto continuidad como cambio en el uso de la IA para la investigación.

Los principios de Cambridge para la IA generativa en la publicación de investigaciones incluyen que:

  • La IA debe declararse y explicarse claramente en publicaciones como los trabajos de investigación, al igual que hacen los académicos con otros programas informáticos, herramientas y metodologías.
  • La IA no cumple los requisitos de Cambridge sobre autoría, dada la necesidad de rendir cuentas. Las herramientas de IA y LLM no pueden figurar como autor en ningún trabajo académico publicado por Cambridge.
  • Cualquier uso de la IA no debe infringir la política de plagio de Cambridge. Los trabajos académicos deben ser propios del autor y no presentar ideas, datos, palabras u otro material de otros sin una citación adecuada y una referenciación transparente.
  • Los autores son responsables de la exactitud, integridad y originalidad de sus trabajos de investigación, incluido cualquier uso de la IA.

Ética e integridad de la investigación en el contexto del compromiso público

Europe, Science. «2022 High Level Workshop Report: Research Ethics and Integrity in the Context of Public Engagement». Science Europe, 2022

Texto completo

El taller High Level Workshop on the European Research Area 2022 se centró en la ética y la integridad cuando la ciencia se relaciona con el público, por ejemplo al asesorar a los responsables de la toma de decisiones, comunicarse con los ciudadanos o hacer que el público participe en el proceso de investigación.

En la situación actual, en la que nos enfrentamos a muchos retos diferentes, los responsables de la toma de decisiones y el público esperan que los investigadores hablen con una voz clara y ofrezcan orientación y soluciones. Al mismo tiempo, a veces se cuestiona la pertinencia, fiabilidad y responsabilidad de los conocimientos de los expertos.

El compromiso con el público se convierte en una prioridad cada vez más importante. Puede ajustar mejor las expectativas y necesidades de la sociedad a lo que la ciencia puede hacer, y permite a la ciencia responder mejor a las preocupaciones de la sociedad. El taller examinó cómo puede llevarse a cabo este compromiso con las normas éticas y de integridad más estrictas.

ChatGPT y ética de la investigación: la posición del Committee on Publication Ethics (COPE)

COPE: Committee on Publication Ethics. «Authorship and AI Tools». Accedido 16 de febrero de 2023. https://publicationethics.org/cope-position-statements/ai-author.

El uso de herramientas de inteligencia artificial (IA) como ChatGPT o Large Language Models en las publicaciones de investigación se está extendiendo rápidamente. COPE se une a organizaciones como WAME y la Red JAMA, entre otras, para afirmar que las herramientas de IA no pueden figurar como autoras de un artículo.

Las herramientas de IA no pueden cumplir los requisitos de autoría, ya que no pueden asumir la responsabilidad del trabajo presentado. Como entidades no jurídicas, no pueden afirmar la presencia o ausencia de conflictos de intereses ni gestionar los derechos de autor y los acuerdos de licencia.

Los autores que utilicen herramientas de IA en la redacción de un manuscrito, la producción de imágenes o elementos gráficos del artículo, o en la recogida y análisis de datos, deben ser transparentes al revelar en los Materiales y Métodos (o sección similar) del artículo cómo se ha utilizado la herramienta de IA y qué herramienta se ha utilizado. Los autores son plenamente responsables del contenido de su manuscrito, incluso de las partes producidas por una herramienta de IA, y por tanto son responsables de cualquier infracción de la ética de publicación.

Los creadores de ChatGPT han lanzado una herramienta para detectar texto escrito con IA

AI Text Classifier

Con las nuevas tecnologías basadas en Inteligencia artificial que están llegando al mercado, es esencial detectar si un documento es original o escrito por un chatbot de IA. AI Classifier es una herramienta de IA que distingue si una persona ha generado un texto a través de una aplicación o lo ha escrito manualmente.

AI Text Classifier es una nueva herramienta de la empresa Open AI, los mismos creadores de ChatGPT, que detecta si un pasaje de texto ha sido escrito o no con ChatGPT y herramientas de escritura de IA similares. Para utilizar AI Text Classifier es necesario registrarse para obtener una cuenta gratuita en Open AI. Una vez que tengas una cuenta, podrás utilizar AI Text Classifier. Para utilizar AI Text Classifier sólo tiene que pegar un bloque del documento a analizar (al menos 1.000 caracteres, aproximadamente 175 palabras) en el campo de texto y hacer clic en el botón de envío. AI Text Classifier clasificará el texto como muy improbable, probable, poco probable, posiblemente o probablemente escrito con una herramienta de Inteligencia artificial

Para detectar si los contenidos son escritos por un humano o un chatbot, la herramienta trabaja a partir de:

Análisis aritmético. En este enfoque, se calculan varias cifras, como la regularidad de los términos, la extensión de las frases y la construcción lingüística, a partir de una enorme cantidad de texto generado por la IA y de contenido escrito por humanos. A continuación, el clasificador de IA establece una equivalencia entre las cifras del contenido introducido y los datos de la escritura humana y la generada por la IA en el cuerpo del texto para realizar un cálculo. La herramienta se entrena de tal modo que detecta cómo un usuario ha expuesto el contenido y lo ha hecho suyo, para ello necesita actualizarse regularmente para determinar realmente si un texto está generado por IA.

Aprendizaje profundo. El sistema aprende a detectar formas en el contenido y a hacer predicciones sobre su origen basándose en estas formas y patrones. Hay formas en las que AI Text Classifier aprende por sí mismo y sigue mejorando a medida que profundiza en el contenido.

Dispersión lingüística natural. Esta táctica comprende el consumo de procedimientos como el escrutinio del sentimiento, denominado identificación de objetos, y la clasificación lingüística, para extraer datos evocadores del contenido. A continuación, el clasificador de IA utiliza estos datos para hacer una estimación aproximada sobre la fuente del contenido.

En cuanto a las limitaciones de la herramienta. AI Classifier no es fiable al 100%, ya que no puede detectar contenidos con total precisión. Hay ocasiones en las que el clasificador de IA etiquetará contenido escrito por humanos con contenido generado por IA, ya que es posible que después de que una herramienta de IA genere el texto, una persona pueda editarlo manualmente y retocarlo para que parezca escrito por un humano, lo que es difícil de detectar por la herramienta.

Bibliografía:

Greyling, Cobus. «Testing OpenAI’s New AI Text Classifier For Identifying AI-Written Content». Medium (blog), 1 de febrero de 2023. https://cobusgreyling.medium.com/testing-openais-new-ai-text-classifier-for-identifying-ai-written-content-7b2ec3c3a35.

Cubix. «How is AI Classifier Detecting AI-Generated Text», 8 de febrero de 2023. https://www.cubix.co/blog/ai-classifier-detecting-ai-generated-text.

OpenAI. «New AI Classifier for Indicating AI-Written Text», 31 de enero de 2023. https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text/.

«The Makers of ChatGPT Have Launched a Tool to Detect Text Written With AI». Accedido 13 de febrero de 2023. https://www.freetech4teachers.com/2023/02/the-makers-of-chatgpt-have-launched.html.

Letras impostoras: reflexiones sobre el plagio

Ochoa, Camilo Ayala. Letras impostoras Reflexiones sobre el plagio. Universidad Autónoma de Aguascalientes. Portal de libros de la Universidad Autónoma de Aguascalientes, 2023

Texto completo

El plagio es la forma superlativa del menosprecio. Existen autores plagiarios que confían que la revisión editorial o dictamen serán lo suficientemente laxos como para quedar impunes, también hay escritores que involuntariamente plagian; pero el proceso editorial implica la lectura, corrección, cotejo, revisión, marcaje y diseño de textos y, en este devenir, se detectan descuidos y transgresiones. En las editoriales interesadas en sus concurrencias lectoras, son varios los profesionales del libro que custodian la reputación del trayecto construido y la permanencia de la empresa. Los procesos editoriales son ejercicios de buena fe y siempre es posible que algo escape a todo un equipo editorial, pero la responsabilidad obliga a estar en guardia. La cultura editorial sólo puede tener como piso una cultura de la legalidad y, como cimiento, la probidad intelectual. Letras impostoras. Reflexiones sobre el plagio examina los tipos de plagio y plagiarios.