Archivo de la etiqueta: Ética de la información

Un científico de la Universidad de Córdoba pública un artículo cada 37 horas y firma sus estudios como investigador de otras instituciones extranjeras

Ansede, Manuel. «Suspendido de empleo y sueldo por 13 años uno de los científicos más citados del mundo, el español Rafael Luque». El País, 31 de marzo de 2023. https://elpais.com/ciencia/2023-03-31/suspendido-de-empleo-y-sueldo-por-13-anos-uno-de-los-cientificos-mas-citados-del-mundo-el-espanol-rafael-luque.html.

El químico español Rafael Luque Alvarez de Sotomayor, uno de los científicos más citados del mundo, ha sido suspendido de empleo y sueldo por 13 años. La Universidad de Córdoba, donde trabaja, tomó esta medida al descubrir que firmaba sus estudios como investigador de otras instituciones extranjeras, como la Universidad Rey Saúd en Arabia Saudí y la Universidad Rusa de la Amistad de los Pueblos en Moscú, a pesar de tener un contrato de tiempo completo con la universidad española.

Luque es reconocido por ser uno de los científicos más productivos de España, con cerca de 700 estudios publicados, especialmente en el campo de la química verde, centrada en la síntesis de productos con menor generación de residuos. En los primeros tres meses de 2023, ha firmado 58 estudios, lo que equivale a un artículo cada 37 horas.

Las universidades saudíes, en un intento por atraer a los científicos más citados, ofrecen atractivas condiciones y añadir el nombre de la institución en la firma de los estudios. Luque comenzó a firmar como investigador de la Universidad Rey Saúd en 2019, además de su afiliación con la Universidad de Córdoba. Aunque niega haber recibido dinero directamente de estas instituciones, admite haber recibido financiamiento para sus análisis y beneficios como viajes y hoteles.

El sistema científico actual se basa en la cantidad de estudios publicados y citados, lo que ha llevado a prácticas cuestionables, como la creación de estudios fraudulentos para mejorar los currículos. Luque ha sido objeto de críticas en la plataforma PubPeer, donde se cuestiona la inclusión de citas innecesarias en sus trabajos para aumentar el número de citas de otros colegas.

Luque acumula premios y reconocimientos por su trabajo, pero ha estado involucrado en escándalos previos, incluyendo un caso de apropiación de datos por parte de uno de sus estudiantes.

Aunque Luque afirma que su suspensión se debe a envidias y desacuerdos con el equipo anterior de la Universidad de Córdoba, la institución argumenta que se violaron aspectos de incompatibilidad según las normativas de personal público.

¿Que pasa con los autores hiperprolíficos que publican más de un artículo al día de término medio?

Oransky, Author Ivan. «Meet the Author Who Has Published More than 500 Letters to the Editor in a Year». Retraction Watch (blog), 24 de julio de 2023. https://retractionwatch.com/2023/07/24/meet-the-author-who-has-published-more-than-500-letters-to-the-editor-in-a-year/.

Los autores hiperprolíficos son aquellos cuya productividad científica es tan sorprendentemente alta que a muchos otros científicos les parecería inverosímil y prácticamente inviable. Si revisamos los datos de Scopus, aparecen más de 9000 autores que han logrado publicar, de promedio, 72 artículos al año, lo que equivale a un artículo cada 5 días. Según un estudio de Nature, la gran mayoría de los autores hiperprolíficos (7.888 registros de autor, 86%) publicaron en física. En física de partículas y de altas energías, los proyectos son realizados por grandes equipos internacionales que pueden tener más de 1.000 miembros. Todos los participantes figuran como autores como marca de pertenencia al equipo, no por escribir o revisar los artículos.

Los autores hiperprolíficos llevan tiempo llamando la atención. En 2018, por ejemplo, un artículo de Nature informaba de que «miles de científicos han publicado un artículo cada cinco días.» Y a principios de este año El País señalaba que un científico ahora suspendido publicaba un artículo cada 37 horas.

¿Qué pasa con un autor que publica más de una vez al día, por término medio?

Viroj Wiwanitkit ha publicado 543 artículos indexados en PubMed en los últimos 12 meses, la gran mayoría de ellos cartas al editor. La mayoría de las cartas de Wiwanitkit con sus colegas parecen constar de un solo párrafo. Muchas se refieren al COVID-19 y las vacunas, pero el catálogo incluye cartas sobre la viruela del mono, la cirugía de prótesis de rodilla, el trastorno bipolar e incluso el ChatGPT. Se entrevisto a este autor.

Para ser claros, la mayoría de las definiciones de autores hiperprolíficos excluyen este tipo de obras. Pero el volumen parecía digno de mención. A lo largo de varios correos electrónicos, le hicimos algunas preguntas a Wiwanitkit, ahora profesor adjunto en la Universidad Joseph Ayobabalola de Nigeria. A continuación reproducimos una versión editada;

¿Cómo explica su productividad?

Para el trabajo de perfil, colaboro con otros autores de perfil y, en la mayoría de los casos, me encargo de la supervisión. El tipo de artículo en el que trabaja nuestro grupo suele ser una carta científica al editor, que es un tipo de artículo estándar en las revistas científicas. Nuestro grupo se centra en trabajar y publicar sólo en una revista estándar no predatoria (no remunerada) con indexación internacional. Por supuesto, el artículo tiene que pasar la revisión científica por pares y la comprobación del código de conducta por parte de la editorial académica.

Una forma de producir el trabajo científico tiene que empezar con buenas ideas, planificar y trabajar en el plan académico. Como también soy editor de muchas revistas, suelo recibir comunicaciones de algunos profesionales académicos para colaborar.

Usted no es el primero que me pregunta cómo hacer muchas publicaciones, y yo le respondo con un concepto sencillo: hay que crear una idea, elaborar un plan y practicar para adquirir experiencia en el trabajo y la escritura. Además, suelo enseñar a mis subordinados a seguir el código de conducta, ya que si no se sigue un buen código de conducta, no se obtendrán ideas creativas ni experiencia para realizar cualquier trabajo.

Llevo más de 30 años trabajando en países pobres en desarrollo. Al principio, escribí muchos artículos que fueron rechazados (más de mil borradores de artículos que presenté durante mis primeras prácticas académicas y fueron rechazados).

¿Por qué se centran en las revistas indexadas?

Las revistas indexadas son una plataforma estándar en la sociedad académica. Las revistas grises y depredadoras no son buenas. Creo que lo entiende.

¿Recibe algún beneficio económico o de otro tipo por publicar estas cartas?

Nunca he recibido dinero por escribir esos trabajos. El trabajo académico es por voluntad propia. También he aconsejado alguna vez a algunos de mis subalternos que intentan ganar dinero trabajando de forma incorrecta, como la escritura fantasma.

¿Le preocupa que este volumen de trabajo dé lugar a cartas superficiales?

Superficial o no depende de la opinión de los lectores. Cualquier trabajo se somete a un proceso académico rutinario de revisión por pares y a un código ético de conducta. En mi opinión, un trabajo pequeño o grande no es importante. Las ideas son más importantes

¿Alguna vez has oído y recordado la historia de un artículo de la famosa regla científica escrita por Einstein. Un artículo largo con contenido sin sentido y pobre en ideas no es raro y muchos autores usan revistas depredadoras (pagadas) para ser su portal de publicación, con lo que no estoy de acuerdo en absoluto con esa idea. En Asia, tenemos el modismo «toma un cuarto primero y entonces obtendrás el entero completo».

Si se confía sólo en lo largo y se devalúa el mensaje corto, no habrá progreso científico. Otro punto que no publico trabajo largo desde que ya notifico que no hay dinero para apoyar mi trabajo académico de equipo. En la actualidad, suelo actuar como supervisor de mis colegas junior y la mayoría de ellos son de países asiáticos pobres y no tienen dinero para pagar los caros gastos de publicación, por lo que suelen escribir un trabajo corto para corresponder y gestionar el problema de los gastos de publicación.

Publicar una carta científica corta suele costarme y puede que el equipo no cobre. Tal vez, si hay algún apoyo financiero externo, un artículo más largo podría ser enfocado (tal vez, en su entorno, EE.UU.??, podría haber financiación para apoyar a los autores jóvenes que tienen la voluntad de hacer el trabajo académico).

Quien publica pocos trabajos puede publicar trabajos buenos o sin sentido, o trabajos éticos o no éticos. Lo mismo ocurre con los autores de alto perfil.

Por último, como ya he dicho, no cuentes con otros trabajos. Contar con el número de otros trabajos puede hacerte sentir fatigado y perder la esperanza de alcanzar el objetivo. En algunos casos, una mala persona puede sentir celos y sentirse mal cuando ve que otra tiene más éxito. Este es un mensaje importante que suelo enseñar a mis jóvenes.

¿Algún consejo?

[Me gustaría transmitir a todos los principiantes el mensaje de que 1. Si no caminas, no alcanzarás el objetivo. 2. 2. ¡Roma no se construye en un día! 3. 3. Primero haz algo bueno por ti mismo. Dios no ayudará a nadie que no se ayude a sí mismo. 4. 4. No cuentes con el éxito de otros, sino busca mejorar tú mismo. 5. No pierdas el tiempo, todo tiene que empezar de 0 antes de llegar al infinito.

La mitad de los estudiantes admite haber utilizado ChatGPT u otras aplicaciones de inteligencia artificial para realizar la mayoría de sus tareas académicas

«Half of College Students Say Using AI Is Cheating | BestColleges». Accedido 21 de julio de 2023. https://www.bestcolleges.com/research/college-students-ai-tools-survey/.

Una encuesta reciente realizada a 1.000 estudiantes universitarios y de posgrado reveló datos alarmantes: el 43% de los estudiantes encuestados admitió haber utilizado ChatGPT u otras aplicaciones de inteligencia artificial similares; el 30% confesó haber recurrido a la inteligencia artificial para realizar la mayoría de sus tareas académicas; y el 17% aceptó haber presentado trabajos de curso generados por la inteligencia artificial sin editarlos o modificarlos. Algo más de la mitad de los estudiantes (51%) son consciente de que utilizar herramientas de IA para realizar trabajos y exámenes se considera trampa o plagio. Dos de cada diez (20%) no están de acuerdo y el resto se muestra neutral.

Entre los estudiantes que afirman haber utilizado herramientas de IA para sus tareas escolares, la mitad (50%) las utiliza para algunas partes, pero realiza la mayor parte por sí mismo. Tres de cada diez (30%) utilizan la IA para la mayor parte de su tarea, y el 17% la utiliza para completar una tarea y entregarla sin modificaciones.

Estos resultados ponen de manifiesto el impacto que la inteligencia artificial está teniendo en el ámbito educativo, pero también resaltan el creciente problema de la deshonestidad académica. La facilidad con la que se puede acceder y utilizar herramientas de IA para hacer trampas plantea desafíos éticos y académicos para las instituciones educativas y los educadores.

Es esencial abordar esta problemática y fomentar la integridad académica entre los estudiantes. Las instituciones educativas deben tomar medidas para concienciar sobre los riesgos de hacer trampas con la IA y promover una cultura de honestidad y responsabilidad en el aprendizaje. Asimismo, es importante desarrollar estrategias de detección y prevención efectivas para abordar esta situación y garantizar la equidad y la legitimidad en la evaluación del rendimiento estudiantil.

Resumen de datos

  • El 43% de los estudiantes universitarios ha utilizado ChatGPT o una aplicación de IA similar.
  • De los que han utilizado herramientas de IA, el 50% dice haberlas utilizado para ayudar a completar tareas o exámenes. Esto supone el 22% de todos los universitarios encuestados.
  • Sin embargo, la mayoría de los estudiantes universitarios (57%) no tienen intención de utilizar o seguir utilizando la IA para completar sus tareas escolares.
  • El 31% afirma que sus profesores, los materiales del curso o los códigos de honor de la escuela han prohibido explícitamente las herramientas de IA.
  • Más de la mitad de los estudiantes universitarios (54%) afirma que sus profesores no han hablado abiertamente del uso de herramientas de IA como ChatGPT.
  • 6 de cada 10 universitarios (60%) afirman que sus profesores o centros de enseñanza no han especificado cómo utilizar las herramientas de IA de forma ética o responsable.
  • El 61% de los estudiantes universitarios cree que las herramientas de IA como ChatGPT se convertirán en la nueva normalidad.

Esta encuesta se llevó a cabo del 6 al 13 de marzo de 2023 y fue realizada por Pure Spectrum. Participaron en la encuesta 1.000 encuestados de todo el país que estaban matriculados en un programa de grado o posgrado presencial, en línea o híbrido. Los encuestados tenían entre 16 y 61 años, la mayoría (94%) entre 16 y 32 años, y estaban cursando estudios de grado, licenciatura, máster, doctorado o formación profesional.

OpenAI se esta enfrentando a varias demandas que alegan que la compañía utilizó conjuntos de datos con información personal y materiales bajo derechos de autor para entrenar a ChatGPT

OpenAI ha enfrentado múltiples demandas en las últimas semanas debido al uso de conjuntos de datos que contienen información personal y materiales con derechos de autor en el entrenamiento de sus modelos de IA, como ChatGPT. Estas demandas plantean preocupaciones sobre presuntas infracciones de derechos de autor y el uso indebido de datos sensibles, como registros médicos y conversaciones privadas, sin el consentimiento apropiado.


OpenAI se ha enfrentado a varias demandas presentadas en las últimas semanas. Estas demandas han planteado preocupaciones sobre el uso de conjuntos de datos que contienen información personal y materiales con derechos de autor para entrenar a sus modelos de IA, como ChatGPT. Algunas de las demandas alegan infracciones de derechos de autor, mientras que otras afirman que OpenAI utilizó datos sensibles, como conversaciones privadas y registros médicos, sin el consentimiento adecuado.

Entre las demandas más destacadas se encuentra una demanda presentada por 16 demandantes no identificados que afirman que OpenAI utilizó datos sensibles en el entrenamiento de sus modelos de IA. Además, la comediante y autora Sarah Silverman, junto con los autores Christopher Golden y Richard Kadrey, han presentado demandas por infracción de derechos de autor contra OpenAI y Meta en un tribunal de distrito de Estados Unidos. Las demandas alegan, entre otras cosas, que los modelos ChatGPT de OpenAI y LLaMA de Meta fueron entrenados utilizando conjuntos de datos adquiridos ilegalmente que contenían sus obras, las cuales afirman haber sido obtenidas de sitios web de «bibliotecas piratas» como Bibliotik, Library Genesis, Z-Library y otros, mencionando que los libros están «disponibles en masa a través de sistemas de torrents». En la demanda contra OpenAI, los creadores presenta pruebas que demuestran que cuando se le solicita, ChatGPT resume sus libros, infringiendo sus derechos de autor. En las pruebas se muestra que el primer libro resumido por ChatGPT es Bedwetter de Silverman, mientras que también se utiliza como ejemplo el libro Ararat de Golden y el libro Sandman Slim de Kadrey. La demanda afirma que el chatbot no se preocupó por «reproducir ninguna de las informaciones de gestión de derechos de autor que los demandantes incluyeron en sus obras publicadas».

Una demanda presentada en un tribunal federal en San Francisco alega que OpenAI copió texto de libros ilegalmente al no obtener el consentimiento de los titulares de los derechos de autor, darles crédito ni compensarlos. La demanda, Tremblay v. OpenAI Inc, afirma que ChatGPT puede resumir de manera precisa los libros de ciencia ficción y terror de los autores. Esto sugiere que el chatbot ha leído y absorbido sus obras. Los autores alegan que ChatGPT violó la ley de derechos de autor al eliminar los avisos de derechos de autor de estos libros.

Otra demanda alega que los modelos de aprendizaje automático de OpenAI, incluyendo ChatGPT y DALL-E, recopilan ilegalmente la información personal de las personas en Internet, violando diversas leyes de privacidad. La demanda, conocida como PM v. OpenAI LP, afirma que OpenAI obtiene información privada de las personas directamente a través de sus sistemas de IA y otras aplicaciones que incorporan ChatGPT. La demanda alega que OpenAI ha incorporado sus sistemas en varias plataformas como Snapchat, Spotify, Stripe, Slack y Microsoft Teams. Afirma que OpenAI recopiló clandestinamente imágenes, ubicaciones, preferencias musicales, información financiera y comunicaciones privadas de los usuarios a través de estas integraciones. Además, la denuncia argumenta que esta recopilación y uso de datos violaron las leyes de privacidad, especialmente en lo que respecta a los datos de los niños.

Estas demandas han generado un debate sobre la ética y las prácticas de recopilación de datos utilizadas en el desarrollo de modelos de IA. OpenAI aún no ha hecho comentarios públicos específicos sobre las demandas y se espera que el proceso legal siga su curso para determinar los resultados. Las acusaciones resaltan la importancia de abordar de manera ética y legal la recopilación y el uso de datos en el desarrollo de la inteligencia artificial. El proceso legal determinará los resultados de estas demandas y puede tener implicaciones significativas para la industria, y la regulación en el campo de la IA.

Las herramientas de detección de texto mediante inteligencia artificial son muy fáciles de engañar

Weber-Wulff, Debora, Alla Anohina-Naumeca, Sonja Bjelobaba, Tomáš Foltýnek, Jean Guerrero-Dib, Olumide Popoola, Petr Šigut, y Lorna Waddington. «Testing of Detection Tools for AI-Generated Text». arXiv, 21 de junio de 2023. https://doi.org/10.48550/arXiv.2306.15666.

Después de semanas después del lanzamiento de ChatGPT, surgieron temores de que los estudiantes utilizaran el chatbot para generar ensayos aceptables en cuestión de segundos. En respuesta a estos temores, las startups comenzaron a desarrollar productos que prometían detectar si un texto había sido escrito por un humano o por una máquina.

El problema es que, según una nueva investigación que aún no ha sido revisada por pares, es relativamente fácil engañar estas herramientas y evitar su detección. Debora Weber-Wulff, profesora de medios y computación en la Universidad de Ciencias Aplicadas, HTW Berlin, trabajó con un grupo de investigadores de diversas universidades para evaluar la capacidad de 14 herramientas, incluyendo Turnitin, GPT Zero y Compilatio, para detectar textos escritos por ChatGPT de OpenAI.

La mayoría de estas herramientas funcionan buscando características distintivas de textos generados por IA, como la repetición, y luego calculando la probabilidad de que el texto haya sido generado por una IA. Sin embargo, el equipo descubrió que todas las herramientas probadas tenían dificultades para detectar textos generados por ChatGPT que habían sido ligeramente reorganizados por humanos y ocultados por una herramienta de parafraseo, lo que sugiere que todo lo que los estudiantes necesitan hacer es adaptar ligeramente los ensayos generados por la IA para evadir los detectores.

Los investigadores evaluaron las herramientas escribiendo ensayos cortos de nivel universitario sobre una variedad de temas, que incluían ingeniería civil, ciencias de la computación, economía, historia, lingüística y literatura. Los ensayos fueron escritos por los propios investigadores para asegurarse de que el texto no estuviera ya en línea, lo que significaría que podría haber sido utilizado para entrenar a ChatGPT. Luego, cada investigador escribió un texto adicional en bosnio, checo, alemán, letón, eslovaco, español o sueco. Esos textos se pasaron por la herramienta de traducción de IA DeepL o Google Translate para traducirlos al inglés.

El equipo luego utilizó ChatGPT para generar otros dos textos cada uno, que modificaron ligeramente en un intento de ocultar que habían sido generados por IA. Un conjunto fue editado manualmente por los investigadores, que reorganizaron las oraciones e intercambiaron palabras, mientras que otro fue reescrito utilizando una herramienta de parafraseo de IA llamada Quillbot. Al final, tenían 54 documentos para probar las herramientas de detección.

Descubrieron que si bien las herramientas eran buenas para identificar textos escritos por humanos (con una precisión promedio del 96%), tenían un desempeño más deficiente cuando se trataba de detectar textos generados por IA, especialmente cuando habían sido editados. Aunque las herramientas identificaron textos generados por ChatGPT con un 74% de precisión, esta cifra disminuyó al 42% cuando el texto generado por ChatGPT había sido ligeramente modificado.

Compilatio, que fabrica una de las herramientas probadas por los investigadores, señala que es importante recordar que su sistema solo indica pasajes sospechosos, que clasifica como posible plagio o contenido potencialmente generado por IA.

Directrices éticas sobre el uso de la inteligencia artificial (IA) y datos en la enseñanza y el aprendizaje para educadores

 Directrices éticas sobre el uso de la inteligencia artificial (IA) y datos en la enseñanza y el aprendizaje para educadores. Publications Office of the European Union, 2022, 

Texto completo

Dado que los sistemas de inteligencia artificial (IA) y el uso de datos están presentes en todos los aspectos de la actividad humana, parece esencial desarrollar una comprensión básica de la IA y del uso de datos entre el alumnado y los educadores para que puedan explotar todo su potencial de forma ética.

Por consiguiente, un grupo de expertos de la Comisión Europea ha publicado esta guía de directrices éticas que se enmarcan dentro del Plan de Acción de Educación Digital (2021-2027) para ayudar a los educadores a abordar los conceptos erróneos sobre la IA y promover su uso ético.

Estas directrices contienen:

  • la aclaración de conceptos erróneos generalizados sobre la IA
  • ejemplos de uso de datos e IA para facilitar el proceso de enseñanza-aprendizaje de los estudiantes, apoyar a los docentes y dar soporte al sistema
  • consideraciones y requisitos éticos sobre la IA en la educación
  • orientaciones para educadores y directivos escolares
  • un glosario de términos de IA y datos

Actualmente, los sistemas de IA en la educación están ayudando a algunos educadores a identificar necesidades específicas de aprendizaje, brindando al alumnado experiencias de aprendizaje personalizadas e inclusivas y facilitando a los centros educativos el uso efectivo de los datos educativos y recursos de enseñanza disponibles. De tal modo, se deben garantizar que todos los datos procesados se almacenen de forma confidencial y segura y se haga un uso ético de los mismos de conformidad con el Reglamento general de protección de datos (GDPR).

Concluyendo, estas directrices son un punto de partida para que los educadores, el alumnado y los centros tengan conciencia sobre el uso ético de la inteligencia artificial y los datos en la educación. De este modo, se pretende generar una base sólida para ampliar el uso de estas tecnologías de manera segura en la educación.

Inteligencia Artificial, Ética y Creatividad Artística: actividades

Inteligencia Artificial, Ética y Creatividad Artística: actividades. Santiago de Chile: Ministerio de Educación, 2023

Texto completo

Programa de inteligencia artificial para 7° básico a I medio: fundamentos, ética y creatividad artística, desarrollado para fomentar el trabajo y reforzar la capacidad creativa e imaginativa de niñas, niños y adolescentes.

Promueve la discusión sobre temas éticos en torno a la Inteligencia Artificial generativa, junto al plan de estudios del MIT “Creative AI: A middle school curriculum about Creativity, Generative AI and Ethics” (Inteligencia artificial creativa: un currículum sobre creatividad, inteligencia artificial generativa y ética para la enseñanza media), en español.

Compuesto por 6 módulos con actividades autoexplicativas y recursos para el trabajo teórico y práctico (suma equivalente a 14 clases de 45 minutos). Está desarrollado para las asignaturas de Tecnología e Historia, Geografía y Ciencias Sociales de 7° básico a I medio, con oportunidades de integración curricular con Artes Visuales, Historia, Geografía y Ciencias Sociales y Orientación. Estas actividades son perfectamente adaptables, a otras asignaturas o niveles, así como a talleres y actividades extracurriculares.

Herramientas gratuitas para detectar tesis, trabajos de investigación, tareas, documentación y blogs generados por modelos de IA. ChatGPT, GPT-4, Bard y Claude

«Top 10 Tools for Detecting ChatGPT, GPT-4, Bard, and Claude». KDnuggets (blog). Accedido 30 de mayo de 2023. https://www.kdnuggets.com/top-10-tools-for-detecting-chatgpt-gpt-4-bard-and-claude.html.

Vivimos en una época de auge de la inteligencia artificial (IA), en la que cada semana aparecen nuevos modelos lingüísticos de gran tamaño (LLM) que pueden escribir como los humanos. Estos modelos pueden generar contenidos muy creativos y, por desgracia, algunos estudiantes y profesionales los utilizan indebidamente para plagiar.

Como resultado, las herramientas de detección de IA se han convertido en algo esencial en todas las aulas, lugares de trabajo e institutos de investigación. Todas las herramientas mencionadas en este blog son gratuitas, y algunas de ellas incluso vienen con extensiones de Chrome para que puedas detectar contenidos sobre la marcha.

  1. GPTZero

GPTZero se ha mejorado significativamente. Ahora es muy preciso, fácil de usar e incluye una extensión para Chrome. Puede utilizarlo para detectar una amplia gama de texto generado por IA, incluido el texto de los últimos modelos como Bard (PalM 2), ChatGPT, GPT-4 y otros modelos de código abierto. Además, es rápido y resalta el texto generado para facilitar su identificación.

  1. OpenAI AI Text Classifier

AI Text Classifier de OpenAI es muy preciso, pero no proporciona información adicional sobre el contenido. Funciona para New Bard, ChatGPT, GPT-4 y otros modelos basados en LLaMA.

  1. CopyLeaks

CopyLeaks. Es un verificador de plagio rápido y preciso que viene con una simple extensión de Chrome. Incluso puedes pasar el ratón sobre el texto resaltado para comprobar la popularidad de la IA. Puede detectar Bard, ChatGPT, GPT-4 y otros grandes modelos lingüísticos (LLM).

  1. Typeset

Academic AI Detector es un poco diferente de las otras herramientas mencionadas. Es muy preciso, pero se diseñó específicamente para detectar contenido académico en PDF. No hay opción de copiar y pegar por el momento, pero el equipo técnico está trabajando para añadir esa característica. Puedes cargar cualquier tipo de trabajo académico como PDF y Typeset generará resultados. Typeset detecta contenido generado por Bard, ChatGPT y HuggingChat, y lo ha detectado todo con precisión.

  1. Moderación de Hive

La detección de contenidos generados por AI Generative Content Detection a veces identifica erróneamente contenidos generados por humanos como IA. Para garantizar resultados fiables, es aconsejable disponer de una herramienta de respaldo cuando se utilice como recurso principal. Además, ofrece la capacidad de detectar imágenes generadas por IA de plataformas como DALL-E, Midjourney y Stable Diffusion.

  1. Content at Scale

AI Content Detector de Content at Scale es fácil de usar y produce informes bastante precisos sobre predictibilidad, probabilidad y patrón. Funciona con todo tipo de modelos lingüísticos de gran tamaño (LLM) más recientes y destaca el contenido en función de la probabilidad variable de que la IA genere trabajo…

  1. Hello Simple AI

 ChatGPT Detector de Hello Simple AI es una herramienta gratuita y de código abierto que puede utilizarse para detectar texto generado por ChatGPT. Está alojada en Hugging Face Spaces y proporciona resultados rápidos y bastante precisos. El detector no es tan preciso como OpenAI AI Text Classifier, pero proporciona dos métricas (GLTR y probabilidad PPL) que pueden ayudar a determinar si el contenido está generado por IA o no.

  1. OpenAI Detector

OpenAI Detector es una herramienta gratuita y de código abierto que puede utilizarse para detectar texto generado por el modelo de lenguaje GPT de OpenAI. Está alojado en Hugging Face Spaces y proporciona resultados rápidos. Sin embargo, el detector puede ser muy impreciso, especialmente cuando se trata de detectar versiones más recientes de los modelos de OpenAI y otros modelos de lenguaje de gran tamaño de código abierto.

  1. AI Detector 

AI Detector  es una herramienta bastante precisa que puede utilizarse para detectar texto generado por ChatGPT, Bard y otras versiones antiguas de grandes modelos lingüísticos (LLM). Sin embargo, no es capaz de detectar versiones más recientes de LLM. Esto se debe a que funciona analizando la sintaxis y la semántica del texto, y los LLM más recientes son mejores generando texto que no se distingue del texto escrito por humanos.

  1. Writer.com

El Detector de Contenido AI de Writer se presenta como la opción menos precisa con una limitación de 1500 caracteres. Sirve como solución alternativa cuando otras herramientas no están disponibles o son ineficaces.

Comprender la ética y la seguridad de la inteligencia artificial

Leslie, D. (2019). Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector. The Alan Turing Institute. https://doi.org/10.5281/zenodo.3240529

Texto completo

Comprender la ética y la seguridad de la inteligencia artificial
Una guía sobre la ética de la IA, que incluye el diseño y la implantación responsables de sistemas de IA en el sector público.

 

La convergencia de la disponibilidad cada vez mayor de macrodatos, la velocidad y la extensión de las plataformas de computación en la nube y el avance de algoritmos de aprendizaje automático cada vez más sofisticados han dado paso a una época extraordinaria para la humanidad.

Las innovaciones en IA ya están dejando huella en la administración pública, al mejorar la provisión de bienes y servicios sociales esenciales, desde la sanidad, la educación y el transporte hasta el suministro de alimentos, la energía y la gestión medioambiental. Es probable que estas recompensas sean sólo el principio.

La perspectiva de que los avances en IA ayuden a las administraciones públicas a afrontar algunos de sus retos más urgentes es apasionante, pero también suscita legítimas preocupaciones. Como ocurre con cualquier tecnología nueva y en rápida evolución, una curva de aprendizaje pronunciada significa que se cometerán errores y errores de cálculo y que se producirán efectos nocivos e imprevistos.

ChatGPT y una nueva realidad académica: los trabajos de investigación escritos con Inteligencia Artificial y la ética en la publicación

Lund, Brady D., Ting Wang, Nishith Reddy Mannuru, Bing Nie, Somipam Shimray, y Ziang Wang. «ChatGPT and a New Academic Reality: Artificial Intelligence-Written Research Papers and the Ethics of the Large Language Models in Scholarly Publishing». Journal of the Association for Information Science and Technology n/a, n.o n/a. Accedido 20 de marzo de 2023. https://doi.org/10.1002/asi.24750.

Texto completo

En este artículo se analiza ChatGPT de OpenAI, un transformador generativo preentrenado que utiliza el procesamiento del lenguaje natural para satisfacer las peticiones de texto de los usuarios (es decir, un «chatbot»). Se analizan la historia y los principios en los que se basan ChatGPT y otros modelos similares. A continuación, se analiza el impacto potencial de esta tecnología en el mundo académico y en la investigación y publicación académicas. ChatGPT se considera un modelo potencial para la preparación automatizada de ensayos y otros tipos de manuscritos académicos. Los posibles problemas éticos que podrían surgir con la aparición de grandes modelos lingüísticos como GPT-3, la tecnología subyacente detrás de ChatGPT y su uso por académicos e investigadores, se discuten y se sitúan en el contexto de avances más amplios en inteligencia artificial, aprendizaje automático y procesamiento del lenguaje natural para la investigación y la publicación académica.