Archivo de la categoría: Tecnologías de la información

Plan de acción EDUCAUSE Horizon 2023 sobre la Inteligencia Artificial Generativa en la enseñanza

2023 EDUCAUSE Horizon Action Plan: Generative AI. EDUCASE, 2023

Texto completo

En 2023, la IA generativa surgió como la tecnología más rápidamente adoptada de la historia. Todos los miembros de la comunidad de la enseñanza superior, desde los estudiantes hasta los administradores, están intentando determinar qué impacto pueden, quieren y deben tener las herramientas de IA generativa en la vida, el aprendizaje y el trabajo. Para complicar aún más las cosas, no hay consenso sobre cómo o incluso si la IA generativa debe desempeñar un papel en el futuro de la enseñanza superior.

Sobre la base de las tendencias, tecnologías y prácticas descritas en el Informe EDUCAUSE Horizon 2023: Edición sobre Enseñanza y Aprendizaje, el panel del informe elaboró su visión del futuro junto con acciones prácticas que los individuos, las unidades y los departamentos, y los grupos de colaboradores pueden llevar a cabo para hacer realidad este futuro.


Los panelistas generaron una lista de acciones que los individuos, unidades y departamentos, y equipos multiunidad o multiinstitucionales pueden tomar para lograr este futuro preferido en 10 años.

Individuos

  • Cultivar una cultura de experimentación. Fomentar que profesores, estudiantes y personal experimenten con la inteligencia artificial (IA) proporcionando tiempo dedicado, incentivos y acceso a herramientas y oportunidades de descubrimiento. La experimentación fomentará la agencia del usuario, la innovación y la creatividad. También ayudará a las personas a adoptar nuevas tecnologías y a reducir la brecha digital.
  • Establecer una comunidad de práctica. Crear un entorno seguro y controlado, como un «sandbox» de IA, donde profesores, personal y estudiantes puedan colaborar y experimentar con herramientas y aplicaciones de IA sin riesgo para los sistemas de producción.
  • Establecer la inclusión de las partes interesadas como una mejor práctica. Fomentar la colaboración entre grupos, incluyendo a estudiantes y partes interesadas externas (por ejemplo, la educación K-12 y la industria). Crear comunidades de aprendizaje entre pares donde las partes interesadas puedan compartir experiencias, desafíos y mejores prácticas, y fomentar la colaboración y proyectos interdisciplinarios que exploren aplicaciones innovadoras de la IA en diversos campos.
  • Brindar oportunidades de autoeducación. Ofrecer recursos de fácil acceso, como cursos en línea y tutoriales, seminarios web y talleres, y materiales educativos como manuales, guías y estudios de casos que introduzcan a profesores, personal y estudiantes en conceptos, aplicaciones y mejores prácticas de la IA.
  • Invertir en y apoyar iniciativas continuas de alfabetización en IA. Desarrollar programas de capacitación y recursos integrales en toda la institución que personas con diferentes niveles de experiencia técnica puedan entender y utilizar, y crear un repositorio de recursos educativos actualizados regularmente relacionados con la integración de la IA en la educación superior.
  • Asegurarse de que los profesores tengan acceso a herramientas de IA. Proporcionar a los profesores las herramientas y plataformas que necesitan para experimentar e incorporar la IA en sus actividades de enseñanza e investigación. Proporcionarles un sistema de apoyo adecuado que incluya expertos en IA que puedan brindar orientación y asistencia a los profesores a medida que integran la IA en su enseñanza e investigación.
  • Aumentar el compromiso de las partes interesadas con la ética. Ayudar a las partes interesadas a comprometerse a ser usuarios éticos de la IA proporcionando formación y recursos exhaustivos y actualizados sobre ciberseguridad, privacidad y usos efectivos versus ineficaces de la IA, junto con los riesgos y beneficios de su uso.
  • Establecer roles de facilitador de IA en los campus. Los facilitadores pueden ayudar a profesores y personal a navegar su identidad como usuarios y educadores de IA. Implementar oportunidades de desarrollo profesional y recursos como capacitaciones, talleres, programas de coaching y mentoría, comunidades de aprendizaje entre pares y materiales educativos para ayudar a profesores y personal a convertirse en facilitadores. Establecer sistemas de reconocimiento y recompensa que reconozcan a quienes se destaquen en sus roles de facilitadores de apoyo.
  • Ser un líder comprometido. Apoyar a tus colegas en el viaje generativo de la IA participando regularmente en oportunidades de desarrollo profesional y capacitación, lo que te ayudará a tomar decisiones bien informadas y audaces sobre las nuevas políticas institucionales. Proporcionar tiempo dedicado para comunicarte con unidades y departamentos sobre cuestiones importantes relacionadas con el uso de la IA en tu institución.

Unidades y Departamentos

  • Reimagina el plan de estudios y las evaluaciones. Ayuda a los profesores a incorporar la inteligencia artificial (IA) en los cursos de manera que se creen experiencias de aprendizaje más personalizadas y auténticas, al mismo tiempo que se incentive el aprendizaje, la creatividad y la innovación sobre las calificaciones. Anima a las unidades y departamentos a utilizar un enfoque colaborativo y basado en evidencia, y proporciónales tiempo y presupuesto para la reconfiguración, junto con un proceso de revisión de currículo actualizado.
  • Capacita a las futuras generaciones de usuarios de la IA. Anima a las unidades y departamentos a pensar de manera continua en cómo evolucionará la IA con el tiempo y en diversas disciplinas para que puedan anticipar, identificar y reconocer las nuevas habilidades y conocimientos que los estudiantes necesitan tanto ahora como en el futuro.
  • Emplea o forma a especialistas en integración de la IA. Estos especialistas pueden evaluar las necesidades de comunicación y colaboración dentro de las unidades y departamentos, e identificar oportunidades para soluciones impulsadas por la IA.
  • Invierte en una infraestructura centralizada de IA de última generación. La infraestructura debe incluir recursos de informática de alto rendimiento, servicios en la nube y herramientas de desarrollo de IA para respaldar los esfuerzos de investigación e implementación. Proporciona acceso compartido a herramientas de IA, almacenamiento de datos y soporte técnico para todas las unidades y departamentos.
  • Ofrece un soporte de TI dedicado. Asegúrate de que cada unidad y departamento cuente con soporte de TI para abordar problemas técnicos relacionados con la integración de la IA y la colaboración. Emplea un equipo de soporte técnico en toda la institución para ayudar a los departamentos en la implementación, integración y resolución de problemas de soluciones de IA.
  • Desarrolla protocolos y pautas departamentales. Establece pautas que aborden la seguridad, privacidad y gestión de datos, y asegura que la información sensible compartida a través de herramientas impulsadas por la IA esté segura y cumpla con las regulaciones de protección de datos.

Cómo ChatGPT y la IA generativa podrían fomentar la negación de la ciencia

Gale Sinatra and Barbara K. Hofer, The. «How ChatGPT and Generative AI Could Foster Science Denial». Gizmodo, 11 de junio de 2023. https://gizmodo.com/chatgpt-generative-ai-openai-science-denial-1850516570.

Todos los consumidores de medios de comunicación deben estar más atentos que nunca a la hora de verificar la veracidad científica. He aquí cómo mantenerse alerta en un nuevo panorama informativo.

Hasta hace muy poco, si deseabas obtener más información sobre un tema científico controvertido, como la investigación con células madre, la seguridad de la energía nuclear o el cambio climático, probablemente hacías una búsqueda en Google. Presentado con múltiples fuentes, elegías qué leer, seleccionando los sitios o autoridades en los que confiar.

Ahora tienes otra opción: puedes plantear tu pregunta a ChatGPT u otra plataforma de inteligencia artificial generativa y recibir rápidamente una respuesta concisa en forma de párrafo.

ChatGPT no busca en Internet de la misma manera que lo hace Google. En cambio, genera respuestas a las consultas prediciendo combinaciones de palabras probables a partir de una amalgama masiva de información disponible en línea.

Aunque tiene el potencial de mejorar la productividad, se ha demostrado que la IA generativa tiene algunos fallos importantes. Puede producir información errónea. Puede crear «alucinaciones«, un término benigno para inventar cosas. Y no siempre resuelve con precisión problemas de razonamiento. Por ejemplo, cuando se le preguntó si un automóvil y un tanque pueden pasar por una puerta, no consideró tanto el ancho como la altura. Sin embargo, ya se está utilizando para producir artículos y contenido web que es posible que hayas encontrado, o como una herramienta en el proceso de escritura. Aun así, es poco probable que sepas si lo que estás leyendo fue creado por la IA.

Como autores de «Science Denial: Why It Happens and What to Do About It» (Negación de la Ciencia: Por qué Ocurre y Qué Hacer al Respecto), preocupa cómo la IA generativa podría difuminar los límites entre la verdad y la ficción para aquellos que buscan información científica autoritaria.

Cada consumidor de medios necesita ser más vigilante que nunca al verificar la precisión científica en lo que lee. Así es cómo puedes mantenerte alerta en este nuevo panorama de la información.

Cómo la IA generativa podría fomentar la negación de la ciencia

  1. Erosión de la confianza epistémica: Todos los consumidores de información científica dependen de los juicios de expertos científicos y médicos. La confianza epistémica es el proceso de confiar en el conocimiento que se obtiene de otros. Es fundamental para la comprensión y el uso de información científica. Ya sea que alguien esté buscando información sobre una preocupación de salud o tratando de comprender soluciones para el cambio climático, a menudo tienen un entendimiento científico limitado y poco acceso a evidencia de primera mano. Con un creciente cuerpo de información en línea, las personas deben tomar decisiones frecuentes sobre qué y a quién confiar. Con el aumento del uso de la IA generativa y su potencial de manipulación, creemos que la confianza es probable que se erosioné aún más de lo que ya lo ha hecho.
  2. Desinformación o simplemente incorrecto: Si hay errores o sesgos en los datos con los que se entrenan las plataformas de IA, eso puede reflejarse en los resultados. En nuestras propias búsquedas, cuando le hemos pedido a ChatGPT que regenere múltiples respuestas a la misma pregunta, hemos obtenido respuestas contradictorias. Cuando se le preguntó por qué, respondió: «A veces cometo errores». Quizás el problema más complicado con el contenido generado por IA es saber cuándo está equivocado.
  3. Diseminación deliberada de desinformación: La IA se puede utilizar para generar desinformación convincente en forma de texto, así como imágenes y videos deepfake. Cuando le preguntamos a ChatGPT que «escribiera sobre las vacunas al estilo de desinformación», produjo una cita inexistente con datos falsos. Geoffrey Hinton, exjefe de desarrollo de IA en Google, renunció para poder dar la alarma, diciendo: «Es difícil ver cómo se puede evitar que los actores malintencionados lo utilicen para cosas malas». La capacidad de crear y difundir información deliberadamente incorrecta sobre la ciencia ya existía, pero ahora es peligrosamente fácil.
  4. Fuentes fabricadas: ChatGPT proporciona respuestas sin fuentes en absoluto, o si se le pide que proporcione fuentes, puede presentar fuentes inventadas. Ambos le pedimos a ChatGPT que generara una lista de nuestras propias publicaciones. Cada uno identificó algunas fuentes correctas. Más fueron alucinaciones, pero parecían ser reputables y en su mayoría plausibles, con coautores reales en revistas de sonido similar. Esta inventiva es un gran problema si una lista de publicaciones de un académico transmite autoridad a un lector que no se toma el tiempo para verificarlas.
  5. Conocimiento desactualizado: ChatGPT no sabe lo que ha sucedido en el mundo después de la fecha de corte de su conocimiento. Una consulta sobre el porcentaje de personas en el mundo que han tenido COVID-19 devolvió una respuesta precedida por «según mi fecha de corte de conocimiento de septiembre de 2021». Dado lo rápido que avanza el conocimiento en algunas áreas, esta limitación podría significar que los lectores obtengan información errónea y desactualizada. Si estás buscando investigaciones recientes sobre un problema de salud personal, por ejemplo, ten cuidado.
  6. Avance rápido y falta de transparencia: Los sistemas de IA siguen volviéndose más poderosos y aprenden más rápido, y pueden aprender más desinformación científica en el camino. Google anunció recientemente 25 nuevos usos incrustados de la IA en sus servicios. En este momento, no hay suficientes salvaguardias para garantizar que la IA generativa se convierta con el tiempo en un distribuidor más preciso de información científica.

¿Qué puedes hacer acerca de las alucinaciones de la IA?

Si utilizas ChatGPT u otras plataformas de IA, reconoce que es posible que no sean completamente precisas. La responsabilidad recae en el usuario para discernir la precisión.

Aumenta tu vigilancia. Es posible que pronto estén disponibles aplicaciones de verificación de hechos con IA, pero por ahora, los usuarios deben servir como sus propios verificadores de hechos. Recomendamos algunos pasos. El primero es: sé vigilante. Las personas a menudo comparten información que encuentran en búsquedas en las redes sociales con poco o ningún análisis. Aprende cuándo ser más reflexivo y cuándo vale la pena identificar y evaluar las fuentes de información. Si estás tratando de decidir cómo gestionar una enfermedad grave o entender los mejores pasos para abordar el cambio climático, tómate el tiempo para verificar las fuentes.

Mejora tu verificación de hechos. Un segundo paso es la lectura lateral, un proceso que utilizan los verificadores de hechos profesionales. Abre una nueva ventana y busca información sobre las fuentes, si se proporcionan. ¿La fuente es creíble? ¿El autor tiene experiencia relevante? ¿Cuál es el consenso de los expertos? Si no se proporcionan fuentes o no sabes si son válidas, utiliza un motor de búsqueda tradicional para encontrar y evaluar a expertos en el tema.

Evalúa las pruebas. A continuación, observa las pruebas y su conexión con la afirmación. ¿Hay evidencia de que los alimentos genéticamente modificados son seguros? ¿Hay evidencia de que no lo son? ¿Cuál es el consenso científico? Evaluar las afirmaciones requerirá esfuerzo más allá de una consulta rápida a ChatGPT.

Si comienzas con la IA, no te detengas allí. Ten precaución al usarla como la única autoridad en cualquier tema científico. Puedes consultar lo que ChatGPT tiene que decir sobre organismos genéticamente modificados o la seguridad de las vacunas, pero también realiza una búsqueda más diligente utilizando motores de búsqueda tradicionales antes de sacar conclusiones.

Evalúa la plausibilidad. Juzga si la afirmación es plausible. ¿Es probable que sea cierta? Si la IA hace una declaración poco plausible (y incorrecta), como «1 millón de muertes fueron causadas por las vacunas, no por el COVID-19», considera si tiene sentido. Haz un juicio tentativo y luego mantente abierto a revisar tu pensamiento una vez que hayas verificado la evidencia.

Promueve la alfabetización digital en ti mismo y en otros. Todos necesitan mejorar sus habilidades. Mejora tu propia alfabetización digital y, si eres padre, maestro, mentor o líder comunitario, promueve la alfabetización digital en los demás. La Asociación Estadounidense de Psicología ofrece orientación sobre cómo verificar información en línea y recomienda que los adolescentes sean capacitados en habilidades de redes sociales para minimizar los riesgos para la salud y el bienestar. El Proyecto de Alfabetización en Noticias proporciona herramientas útiles para mejorar y apoyar la alfabetización digital.

Arma-te con las habilidades que necesitas para navegar por el nuevo paisaje de información de la IA. Incluso si no utilizas la IA generativa, es probable que ya hayas leído artículos creados por ella o desarrollados a partir de ella. Puede llevar tiempo y esfuerzo encontrar y evaluar información confiable sobre ciencia en línea, pero vale la pena.

Gale Sinatra, Profesora de Educación y Psicología en la Universidad del Sur de California y Barbara K. Hofer, Profesora Emérita de Psicología en Middlebury.

Estamos en 2023 y la inteligencia artificial te permite crear una imagen a partir de una descripción.

Estamos en 2023 y la inteligencia artificial te permite crear una imagen a partir de una descripción. Es asombroso. (Via Neuron)

Dos preguntas:

  • ¿Qué generadores de imágenes deberías utilizar?
  • ¿Para qué utilizarlos?

Midjourney era y sigue siendo la mejor opción para imágenes hiperrealistas y abstractas. Pero hay una curva de aprendizaje empinada


Hay dos promesas dignas de mención:


DALL-E 3 de OpenAI: Merece la pena usarlo cuando la imagen necesita elementos de texto, como dibujos animados, marcas, memes, etc.

Adobe Firefly Image 2: este modelo acaba de subir de nivel: puede hacer cosas como la textura de la piel y las manos bastante bien.

La gran ventaja es que Adobe es una apuesta segura para las empresas. Adobe no entrena a su IA con arte no autorizado y acaba de lanzar Content Credentials, una «etiqueta digital» que muestra cómo se hizo una imagen y quién la hizo. Firefly ha recibido un montón de mejoras esta semana, como la ampliación de fotos y la alineación de estilos con tu marca.

Estos generadores de imágenes resultan muy útiles para cualquier proyecto que incluya elementos visuales:
– Imágenes para blogs, redes sociales o marketing digital.

– diseños de productos.

– moda/diseño de interiores.

– diagramas/ilustraciones para contenido educativo.

– miniaturas (que ahora puedes probar A/B con ChatGPT-4V)».

Redefiniendo la Inteligencia Artificial: cómo la práctica de la Propiedad Intelectual se va adaptando a lo que se avecina

Los avances rápidos en inteligencia artificial indudablemente influirán en la ley y la práctica de la propiedad intelectual. Esto requiere que los profesionales de PI y sus socios tecnológicos reevalúen ciertas suposiciones sobre cómo se crea, protege y administra la PI. Se espera que estos cambios no lleguen como una revolución, sino a través de una serie de pasos incrementales.

Clarivate Plc ha publicado un informe titulado «Redefining AI: How IP practice meets the coming wave«, que investiga el impacto de la inteligencia artificial (IA) en la ley, la práctica y los procesos de propiedad intelectual (PI). El informe revela que la IA se está adoptando cada vez más en el campo de la PI, ofreciendo beneficios como la automatización de tareas manuales y la mejora de la productividad.

El informe aborda las percepciones de la IA y se centra en los beneficios, riesgos y la disposición a su integración en el ciclo de vida de la PI. Se parte de la suposición fundamental de que las perspectivas reales y los usos de la IA deben ser centrales en su desarrollo. El informe se basa en una encuesta en línea en la que participaron 575 profesionales de PI e investigación y desarrollo (I+D) de firmas de abogados y corporaciones de todo el mundo entre el 17 de julio y el 1 de agosto de 2023.

Al igual que en muchos sectores, el uso de la IA para potenciar los procesos de PI y la toma de decisiones abarca una amplia gama de tecnologías con diferentes niveles de sofisticación. El 43% de los encuestados informaron que actualmente no se estaba utilizando la IA. La mayoría de los encuestados mostraron un sentimiento negativo hacia la IA en general y expresaron su mayor preocupación por la precisión (74%). Hubo un fuerte interés en que la IA respaldara tareas manuales y laboriosas (67%), con solo una pequeña minoría (8%) sugiriendo que no querían que la IA se aplicara en absoluto a los procesos de PI. En conjunto, estos hallazgos sugieren la posibilidad de que la implementación de la IA sea altamente contextual, dependiendo del problema específico a resolver y del entorno de riesgo. Las percepciones negativas de la IA tienden naturalmente hacia tareas de alto riesgo que dependen en gran medida de la experiencia. En estas áreas, se enfatiza la creación de herramientas que ponen de relieve la experiencia. Enfoques centrados en el ser humano pueden mitigar algunos riesgos asociados con la incorporación de la IA en los flujos de trabajo de PI, calibrando su desarrollo a las necesidades de los profesionales. Sin confianza en sistemas autónomos, es poco probable que se aproveche el verdadero potencial de la IA. Situamos la IA responsable y ética en el contexto de la práctica de la PI, no para sugerir que el desarrollo de la IA hasta la fecha haya sido irresponsable, sino para avanzar hacia un panorama equitativo en el que las tecnologías basadas en la IA satisfagan las necesidades de quienes las utilizan.

Puntos clave del informe:

  1. La IA se está adoptando en la gestión de la PI, mejorando la toma de decisiones y acelerando los procesos de investigación.
  2. Las actitudes hacia la adopción de la IA en el campo de la PI varían según los roles y las ubicaciones geográficas. Los abogados y las firmas de abogados son más reacios, mientras que los no abogados, ejecutivos y profesionales de I+D se sienten más cómodos con la IA.
  3. Europa y los Estados Unidos muestran actitudes más cautelosas hacia la adopción de la IA, mientras que las regiones de Asia Pacífico y MENA son más receptivas.
  4. Las preocupaciones sobre la adopción de la IA incluyen la precisión de los resultados, la confiabilidad, consideraciones éticas, la confidencialidad del cliente, la responsabilidad y la falta de regulación.
  5. Las firmas de abogados, en particular, expresan reservas sobre la adopción de la IA, con preocupaciones sobre la responsabilidad, la confiabilidad y la confidencialidad del cliente.
  6. Los profesionales de I+D son los más entusiastas acerca de la adopción de la IA y creen que tendrá un impacto positivo en su función.
  7. Los departamentos legales internos y las firmas de abogados enfrentan barreras significativas para adoptar la IA, lo que enfatiza la necesidad de un enfoque responsable que tenga en cuenta las implicaciones legales, éticas y sociales.

El informe sugiere que adoptar la IA en la PI requiere un compromiso continuo para gestionar y evaluar riesgos, teniendo en cuenta consideraciones legales, éticas y sociales. Este enfoque puede ayudar a calibrar los sistemas de IA para satisfacer necesidades específicas y al mismo tiempo mantener la integridad del sistema de PI y garantizar la equidad y la justicia.

Ética mundial de la IA: Revisión de 200 directrices y recomendaciones para la gobernanza de la IA

Corrêa, Nicholas Kluge, Camila Galvão, James William Santos, Carolina Del Pino, Edson Pontes Pinto, Camila Barbosa, Diogo Massmann, et al. «Worldwide AI ethics: A review of 200 guidelines and recommendations for AI governance». Patterns 4, n.o 10 (13 de octubre de 2023): 100857. https://doi.org/10.1016/j.patter.2023.100857.

La utilización de aplicaciones de inteligencia artificial (IA) ha experimentado un enorme crecimiento en los últimos años, aportando numerosas ventajas y comodidades. Sin embargo, esta expansión también ha provocado problemas éticos, como violaciones de la privacidad, discriminación algorítmica, problemas de seguridad y fiabilidad, transparencia y otras consecuencias no deseadas. Para determinar si existe un consenso mundial sobre los principios éticos que deben regir las aplicaciones de la IA y contribuir a la formación de futuras normativas, este documento realiza un metaanálisis de 200 políticas de gobernanza y directrices éticas para el uso de la IA publicadas por organismos públicos, instituciones académicas, empresas privadas y organizaciones de la sociedad civil de todo el mundo. Identificamos al menos 17 principios de resonancia prevalentes en las políticas y directrices de nuestro conjunto de datos, publicado como base de datos y herramienta de código abierto. Presentamos las limitaciones de realizar un estudio de análisis a escala mundial junto con un análisis crítico de nuestros hallazgos, presentando áreas de consenso que deberían incorporarse a futuros esfuerzos reguladores.

IA generativa: el último chivo expiatorio de la evaluación de la investigación

Danny Kingsley. «Generative AI – the Latest Scapegoat for Research Assessment», LSE, 13 de octubre de 2023. https://blogs.lse.ac.uk/impactofsocialsciences/2023/10/13/generative-ai-the-latest-scapegoat-for-research-assessment/.

Reflexionando sobre el debate en torno a la inteligencia artificial generativa y su impacto en la comunicación académica, Danny Kingsley argumenta que, al igual que el acceso abierto hace veinte años, la IA refleja las deficiencias duraderas en la publicación y evaluación de la investigación.

Ha sido interesante observar la explosión de discusión en torno a ChatGPT y la IA generativa. Los comentarios oscilan entre el gran potencial que ofrece (en términos de eficiencia) y las preocupaciones sobre el daño que causará a sistemas de confianza de larga data. Uno de esos sistemas es la publicación académica.

A pesar de los desafíos planteados, ChatGPT simplemente refleja los problemas que ya aquejan al sistema de publicación académica actual. De hecho, de la misma manera en que hace una década, el acceso abierto fue un chivo expiatorio de la comunicación académica, ahora la IA generativa es un chivo expiatorio del sistema de publicación académica. Estas preocupaciones parten de una suposición subyacente: que el sistema actual está funcionando. Debemos preguntarnos: ¿es así?

No hay espacio aquí para una lista exhaustiva de los muchos y variados problemas del ecosistema actual de publicación académica. A modo de muestra, hay que tener en cuenta que por ejemplo las revistas depredadoras lamentablemente están aquí para quedarse, la preocupante cantidad de fraude en la investigación médica y que los investigadores que aceptan manipular citas tienen más probabilidades de que se publiquen sus artículos.

Dos estudios recientes, uno en Europa y otro en Australia, revelan el nivel de presión al que se ven sometidos los doctorandos y los investigadores en sus primeros años para proporcionar autoría regalada. También se han revelado alarmantes detalles sobre el intercambio de dinero por autoría, con precios que dependen de dónde se publicará el trabajo y el área de investigación. Las investigaciones sobre esto están llevando a una serie de retractaciones. Incluso la «naturaleza autocorrectiva» del sistema no funciona, con la revelación de un gran número de citas a artículos que habían sido retractados, y más de una cuarta parte de estas citas ocurrieron después de la retractación.

Consideremos algunas de las preocupaciones planteadas sobre la IA y la publicación académica. La incapacidad actual de la IA para documentar el origen de sus fuentes de datos a través de citas, y la falta de identificadores de esas fuentes de datos, significa que no hay capacidad para replicar los «hallazgos» generados por la IA. Esto ha llevado a llamados para el desarrollo de una especificación o estándar formal para la documentación de la IA respaldado por un modelo de datos sólido. Nuestro entorno actual de publicación no prioriza la reproducibilidad, con el intercambio de código como algo opcional y una adopción lenta de requisitos para compartir datos. En este entorno, la generación de datos falsos es motivo de preocupación. Sin embargo, ChatGPT «no es el creador de estos problemas; en cambio, permite que este problema exista en una escala mucho mayor».

A pesar de toda la preocupación, la IA generativa ofrece una forma de abordar las desigualdades en el sistema académico de publicación actual. Por ejemplo, escribir artículos en inglés cuando no es el primer idioma del autor puede ser una barrera significativa para participar en el discurso de investigación. La IA generativa ofrece una solución potencial para estos autores, argumentada en el contexto de la publicación médica. Otro argumento es que las reacciones impulsivas de los editores al uso de ChatGPT en artículos significa que estamos perdiendo la oportunidad de nivelar el campo de juego para los autores que tienen el inglés como segundo idioma (ESL).

Después de todo, la práctica de recibir asistencia en la redacción de artículos no es algo nuevo. Un estudio que investiga a autores prolíficos en revistas científicas de alto impacto que no eran investigadores encontró un sorprendente nivel de publicación en múltiples áreas de investigación. Estos autores son humanos (en su mayoría con títulos en periodismo), no IA.

Hablando de autoría, recientemente se informó que un radiólogo utilizó ChatGPT para escribir artículos y los publicó con éxito en áreas que estaban muy alejadas de su experiencia, incluyendo agricultura, seguros, derecho y microbiología. Esto es una representación excelente de las preocupaciones que muchos han expresado sobre la producción excesiva de artículos «escritos» por la IA generativa. Aunque las acciones del radiólogo son impactantes, este tipo de comportamiento no se limita al uso de la IA, como lo demuestra la admisión de un experto en carne español que había publicado 176 artículos en un año en múltiples áreas a través de asociaciones cuestionables.

El único impulsor de casi todas las prácticas de investigación cuestionables es la actual importancia del artículo publicado como la única producción que cuenta. El rabo está moviendo al perro.

Si un exceso de revistas y artículos de revista ya está alimentando las «fábricas de artículos» (que a su vez pueden generarse mediante IA), es posible que todo el ecosistema de publicación académica esté a punto de colapsar. Un comentario ha preguntado si el uso de la IA para ayudar a escribir artículos aumentará aún más la presión para publicar, dado que los niveles de publicación han aumentado drásticamente en la última década.

Estamos haciendo las preguntas equivocadas. Un buen ejemplo es este artículo que pregunta si los editores deberían preocuparse de que ChatGPT haya escrito un artículo sobre sí mismo. El artículo continúa discutiendo «otras preocupaciones éticas y morales» y pregunta: «¿Es correcto usar la IA para escribir artículos cuando la publicación de artículos se utiliza como un barómetro de la competencia, la permanencia y la promoción de los investigadores?».

Reformularía la pregunta como: «¿Es correcto que la publicación de artículos se utilice como la principal herramienta de evaluación de los investigadores?» El único impulsor de casi todas las prácticas de investigación cuestionables es la importancia actual del artículo publicado como la única producción que cuenta. El rabo está moviendo al perro.

A los chatbots de IA se les cruzan los cables en la guerra entre Israel y Hamás (vía Insider)

Nolan, Hasan Chowdhury, Beatrice. «AI Chatbots Are Getting Their Wires Crossed on the Israel-Hamas War». Business Insider. Accedido 13 de octubre de 2023. https://www.businessinsider.com/ai-chatbots-israel-hamas-conflict-google-bard-microsoft-openai-chatgpt-2023-10.

El artículo habla de cómo los chatbots de inteligencia artificial, incluyendo a Bard de Google, Bing de Microsoft y ChatGPT Plus, están teniendo dificultades para proporcionar información precisa y actualizada sobre el conflicto entre Israel y Hamas. Aquí tienes un resumen de los problemas con cada chatbot:

  1. Bard de Google:
    • Inicialmente, afirmó que había un alto el fuego en Israel que entró en vigor en mayo de 2023.
    • Tras nuevas consultas, Bard proporcionó información inconsistente sobre la fecha del alto el fuego.
    • Finalmente, reconoció que no había un alto el fuego en Israel a partir del 12 de octubre.
  2. Bing de Microsoft:
    • El chatbot de Bing generó una fecha falsa (10 de octubre de 2023) al responder a una pregunta sobre el alto el fuego.
    • Cuando se le corrigió acerca de la fecha incorrecta, Bing aún insistió en que se declaró un alto el fuego en esa fecha.
    • Bing ofreció respuestas más precisas a otras preguntas sobre el conflicto.
  3. ChatGPT Plus:
    • ChatGPT Plus ofreció respuestas vagas y poco comprometidas a preguntas sobre el conflicto.
    • No generó inexactitudes, pero no proporcionó información clara sobre la situación.
    • Reconoció que los acuerdos de alto el fuego anteriores podrían haberse roto en octubre de 2023.

El artículo destaca que estos chatbots de IA, a pesar de ser promocionados como herramientas avanzadas para la obtención de información, a menudo tienen dificultades para proporcionar actualizaciones precisas y oportunas sobre eventos de última hora. Se resalta la importancia de ser escéptico al depender de chatbots de IA para obtener información en tiempo real. Las compañías detrás de estos chatbots continúan trabajando para mejorar su calidad y confiabilidad, pero reconocen que pueden ocurrir errores, especialmente en noticias de última hora.

Cómo utilizar la Inteligencia Artificial para mejorar la enseñanza por parte de alumnos y profesores

IvyPanda. «OpenAI’s ChatGPT – What It Is, How to Use It, & Why It Matters», 11 de agosto de 2023. https://ivypanda.com/blog/why-students-teachers-should-get-excited-about-chatgpt/.

A los profesores les preocupa que un programa que pueda terminar un trabajo en segundos afecte a la productividad de los alumnos. No cabe duda de que algunos de ellos utilizarán el chatbot de forma poco ética, ya que siempre habrá quienes busquen nuevas formas de hacer trampas. Sin embargo, es posible utilizar ChatGPT de forma ética con fines didácticos. A continuación, se describen numerosos ejemplos en los que este programa ayuda a la educación de los estudiantes.

En primer lugar, ChatGPT tiene algunos inconvenientes importantes que pueden dañar la calidad de tu trabajo y la nota final. Los consideraremos más adelante en el artículo. En segundo lugar, ya se están aplicando medidas de seguridad contra la manipulación tecnológica del trabajo de los estudiantes. Por ejemplo, otras herramientas de IA que utilizan algoritmos para comprobar si los textos los han escrito personas reales o máquinas.

Pero te encantará saber que es posible utilizar ChatGPT de forma ética con fines didácticos. A continuación, describiremos los numerosos ejemplos en los que este programa ayuda a la educación de los estudiantes.

  • Muestras de ensayos. Puedes pedirle a ChatGPT que genere una muestra breve de ensayo sobre un tema en particular. Copiar el texto y presentarlo como propio no es una buena idea, como mencionamos anteriormente. Sin embargo, uno puede utilizar el texto generado por el chat como inspiración o para comprender mejor un tema en particular.
  • Esquemas y planes. Los estudiantes que no saben cómo comenzar a escribir su tarea pueden pedirle al chatbot que genere un plan. La herramienta creará un esquema aproximado de un ensayo o un proyecto de investigación que describirá sobre qué escribir en cada sección de la tarea. Los estudiantes pueden confiar en estos esquemas al escribir sus propios trabajos.
  • Presentaciones. En ese sentido, ChatGPT también crea fácilmente esquemas para presentaciones o diapositivas y puede resumir su texto preparado.
  • Ganchos e introducciones. Un gran número de estudiantes universitarios a menudo luchan por comenzar sus trabajos. Su mente se queda en blanco y pierden toda resolución al mirar un documento en blanco. Para acelerar este proceso, una persona puede pedirle al chatbot que genere un gancho para su trabajo. Los estudiantes pueden solicitar una cita o estadística adecuada, así como su fuente. Sin embargo, los usuarios de ChatGPT deben tener mucho cuidado en este paso, ya que la herramienta puede proporcionar enlaces rotos o datos obsoletos. Uno debe verificar minuciosamente cada pieza de información que el programa proporciona.
  • Listas de temas. Si una tarea permite elegir tu propio tema y no tienes idea de qué escribir, el chatbot puede sugerir algunos temas posibles. Los estudiantes pueden editar las solicitudes para cambiar palabras clave o ajustar la dificultad del tema. Aquellos que utilicen ChatGPT para este propósito deben recordar que su base de datos se extiende hasta 2021 y que el programa no puede ofrecer ideas frescas.
  • Resúmenes y parafraseo. Los estudiantes también pueden utilizar ChatGPT para preparar una reseña literaria y pedirle al bot que escriba un resumen de una obra en particular. El programa también es excelente para parafrasear extractos de varios textos.
  • Preparación para exámenes. Cuando te preparas para los exámenes, puedes pedirle al bot cuestionarios personalizados. Esta es una excelente manera de poner a prueba tus conocimientos y repasar material de estudio.

Usos de ChatGPT para profesores

Asimismo, la herramienta puede convertirse en un asistente pedagógico insustituible. En lugar de intentar prohibir este programa en vano, los profesionales de la educación pueden utilizarlo como ayuda en las clases o a la hora de revisar los deberes. A continuación, enumeramos algunas formas en las que ChatGPT puede utilizarse en la enseñanza.

  • Tareas diversas. Los profesores pueden hacer que las asignaciones de los estudiantes sean más interesantes con la ayuda del chatbot. Por ejemplo, pueden pedir al programa que genere esquemas de ensayos y asignar a la clase la tarea de escribir trabajos basados en ellos. Los educadores también pueden crear rápidamente cuestionarios o temas de escritura con la herramienta.
  • Enfoque individualizado. ChatGPT permite la creación instantánea de tareas individuales y planes de aprendizaje para cada estudiante en clase, incluso cuando hay docenas de ellos.
  • Clases interesantes. El chatbot ayuda a los profesores a desarrollar actividades educativas y entretenidas en el aula. Este programa puede desarrollar juegos que enseñen a los estudiantes sobre eventos históricos, gramática, obras de ficción famosas, etc.
  • Debates. Uno puede usar ChatGPT como compañero de debate para enseñar a los estudiantes cómo construir sus argumentos.
  • Pensamiento crítico. El hecho de que el chatbot a veces pueda dar respuestas incorrectas tiene el potencial de ejercitar las habilidades de pensamiento crítico. Los profesores pueden realizar experimentos haciendo preguntas al programa y luego pedir a los estudiantes que evalúen el mérito de sus respuestas.
  • Gramática y vocabulario. ChatGPT mejora la gramática, el vocabulario y la estructura de las oraciones en los trabajos de los estudiantes. Los profesores pueden obtener versiones mejoradas por IA de los textos y compararlos con los trabajos originales de los estudiantes.

Revisión de tareas. Los educadores también pueden usar la tecnología para revisar las tareas de los estudiantes. Por supuesto, los resultados necesitarán una revisión adicional y mejora. Sin embargo, cuando un profesor tiene que evaluar rápidamente varios docenas de ensayos, ¡cualquier ayuda será apreciada!

El papel cambiante de los DATOS en la era de la IA

The evolving role of DATA in the AI era. David Worlock, 21 de septiembre de 2023 https://www.davidworlock.com/2023/09/the-evolving-role-of-data-in-the-ai-era/

Los datos son el pilar fundamental en la era de la IA. Su calidad, cantidad y diversidad son esenciales para el éxito y la efectividad de los sistemas de IA en una amplia gama de aplicaciones y sectores. La gestión adecuada de los datos, incluyendo la privacidad y la seguridad, es un aspecto crítico para aprovechar al máximo el potencial de la IA.

El evento «“The evolving role of DATA in the AI era “» se llevó a cabo el 18 de septiembre de 2023 en Leiden durante el Foro de la Fundación FAIR – CCC. La conferencia abordó cuestiones clave relacionadas con los datos en la era de la inteligencia artificial (IA) y exploró el enfoque de FAIR (Localizables, Accesibles, Interoperables y Reutilizables) en la gestión de datos científicos.

El evento comenzó con una declaración desafiante que enfatizaba la importancia de regular la IA correctamente para evitar que el futuro de la IA estuviera dominado por China. Esto estableció el tono para un día de discusiones significativas sobre el papel fundamental de los datos en la IA y cómo se pueden aprovechar mejor para el beneficio de la sociedad.

Se resaltó que, aunque un porcentaje considerable de científicos estaba familiarizado con FAIR y su objetivo de hacer que los datos sean más accesibles y utilizables, aún persiste la tendencia de presentar hallazgos científicos en narrativas tradicionales en lugar de priorizar la creación de datos en formatos y estructuras que las máquinas puedan comprender y utilizar. Se argumentó que en un mundo de IA, la inteligencia de las máquinas es esencial para aprovechar plenamente el conocimiento disponible.

Se discutió la necesidad de que los datos sean «FAIR por diseño» y se presentó la idea de la «nano publicación», que implicaba la identificación única y la codificación de afirmaciones y declaraciones, lo que permitiría una comunicación más efectiva y con indicadores de procedencia incorporados. Esta forma de comunicación se consideró como una posible evolución de la revisión por pares.

Se debatió intensamente sobre cómo incorporar la interoperabilidad de las máquinas desde el inicio del procesamiento de la comunicación, y se mencionó la experimentación con Editorial Manager para implantar la «nano publicación» en flujos de trabajo existentes. Se consideró esencial que FAIR se convierta en un proceso incrustado y protocolario, como TCP-IP, para lograr un cambio efectivo.

La última parte del evento se centró en el valor y el retorno de la inversión (ROI) de FAIR, destacando beneficios en costos, tiempo y otros factores. Se subrayó la importancia de garantizar la certeza en términos de identidad, procedencia, versiones y relaciones en un entorno donde el significado y la aceptación de los hallazgos científicos pueden cambiar con el tiempo.

En conclusión, el evento resaltó la importancia de los datos en la era de la IA y cómo FAIR está trabajando para mejorar la gestión de datos científicos para un beneficio más amplio. Se enfocó en la necesidad de una comunicación más efectiva con las máquinas y la importancia de abordar los desafíos regulatorios en la IA para aprovechar al máximo su potencial.

Un artículo aprobado y aceptado en una revista de Springer Nature aparece con la frase «Regenerate response» comando de ChatTGPT para reformular los resultados

Joelving, Author Frederik. «Signs of Undeclared ChatGPT Use in Papers Mounting». Retraction Watch (blog), 6 de octubre de 2023. https://retractionwatch.com/2023/10/06/signs-of-undeclared-chatgpt-use-in-papers-mounting/.

La semana pasada, una revista ambiental publicó un artículo sobre el uso de energía renovable en la limpieza de tierras contaminadas, con un costo de acceso de 40 euros, y aparentemente escrito por investigadores chinos. El artículo incluía una frase peculiar, «Regenerate response», lo que planteó dudas sobre la posibilidad de contenido generado por IA. Este incidente destaca una tendencia creciente de uso de IA, en particular ChatGPT, en la investigación sin una debida declaración. El autor del artículo y la persona de contacto de la empresa no respondieron a las solicitudes de comentarios. Springer Nature, el editor, declaró que están investigando cuidadosamente el asunto de acuerdo con las mejores prácticas, pero no pudieron proporcionar más detalles en este momento.

Supuestamente escrito por investigadores en China, «Revitalizing our earth: unleashing the power of green energy in soil remediation for a sustainable future» incluye la frase superflua «Regenerate response» al final de una sección de métodos. Para aquellos que no están familiarizados, «Regenerate response» es un botón en ChatGPT de OpenAI que incita al chatbot a reformular una respuesta insatisfactoria.

«¿Los autores copiaron y pegaron la salida de ChatGPT e incluyeron por error la etiqueta del botón?» se preguntó Guillaume Cabanac, profesor de informática en la Universidad de Toulouse, en Francia, en un comentario en PubPeer..

Y agregó: «¿Cómo es que esta expresión sin sentido sobrevivió a la revisión de pruebas por parte de los coautores, editores, revisores, correctores de estilo y maquetadores?»

Este caso es el ejemplo más reciente de una creciente tendencia de uso descuidado y no declarado de ChatGPT en la investigación. Hasta ahora, Cabanac, cuyo trabajo fue cubierto en Nature el mes pasado, ha publicado más de 30 artículos en PubPeer que contienen esas dos palabras reveladoras y sueltas. Y eso no incluye los artículos que aparecen en revistas depredadoras, dijo el investigador científico a Retraction Watch.

«El software informático se ha utilizado durante décadas para ayudar a los autores», dijo Cabanac. «Solo piensa en Grammarly o DeepL para personas como yo. No soy hablante nativo de inglés, así que voy a WordReference, a veces voy a DeepL. Pero lo que hago es mirar el resultado y corregir los errores».

ChatGPT y otras herramientas que utilizan sistemas de IA conocidos como modelos de lenguaje a gran escala tienden a inventar cosas. Como informamos a principios de este año, ese trabajo independiente puede ser un problema para los investigadores que buscan ayuda para encontrar referencias.

«A veces elabora cosas que no estaban en la mente de los investigadores», dijo Cabanac. «Y ese es el punto de inflexión para mí. Cuando las personas utilizan el sistema para generar algo que no tenían en mente, como fabricar datos, generar texto con referencias a trabajos que ni siquiera leyeron, esto es inaceptable».

Según algunos editores, los chatbots tienen usos legítimos al escribir artículos. La clave es informar a los lectores sobre lo que se hizo.

El autor correspondiente del artículo ambiental, Kangyan Li de ESD China Ltd., no respondió a las solicitudes de comentarios. Tampoco lo hizo una persona de contacto mencionada en el sitio web de su empresa.

Un portavoz de Springer Nature, que publica la revista Environmental Science and Pollution Research en la que apareció el artículo, dijo que el editor estaba «investigando cuidadosamente el problema de acuerdo con las mejores prácticas de COPE» pero no pudo compartir más detalles en este momento.

No está claro cómo los autores, y mucho menos la revista, pudieron pasar por alto la extraña frase. «Tal vez no se trate de los autores, sino de una fábrica de papel», dijo Cabanac, refiriéndose a organizaciones poco fiables que venden espacios de autor en artículos científicos que pueden contener datos falsos.

«Regenerar respuesta» no es la única señal de participación no declarada de un chatbot que ha visto Cabanac. Un ejemplo aún más atroz es la frase «Como modelo lingüístico de IA, yo…«, que ha encontrado en nueve artículos hasta ahora.

A Cabanac le preocupa que un descuido tan flagrante, posiblemente la punta del iceberg, pueda pasar desapercibido tanto para el personal editorial como para los revisores.