Archivo de la etiqueta: Inteligencia artificial

Investigadores de la Universidad de Kansas afirman haber desarrollado un algoritmo con una precisión del 99% en la detección de falsificaciones de ChatGPT

Desaire, Heather, Aleesa E. Chua, Madeline Isom, Romana Jarosova, y David Hua. «Distinguishing Academic Science Writing from Humans or ChatGPT with over 99% Accuracy Using Off-the-Shelf Machine Learning Tools». Cell Reports Physical Science 0, n.o 0 (7 de junio de 2023). https://doi.org/10.1016/j.xcrp.2023.101426.

Investigadores de la Universidad de Kansas afirman tener una precisión del 99% en la detección de falsificaciones de ChatGPT. Los investigadores afirman que su algoritmo puede detectar escritos científicos realizados por robots con una precisión sorprendente

Científicos de la Universidad de Kansas publicaron un artículo el miércoles en el que detallan un algoritmo que, según dicen, detecta la escritura académica de ChatGPT con una precisión de más del 99%.

A medida que el contenido del chatbot de IA comienza a inundar el mundo, una de las mayores preocupaciones es poder distinguir de manera confiable entre las palabras de los robots y las de los seres humanos reales. Se han realizado algunos intentos de construir detectores de ChatGPT, y decenas de empresas compiten por desarrollar tecnología para detectar la IA. Pero hasta ahora, ninguna de las opciones funciona bien, incluso una construida por OpenAI, la empresa que creó ChatGPT. Las herramientas existentes son tan ineficaces que son prácticamente inútiles.

El detector de ChatGPT descrito en el artículo solo está diseñado para funcionar en contextos específicos, pero su éxito reportado parece prometedor. En el proceso de construcción, los investigadores afirman haber identificado señales reveladoras de la escritura de IA.

El artículo, que fue revisado por pares y publicado en Cell Reports Physical Science, describe una técnica que detecta artículos de investigación académica escritos por IA. El estudio seleccionó un conjunto de 64 artículos científicos escritos por autores humanos en una variedad de disciplinas, desde biología hasta física. Alimentaron esos datos a ChatGPT y lo utilizaron para producir un conjunto de datos de 128 artículos de IA con un total de 1.276 párrafos generados por el chatbot. Los científicos utilizaron esos párrafos falsos para construir su algoritmo de detección de ChatGPT. Luego crearon un nuevo conjunto de datos para probar su algoritmo con 30 artículos reales y 60 artículos escritos por ChatGPT, lo que suma un total de 1.210 párrafos.

Los investigadores afirman que su algoritmo detectó artículos completos escritos por ChatGPT el 100% de las veces. A nivel de párrafo, fue menos preciso pero aún impresionante: el algoritmo identificó el 92% de los párrafos generados por IA.

Los investigadores esperan que otros utilicen su trabajo para adaptar el software de detección a sus propios nichos y propósitos. «Nos esforzamos mucho para crear un método accesible para que, con poca orientación, incluso los estudiantes de secundaria puedan construir un detector de IA para diferentes tipos de escritura», dijo Heather Desaire, autora del artículo y profesora de química en la Universidad de Kansas, en una entrevista con EurekAlert. «Existe la necesidad de abordar la escritura de IA, y las personas no necesitan tener un título en ciencias de la computación para contribuir a este campo».

El artículo menciona algunas señales reveladoras del trabajo de ChatGPT. Por ejemplo, los escritores humanos redactan párrafos más largos, utilizan un vocabulario más amplio, incluyen más signos de puntuación y tienden a calificar sus afirmaciones con palabras como «sin embargo», «pero» y «aunque». ChatGPT también es menos específico en cuanto a las citas, como figuras y menciones de otros científicos.

El modelo desarrollado por Desaire y sus colaboradores no funcionará de manera inmediata para los profesores que esperan penalizar a los estudiantes de secundaria que hacen trampa. El algoritmo fue creado para la escritura científica, específicamente el tipo de escritura académica que se encuentra en revistas. Esto es una lástima para los formadores y gestores que, en general, han pasado los últimos seis meses preocupados por el plagio facilitado por ChatGPT. Sin embargo, Desaire afirmó que teóricamente se puede utilizar la misma técnica para construir un modelo que detecte otros tipos de escritura.

Las cosas se complican cuando consideramos el hecho de que un escritor podría realizar fácilmente pequeñas modificaciones a un texto generado por el chatbot y hacerlo mucho más difícil de detectar. Aun así, los investigadores describieron este trabajo como una «prueba de concepto» y afirman que podrían desarrollar una herramienta más robusta y quizás más precisa con un conjunto de datos más amplio.

Aunque estos resultados son prometedores, las empresas de tecnología y los defensores de la IA señalan que herramientas como ChatGPT están en sus etapas iniciales. Es imposible decir si los métodos de detección como este serán efectivos si la IA continúa desarrollándose al ritmo acelerado que hemos presenciado en los últimos años. Cuanto más se acerquen los modelos de lenguaje grandes a replicar los murmullos de la escritura humana basada en carne, más difícil será identificar las huellas del lenguaje de los robots.

La IA generativa puede fomentar el negacionismo científico. La alfabetización digital es más importante que nunca

«Be on Alert: Generative AI Can Foster Science Denial | Psychology Today». Accedido 13 de junio de 2023. https://www.psychologytoday.com/us/blog/the-psychology-of-science-denial/202305/generative-ai-can-foster-science-denial-how-to-be-on.

ChatGPT y otros sistemas de IA generativa generan respuestas prediciendo posibles combinaciones de palabras a partir de una amalgama de información en línea. Lo que puede fomentar potencialmente el negacionismo científico porque puede ser engañoso y generar desinformación.

Hasta hace muy poco, si uno quería saber más sobre un tema científico controvertido -la investigación con células madre, la seguridad de la energía nuclear, el cambio climático-, probablemente hacías una búsqueda en Google. Cuando se le presentaban múltiples fuentes, elegía qué leer y en qué sitios o autoridades confiar.

ChatGPT no busca en Internet como Google. En su lugar, genera respuestas a las consultas prediciendo combinaciones de palabras probables a partir de una amalgama masiva de información en línea. Por lo que ahora tienes otra opción: Plantear la pregunta a ChatGPT o a otra plataforma de inteligencia artificial generativa y recibir rápidamente una respuesta sucinta en forma de párrafo.

Aunque tiene el potencial de mejorar la productividad, la IA generativa ha demostrado tener algunos fallos importantes. Puede producir información errónea. Puede crear «alucinaciones«: un término utilizado para cuando ChatGPT se inventa cosas. Y no siempre resuelve con precisión los problemas de razonamiento.

Así, la IA generativa puede difuminar los límites entre la verdad y la ficción para quienes buscan información científica fidedigna. Todos los consumidores de medios de comunicación deben estar más atentos que nunca para verificar la exactitud científica de lo que leen. De esta manera, con la abundancia de información disponible en línea, las personas se enfrentan constantemente al reto de determinar en quién y en qué confiar. El uso de la IA generativa introduce el riesgo de erosionar aún más esta confianza, ya que la manipulación y la desinformación pueden propagarse fácilmente.

Uno de los principales problemas de la IA generativa es la posibilidad de que la información sea engañosa o incorrecta. Si los datos utilizados para entrenar las plataformas de IA contienen errores o sesgos, pueden dar lugar a respuestas inexactas o sesgadas. Incluso cuando se les hace la misma pregunta varias veces, los sistemas de IA pueden generar respuestas contradictorias, reconociendo su propia falibilidad. Esto plantea un reto a la hora de identificar cuándo el contenido generado por la IA es preciso o digno de confianza.

Otro aspecto preocupante es la difusión intencionada de desinformación mediante IA. La IA generativa puede utilizarse para producir textos falsos convincentes, imágenes deepfake y vídeos que difundan información falsa. Los sistemas de IA pueden programarse para generar desinformación de forma que parezca auténtica, lo que dificulta a las personas distinguir entre realidad y ficción. Esta facilidad para crear y difundir información científica deliberadamente incorrecta amplifica el problema existente de la desinformación.

Las fuentes falsas agravan aún más el problema. Los sistemas de IA generativa suelen dar respuestas sin fuentes, o pueden generar fuentes ficticias cuando se les pregunta. Esto puede ser problemático, sobre todo cuando la autoridad de la información se atribuye a la reputación de las fuentes citadas. Los lectores que no verifiquen estas fuentes pueden ser engañados por referencias aparentemente reputadas pero fabricadas, lo que socava la confianza en el conocimiento científico.

La IA generativa también adolece de conocimientos obsoletos. Los modelos de IA se entrenan con datos hasta una determinada fecha límite, lo que significa que desconocen los acontecimientos y descubrimientos posteriores. Esta limitación puede conducir a la difusión de información errónea y obsoleta. Las personas que buscan las últimas investigaciones o información sobre temas que evolucionan rápidamente, como problemas de salud personal o enfermedades emergentes, pueden recibir información inexacta o incompleta de los sistemas de IA.

Los sistemas de IA son cada vez más potentes y capaces de aprender a un ritmo acelerado. Sin embargo, faltan salvaguardias suficientes para garantizar que la IA generativa se convierta en una fuente fiable de información científica. La posibilidad de que la IA aprenda y perpetúe la desinformación científica hace temer por su exactitud y credibilidad a largo plazo.

En conclusión, la IA generativa tiene el potencial de promover el negacionismo científico a través de varios mecanismos. La erosión de la confianza epistémica, la posibilidad de que la información sea engañosa o incorrecta, la desinformación intencionada, las fuentes inventadas, los conocimientos obsoletos y el rápido avance de la IA sin la transparencia adecuada contribuyen a los retos que plantea la IA generativa en el ámbito de la información científica. Abordar estos problemas es crucial para garantizar el uso responsable y fiable de la IA en la promoción de la comprensión científica y la lucha contra la negación de la ciencia.

¿Qué hacer?

Si utilizas ChatGPT u otras plataformas de IA, lo primero es ser consciente que muchas de las informaciones que genera podrían no ser completamente precisas. Para ello aumenta la vigilancia. Es posible que en el futuro estén disponibles aplicaciones de verificación de hechos mediante IA, pero por ahora los usuarios deben ser sus propios verificadores de hechos. Se recomienda seguir algunos pasos:

  • El primero es estar alerta. Con frecuencia, las personas comparten información encontrada en las redes sociales sin examinarla adecuadamente. Es importante saber cuándo debemos reflexionar más y cuándo vale la pena identificar y evaluar las fuentes de información. Si estás tratando de decidir cómo abordar una enfermedad grave o entender las mejores medidas para enfrentar el cambio climático, tómate el tiempo necesario para investigar las fuentes.
  • Mejora tu capacidad de verificación de hechos. Un segundo paso es realizar una «lectura lateral», un proceso utilizado por los verificadores de hechos profesionales. Si es posible, abre una nueva ventana y busca información sobre las fuentes. ¿Es creíble esa fuente? ¿El autor tiene la experiencia necesaria? ¿Cuál es el consenso de los expertos? Si no se proporcionan fuentes o si no sabes si son válidas, utiliza un motor de búsqueda convencional para encontrar y evaluar a expertos en el tema.
  • Evalúa las pruebas. A continuación, examina las pruebas y su relación con la afirmación. ¿Existen pruebas de que los alimentos modificados genéticamente son seguros? ¿Hay pruebas de lo contrario? ¿Cuál es el consenso científico al respecto? Evaluar las afirmaciones requerirá un esfuerzo más allá de una rápida consulta a ChatGPT.
  • Si recurres a la IA, no te detengas ahí. Sé cauteloso al utilizarla como única autoridad en cuestiones científicas. Puedes ver lo que dice ChatGPT sobre organismos modificados genéticamente o la seguridad de las vacunas. Sin embargo, realiza una búsqueda más exhaustiva en motores de búsqueda convencionales antes de sacar conclusiones.
  • Evalúa la verosimilitud. Juzga si la afirmación es plausible. ¿Es probable que sea cierta? Si la IA hace una afirmación inverosímil (e incorrecta), como «las vacunas causaron un millón de muertes, no el COVID-19», considera si tiene sentido siquiera. Haz un juicio provisional y mantente abierto a revisar tus ideas una vez que hayas verificado las pruebas.
  • Promueve tu alfabetización digital y la de los demás. Todos debemos mejorar en este aspecto. Mejora tu alfabetización digital y promueve la alfabetización digital de los demás si eres padre, profesor, mentor o líder comunitario. La Asociación Americana de Psicología ofrece orientación sobre la verificación de información en línea y recomienda que los adolescentes reciban formación sobre redes sociales para minimizar los riesgos para la salud y el bienestar. El Proyecto de Alfabetización en Noticias proporciona herramientas útiles para mejorar y apoyar la alfabetización digital.
  • Equípate con las habilidades necesarias para navegar por el nuevo panorama informativo de la IA. Aunque no utilices IA generativa, es probable que ya hayas leído artículos creados por ella o desarrollados a partir de ella. Encontrar y evaluar información confiable sobre ciencia en línea puede llevar tiempo y esfuerzo, pero vale la pena hacerlo.

¿Cómo citar a ChatGPT?

Para citar ChatGPT en tu trabajo, puedes seguir las pautas de la Asociación Estadounidense de Psicología (APA) y adaptar la información a los detalles específicos.

Otra cosa es que se pueda o deba citar una fuente como ChatGPT, ya que algunas de las recomendaciones consideran que nos se puede citar, ya que no es ningún autor definido. Cambridge University Press que publicó los principios de política de ética en la investigación con IA, prohíbe tratarla como «autora» de artículos y libros académicos ya que no puede rendir cuentas ante un conflicto de intereses delante de un tribunal, por no ser ninguna entidad jurídica. Y que la IA debe declararse y explicarse claramente en publicaciones como los trabajos de investigación, al igual que hacen los académicos con otros programas informáticos, herramientas y metodologías en el apartado dedicado a estas dentro del artículo especificando claramente para que fue utilizada y con que fines. Tambien COPE: Committee on Publication Ethics incide en esta cuestión, cuando dice «Las herramientas de IA no pueden cumplir los requisitos de autoría, ya que no pueden asumir la responsabilidad del trabajo presentado. Como entidades no jurídicas, no pueden afirmar la presencia o ausencia de conflictos de intereses ni gestionar los derechos de autor y los acuerdos de licencia.»

Pero si se citta, según las pautas de American Psychological Association (APA), se sugiere el siguiente formato para citar ChatGPT:

  • Autor o entidad responsable: Si no hay un autor específico mencionado, puedes utilizar «OpenAI» como entidad responsable.
  • Fecha de publicación: Incluye la fecha de la interacción o la fecha en que accediste al contenido.
  • Título de la publicación o descripción: Utiliza el título «ChatGPT» o una descripción que identifique claramente el contenido como una interacción con el modelo de lenguaje ChatGPT.
  • [Mensaje de chat]: Incluye esta etiqueta para indicar que se trata de un mensaje de chat.
  • Recuperado de [URL]: Proporciona la URL completa y actualizada donde se encuentra el contenido.

A continuación se muestra un ejemplo de cómo podría verse la cita en formato APA:

Nombre del autor (año, mes día). Título de la publicación o descripción [Mensaje de chat]. Recuperado de [URL]

OpenAI. (2023). ChatGPT (Mar 14 version) [Large language model]. https://chat.openai.com/chat

CITA REAL

ChatGPT. (2023, Jan. 13, 19:19 GMT). Prompt: Budget for a 3 member family based in Zurich for 2023. ChatGPT Jan. 9 Version. https://chat.openai.com/chat/ff75c484-3417-4149-9264-d011d456dad3

Ver además

How to Cite ChatGPT APA Style, 2023. https://www.youtube.com/watch?v=6UYkxLaULHo.

«How to Cite ChatGPT». Accedido 13 de junio de 2023. https://apastyle.apa.org/blog/how-to-cite-chatgpt.

zakirtheresearchtl. «Citing and Referencing ChatGPT Responses: A Proposal», 13 de enero de 2023. https://www.theresearchtl.net/single-post/citing-and-referencing-chatgpt-responses-a-proposal.

Qué es y que significa «alucinación» cuando utilizamos ChatGPT

En el contexto de la IA generativa, «alucinar» se refiere a la capacidad del modelo para generar información que puede parecer precisa y coherente, pero que en realidad no se basa en hechos reales o conocimiento verificable. Cuando un modelo de lenguaje como ChatGPT «alucina», está generando contenido que puede parecer posible, pero que no está respaldado por evidencia o información verificada.

ChatGPT es un generador de texto. No «sabe» nada y no garantiza que lo que dice sea correcto. De hecho, muchas de las cosas que proporciona son erróneas. Es importante tener en cuenta que ChatGPT, como modelo de lenguaje, aunque ha sido entrenado con una amplia variedad de datos y puede generar respuestas coherentes y contextualmente relevantes, pero no tiene acceso directo a información verificable ni a conocimiento específico más allá de lo que ha sido previamente entrenado. Por lo tanto, la información proporcionada por ChatGPT debe ser evaluada críticamente y verificada con otras fuentes confiables. Es importante tener en cuenta que la precisión de las respuestas generadas por un modelo de lenguaje depende de la calidad y la veracidad de los datos con los que fue entrenado.

Los desarrolladores de IA adoptaron el término «alucinaciones» de la psicología humana de manera intencional. Las alucinaciones en los seres humanos son percepciones de cosas que no existen realmente en el entorno circundante. De manera similar, en el contexto de la IA, se produce una alucinación cuando el modelo generativo de IA produce resultados que difieren de lo que se consideraría normal o esperado. Se dice que alucina cuando el modelo genera información que puede parecer plausible pero que no está respaldada por hechos verificables. Esto puede deberse a la forma en que el modelo asocia conceptos y genera respuestas a partir de los datos con los que fue entrenado. Por ejemplo, cuando se le presiona sobre la búsqueda de determinada bibliografía, la herramienta puede proporcionarnos libros o artículos que nunca fueron escritos, pero que podrían haber sido escritos por un autor determinado. Esta desviación puede llevar a la generación de información incorrecta, incoherente o fantasiosa.

Los expertos insisten en que estas herramientas son tan buenas como sus datos subyacentes, que sabemos que a veces pueden ser datos erróneos, sesgados y incluso diseñados para engañar. Por consiguiente, aunque el resultado generado por un modelo sea gramaticalmente correcto y suene sensato, puede contener información falsa, o información «inventada» por el modelo. De ahí viene el concepto de “Alucinación”. Las alucinaciones se producen porque, aunque los modelos se entrenan con enormes cantidades de datos textuales, no son capaces de entender el mundo de forma humana ni de verificar la veracidad de la información como harían las personas.

Si bien se han implementado medidas para mejorar la precisión y la coherencia de las respuestas generadas por ChatGPT, todavía es posible que ocasionalmente produzca información incorrecta o inexacta. Como un proceso en desarrollo continuo, OpenAI sigue trabajando en mejorar sus modelos y mitigar estos problemas.

Pero es muy importante que los usuarios sean críticos y verifiquen la información proporcionada buscando información adicional de fuentes confiables y contrastar los datos para obtener una imagen precisa. Ya que no se puede determinar la veracidad de un hecho generado por la IA basándose únicamente en el aspecto del texto o en la apariencia de veracidad que pueda tener. Los modelos de lenguaje como ChatGPT están diseñados para generar respuestas coherentes y contextualmente relevantes, lo que puede hacer que la información parezca verosímil y correcta. Sin embargo, la generación de texto se basa en patrones y datos previos en lugar de tener acceso directo a información verificable o conocimiento actualizado.

Los rápidos avances de la inteligencia artificial y las herramientas que requieren conocer nada o poca programación están propiciando una revolución creativa

Toscano, Joe. «Rapid Advances In Artificial Intelligence And No Code Tools Are Enabling A Creative Revolution». Forbes. Accedido 9 de junio de 2023. https://www.forbes.com/sites/joetoscano1/2023/05/25/rapid-advances-in-artificial-intelligence-and-no-code-tools-are-enabling-a-creative-revolution/.

Las herramientas de IA generativa que requieren poco o ningún conocimiento de programación permiten a las personas crear y personalizar aplicaciones, sitios web y contenido digital sin tener que depender de habilidades técnicas especializadas. Esto ha ampliado el acceso a la creación en línea, rompiendo barreras y permitiendo que una mayor diversidad de voces y perspectivas sean parte del panorama digital. Este renacimiento creativo está generando un impacto significativo en la forma en que se desarrolla Internet. Se espera que veamos un aumento en el número de pequeñas empresas que operan a nivel mundial, ofreciendo alternativas creativas a los monopolios tecnológicos dominantes.

Es cierto que el rápido avance de la inteligencia artificial, las herramientas de bajo y nulo código, y la creciente alfabetización técnica del público han abierto nuevas posibilidades para la expresión creativa y el emprendimiento. La democratización de las herramientas tecnológicas ha permitido que personas sin conocimientos técnicos profundos puedan desarrollar ideas, crear productos y lanzar proyectos de manera más rápida y accesible que nunca.

Recientemente se ha producido un rápido crecimiento del rendimiento de los modelos de inteligencia artificial (IA), de las capacidades de las herramientas de bajo y nulo código y de la alfabetización técnica del público. Antes se necesitaba un equipo de ingenieros durante meses para desarrollar lo que una persona sin conocimientos técnicos puede hacer en semanas y sin código. Antes era necesario conocer el software Adobe y Microsoft Powerpoint para crear una marca que ahora pueden generarse automáticamente tecleando unas pocas frases en una interfaz.

Hay tantas alternativas en este punto que se trata más de aprender qué herramientas hacen qué y descubrir las herramientas con las que prefieres trabajar que de saber cómo construir todo desde cero. Aunque hay algunos conocimientos técnicos, no es nada comparado con lo que solía ser incluso hace tres años. Peter Diamandis ha llegado a decir que dentro de cinco años no necesitaremos programadores. Independientemente de si esto es cierto o no, a día de hoy, la mayoría de los emprendedores pueden tener una aplicación creada y altamente funcional en unas pocas semanas, incluso en unos pocos días, ¡sin apenas saber programar!

Estas nuevas tecnologías, unidas a un mayor conocimiento técnico por parte de la población en general, son las que conducirán a la mayor revolución creativa que el mundo haya experimentado jamás.

Durante las dos últimas décadas, los gigantes tecnológicos, como Google, Amazon y Facebook, han ejercido un dominio absoluto sobre Internet. Si una empresa se acercaba a la competencia, las grandes tecnológicas hacían una oferta que los ejecutivos no podían rechazar.

Con estos nuevos superpoderes, que las herramientas de IA están dando a los emprendedores, podemos esperar ver alternativas creativas a los monopolios tecnológicos monolíticos. Las pequeñas empresas, las startups y los artistas independientes podrán competir con las grandes corporaciones como nunca antes habían podido, porque las barreras de entrada se reducirán, si no se eliminarán, y sus inversiones (tanto de tiempo como de dinero) llegarán más lejos que nunca.

Democratizar la creatividad, hacerla accesible a un público más amplio y hacerla más asequible que nunca dará lugar a un auge de la expresión artística y surgirán nuevas formas de negocio en todo el mundo. Esto dará lugar a un ecosistema en línea más diverso, con una gama más amplia de opciones para los consumidores. Es de esperar que el mercado de la pequeña empresa vuelva a resurgir a medida que se construyan microservicios en línea para servir a las comunidades locales de un modo que los gigantes tecnológicos mundiales sencillamente no pueden.

El aumento de la alfabetización digital también está contribuyendo a este renacimiento creativo. A medida que aumenta el número de personas alfabetizadas digitalmente, pueden participar más eficazmente en el mundo en línea. La alfabetización digital no consiste sólo en saber utilizar un ordenador, sino también en entender cómo funciona Internet y cómo influye en la vida. A medida que más personas se alfabetizan digitalmente, se dan cuenta de lo tóxica que es la Internet actual y de lo que ha sido durante décadas.

Este aumento de la alfabetización es lo que impulsará el cambio más que las herramientas. Las décadas anteriores de trabajo crearon cambios espectaculares y productos asombrosos, pero a menudo estas herramientas no lograron ganar tracción porque 1) la gente no las entendía, 2) no comprendía la necesidad, o 3) se limitaban a la adquisición porque los monopolios amenazaban su capacidad de existir si no aceptaban la oferta. Estas dinámicas de poder están cambiando y, con una mayor alfabetización técnica, la gente está más dispuesta a probar una nueva herramienta. Los consumidores más alfabetizados se sienten más cómodos con lo desconocido. Junto con el deseo de alejarse de la Internet tóxica en la que vivimos actualmente, creo que los próximos años darán lugar a un ecosistema en línea más diverso que represente un abanico más amplio de voces y perspectivas.

El renacimiento creativo que se está produciendo actualmente en Internet está impulsado por la IA generativa, las herramientas que requieren conocer poco o nada de programación y el aumento de la alfabetización digital están haciendo posible que más personas participen en la construcción de Internet y están democratizando la creatividad y el espíritu empresarial. Podemos esperar ver un aumento de las pequeñas empresas que operan a nivel mundial, alternativas creativas a los monopolios tecnológicos monolíticos y alternativas localizadas diseñadas para funcionar mejor para las economías locales a las que sirven. Este es un momento apasionante para Internet,

¿Cómo afrontarán las universidades el impacto la IA generativa?

«Are Universities Too Slow to Cope with Generative AI?» Impact of Social Sciences LSE, 27 de abril de 2023. https://blogs.lse.ac.uk/impactofsocialsciences/2023/04/27/are-universities-to-slow-to-cope-with-generative-ai/.

Al igual que otras tendencias de la tecnología educativa, la IA generativa ha provocado un animado debate y una división entre quienes impulsan el potencial carácter disruptivo de la tecnología y las perspectivas más críticas. Mark Carrigan sostiene que, dado que la IA generativa ya está haciendo incursiones en la práctica profesional y estudiantil, el sector de la enseñanza superior no puede eludir el compromiso y debe encontrar nuevas formas de responder más rápidamente a los nuevos avances.

El auge de la IA generativa plantea retos y oportunidades a las universidades. Por un lado, las universidades pueden aprovechar las tecnologías de IA generativa para mejorar la enseñanza, la investigación y los procesos administrativos. Por ejemplo, los chatbots con IA pueden ofrecer asistencia personalizada a los estudiantes, automatizando tareas rutinarias y liberando recursos humanos para actividades más complejas. Los algoritmos de IA también pueden ayudar a los investigadores a analizar grandes conjuntos de datos y generar ideas, acelerando el ritmo de los descubrimientos científicos.

Sin embargo, también hay retos prácticos que las universidades deben abordar. Uno de ellos es garantizar la integridad de las evaluaciones frente a la IA generativa. A medida que los modelos de IA se vuelven más sofisticados, existe el riesgo de que los estudiantes puedan utilizarlos para generar contenidos plagiados o automatizados. Las universidades tendrán que desarrollar mecanismos sólidos para detectar y prevenir este tipo de mala conducta, quizás mediante el uso de herramientas avanzadas de detección del plagio o adaptando las metodologías de evaluación.

Otro reto es reconocer el papel de la IA generativa en las publicaciones académicas. A medida que los sistemas de IA como ChatGPT sean más capaces de producir textos coherentes y convincentes, puede resultar necesario establecer directrices o normas para atribuir las contribuciones automatizadas en los artículos académicos. Esto podría implicar la introducción de convenciones específicas de autoría o requisitos de transparencia para garantizar el crédito y la responsabilidad adecuados.

Las universidades también tienen que examinar críticamente las implicaciones éticas y políticas más amplias de la integración de la IA generativa en sus operaciones. Deben sortear los posibles escollos del capitalismo de plataforma y evitar la normalización de los sistemas que se basan en la extracción de datos y la participación de los usuarios. Es crucial equilibrar los beneficios de las tecnologías de IA con las preocupaciones por la privacidad, la autonomía y el impacto social de la automatización. Google Scholar ya registra 629 resultados para el término de búsqueda exacto «Chat GPT», a pesar de que el software no se lanzó hasta el 30 de noviembre de 2022. Queda por ver cómo la IA generativa podría acelerar aún más estos comentarios y análisis.

Para hacer frente con eficacia a la IA generativa, las universidades deben participar activamente en la investigación, el discurso y la colaboración con otras partes interesadas. Esto puede implicar esfuerzos interdisciplinarios en los que participen la informática, la ética, el derecho, las ciencias sociales y las humanidades. Al fomentar una comprensión profunda de la tecnología, sus implicaciones y sus limitaciones, las universidades pueden dar forma a políticas, prácticas y programas educativos responsables que preparen a los estudiantes para un futuro en el que la IA generativa sea omnipresente.

En última instancia, las universidades tienen un papel central que desempeñar en la configuración de las dimensiones éticas, sociales y culturales de la IA generativa. Mediante la investigación crítica, el fomento de la innovación responsable y la promoción de prácticas éticas, las universidades pueden afrontar los retos y aprovechar el potencial de la IA generativa en beneficio de la sociedad.

La advertencia de Danah Boyd sobre la falta de espacio para el pensamiento reflexivo y el análisis matizado es relevante en el contexto de la rápida evolución de la AI Generativa. Las universidades se enfrentan al desafío de abordar problemas prácticos inmediatos, como el uso de ChatGPT en la evaluación, mientras establecen bases sólidas para hacer frente a desarrollos futuros impredecibles. El ritmo de avance de las capacidades de la IA generativa, como se evidencia en el lanzamiento de GPT-4, puede superar la capacidad de las universidades para asimilar y adaptarse, especialmente cuando aún están lidiando con versiones anteriores como GPT-3.5.

Además, es importante reconocer que la IA generativa abarca una amplia gama de casos de uso, incluyendo imágenes, videos, música y voz, que probablemente se vuelvan cada vez más prominentes en el futuro. Esto plantea desafíos adicionales para las universidades en términos de comprender y abordar las implicaciones éticas, legales y sociales de estas nuevas formas de generación de contenido.

En el contexto de lo que se ha denominado la «Academia Acelerada», donde el ritmo de trabajo aumenta pero las políticas avanzan lentamente, existe un peligro de distanciamiento entre las políticas formuladas y la realidad. Es fundamental establecer mecanismos ágiles que permitan a las universidades identificar y abordar de manera efectiva las cuestiones emergentes relacionadas con la AI generativa. Esto implica una colaboración interdisciplinaria y una apertura a la participación de académicos, estudiantes y administradores de todas las áreas para dar respuestas adecuadas a medida que surgen nuevos desafíos.

La toma de decisiones y la formulación de políticas deben acelerarse para evitar respuestas institucionales que no estén alineadas con la rápida evolución de la tecnología. Por ejemplo, es crucial considerar no solo las formas actuales de AI generativa, sino también el crecimiento de los sistemas de texto a imagen y de texto a video al adoptar enfoques creativos en la evaluación. La adaptabilidad y la flexibilidad son clave para asegurar que las universidades puedan mantenerse al día con los desarrollos de la AI y abordar sus implicaciones de manera reflexiva y ética.

Nature no permitirá el uso de IA generativa en imágenes y vídeo que se publiquen en la revista

«Why Nature Will Not Allow the Use of Generative AI in Images and Video». Nature 618, n.o 7964 (7 de junio de 2023): 214-214. https://doi.org/10.1038/d41586-023-01546-4.

El artículo profundiza en la discusión, el debate y las consultas en curso sobre el uso de la inteligencia artificial (IA) generativa en la creación de imágenes y vídeos. La prestigiosa revista Nature se ha posicionado al respecto y ha decidido no publicar ningún contenido en el que los elementos visuales se hayan generado total o parcialmente mediante herramientas de IA generativa. La decisión se basa en varios factores clave: integridad, atribución, consentimiento y privacidad.

La integridad es un aspecto fundamental tanto de la publicación científica como de la artística. El compromiso compartido con la integridad requiere transparencia y la capacidad de verificar la exactitud y autenticidad de los datos y las imágenes. Por desgracia, las herramientas de IA generativa existentes no permiten acceder a sus fuentes, lo que dificulta el proceso de verificación.

La atribución es un principio básico tanto en la ciencia como en el arte. Cuando se utiliza o se cita un trabajo existente, es esencial atribuirlo correctamente. Sin embargo, las herramientas de IA generativa a menudo no cumplen esta expectativa, ya que no proporcionan una atribución clara del contenido generado.

El consentimiento y el permiso son consideraciones cruciales, sobre todo cuando se identifica a personas o se trata de la propiedad intelectual de artistas e ilustradores. Muchas aplicaciones de IA generativa se quedan cortas en estos aspectos, al carecer de protocolos adecuados de consentimiento y permiso.

¿Debería la Natura permitir el uso de la inteligencia artificial (IA) generativa en la creación de imágenes y vídeos? Esta revista lleva varios meses discutiendo, debatiendo y consultando sobre esta cuestión a raíz de la explosión de contenidos creados con herramientas de IA generativa como ChatGPT y Midjourney, y del rápido aumento de las capacidades de estas plataformas.

Aparte de los artículos específicamente dedicados a la IA, Nature no publicará ningún contenido en el que la fotografía, los vídeos o las ilustraciones se hayan creado total o parcialmente utilizando IA generativa, al menos en un futuro próximo.

A los artistas, cineastas, ilustradores y fotógrafos a los que la revista hace encargos y con los que trabajan se les pedirá que confirmen que ninguno de los trabajos que presentan ha sido generado utilizando IA generativa (véase go.nature.com/3c5vrtm).

Los sistemas de IA generativa se entrenan a menudo con imágenes sin esforzarse por identificar sus fuentes u obtener los permisos adecuados. Esto incluye el uso rutinario de obras protegidas por derechos de autor para el entrenamiento sin la debida autorización. Además, surgen problemas de privacidad cuando los sistemas de IA generativa crean representaciones realistas de personas sin su consentimiento, lo que contribuye a la proliferación de «deepfakes» y a la difusión de información falsa.

La decisión de Nature de no permitir el uso de IA generativa en contenidos visuales está motivada por preocupaciones relacionadas con la integridad, la atribución, el consentimiento y la privacidad. Mientras continúa el debate en torno a esta cuestión, es crucial abordar estas consideraciones éticas para mantener la confianza y la fiabilidad de los medios visuales tanto en el ámbito científico como en el artístico.

ChatGPT: La inteligencia artificial y la generación de textos académicos: avances y desafíos

ChatGPT: La inteligencia artificial y la generación de textos académicos: avances y desafíos. Por Julio Alonso Arévalo

Consorcio de Bibliotecas Universitarias de El Salvador el 30 de mayo de 2023

VER VIDEO

La inteligencia artificial (IA) ha experimentado avances significativos en la generación de texto académico en los últimos años. Estos avances se deben principalmente al desarrollo de modelos de lenguaje basados en redes neuronales, como el modelo GPT (Transformador Generativo Pre-entrenado), que ha demostrado ser capaz de generar texto coherente y de calidad en una variedad de dominios. Una de las principales ventajas de utilizar IA para generar texto académico es su capacidad para procesar grandes cantidades de información y producir resultados rápidamente. Sin embargo, también existen desafíos asociados con la generación de texto académico mediante IA. Uno de los desafíos más importantes es garantizar la precisión y la fiabilidad de la información generada. Aunque los modelos de IA pueden generar texto coherente, no siempre pueden verificar la veracidad de los hechos o la calidad de las fuentes utilizadas. Esto puede ser problemático en el contexto académico, donde la precisión y la evidencia son fundamentales.

Otro desafío es la necesidad de evitar el plagio y respetar los derechos de autor. Al generar texto académico automáticamente, existe el riesgo de que se reproduzcan ideas o información sin la debida atribución. Es importante implementar salvaguardas para garantizar que el contenido generado sea original y cumpla con los estándares éticos y legales de la investigación académica.

Directrices éticas sobre el uso de la inteligencia artificial (IA) y datos en la enseñanza y el aprendizaje para educadores

 Directrices éticas sobre el uso de la inteligencia artificial (IA) y datos en la enseñanza y el aprendizaje para educadores. Publications Office of the European Union, 2022, 

Texto completo

Dado que los sistemas de inteligencia artificial (IA) y el uso de datos están presentes en todos los aspectos de la actividad humana, parece esencial desarrollar una comprensión básica de la IA y del uso de datos entre el alumnado y los educadores para que puedan explotar todo su potencial de forma ética.

Por consiguiente, un grupo de expertos de la Comisión Europea ha publicado esta guía de directrices éticas que se enmarcan dentro del Plan de Acción de Educación Digital (2021-2027) para ayudar a los educadores a abordar los conceptos erróneos sobre la IA y promover su uso ético.

Estas directrices contienen:

  • la aclaración de conceptos erróneos generalizados sobre la IA
  • ejemplos de uso de datos e IA para facilitar el proceso de enseñanza-aprendizaje de los estudiantes, apoyar a los docentes y dar soporte al sistema
  • consideraciones y requisitos éticos sobre la IA en la educación
  • orientaciones para educadores y directivos escolares
  • un glosario de términos de IA y datos

Actualmente, los sistemas de IA en la educación están ayudando a algunos educadores a identificar necesidades específicas de aprendizaje, brindando al alumnado experiencias de aprendizaje personalizadas e inclusivas y facilitando a los centros educativos el uso efectivo de los datos educativos y recursos de enseñanza disponibles. De tal modo, se deben garantizar que todos los datos procesados se almacenen de forma confidencial y segura y se haga un uso ético de los mismos de conformidad con el Reglamento general de protección de datos (GDPR).

Concluyendo, estas directrices son un punto de partida para que los educadores, el alumnado y los centros tengan conciencia sobre el uso ético de la inteligencia artificial y los datos en la educación. De este modo, se pretende generar una base sólida para ampliar el uso de estas tecnologías de manera segura en la educación.

ChatGPT, el impacto de los grandes modelos lingüísticos en la aplicación de la ley

Europol. ChatGPT, The impact of large language models on law enforcement. Publications Office of the European Union, 2023,

Texto completo

El lanzamiento y uso generalizado de ChatGPT -un gran modelo lingüístico (LLM) desarrollado por OpenAI- ha suscitado una gran atención pública, debido principalmente a su capacidad para proporcionar rápidamente respuestas listas para usar que pueden aplicarse a una gran cantidad de contextos diferentes. Estos modelos encierran un enorme potencial. El aprendizaje automático, del que antes sólo se esperaba que se ocupara de tareas mundanas, ha demostrado ser capaz de realizar complejos trabajos creativos. Los LLM se perfeccionan y se lanzan nuevas versiones con regularidad, y las mejoras tecnológicas no dejan de sucederse. Aunque esto ofrece grandes oportunidades a las empresas legítimas y a los ciudadanos, también puede suponer un riesgo para ellos y para el respeto de los derechos fundamentales, ya que los delincuentes y los malos actores pueden querer explotar los LLM para sus propios fines nefastos.

En respuesta a la creciente atención pública prestada a ChatGPT, el Laboratorio de Innovación de Europol organizó una serie de talleres con expertos en la materia de toda la organización para explorar cómo los delincuentes pueden abusar de LLM como ChatGPT, así como la forma en que puede ayudar a los investigadores en su trabajo diario. Los expertos que participaron en los talleres representaban todo el espectro de conocimientos especializados de Europol, incluidos el análisis operativo, la delincuencia grave y organizada, la ciberdelincuencia, la lucha antiterrorista, así como la tecnología de la información. El objetivo de este informe es examinar los resultados de los talleres especializados de expertos y concienciar sobre el impacto que los LLM pueden tener en el trabajo de la comunidad encargada de la aplicación de la ley. Dado que este tipo de tecnología está experimentando un rápido progreso, este documento ofrece además una breve perspectiva de lo que aún puede estar por venir y destaca una serie de recomendaciones sobre lo que puede hacerse ahora para prepararse mejor para ello.