Archivo de la categoría: Tecnologías de la información

Adolescentes, padres y la adopción de la IA generativa en casa y en la escuela

The Dawn of the AI Era: Teens, Parents, and the Adoption of Generative AI at Home and School. Common Sense, 2024

Descargar

El informe titulado The Dawn of the AI Era: Teens, Parents, and the Adoption of Generative AI at Home and School, publicado el 18 de septiembre de 2024, aborda el impacto de la inteligencia artificial generativa en la educación, especialmente desde la llegada de ChatGPT en 2022. Desde entonces, las escuelas han estado en el centro del debate sobre el uso de AI, con los estudiantes siendo pioneros en su aplicación para tareas escolares. A medida que los líderes educativos consideran cómo esta tecnología puede transformar el aprendizaje en el aula, se vuelve crucial entender cómo los jóvenes la adoptan en comparación con sus padres.

El informe destaca que los adolescentes están adoptando rápidamente la inteligencia artificial generativa, de manera similar a cómo se integró el uso de las redes sociales en sus vidas. La mayoría de los jóvenes utilizan estas herramientas principalmente para el trabajo escolar. Sin embargo, existe una desconexión significativa entre padres e hijos en este aspecto: muchos padres no están al tanto de que sus hijos utilizan la inteligencia artificial generativa. Se estima que siete de cada diez jóvenes han usado al menos un tipo de herramienta de AI generativa, lo que indica un uso generalizado que podría no ser evidente para los adultos a su alrededor.

Siete de cada diez adolescentes de entre 13 y 18 años afirman haber utilizado al menos un tipo de herramienta de inteligencia artificial generativa. Los motores de búsqueda con resultados generados por IA y los chatbots son considerablemente más populares que las herramientas que generan imágenes y videos. Al igual que con el crecimiento acelerado de las redes sociales, la adopción de herramientas de IA generativa entre los adolescentes ha sido rápida. A diferencia de otras tecnologías digitales, el uso de la IA generativa—que incluye motores de búsqueda con resultados generados por IA, chatbots y generadores de texto, así como generadores de imágenes y videos—es consistente en adolescentes de todas las edades, géneros y orígenes raciales y étnicos.

Los datos específicos son los siguientes:

  • El 56% de los adolescentes dice haber utilizado motores de búsqueda con resultados generados por IA, como Bing, Google SGE o Brave Summarizer.
  • El 51% ha utilizado chatbots o generadores de texto, como ChatGPT, Google Gemini o My AI de Snap.
  • El 34% ha utilizado generadores de imágenes, como DALL-E, Photoshop AI o Bing Image Creator.
  • El 22% de los adolescentes ha utilizado generadores de video IA, como Midjourney, Stable Diffusion o Google VideoPoet.

Las escuelas están teniendo dificultades para mantenerse al día con las implicaciones que estas tecnologías tienen sobre la enseñanza y el aprendizaje. La rapidez con que los estudiantes adoptan estas herramientas está superando la capacidad de las instituciones educativas para implementar políticas efectivas que aborden sus riesgos y beneficios.

Los adolescentes utilizan la inteligencia artificial generativa para una variedad de propósitos, siendo la ayuda con las tareas escolares el más común. En una encuesta, el 53% de los jóvenes afirmó usar IA generativa para recibir apoyo en sus deberes, mientras que el 42% la emplea para combatir el aburrimiento y el 41% para traducir de un idioma a otro.

La encuesta abarcó 14 actividades diferentes, clasificadas en dos categorías: actividades formales o educativas y actividades personales. Las actividades formales incluyen resumir o traducir contenido, crear imágenes o videos, generar ideas, ayudar con las tareas y redactar documentos, correos electrónicos y código. La mayoría de estas actividades son realizadas por aproximadamente un tercio a la mitad de los adolescentes, excepto la escritura de código, que solo ha sido utilizada por alrededor del 12%.

Dos de cada cinco adolescentes (40%) informan haber utilizado inteligencia artificial generativa para tareas escolares, con una división casi equitativa entre aquellos que lo hacen con el permiso de sus profesores y aquellos que no. Aunque el 70% de los adolescentes afirma usar IA generativa, solo un menor porcentaje la emplea específicamente para trabajos escolares.

  • El 40% de los adolescentes indica que ha utilizado IA generativa para ayudar con sus tareas, mientras que el 60% dice nunca haberlo hecho.
  • Además, los adolescentes latinos son más propensos a afirmar que han utilizado IA generativa para sus tareas escolares en comparación con sus compañeros blancos (45% frente a 36%).

Entre los adolescentes que han utilizado inteligencia artificial generativa para tareas escolares, el 63% afirma haber empleado chatbots o generadores de texto, mientras que un poco más de la mitad (57%) ha utilizado motores de búsqueda con resultados generados por IA. Los adolescentes que recurren a estas herramientas para apoyar su trabajo escolar utilizan diferentes tipos de sistemas:

  • 63% han usado chatbots o generadores de texto.
  • 57% han utilizado motores de búsqueda con resultados generados por IA.
  • 23% han recurrido a generadores de imágenes para sus tareas.
  • 13% han utilizado generadores de video para la escuela.

La mayoría de los padres no están al tanto del uso que sus hijos adolescentes hacen de la inteligencia artificial generativa. Entre los padres cuyos hijos informaron haber utilizado al menos una plataforma de IA generativa, solo el 37% pensaba que su hijo ya había utilizado dicha tecnología. Aproximadamente uno de cada cuatro (23%) de estos padres cree que su hijo no ha utilizado ninguna de estas plataformas, mientras que el 39% no está seguro de si su hijo ha usado estas herramientas.

Aproximadamente 6 de cada 10 adolescentes informan que su escuela no tiene reglas sobre cómo se puede usar la inteligencia artificial generativa o que no están seguros de si existen dichas reglas. Esto indica que muchas escuelas y maestros pueden no haber comunicado claramente o implementado políticas sobre el uso de IA generativa.

Entre los adolescentes que dijeron que sus profesores habían hablado sobre permitir o restringir el uso de IA generativa, el 29% mencionó que al menos un maestro había utilizado software para detectar el uso de IA en los escritos de los estudiantes. Aunque estas herramientas no siempre son precisas, algunos docentes dependen de ellas.

Los hallazgos incluyen:

  • El 10% de todos los adolescentes afirma que al menos un maestro ha marcado su trabajo como generado por IA cuando no era así.
  • Aproximadamente el 70% de los jóvenes cuya tarea fue marcada por un profesor también tuvo su trabajo sometido a software de detección de IA, mientras que el 27% indica que su trabajo no fue sometido.

Uno de los hallazgos más significativos del informe es la importancia de establecer canales de comunicación abiertos entre jóvenes, padres, cuidadores y educadores. Estos diálogos pueden influir en cómo tanto los jóvenes como sus padres perciben las oportunidades y los peligros que presenta la inteligencia artificial generativa en la educación. Fomentar una comunicación fluida puede no solo ayudar a crear políticas más consistentes en las aulas, sino también a educar a los jóvenes sobre las implicaciones de estas tecnologías.

El informe concluye que para preparar a los jóvenes para un futuro donde la inteligencia artificial tendrá un papel central, es fundamental promover una comprensión más profunda de sus capacidades y limitaciones. Alentar un diálogo abierto sobre el uso de la inteligencia artificial generativa puede ser clave para maximizar sus beneficios en el ámbito educativo y minimizar sus riesgos.

Penguin Random House prohíbe expresamente que sus libros sean usados para entrenar tecnologías de IA.



Battersby, Matilda. «Penguin Random House Underscores Copyright Protection in AI Rebuff.» The Bookseller, October 18, 2024. https://www.thebookseller.com/news/penguin-random-house-underscores-copyright-protection-in-ai-rebuff.

Penguin Random House (PRH), el mayor editor comercial del mundo, ha modificado el texto en sus páginas de derechos de autor para proteger la propiedad intelectual de sus autores frente al uso no autorizado de sus obras para entrenar modelos de inteligencia artificial (IA). El nuevo texto, que se aplicará globalmente en todas las nuevas publicaciones y reimpresiones, prohíbe expresamente que sus libros sean usados para entrenar tecnologías de IA. Esto responde a casos de infracción de derechos de autor en los EE.UU., donde se han utilizado libros pirateados para entrenar IA sin autorización.

El CEO de PRH UK, Tom Weldon, afirmó que la empresa «defenderá vigorosamente» los derechos de propiedad intelectual de sus autores, mientras que elogiaron la actualización de PRH desde la Sociedad de Autores y otras organizaciones. Sin embargo, pidieron que también se modifiquen los contratos de los autores para asegurar que su consentimiento sea requerido antes de utilizar IA en la creación o producción de sus obras.

Expertos legales indicaron que el verdadero riesgo está en el entrenamiento de los modelos de IA, y no tanto en los resultados que estos generan. La industria editorial busca establecer mejores prácticas en medio de un panorama de IA en rápida evolución, donde el uso no autorizado de contenido afecta los ingresos de autores y editores.

Bibliotecario de IA: la revolución de la IA crea demanda de un nuevo trabajo en auge

Case, Tony. «AI Revolution Creates Demand for Hot New Job: AI Librarian». WorkLife (blog), 15 de octubre de 2024. https://www.worklife.news/technology/ai-revolution-creates-demand-for-hot-new-job-ai-librarian/.

A medida que la IA transforma el mundo empresarial, incluido el ámbito de recursos humanos, está surgiendo un nuevo rol que conecta la experiencia humana con el aprendizaje automático: el bibliotecario de IA. Este puesto, aún poco conocido, se ha vuelto uno de los más demandados en el contexto del auge de la IA generativa, según un informe de Korn Ferry, que describe las habilidades necesarias para recopilar, organizar y analizar datos como el «sistema nervioso central de la IA».

Las empresas están en una lucha por atraer talento para trabajar con inteligencia artificial (IA), pero el foco no está solo en programadores, científicos de datos e ingenieros, sino también en bibliotecarios y corredores de seguros. A medida que las aplicaciones basadas en IA se expanden, crece la necesidad de profesionales con la capacidad de crear valor empresarial a partir de esta tecnología. Según Vinay Menon, líder global de la práctica de IA en Korn Ferry, las habilidades de recopilación, organización y análisis de datos que poseen bibliotecarios son consideradas el «sistema nervioso central de la IA».

La creciente demanda de bibliotecarios de IA resalta cómo la evolución tecnológica está creando roles que combinan habilidades tradicionales como la gestión de información con las exigencias modernas en entornos impulsados por datos. Jaycee Schwarz, especialista en adquisición de talento en la empresa Prizeout, explica que a medida que los sistemas de IA generan datos cada vez más complejos, no es suficiente con construir y desplegar tales sistemas; las empresas necesitan expertos que puedan curar y traducir esos datos en información útil.

Paul Farnsworth, director de tecnología en Dice, señala que, dado el escaso talento en IA, los responsables de contratación están buscando profesionales como bibliotecarios que tengan experiencia con datos y que puedan adquirir las habilidades necesarias en IA.

John Gikopoulos, jefe global de IA y automatización en Infosys Consulting, describe la evolución de la IA en tres actos: el primero, ayudar a las organizaciones a ser más eficientes; el segundo, automatizar la recolección de datos; y el tercero, «humanizar» la IA. Gikopoulos enfatiza que las empresas deben cambiar su forma de pensar sobre la IA y reeducarse en cómo interactúan con el mundo.

Dougal Martin, bibliotecario de IA en Deel, una empresa de nómina y soporte de recursos humanos, destaca que se requiere empatía, amor por la información y la capacidad de organizar datos complejos para entender las necesidades de los usuarios. Aunque el trabajo depende en gran medida de la tecnología, enfatiza la importancia del aporte humano, ya que la infraestructura del contenido debe ser generada por humanos para garantizar precisión y fiabilidad, especialmente en áreas como recursos humanos, donde están en juego cuestiones de cumplimiento y legales.

La ética también es fundamental en este proceso de reeducación, ya que numerosos ejemplos de sesgos inconscientes en la IA han demostrado la necesidad de construir equipos diversos e inclusivos. Afsheen Afshar, ex director de ciencia de datos en JPMorgan Chase, resalta la importancia de la cultura y el trabajo en equipo para crear valor a partir de la IA. Afshar advierte que la falta de alineación de incentivos y el compromiso pueden ser obstáculos para el aprovechamiento del potencial de la IA.

Los bibliotecarios de IA y los sistemas robustos de gestión del conocimiento son revolucionarios para los profesionales de recursos humanos, ya que ofrecen acceso rápido a información actualizada sobre cuestiones complejas, como leyes laborales internacionales y regulaciones de nómina. Martin advierte que la gestión de una gran cantidad de información conlleva desafíos únicos, como el riesgo de malentendidos en la traducción entre diferentes lenguas, lo que subraya la necesidad de supervisión humana en sistemas impulsados por IA.

A medida que las empresas navegan por la revolución de la IA, es probable que roles como el de bibliotecario de IA se vuelvan cada vez más esenciales, garantizando que el vasto potencial de la IA se base en información confiable. Colaborar con estos expertos en conocimiento puede llevar a una toma de decisiones más informada, mejor cumplimiento y, en última instancia, una gestión del talento más efectiva.

  • Un actuario de seguros es un profesional que utiliza métodos matemáticos, estadísticos y financieros para evaluar riesgos y determinar primas de seguros, reservas y otros aspectos financieros relacionados con las pólizas de seguros.

Adopción de la IA Generativa por investigadores de Biomedicina

Adoption of Generative AI by Academic Biomedical Researchers”. Ithaka S+R, 2024

Texto completo

El informe «Adopción de la IA Generativa por Investigadores Biomédicos Académicos» fue publicado por Ithaka S+R el 17 de octubre de 2024. Este estudio analiza cómo los investigadores en el campo biomédico están utilizando la IA generativa, así como las percepciones y barreras que enfrentan en su adopción.

Desde el lanzamiento de ChatGPT en noviembre de 2022, ha surgido un debate nacional sobre el papel de la IA generativa en diversos sectores del trabajo intelectual, aunque la atención se ha centrado principalmente en su impacto en la enseñanza. El ámbito de la investigación biomédica presenta casos prometedores de uso, pero también riesgos significativos asociados a esta tecnología.

Los hallazgos del informe revelan que la adopción de la IA generativa es mixta. Muchos investigadores han experimentado con su uso, pero este es limitado en alcance y frecuencia. Las principales barreras para su adopción incluyen preocupaciones sobre la precisión de los resultados y cuestiones éticas. Debido a la calidad actual de las salidas de la IA generativa y la falta de mejores prácticas, es posible que su adopción se estabilice.

Ithaka S+R realizó una encuesta a investigadores biomédicos académicos sobre sus actitudes y uso de la IA generativa en contextos de investigación, que se llevó a cabo entre el 20 de febrero y el 29 de marzo de 2024, con 770 participantes.

Aunque la mayoría de los investigadores biomédicos han utilizado la IA generativa en el pasado, pocos la usan actualmente y casi ninguno lo hace de manera regular. De los investigadores que han utilizado la IA generativa:

  • 6 de cada 10 han empleado esta tecnología en su investigación.
  • El 31% la ha utilizado para revisar o editar gramática.
  • El 25% la ha usado para extraer información de la literatura científica.
  • El 22% la ha aplicado en tareas administrativas.
  • El 22% la ha usado para escribir código.

Sin embargo, solo el 40% de los investigadores biomédicos la utiliza actualmente. Las principales barreras para la adopción son:

  • El 55% reportó que los resultados no son suficientemente precisos o confiables.
  • Menos de 1 de cada 10 investigadores la utiliza regularmente.
  • El 47% señaló que hay falta de claridad sobre las mejores prácticas para la integridad de la investigación y el uso de la IA generativa.
  • El 56% expresó un gran interés en productos de IA generativa específicos para biomedicina.
  • Solo el 14% había utilizado herramientas o modelos de lenguaje específicos para biomedicina existentes.

Este informe es una contribución importante a la comprensión de las implicaciones de la IA generativa, y se anticipa que se publicará un análisis cualitativo más profundo sobre su uso en la educación superior más adelante en el año.

Los estudiantes universitarios no saben cómo y para que pueden utilizar herramientas de inteligencia artificial generativa (IA) para sus tareas académicas

Mowreader, Ashley. «Survey: When Should College Students Use AI? They’re Not SureInside Higher Ed, October 14, 2024. https://www.insidehighered.com/news/student-success/academic-life/2024/07/03/survey-college-student-academic-experience.

Una encuesta de Inside Higher Ed, realizada en mayo de 2024, reveló que el 31% de los estudiantes universitarios no está seguro de cuándo se les permite usar herramientas de inteligencia artificial generativa (IA) en sus trabajos académicos. Aunque las herramientas de IA son cada vez más comunes en la educación superior, muchas instituciones no han establecido políticas claras sobre su uso. Solo el 16% de los estudiantes indicó que sus universidades han publicado una política al respecto.

La encuesta incluyó a más de 5.000 estudiantes, y los datos muestran que la orientación sobre el uso de la IA proviene principalmente de los profesores, quienes son los responsables de decidir cuándo y cómo se puede utilizar. Sin embargo, una gran parte de los profesores aún no se siente segura sobre el uso de IA en la enseñanza.

Expertos como Afia Tasneem y Dylan Ruediger señalan que, aunque la IA inicialmente fue vista con preocupación por su potencial para facilitar el plagio, ahora se considera una habilidad crucial para el desarrollo profesional. Sin embargo, advierten que la falta de políticas claras podría generar desigualdades en el acceso y uso de estas herramientas, especialmente entre estudiantes de comunidades históricamente desfavorecidas.

Las instituciones de educación superior deben proporcionar formación sobre el uso adecuado de la IA y desarrollar políticas coherentes que equilibren el aprendizaje con la ética y la integridad académica.

La inteligencia artificial y su impacto en la escritura académica

Julio Alonso Arévalo. La inteligencia artificial y su impacto en la escritura académica . BUCLE, 2024

La inteligencia artificial está teniendo un impacto significativo en la escritura académica al ofrecer herramientas y recursos que facilitan el proceso de investigación, redacción y edición de documentos. Mediante el uso de algoritmos avanzados, los sistemas de inteligencia artificial pueden analizar grandes cantidades de información, extraer patrones y generar ideas para el desarrollo de un texto académico. Estas herramientas pueden ayudar a los estudiantes y profesores a ahorrar tiempo y esfuerzo al proporcionar sugerencias de vocabulario, estructura de párrafos y citas bibliográficas adecuadas. Además, la inteligencia artificial también puede contribuir a mejorar la calidad de los escritos académicos, al detectar errores gramaticales y de estilo, así como proporcionar recomendaciones para una redacción más clara y coherente. Sin embargo, es importante tener en cuenta que la inteligencia artificial no debe reemplazar el pensamiento crítico y la creatividad inherentes a la escritura académica, sino que debe utilizarse como una herramienta complementaria para mejorar y enriquecer el proceso de escritura.

Los chatbots de IA podrían ser más efectivos que los humanos para cambiar las creencias de los teóricos de la conspiración

Ouellette, Jennifer. 2024. «AI Chatbots Might Be Better at Swaying Conspiracy Theorists than Humans». Ars Technica. 12 de septiembre de 2024. https://arstechnica.com/science/2024/09/study-conversations-with-ai-chatbots-can-reduce-belief-in-conspiracy-theories/.

Se presenta un estudio que sugiere que los chatbots de inteligencia artificial podrían ser más efectivos que los humanos para cambiar las creencias de las personas que sostienen teorías de conspiración. El estudio, liderado por el psicólogo Gordon Pennycook, desafía la idea tradicional de que estas creencias son imposibles de cambiar. Los resultados muestran que las personas sí son receptivas a la evidencia cuando esta se presenta de manera personalizada.

En el estudio, los participantes que creían en al menos una teoría de conspiración mantuvieron conversaciones con un chatbot de IA basado en el modelo GPT-4 Turbo. Durante estas interacciones, el chatbot proporcionó contraargumentos basados en hechos, adaptados específicamente a las creencias individuales de los participantes. Estas respuestas fueron verificadas profesionalmente y mostraron una precisión muy alta. Como resultado, las creencias equivocadas de los participantes se redujeron en un 20%, y esta disminución persistió incluso dos meses después.

Una de las claves del éxito del chatbot fue su capacidad para personalizar los argumentos en función de las versiones específicas de las teorías que cada individuo sostenía. A diferencia de los humanos, el chatbot podía responder de manera continua y eficiente sin verse abrumado por múltiples falsedades. Además, el estudio mostró que los participantes no solo redujeron su adhesión a teorías conspirativas específicas, sino que también disminuyó su inclinación hacia otras creencias conspirativas en general.

Sin embargo, el chatbot fue menos efectivo cuando había poca información disponible, como en el caso de eventos recientes que generan nuevas teorías de conspiración. A pesar de esto, los autores sugieren que el uso de chatbots de IA podría ser una herramienta poderosa para combatir la desinformación, especialmente en foros de conspiración y redes sociales.

Inteligencia Artificial y alucinaciones: ¿Por qué alucinan los grandes modelos lingüísticos?

Waldo, Jim, y Soline Boussard. 2024. «GPTs and Hallucination: Why do large language models hallucinate?» Queue 22 (4): Pages 10:19-Pages 10:33. https://doi.org/10.1145/3688007.

Los modelos de lenguaje de gran escala (LLMs), como ChatGPT, han revolucionado la interacción entre humanos y la inteligencia artificial debido a su capacidad para generar texto coherente y comprensivo. Estos modelos se basan en aplicaciones transformadoras preentrenadas en grandes cantidades de datos sin procesar. Aunque tienen un rendimiento impresionante y pueden realizar tareas como responder preguntas y resumir textos, también tienen la tendencia a generar «alucinaciones». Estas ocurren cuando el modelo crea respuestas que parecen realistas pero que son incorrectas o no tienen sentido, lo que puede llevar a la diseminación de información falsa.

Las alucinaciones son preocupantes, especialmente en decisiones críticas o situaciones que requieren confianza en la IA. Un ejemplo destacado fue el de un abogado que utilizó ChatGPT para generar citas legales que resultaron ser ficticias. Estas alucinaciones, a menudo sutiles, pueden pasar desapercibidas, lo que plantea una pregunta importante: ¿Por qué los GPTs alucinan?

Los LLMs funcionan mediante aprendizaje automático entrenado en grandes cantidades de datos textuales. Este entrenamiento genera un conjunto de probabilidades que predice qué palabra es más probable que siga a otra en una secuencia. Sin embargo, esta predicción no se basa en la verdad o significado real del mundo, sino en las asociaciones estadísticas entre palabras. Esto explica por qué los modelos a veces generan respuestas erróneas: simplemente están siguiendo patrones previos de datos sin una verificación de los hechos.

La pregunta fundamental no es tanto por qué los GPTs alucinan, sino cómo logran acertar. Este dilema está vinculado a la «confianza epistémica», es decir, cómo confiamos en que algo expresado en lenguaje es verdadero. Históricamente, esta confianza ha sido establecida mediante la ciencia, que se basa en la experimentación, publicación y revisión por pares, pero los GPTs carecen de ese tipo de validación externa y generan respuestas basadas únicamente en probabilidades estadísticas.

Los GPTs basados en LLMs representan un paso más en este proceso, ya que generan respuestas basadas en el análisis de todas las preguntas y respuestas disponibles en Internet. Los modelos predicen la respuesta más probable basada en la co-ocurrencia de palabras, lo que en muchos casos refleja un consenso general.

Sin embargo, cuando hay consenso limitado o controversia sobre un tema, o cuando el tema es poco común, los GPTs son más propensos a generar respuestas incorrectas o «alucinaciones». Esto sugiere que la precisión de los GPTs depende de la disponibilidad de datos y del consenso sobre el tema en cuestión.

En este experimento se utilizaron cuatro modelos: Llama, accesible a través de la biblioteca de código abierto Llama-lib; ChatGPT-3.5 y ChatGPT-4, accesibles mediante el servicio de suscripción de OpenAI; y Google Gemini, disponible a través del servicio gratuito de Google.

Se realizaron pruebas con una variedad de temas sensibles y oscuros. Los prompts finales incluyeron: 1) solicitar artículos sobre polarización ferroelectric, 2) citas poco comunes de Barack Obama, 3) justificaciones políticas de Putin en relación con escritores rusos, 4) una descripción breve sobre el cambio climático, y 5) completar la frase «los israelíes son…». Estos prompts se presentaron semanalmente a cada modelo entre el 27 de marzo y el 29 de abril de 2024.

Los resultados mostraron variaciones en la consistencia de las respuestas, siendo ChatGPT-4 y Google Gemini los que presentaron cambios más significativos. A lo largo del experimento, se observó que, aunque los prompts eran independientes, algunos modelos utilizaban el contexto de preguntas anteriores para influir en sus respuestas. Llama a menudo repetía citas de Obama y fallaba en citar artículos científicos con precisión. ChatGPT-3.5 ofrecía citas precisas de Obama, pero también tenía dificultades para citar correctamente artículos científicos. ChatGPT-4 podía proporcionar citas precisas, aunque en ocasiones introducía términos no consensuados científicamente. Google Gemini tuvo dificultades para responder a las preguntas sobre las citas de Obama y las justificaciones de Putin, sugiriendo a menudo realizar búsquedas en Google para obtener respuestas. A pesar de todo, Gemini logró proporcionar artículos relevantes sobre polarización ferroelectric, aunque con citas incorrectas. En cuanto a la frase sobre los israelíes, Gemini ofreció diversas perspectivas y fomentó el diálogo.

En respuesta a las preguntas sobre artículos científicos, todas las aplicaciones pudieron proporcionar la sintaxis de citación correcta, pero las citas completas rara vez eran precisas. En particular, algunos autores citados por ChatGPT-4 habían publicado en el mismo campo, pero no en el artículo específico mencionado. Esto se puede entender como un reflejo de las respuestas como completaciones estadísticamente probables; el programa sabe cómo lucen las citas y qué grupos de autores tienden a aparecer juntos, aunque no necesariamente en el artículo citado. En general, la aplicación basada en Llama proporcionó las respuestas más consistentes, aunque de menor calidad que las otras, ya que no estaba en desarrollo activo y se basaba en un LLM temprano.

ChatGPT-3.5 y -4 ofrecieron consistentemente citas precisas de Obama, mientras que Llama repetía múltiples versiones de las mismas citas, muchas de las cuales eran incorrectas. En una ocasión, Google Gemini respondió correctamente a la pregunta sobre Obama, pero una de las citas era en realidad de Craig Ferguson, un comediante. La aplicación Llama tuvo dificultades para seguir restricciones gramaticales, como el requerimiento de dar una respuesta en tres palabras; a veces devolvía una sola palabra o una oración completa. Esto plantea preguntas sobre cómo la aplicación interpreta la gramática y la puntuación y cómo estas características no semánticas influyen en las respuestas.

Conclusiones

En general, las aplicaciones tuvieron dificultades con temas que contaban con datos limitados en línea, produciendo respuestas inexactas en un formato realista y sin reconocer las inexactitudes. Aunque manejaron temas polarizadores con mayor meticulosidad, algunas aún devolvieron errores y ocasionalmente advertencias sobre hacer afirmaciones en temas controvertidos.

Los GPTs basados en LLM pueden propagar conocimientos comunes con precisión, pero enfrentan dificultades en preguntas sin un consenso claro en sus datos de entrenamiento. Estos hallazgos respaldan la hipótesis de que los GPTs funcionan mejor con prompts populares y de consenso general, pero tienen problemas con temas controvertidos o con datos limitados. La variabilidad en las respuestas de las aplicaciones subraya que los modelos dependen de la cantidad y calidad de sus datos de entrenamiento, reflejando el sistema de crowdsourcing que se basa en contribuciones diversas y creíbles. Por lo tanto, aunque los GPTs pueden ser herramientas útiles para muchas tareas cotidianas, su interacción con temas oscuros y polarizados debe interpretarse con cautela. La precisión de los LLM está estrechamente vinculada a la amplitud y calidad de los datos que reciben.

Posición del Comité Consultivo de Derecho de Autor y otros Asuntos Jurídicos de IFLA sobre la Inteligencia Artificial

Levine, Melissa, y Advisory Committee on Copyright and other Legal Matters (CLM). 2024. «Advisory Committee on Copyright and Other Legal Matters Position on Artificial Intelligence», octubre.

Texto completo

Este documento está diseñado para ayudar a las bibliotecas miembros de IFLA a navegar los problemas de derechos de autor relacionados con el uso de la IA y a apoyar el desarrollo de programas y servicios bibliotecarios relevantes. También respalda el trabajo del Grupo de Interés Especial de IFLA sobre Inteligencia Artificial, alineándose con el Manifiesto y el plan de Comunicación y Outreach de IFLA.

Consideraciones:

  • La aparición de tecnologías de IA plantea múltiples consideraciones para las bibliotecas, incluida la forma en que se utiliza el contenido y quién lo utiliza. Las bibliotecas están en una posición única para liderar en este ámbito, afirmando su papel como innovadoras, desde la inclusión de contenido generado por IA en sus colecciones hasta la mejora y eficiencia en la entrega de servicios de referencia y préstamo interbibliotecario.
  • En muchos países, las leyes de derechos de autor (tanto derechos económicos como morales) han evolucionado para adaptarse a tecnologías innovadoras y son adecuadas para abordar las preocupaciones legítimas de los creadores, incluidas las bibliotecas en su rol como creadoras de procesos y servicios basados en IA.
  • La legislación relacionada con la IA a menudo también existe fuera del ámbito del derecho de autor. Para temas no relacionados con los derechos de autor, como salud, seguridad, privacidad y cuestiones éticas, se debe acudir a la fuente de información política más adecuada. Las bibliotecas deben considerar las herramientas de IA desde un enfoque basado en valores, asegurándose de que no comprometan la libertad de expresión, la privacidad ni otras áreas de preocupación.

Recomendaciones:

  • Las bibliotecas deben ofrecer capacitación y desarrollo esenciales sobre tecnologías en evolución, incluida la IA, para apoyar a empleados, investigadores y otros usuarios de la biblioteca.
  • En jurisdicciones donde la ley de derechos de autor no respalda los usos típicos y en evolución de la IA por parte de las bibliotecas, se debe abogar para informar a los tomadores de decisiones sobre los beneficios de expandir las limitaciones y excepciones existentes para permitir usos como la minería de texto y datos (TDM).
  • Las convenciones de derechos humanos existentes deberían guiar el desarrollo de trabajos normativos relacionados con la IA. Se deben apoyar los esfuerzos de las bibliotecas para desarrollar prácticas éticas en respuesta a las preocupaciones relacionadas con las herramientas de IA.
  • Los contratos para recursos bibliotecarios licenciados no deben incluir cláusulas que obstaculicen o restrinjan indebidamente el uso de la IA por parte de los usuarios de la biblioteca ni que impidan el uso de excepciones aplicables en la ley de derechos de autor.
  • Las bibliotecas se comprometen a abordar los sesgos mientras navegan por los desafíos de derechos de autor. El acceso limitado a datos y recursos puede conducir a sesgos en los sistemas de IA, por lo que abogamos por el monitoreo continuo de los servicios de IA en las bibliotecas para garantizar la diversidad y el acceso equitativo a la información.

Las gafas Ray-Ban Meta pueden usarse para reconocer a personas y acceder a información personal como dirección, número de teléfono y familiares a través del reconocimiento facial.

Matt Binder, «Ray-Ban Meta Glasses Can Be Used to Dox Strangers via Facial Recognition, According to Harvard Students. Here’s How to Protect Yourself.», Mashable, 3 de octubre de 2024, https://mashable.com/article/ray-ban-meta-smart-glasses-students-facial-recognition-dox-strangers.

Dos estudiantes de Harvard han transformado las Meta Ray-Ban Smart Glasses en una poderosa herramienta de reconocimiento facial que puede identificar a cualquier persona y revelar detalles personales como su dirección, número de teléfono y familiares. Lo lograron desarrollando una plataforma de inteligencia artificial llamada I-XRAY, que convierte las gafas inteligentes en un dispositivo de vigilancia personal. Aunque estas gafas están diseñadas para captar fotos y videos de manera más inmersiva, los estudiantes las han llevado un paso más allá al integrar un motor de búsqueda facial.

El proceso de I-XRAY tiene tres etapas clave. Primero, las gafas capturan el rostro de una persona a través de la cámara incorporada. Luego, el motor de búsqueda facial de I-XRAY identifica el rostro y le asigna un nombre. En segundo lugar, una vez que el sistema identifica el nombre, realiza búsquedas en varias bases de datos públicas y privadas para encontrar información adicional sobre la persona. Por último, I-XRAY organiza los datos recolectados —nombre, dirección, teléfono, familiares y más— en un solo documento.

En un video demostrativo, los estudiantes muestran cómo se acercan a personas en la calle y, con las gafas puestas, acceden instantáneamente a datos personales. Al hacer preguntas como «¿Asististe a tal escuela?», revelan que la información es exacta y de fácil acceso, lo que genera preocupación sobre las capacidades invasivas de esta tecnología. Este experimento no solo demuestra el potencial de la inteligencia artificial para la vigilancia, sino que pone en alerta sobre cómo este tipo de herramientas podría ser mal utilizada. Aunque los estudiantes aseguran que su intención no es violar la privacidad, sino iniciar un debate sobre los riesgos de los dispositivos inteligentes, el hecho de que cualquiera pueda acceder a información tan sensible plantea preguntas sobre la regulación de estas tecnologías.

Este dilema recuerda los primeros días del iPhone, cuando los usuarios intentaban «liberar» sus dispositivos, lo que generaba preocupaciones de seguridad. Los estudiantes de Harvard sostienen que, al igual que en aquellos días, estamos en un momento crítico donde debemos aprender a protegernos contra las amenazas antes de que sea demasiado tarde. Aunque no se puede prevenir completamente el uso de herramientas como I-XRAY, existen medidas que las personas pueden tomar para protegerse de la exposición a la vigilancia mediante tecnologías emergentes.

Entre estas medidas, se recomienda limitar la cantidad de información personal disponible públicamente en redes sociales y otras plataformas, utilizar configuraciones de privacidad más restrictivas y abogar por la regulación y supervisión del uso de tecnologías de reconocimiento facial y dispositivos inteligentes. Este caso demuestra lo rápido que la tecnología puede evolucionar y cambiar las dinámicas de privacidad en la vida cotidiana. La conversación sobre las gafas inteligentes de Meta y plataformas como I-XRAY está apenas comenzando, y es probable que continúe a medida que más tecnologías de este tipo lleguen al mercado.