Archivo de la etiqueta: Inteligencia artificial

Un sitio web de noticias impulsado por IA acusa accidentalmente de asesinato al fiscal del distrito

«AI-Powered News Site Accidentally Accuses District Attorney of Murder», Futurism. 18 de octubre de 2024. https://futurism.com/ai-accuses-district-attorney-of-murder.

Un controvertido sitio de noticias local impulsado por inteligencia artificial, Hoodline San José, cometió un grave error al acusar accidentalmente a un fiscal del distrito de asesinato. Un artículo publicado por este medio, que forma parte de una red de sitios de noticias locales en EE. UU., tenía el impactante título: «FISCAL DEL CONDADO DE SAN MATEO ACUSADO DE ASESINATO EN MEDIO DE LA BÚSQUEDA DE LOS RESTOS DE LA VÍCTIMA». Sin embargo, la realidad es que, aunque hubo un asesinato, el fiscal no fue el autor; simplemente había presentado cargos contra el verdadero sospechoso.

El error se originó cuando el sistema de inteligencia artificial de Hoodline interpretó incorrectamente un tuit de la oficina del fiscal del distrito de San Mateo, que anunciaba que un hombre local había sido acusado de asesinato. La IA distorsionó la información de tal manera que hizo parecer que el propio fiscal había cometido el crimen. Este tipo de acusaciones, sobre todo contra un funcionario público, es de suma gravedad en el periodismo.

Después de que el sitio fue señalado por Techdirt, se publicó una nota del editor que intentó explicar el error como un «error tipográfico» que cambió el significado del contenido y creó confusión entre el fiscal y el acusado, que son personas diferentes. Este incidente pone en tela de juicio la promesa de Hoodline de que su contenido editorial cuenta con un nivel significativo de supervisión humana, dado que el sitio utiliza abiertamente inteligencia artificial para generar «noticias» de manera sintética.

Además, el artículo firmado por Eileen Vargas, una de las muchas identidades de reporteros generadas por IA del sitio. Esta práctica ha sido objeto de crítica por pretender mostrar una diversidad racial que no refleja la realidad de la industria periodística, que es mayoritariamente blanca y masculina.

El error también podría tener implicaciones para Google, ya que la acusación falsa apareció en su sección de noticias. La situación plantea preguntas sobre cuánta libertad debería darse a un sitio de noticias que claramente carece de estándares editoriales y si se puede confiar en los algoritmos para filtrar contenido generado por IA.

Lo que queda claro es que errores como este, que un periodista humano bajo un proceso editorial adecuado probablemente no cometería, podrían volverse más comunes a medida que los editores deleguen el control a sistemas de IA económicos y poco supervisados.

Los editores se unen a una coalición mundial para condenar el robo de la autoría por parte de las empresas tecnológicas para la alimentación de la IA generativa

«Publishers Join with Worldwide Coalition to Condemn the Theft of Creative and Intellectual Authorship by Tech Companies for Generative AI Training – AAP», 22 de octubre de 2024.

Fuente

El 22 de octubre de 2024, la Asociación de Editores de Estados Unidos (AAP) se unió a una coalición global formada por más de 10.000 creadores, incluidos autores, músicos, actores, artistas y fotógrafos, para denunciar el uso indebido de obras creativas e intelectuales por parte de grandes empresas tecnológicas para entrenar sus modelos de IA generativa. Esta práctica, según la coalición, implica la copia, ingestión y regeneración de obras como libros, periódicos, canciones y otras expresiones artísticas sin el consentimiento de sus creadores, lo que representa una violación de los principios fundamentales de derechos de autor.

Los modelos de IA generativa, que permiten a los usuarios acceder a herramientas avanzadas que pueden producir contenido nuevo basado en información previamente existente, se han vuelto muy populares en el ámbito de los consumidores. Sin embargo, según la coalición, estas tecnologías no podrían existir sin las obras originales de creadores humanos, cuyas producciones han sido utilizadas sin autorización en el desarrollo de estos sistemas. El uso indebido de dichas obras pone en peligro la propiedad intelectual de los creadores, quienes invierten tiempo, esfuerzo y recursos en generar contenido original.

La AAP, junto con otros socios de la coalición, ha hecho un llamado a los gobiernos y tribunales de todo el mundo para que refuercen los principios esenciales de los derechos de autor, argumentando que cualquier reproducción o creación de obras derivadas debe contar con el consentimiento explícito de los creadores. Estos derechos no solo protegen a los autores, sino que también garantizan la continuidad de las industrias creativas, que son esenciales para el desarrollo de la cultura y la educación.

Maria A. Pallante, presidenta y CEO de la AAP, destacó que los creadores trabajan al servicio del público global, buscando educar, informar e inspirar, mientras que las empresas tecnológicas están utilizando sus obras para generar ganancias sin regulación ni autorización. Pallante también enfatizó que las colaboraciones tecnológicas son valiosas para la industria editorial, pero deben basarse en acuerdos legales y respetuosos, no en la explotación sin control de obras ajenas.

Este es un momento crítico en el desarrollo de políticas sobre inteligencia artificial a nivel global, y los autores, junto con sus editores, exigen que se respeten los derechos de autor para proteger sus contribuciones y su trabajo. La coalición busca asegurar que las políticas de IA generativa tomen en cuenta los derechos de los creadores y establezcan mecanismos claros para la concesión de licencias y el respeto a las obras protegidas por derechos de autor.

El potencial de la IA generativa y la detección, la disciplina y la desconfianza

Dwyer, M. ; Laird, E. Up in the Air Educators Juggling the Potential of Generative AI with Detection, Discipline, and Distrust. e Center for Democracy & Technology (CDT), 2024

Texto completo

Desde finales del curso 2022-23, los educadores han tenido una experiencia distinta con la inteligencia artificial generativa (IA). Las escuelas han aprovechado para reorganizarse y adaptarse tras la rápida aparición de ChatGPT el año anterior. El Centro para la Democracia y la Tecnología (CDT) realizó una encuesta en noviembre y diciembre de 2023 a maestros de secundaria para entender cómo interactúan con esta tecnología y qué apoyo reciben.

En agosto de 2023, el Centro para la Democracia y la Tecnología (CDT) realizó una encuesta para examinar las experiencias y opiniones de maestros, estudiantes y padres sobre varios aspectos de la tecnología, incluida la IA generativa, durante el año escolar 2022-23. Luego, entre noviembre y diciembre de 2023, CDT patrocinó una encuesta dirigida a maestros para analizar cambios en el uso reportado de IA generativa y evaluar el apoyo y la orientación que los maestros están recibiendo por parte de sus escuelas o distritos en el año escolar 2023-24. Para ello, se llevaron a cabo entrevistas en línea a 460 maestros de 6.º a 12.º grado realizadas entre noviembre y diciembre de 2023.

El estudio reveló avances y desafíos:

  • Mayor familiaridad y formación: Aunque ha aumentado el uso de IA generativa y las políticas escolares, persisten riesgos. A muchos maestros les falta orientación sobre el uso responsable por parte de los estudiantes y cómo detectar trabajos generados por IA.
  • Dependencia de herramientas de detección de IA: Los maestros confían cada vez más en estas herramientas, a pesar de que son poco efectivas. Esto podría afectar negativamente a los estudiantes.
  • Aumento en la disciplina estudiantil: Más estudiantes están siendo castigados por el uso de IA, con un riesgo mayor para estudiantes marginados.
  • Desconfianza hacia los estudiantes: Los maestros, especialmente en escuelas que prohíben la IA, siguen siendo más desconfiados respecto a la integridad académica de los estudiantes, lo que también ha resultado en más sanciones disciplinarias.

Las escuelas han avanzado significativamente en la creación de políticas y en proporcionar orientación a los docentes sobre el uso de la IA generativa en un corto periodo. En el año escolar anterior, muchas escuelas aún estaban desorientadas y rezagadas en cuanto a la implementación de normativas sobre IA generativa, y muchos maestros informaban que sus instituciones no tenían políticas claras al respecto. Sin embargo, en el año escolar 2023-24, más docentes reportan que sus escuelas han adoptado políticas y procedimientos, además de ofrecer mayor capacitación y apoyo en relación con el uso de estas herramientas.

  • 80% de los docentes han recibido capacitación formal sobre políticas de uso de IA generativa, un aumento de 37 puntos porcentuales respecto al año pasado.
  • 85% de los maestros afirman que sus escuelas tienen una política que permite o prohíbe el uso de herramientas de IA generativa, como ChatGPT, para tareas escolares, y 71% de ellos indican que es la primera vez que se implementa dicha política en sus instituciones.
  • Las políticas que permiten el uso de IA generativa para tareas casi se han duplicado en comparación con el año anterior (del 31% al 60%).
  • Además, 72% de los maestros afirman que las escuelas han solicitado su opinión sobre las políticas de uso de IA generativa en el aula, un porcentaje superior al de otras tecnologías escolares.

Los maestros se están volviendo cada vez más dependientes de las herramientas de detección de contenido generativo de IA sancionadas por las escuelas, lo cual es problemático ya que investigaciones indican que estas herramientas no son consistentemente efectivas para diferenciar entre texto generado por IA y escrito por humanos. Además, la mayoría de los docentes no han recibido orientación sobre cómo actuar si sospechan que un estudiante ha utilizado IA de manera inapropiada.

  • 68% de los maestros informan que utilizan regularmente una herramienta de detección de contenido de IA, lo que representa un aumento de 30 puntos porcentuales en comparación con el año pasado.
  • Solo 25% de los docentes se sienten muy efectivos a la hora de discernir si los trabajos fueron creados por IA o por los estudiantes mismos.
  • El uso de herramientas de detección sancionadas por las escuelas ha aumentado: 78% de los maestros informan que su escuela respalda alguna herramienta de este tipo, en comparación con el 43% del año pasado.

Esta situación genera preocupación, especialmente por el aumento en las sanciones disciplinarias hacia los estudiantes, que será tratado en la si

El aumento en el uso de la IA generativa ha generado un incremento en las sanciones disciplinarias hacia los estudiantes, en parte debido a la falta de capacitación docente y a la creciente dependencia de herramientas de detección de IA, que a menudo son ineficaces. Desde el año escolar pasado, las sanciones por el uso de IA generativa han aumentado un 16%, alcanzando al 64% de los estudiantes sancionados en el ciclo 2023-2024.

  • Herramientas de detección de IA: El uso regular de estas herramientas por los maestros está vinculado a un mayor número de sanciones. Un 72% de los maestros que las usan regularmente informan sobre estudiantes que han enfrentado consecuencias negativas.
  • Desigualdades en la disciplina: Estudiantes que dependen de dispositivos proporcionados por la escuela, así como aquellos de comunidades marginadas (negros, hispanos, rurales y de bajos ingresos), enfrentan mayor riesgo de sanciones.
  • Estudiantes con discapacidades: Los alumnos con planes IEP o 504 reportan un uso más frecuente de IA generativa, lo que, combinado con el mayor uso de herramientas de detección por parte de maestros de educación especial, aumenta el riesgo de acciones disciplinarias para estos estudiantes.

El aumento de estas sanciones plantea preocupaciones sobre las consecuencias educativas negativas, especialmente para poblaciones vulnerables.

Integridad Científica e Inteligencia Artificial

CONFERENCIA: Integridad académica e Inteligencia Artificial
Martes 22 de octubre a las 17 h. de España. 9 h. Ciudad de México
con Julio Alonso Arévalo
III Seminario de Integridad Académica y Producción Científica



La inteligencia artificial está teniendo un impacto significativo en la escritura académica al ofrecer herramientas y recursos que facilitan el proceso de investigación, redacción y edición de documentos. Mediante el uso de algoritmos avanzados, los sistemas de inteligencia artificial pueden analizar grandes cantidades de información, extraer patrones y generar ideas para el desarrollo de un texto académico. Estas herramientas pueden ayudar a los estudiantes y profesores a ahorrar tiempo y esfuerzo al proporcionar sugerencias de vocabulario, estructura de párrafos y citas bibliográficas adecuadas. Además, la inteligencia artificial también puede contribuir a mejorar la calidad de los escritos académicos, al detectar errores gramaticales y de estilo, así como proporcionar recomendaciones para una redacción más clara y coherente. Sin embargo, es importante tener en cuenta que la inteligencia artificial no debe reemplazar el pensamiento crítico y la creatividad inherentes a la escritura académica, sino que debe utilizarse como una herramienta complementaria para mejorar y enriquecer el proceso de escritura.

Los detectores de IA acusan falsamente a los alumnos de hacer trampas con graves consecuencias

«AI Detectors Falsely Accuse Students of Cheating—With Big Consequences». Bloomberg.com.18 de octubre de 2024. https://www.bloomberg.com/news/features/2024-10-18/do-ai-detectors-work-students-face-false-cheating-accusations.

Un estudio revela que alrededor de dos tercios de los profesores utilizan regularmente herramientas para detectar contenido generado por IA. Este uso extendido puede llevar a que incluso pequeñas tasas de error se traduzcan en un gran número de acusaciones falsas.

Desde el lanzamiento de ChatGPT hace casi dos años, las escuelas han implementado diversas herramientas de detección para identificar contenido escrito por IA. Los mejores detectores de redacciones con IA son muy precisos, pero no son infalibles. Businessweek probó dos de los principales servicios -GPTZero y Copyleaks- en una muestra aleatoria de 500 redacciones de solicitudes universitarias enviadas a la Universidad A&M de Texas en el verano de 2022, poco antes del lanzamiento de ChatGPT, garantizando así que no habían sido generadas por IA. Los ensayos se obtuvieron a través de una solicitud de registros públicos, lo que significa que no formaban parte de los conjuntos de datos con los que se entrenan las herramientas de IA. Businessweek descubrió que los servicios marcaban falsamente entre el 1% y el 2% de los ensayos como probablemente escritos por IA, y en algunos casos afirmaban tener una certeza cercana al 100%.

Incluso una tasa de error tan pequeña como puede acumularse rápidamente, dado el gran número de trabajos que los estudiantes realizan cada año, con consecuencias potencialmente devastadoras para los estudiantes que son falsamente marcados. Al igual que ocurre con las acusaciones más tradicionales de engaño y plagio, los estudiantes que utilizan IA para hacer sus deberes tienen que rehacer sus tareas y se enfrentan a suspensos y períodos de prueba.

Los más vulnerables a acusaciones erróneas son aquellos que escriben de manera más genérica, como estudiantes no nativos en inglés o aquellos con estilos de escritura más mecánicos. Moira Olmsted, una estudiante de 24 años, fue acusada de utilizar IA para un trabajo en línea en la Universidad Central Methodist, lo que le valió una calificación de cero. La acusación se basó en un detector de IA que había marcado su trabajo como posiblemente generado por inteligencia artificial, a pesar de su estilo de escritura, influenciado por su trastorno del espectro autista. Aunque logró que la calificación fuera cambiada, recibió una advertencia de que futuras detecciones similares serían tratadas como plagio.

Un estudio realizado en 2023 por investigadores de la Universidad de Stanford descubrió que los detectores de IA eran «casi perfectos» cuando comprobaban redacciones escritas por estudiantes de octavo curso nacidos en EE.UU., pero marcaban más de la mitad de las redacciones escritas por estudiantes no nativos de inglés como generadas por IA. Turnitin, una popular herramienta de detección de IA ha declarado que tiene una tasa de falsos positivos del 4% al analizar frases. Turnitin se negó a poner su servicio a disposición para realizar pruebas. En una entrada del blog 2023, la Universidad de Vanderbilt, una de las principales escuelas que desactivaron el servicio de detección de IA de Turnitin por motivos de precisión, señaló que, de lo contrario, cientos de trabajos de estudiantes habrían sido marcados incorrectamente durante el curso académico como escritos en parte por IA. Las empresas de detección de IA insisten en que sus servicios no deben tratarse como juez, jurado y verdugo, sino como un dato para ayudar a informar y orientar a los profesores.

Businessweek también descubrió que los servicios de detección de IA a veces pueden ser engañados por herramientas automatizadas diseñadas para hacer pasar la escritura de IA por humana. Esto podría dar lugar a una carrera armamentística que enfrentara a una tecnología contra otra, dañando la confianza entre educadores y estudiantes con escasos beneficios educativos.

OpenAI ha anunciado recientemente que no lanzará una herramienta para detectar escritos generados por IA, en parte debido a preocupaciones sobre su impacto negativo en ciertos grupos, incluidos los estudiantes que hablan inglés como segunda lengua. Aunque algunas instituciones están reconsiderando el uso de detectores de IA, muchos colegios todavía confían en ellos. Startups de detección de IA han atraído inversiones significativas desde 2019, lo que refleja el aumento del uso de estas tecnologías. Sin embargo, la ansiedad y paranoia en el aula persisten, ya que los estudiantes dedican tiempo a defender la integridad de su trabajo y temen el uso de herramientas de asistencia de escritura comunes.

A pesar de que algunas empresas de detección de IA afirman tener tasas de error bajas, la presión sobre los estudiantes para evitar ser acusados de hacer trampa ha llevado a algunos a modificar sus trabajos, lo que, en muchos casos, ha empeorado su calidad. La situación ha provocado que algunos estudiantes eliminen herramientas como Grammarly de sus dispositivos por miedo a ser marcados como autores de contenido generado por IA. Bloomberg descubrió que utilizar Grammarly para «mejorar» una redacción o «hacer que suene académica» convertirá un trabajo que había pasado de estar escrito al 100% por humanos a estar escrito al 100% por IA.

Educadores y estudiantes consideran que el sistema actual es insostenible, dada la tensión que crea y el hecho de que la IA está aquí para quedarse. Algunos profesores prefieren confiar en su intuición y mantener un diálogo abierto con los estudiantes en lugar de depender de herramientas de detección.

Construyendo una cultura de alfabetización en inteligencia artificial generativa en la enseñanza de lenguas, literatura y escritura

Working Paper 1: Overview of the Issues, Statement of Principles, and Recommendations

Working Paper 2: Generative AI and Policy Development: Guidance from the MLA-CCCC Task Force

Working Paper 3: Building a Culture for Generative AI Literacy in College Language, Literature, and Writing

MLA 2024

Este documento de trabajo sostiene que los educadores deben aprovechar su experiencia colectiva para influir en el uso de la IA generativa, tanto en su campo profesional como en la sociedad en general. Esto se debe a que estas herramientas tienen un impacto significativo en nuestras actividades cívicas, culturales y económicas.

Este documento de trabajo argumenta que los educadores deben utilizar su experiencia colectiva para influir en el uso de la inteligencia artificial (IA) generativa, tanto en sus áreas profesionales como en la sociedad, dada la significativa influencia que estas herramientas tienen en nuestras actividades cívicas, culturales y económicas. Sin embargo, también se señala el riesgo de que al crear tales documentos, se estén limitando alternativas al consentir en lugar de resistir. Dado que la tecnología ya está presente, es esencial ofrecer perspectivas equilibradas sobre los riesgos y beneficios asociados a la IA generativa.

A medida que se concluye el trabajo en este documento en el verano de 2024, se observa que empresas como Apple y Google están integrando tecnologías de IA generativa en sus plataformas. Esto indica que la IA está lo suficientemente integrada en el ámbito educativo como para impactar la alfabetización de diversas maneras. Se definen varios términos relacionados con la IA, como IA artificial (que hace predicciones basadas en modelos estadísticos), IA generativa (que produce texto o imágenes a partir de un aviso del usuario) y modelos de lenguaje de gran tamaño (que generan texto utilizando cálculos estadísticos).

Se enfatiza que, aunque las herramientas de IA generativa parecen funcionar de manera casi mágica, son, en realidad, impulsadas por datos y algoritmos. Aunque pueden producir textos que parecen humanos, estas herramientas carecen de comprensión real y, a menudo, reproducen sesgos presentes en los datos con los que fueron entrenadas. Por lo tanto, es fundamental que los educadores mantengan una supervisión crítica sobre el uso de estas tecnologías, ya que la percepción de «inteligencia» en la IA puede crear expectativas irreales.

Dado que la IA generativa se está integrando en servicios y aplicaciones cotidianas, es urgente centrarse en la alfabetización en IA generativa. Este documento promueve que la alfabetización en IA debe centrarse en dos objetivos: el acceso a «lenguajes en evolución» en diferentes contextos y el desarrollo de marcos críticos que ayuden a imaginar mejores «futuros sociales». Se propone que la alfabetización en IA abarca no solo la fluidez técnica, sino también la capacidad crítica, creativa y comunitaria en relación con estas herramientas.

En cuanto a los estudiantes, se destaca la necesidad de estrategias prácticas para utilizar la IA generativa, entender cómo esta puede influir en sus expectativas de rendimiento y en la calidad de la educación que recibirán. La alfabetización en IA debe incluir la capacidad de diseñar o criticar herramientas, así como cuestionar la ética y eficacia de su uso.

Adolescentes, padres y la adopción de la IA generativa en casa y en la escuela

The Dawn of the AI Era: Teens, Parents, and the Adoption of Generative AI at Home and School. Common Sense, 2024

Descargar

El informe titulado The Dawn of the AI Era: Teens, Parents, and the Adoption of Generative AI at Home and School, publicado el 18 de septiembre de 2024, aborda el impacto de la inteligencia artificial generativa en la educación, especialmente desde la llegada de ChatGPT en 2022. Desde entonces, las escuelas han estado en el centro del debate sobre el uso de AI, con los estudiantes siendo pioneros en su aplicación para tareas escolares. A medida que los líderes educativos consideran cómo esta tecnología puede transformar el aprendizaje en el aula, se vuelve crucial entender cómo los jóvenes la adoptan en comparación con sus padres.

El informe destaca que los adolescentes están adoptando rápidamente la inteligencia artificial generativa, de manera similar a cómo se integró el uso de las redes sociales en sus vidas. La mayoría de los jóvenes utilizan estas herramientas principalmente para el trabajo escolar. Sin embargo, existe una desconexión significativa entre padres e hijos en este aspecto: muchos padres no están al tanto de que sus hijos utilizan la inteligencia artificial generativa. Se estima que siete de cada diez jóvenes han usado al menos un tipo de herramienta de AI generativa, lo que indica un uso generalizado que podría no ser evidente para los adultos a su alrededor.

Siete de cada diez adolescentes de entre 13 y 18 años afirman haber utilizado al menos un tipo de herramienta de inteligencia artificial generativa. Los motores de búsqueda con resultados generados por IA y los chatbots son considerablemente más populares que las herramientas que generan imágenes y videos. Al igual que con el crecimiento acelerado de las redes sociales, la adopción de herramientas de IA generativa entre los adolescentes ha sido rápida. A diferencia de otras tecnologías digitales, el uso de la IA generativa—que incluye motores de búsqueda con resultados generados por IA, chatbots y generadores de texto, así como generadores de imágenes y videos—es consistente en adolescentes de todas las edades, géneros y orígenes raciales y étnicos.

Los datos específicos son los siguientes:

  • El 56% de los adolescentes dice haber utilizado motores de búsqueda con resultados generados por IA, como Bing, Google SGE o Brave Summarizer.
  • El 51% ha utilizado chatbots o generadores de texto, como ChatGPT, Google Gemini o My AI de Snap.
  • El 34% ha utilizado generadores de imágenes, como DALL-E, Photoshop AI o Bing Image Creator.
  • El 22% de los adolescentes ha utilizado generadores de video IA, como Midjourney, Stable Diffusion o Google VideoPoet.

Las escuelas están teniendo dificultades para mantenerse al día con las implicaciones que estas tecnologías tienen sobre la enseñanza y el aprendizaje. La rapidez con que los estudiantes adoptan estas herramientas está superando la capacidad de las instituciones educativas para implementar políticas efectivas que aborden sus riesgos y beneficios.

Los adolescentes utilizan la inteligencia artificial generativa para una variedad de propósitos, siendo la ayuda con las tareas escolares el más común. En una encuesta, el 53% de los jóvenes afirmó usar IA generativa para recibir apoyo en sus deberes, mientras que el 42% la emplea para combatir el aburrimiento y el 41% para traducir de un idioma a otro.

La encuesta abarcó 14 actividades diferentes, clasificadas en dos categorías: actividades formales o educativas y actividades personales. Las actividades formales incluyen resumir o traducir contenido, crear imágenes o videos, generar ideas, ayudar con las tareas y redactar documentos, correos electrónicos y código. La mayoría de estas actividades son realizadas por aproximadamente un tercio a la mitad de los adolescentes, excepto la escritura de código, que solo ha sido utilizada por alrededor del 12%.

Dos de cada cinco adolescentes (40%) informan haber utilizado inteligencia artificial generativa para tareas escolares, con una división casi equitativa entre aquellos que lo hacen con el permiso de sus profesores y aquellos que no. Aunque el 70% de los adolescentes afirma usar IA generativa, solo un menor porcentaje la emplea específicamente para trabajos escolares.

  • El 40% de los adolescentes indica que ha utilizado IA generativa para ayudar con sus tareas, mientras que el 60% dice nunca haberlo hecho.
  • Además, los adolescentes latinos son más propensos a afirmar que han utilizado IA generativa para sus tareas escolares en comparación con sus compañeros blancos (45% frente a 36%).

Entre los adolescentes que han utilizado inteligencia artificial generativa para tareas escolares, el 63% afirma haber empleado chatbots o generadores de texto, mientras que un poco más de la mitad (57%) ha utilizado motores de búsqueda con resultados generados por IA. Los adolescentes que recurren a estas herramientas para apoyar su trabajo escolar utilizan diferentes tipos de sistemas:

  • 63% han usado chatbots o generadores de texto.
  • 57% han utilizado motores de búsqueda con resultados generados por IA.
  • 23% han recurrido a generadores de imágenes para sus tareas.
  • 13% han utilizado generadores de video para la escuela.

La mayoría de los padres no están al tanto del uso que sus hijos adolescentes hacen de la inteligencia artificial generativa. Entre los padres cuyos hijos informaron haber utilizado al menos una plataforma de IA generativa, solo el 37% pensaba que su hijo ya había utilizado dicha tecnología. Aproximadamente uno de cada cuatro (23%) de estos padres cree que su hijo no ha utilizado ninguna de estas plataformas, mientras que el 39% no está seguro de si su hijo ha usado estas herramientas.

Aproximadamente 6 de cada 10 adolescentes informan que su escuela no tiene reglas sobre cómo se puede usar la inteligencia artificial generativa o que no están seguros de si existen dichas reglas. Esto indica que muchas escuelas y maestros pueden no haber comunicado claramente o implementado políticas sobre el uso de IA generativa.

Entre los adolescentes que dijeron que sus profesores habían hablado sobre permitir o restringir el uso de IA generativa, el 29% mencionó que al menos un maestro había utilizado software para detectar el uso de IA en los escritos de los estudiantes. Aunque estas herramientas no siempre son precisas, algunos docentes dependen de ellas.

Los hallazgos incluyen:

  • El 10% de todos los adolescentes afirma que al menos un maestro ha marcado su trabajo como generado por IA cuando no era así.
  • Aproximadamente el 70% de los jóvenes cuya tarea fue marcada por un profesor también tuvo su trabajo sometido a software de detección de IA, mientras que el 27% indica que su trabajo no fue sometido.

Uno de los hallazgos más significativos del informe es la importancia de establecer canales de comunicación abiertos entre jóvenes, padres, cuidadores y educadores. Estos diálogos pueden influir en cómo tanto los jóvenes como sus padres perciben las oportunidades y los peligros que presenta la inteligencia artificial generativa en la educación. Fomentar una comunicación fluida puede no solo ayudar a crear políticas más consistentes en las aulas, sino también a educar a los jóvenes sobre las implicaciones de estas tecnologías.

El informe concluye que para preparar a los jóvenes para un futuro donde la inteligencia artificial tendrá un papel central, es fundamental promover una comprensión más profunda de sus capacidades y limitaciones. Alentar un diálogo abierto sobre el uso de la inteligencia artificial generativa puede ser clave para maximizar sus beneficios en el ámbito educativo y minimizar sus riesgos.

Penguin Random House prohíbe expresamente que sus libros sean usados para entrenar tecnologías de IA.



Battersby, Matilda. «Penguin Random House Underscores Copyright Protection in AI Rebuff.» The Bookseller, October 18, 2024. https://www.thebookseller.com/news/penguin-random-house-underscores-copyright-protection-in-ai-rebuff.

Penguin Random House (PRH), el mayor editor comercial del mundo, ha modificado el texto en sus páginas de derechos de autor para proteger la propiedad intelectual de sus autores frente al uso no autorizado de sus obras para entrenar modelos de inteligencia artificial (IA). El nuevo texto, que se aplicará globalmente en todas las nuevas publicaciones y reimpresiones, prohíbe expresamente que sus libros sean usados para entrenar tecnologías de IA. Esto responde a casos de infracción de derechos de autor en los EE.UU., donde se han utilizado libros pirateados para entrenar IA sin autorización.

El CEO de PRH UK, Tom Weldon, afirmó que la empresa «defenderá vigorosamente» los derechos de propiedad intelectual de sus autores, mientras que elogiaron la actualización de PRH desde la Sociedad de Autores y otras organizaciones. Sin embargo, pidieron que también se modifiquen los contratos de los autores para asegurar que su consentimiento sea requerido antes de utilizar IA en la creación o producción de sus obras.

Expertos legales indicaron que el verdadero riesgo está en el entrenamiento de los modelos de IA, y no tanto en los resultados que estos generan. La industria editorial busca establecer mejores prácticas en medio de un panorama de IA en rápida evolución, donde el uso no autorizado de contenido afecta los ingresos de autores y editores.

Bibliotecario de IA: la revolución de la IA crea demanda de un nuevo trabajo en auge

Case, Tony. «AI Revolution Creates Demand for Hot New Job: AI Librarian». WorkLife (blog), 15 de octubre de 2024. https://www.worklife.news/technology/ai-revolution-creates-demand-for-hot-new-job-ai-librarian/.

A medida que la IA transforma el mundo empresarial, incluido el ámbito de recursos humanos, está surgiendo un nuevo rol que conecta la experiencia humana con el aprendizaje automático: el bibliotecario de IA. Este puesto, aún poco conocido, se ha vuelto uno de los más demandados en el contexto del auge de la IA generativa, según un informe de Korn Ferry, que describe las habilidades necesarias para recopilar, organizar y analizar datos como el «sistema nervioso central de la IA».

Las empresas están en una lucha por atraer talento para trabajar con inteligencia artificial (IA), pero el foco no está solo en programadores, científicos de datos e ingenieros, sino también en bibliotecarios y corredores de seguros. A medida que las aplicaciones basadas en IA se expanden, crece la necesidad de profesionales con la capacidad de crear valor empresarial a partir de esta tecnología. Según Vinay Menon, líder global de la práctica de IA en Korn Ferry, las habilidades de recopilación, organización y análisis de datos que poseen bibliotecarios son consideradas el «sistema nervioso central de la IA».

La creciente demanda de bibliotecarios de IA resalta cómo la evolución tecnológica está creando roles que combinan habilidades tradicionales como la gestión de información con las exigencias modernas en entornos impulsados por datos. Jaycee Schwarz, especialista en adquisición de talento en la empresa Prizeout, explica que a medida que los sistemas de IA generan datos cada vez más complejos, no es suficiente con construir y desplegar tales sistemas; las empresas necesitan expertos que puedan curar y traducir esos datos en información útil.

Paul Farnsworth, director de tecnología en Dice, señala que, dado el escaso talento en IA, los responsables de contratación están buscando profesionales como bibliotecarios que tengan experiencia con datos y que puedan adquirir las habilidades necesarias en IA.

John Gikopoulos, jefe global de IA y automatización en Infosys Consulting, describe la evolución de la IA en tres actos: el primero, ayudar a las organizaciones a ser más eficientes; el segundo, automatizar la recolección de datos; y el tercero, «humanizar» la IA. Gikopoulos enfatiza que las empresas deben cambiar su forma de pensar sobre la IA y reeducarse en cómo interactúan con el mundo.

Dougal Martin, bibliotecario de IA en Deel, una empresa de nómina y soporte de recursos humanos, destaca que se requiere empatía, amor por la información y la capacidad de organizar datos complejos para entender las necesidades de los usuarios. Aunque el trabajo depende en gran medida de la tecnología, enfatiza la importancia del aporte humano, ya que la infraestructura del contenido debe ser generada por humanos para garantizar precisión y fiabilidad, especialmente en áreas como recursos humanos, donde están en juego cuestiones de cumplimiento y legales.

La ética también es fundamental en este proceso de reeducación, ya que numerosos ejemplos de sesgos inconscientes en la IA han demostrado la necesidad de construir equipos diversos e inclusivos. Afsheen Afshar, ex director de ciencia de datos en JPMorgan Chase, resalta la importancia de la cultura y el trabajo en equipo para crear valor a partir de la IA. Afshar advierte que la falta de alineación de incentivos y el compromiso pueden ser obstáculos para el aprovechamiento del potencial de la IA.

Los bibliotecarios de IA y los sistemas robustos de gestión del conocimiento son revolucionarios para los profesionales de recursos humanos, ya que ofrecen acceso rápido a información actualizada sobre cuestiones complejas, como leyes laborales internacionales y regulaciones de nómina. Martin advierte que la gestión de una gran cantidad de información conlleva desafíos únicos, como el riesgo de malentendidos en la traducción entre diferentes lenguas, lo que subraya la necesidad de supervisión humana en sistemas impulsados por IA.

A medida que las empresas navegan por la revolución de la IA, es probable que roles como el de bibliotecario de IA se vuelvan cada vez más esenciales, garantizando que el vasto potencial de la IA se base en información confiable. Colaborar con estos expertos en conocimiento puede llevar a una toma de decisiones más informada, mejor cumplimiento y, en última instancia, una gestión del talento más efectiva.

  • Un actuario de seguros es un profesional que utiliza métodos matemáticos, estadísticos y financieros para evaluar riesgos y determinar primas de seguros, reservas y otros aspectos financieros relacionados con las pólizas de seguros.

Adopción de la IA Generativa por investigadores de Biomedicina

Adoption of Generative AI by Academic Biomedical Researchers”. Ithaka S+R, 2024

Texto completo

El informe «Adopción de la IA Generativa por Investigadores Biomédicos Académicos» fue publicado por Ithaka S+R el 17 de octubre de 2024. Este estudio analiza cómo los investigadores en el campo biomédico están utilizando la IA generativa, así como las percepciones y barreras que enfrentan en su adopción.

Desde el lanzamiento de ChatGPT en noviembre de 2022, ha surgido un debate nacional sobre el papel de la IA generativa en diversos sectores del trabajo intelectual, aunque la atención se ha centrado principalmente en su impacto en la enseñanza. El ámbito de la investigación biomédica presenta casos prometedores de uso, pero también riesgos significativos asociados a esta tecnología.

Los hallazgos del informe revelan que la adopción de la IA generativa es mixta. Muchos investigadores han experimentado con su uso, pero este es limitado en alcance y frecuencia. Las principales barreras para su adopción incluyen preocupaciones sobre la precisión de los resultados y cuestiones éticas. Debido a la calidad actual de las salidas de la IA generativa y la falta de mejores prácticas, es posible que su adopción se estabilice.

Ithaka S+R realizó una encuesta a investigadores biomédicos académicos sobre sus actitudes y uso de la IA generativa en contextos de investigación, que se llevó a cabo entre el 20 de febrero y el 29 de marzo de 2024, con 770 participantes.

Aunque la mayoría de los investigadores biomédicos han utilizado la IA generativa en el pasado, pocos la usan actualmente y casi ninguno lo hace de manera regular. De los investigadores que han utilizado la IA generativa:

  • 6 de cada 10 han empleado esta tecnología en su investigación.
  • El 31% la ha utilizado para revisar o editar gramática.
  • El 25% la ha usado para extraer información de la literatura científica.
  • El 22% la ha aplicado en tareas administrativas.
  • El 22% la ha usado para escribir código.

Sin embargo, solo el 40% de los investigadores biomédicos la utiliza actualmente. Las principales barreras para la adopción son:

  • El 55% reportó que los resultados no son suficientemente precisos o confiables.
  • Menos de 1 de cada 10 investigadores la utiliza regularmente.
  • El 47% señaló que hay falta de claridad sobre las mejores prácticas para la integridad de la investigación y el uso de la IA generativa.
  • El 56% expresó un gran interés en productos de IA generativa específicos para biomedicina.
  • Solo el 14% había utilizado herramientas o modelos de lenguaje específicos para biomedicina existentes.

Este informe es una contribución importante a la comprensión de las implicaciones de la IA generativa, y se anticipa que se publicará un análisis cualitativo más profundo sobre su uso en la educación superior más adelante en el año.