Archivo de la categoría: Tecnologías de la información

Inteligencia artificial y Lingüística con Fermín Domínguez Santana. Planeta Biblioteca 2025/07/08

Inteligencia artificial y Lingüística con Fermín Domínguez Santana.

Planeta Biblioteca 2025/07/08

ESCUCHAR

Descargar

En esta ocasión conversamos con Fermín Domínguez Santana, Profesor Ayudante Doctor en Lingüística General en la Universidad de La Laguna (ULL), miembro del Instituto Universitario de Lingüística Andrés Bello y del grupo de investigación AIGELE, especializado en la instrucción gramatical del español como lengua extranjera. Dialogamos sobre el impacto de la inteligencia artificial (IA) generativa en ámbitos como la lexicografía, la enseñanza de lenguas y la traducción. Fermín está realizando una estancia de investigación en el marco del proyecto PReLemma (Parámetros para recursos léxicos multilingües más accesibles), que dirigen Teresa Fuentes y Jesús Torres, de la Facultad de Traducción y Documentación.

También abordó el papel de la IA en el aprendizaje de idiomas, destacando su utilidad para resolver ambigüedades lingüísticas y fomentar una mayor autonomía y motivación del alumnado. También presentó su proyecto de innovación docente con la herramienta Sketch Engine, que permite a los estudiantes explorar corpus lingüísticos y comprender el funcionamiento real de la lengua en diferentes contextos. Analizó cómo las metodologías activas y las herramientas digitales están transformando la didáctica de las lenguas, y planteó cómo la colaboración entre lexicógrafos e IA puede enriquecer el registro de variedades dialectales.

Finalmente, compartió su visión sobre el futuro del campo, proponiendo que los lingüistas del mañana deben combinar el conocimiento teórico con habilidades tecnológicas y digitales. Entre sus intereses actuales se encuentra el impulso de nuevas líneas de investigación en lingüística aplicada, análisis del discurso y el desarrollo ético de herramientas de IA en el ámbito humanístico.

Uso responsable de la IA en contextos académicos: Integración de recursos múltiples con sentido ético

MoxieLearn. “Clarifying AI Use in Academia: How to Create Use Cases That Call upon the Strengths of Multiple AI Resources.MoxieLearn Blog, publicado hace aproximadamente 1 año. https://moxielearn.ai/blog/clarifying-ai-use-in-academia-how-to-create-use-cases-that-call-upon-the‑strengths‑of‑multiple‑ai‑resources

Se ofrece una guía completa para el uso eficaz de herramientas de inteligencia artificial en contextos académicos, especialmente en investigación y escritura. El autor enfatiza que, en lugar de depender de una sola herramienta, los investigadores deberían combinar múltiples modelos de IA, aprovechando las fortalezas específicas de cada uno para enriquecer sus proyectos.

En primer lugar, se propone una metodología estructurada por fases que incluye: (1) definir claramente los objetivos académicos, (2) mapear las capacidades de diferentes plataformas de IA (por ejemplo, GPT para redacción, BERT para análisis de texto, modelos especializados para revisión de datos), y (3) construir un flujo de trabajo integrado. Este sistema permite, por ejemplo, que mientras un modelo genere borradores de literatura, otro se encargue del análisis temático y un tercero optimice la calidad lingüística del texto.

Gran parte del trabajo como adoptantes tempranos de la inteligencia artificial en el ámbito académico se enfoca en aclarar cómo puede utilizarse esta tecnología de manera ética y responsable. Una y otra vez se insiste en la importancia de desarrollar tres dimensiones fundamentales de la alfabetización en IA: funcional, crítica y retórica. Estas dimensiones constituyen los pilares sobre los que se construyen los casos de uso efectivos de la IA. El marco conceptual de alfabetización en IA de Moxie se basa en el trabajo de Selber (2004), Multiliteracies for a Digital Age.

El autor también resalta la importancia de considerar aspectos como la transparencia en el uso de IA, la ética en la investigación y el control humano en la revisión final. Enfatiza que la IA debe ser vista como una colaboradora asistida que requiere supervisión, especialmente para evitar sesgos, errores factuales o problemas de integridad académica.

Así, el enfoque planteado fomenta un uso estratégico y complementario de múltiples herramientas de IA, potenciando áreas en las que cada modelo destaca —desde generación de ideas y revisión literaria hasta análisis de datos y corrección de estilo—, lo que redunda en procesos más eficientes y robustos.

Finalmente, el autor anima a la comunidad académica a documentar sus casos de uso, compartir experiencias y definir buenas prácticas para el uso interdisciplinario de IA, con el fin de crear una cultura colaborativa y reflexiva sobre cómo estas tecnologías pueden fortalecer la investigación científica de forma responsable.

El 93% de los estudiantes usa herramientas de Inteligencia artificial

Kelly, Rhea. 2025. “Survey: Student AI Use on the Rise.” Campus Technology, 25 de junio de 2025. https://campustechnology.com/articles/2025/06/25/survey-student-ai-use-on-the-rise.aspx.

El estudio confirma que la inteligencia artificial se ha convertido en una herramienta habitual en la vida académica de muchos estudiantes. Aun así, su integración plantea desafíos importantes que deben abordarse desde las instituciones educativas, fomentando un uso crítico, ético y estratégico.

Un reciente estudio llevado a cabo por Microsoft en colaboración con PSB Insights revela que el uso de inteligencia artificial (IA) entre estudiantes estadounidenses está creciendo rápidamente. Según la encuesta, publicada por Campus Technology el 25 de junio de 2025, el 93 % de los estudiantes mayores de 16 años ha utilizado alguna vez herramientas de IA en sus estudios. Este dato indica una integración casi universal de estas tecnologías en la vida académica, una cifra que ha aumentado significativamente en comparación con el año anterior.

El informe también muestra un incremento notable en la frecuencia de uso. El 42 % de los encuestados afirma utilizar IA al menos semanalmente, mientras que un 30 % la emplea diariamente. Esto representa un aumento de 26 puntos porcentuales en el grupo que la usa con frecuencia y una disminución de 20 puntos entre quienes nunca la han utilizado, lo que evidencia una adopción acelerada y progresiva de la IA en entornos educativos.

Los fines para los que los estudiantes utilizan la IA son variados. La mayoría recurre a ella para generar ideas iniciales o ayudarles a comenzar tareas (37 %), para resumir información (33 %) o para obtener respuestas rápidas (33 %). Otros la emplean como herramienta de retroalimentación preliminar (32 %), como medio de aprendizaje personalizado (30 %) o para mejorar su escritura (28 %). Además, se valora su utilidad para crear materiales visuales, desarrollar habilidades para el futuro, completar tareas enteras o simplemente para liberar tiempo y cuidar del bienestar personal. Estas cifras muestran que los estudiantes no solo utilizan la IA como ayuda puntual, sino también como un recurso para el aprendizaje autónomo, la organización y la creatividad.

Lluvia de ideas y arranque de tareas: 37 %
Resúmenes de información: 33 %
Obtener respuestas rápidamente: 33 %
Retroalimentación inicial: 32 %
Aprendizaje personalizado: 30 %
Mejora de escritura: 28 %
Diseño visual para presentaciones: 25 %
Desarrollo de habilidades futuras: 22 %
Realización completa de tareas: 22 %
Fomento de la creatividad: 21 %
Liberar tiempo para aprendizaje o bienestar: 21 %
Apoyo al bienestar personal: 19 %

Sin embargo, el uso creciente de la IA también viene acompañado de preocupaciones. Un 33 % teme ser acusado de hacer trampa o plagio; un 30 % se preocupa por volverse demasiado dependiente de estas herramientas; y un 28 % teme recibir información inexacta o engañosa. También surgen inquietudes sobre la pérdida de oportunidades valiosas de aprendizaje (24 %) y sobre los posibles dilemas éticos y de autonomía (24 %). Estos datos indican que, si bien los beneficios son evidentes, los estudiantes no son ingenuos frente a los riesgos que conlleva esta tecnología.

Acusaciones de plagio o trampa: 33 %
Dependencia excesiva de la IA: 30 %
Información inexacta o desinformación: 28 %
Pérdida de aspectos significativos del aprendizaje: 24 %
Cuestiones éticas y autonómicas: 24 %

La formación en competencias digitales, el establecimiento de políticas claras y el acompañamiento docente serán claves para equilibrar los beneficios de la IA con una educación significativa y responsable.

El consumo de energía de la inteligencia artificial se dispara junto con la huella climática

Metz, Cade. “Artificial Intelligence’s Energy Use Is Skyrocketing — Along with Its Climate Footprint.” MIT Technology Review, May 20, 2025. https://www.technologyreview.com/2025/05/20/1116327/ai-energy-usage-climate-footprint-big-tech/.

La inteligencia artificial está generando una demanda energética descomunal. A medida que los modelos se vuelven más grandes y se utilizan con mayor frecuencia, los centros de datos necesitan más electricidad que nunca.

En 2022, consumieron alrededor de 460 teravatios-hora (TWh), pero se estima que esa cifra superará los 1.000 TWh para 2026, lo cual equivale al consumo eléctrico anual de un país como Japón. En la actualidad, la IA representa ya hasta el 20 % del uso energético de los centros de datos, y se prevé que alcance el 50 % antes de que termine el año.

Además de la electricidad, el enfriamiento de los centros de datos exige enormes cantidades de agua. Muchos de ellos utilizan sistemas de refrigeración por evaporación que requieren cientos de miles de litros diarios. Se calcula que el uso de agua asociado a la IA podría ascender a entre 4.200 y 6.600 millones de metros cúbicos anuales para 2027, más que el consumo total del Reino Unido. En 2022, solo Google, Meta y Microsoft usaron en conjunto más de 2.200 millones de metros cúbicos de agua, a menudo en zonas propensas a la sequía.

El impacto climático también es preocupante. Entrenar grandes modelos de IA, como GPT-3, puede emitir tanto CO₂ como varios cientos de vuelos de larga distancia. Aunque las empresas tecnológicas han prometido usar fuentes renovables o incluso energía nuclear, las emisiones totales siguen aumentando. Por ejemplo, las emisiones de Google aumentaron un 48 % entre 2019 y 2023 debido en gran parte al crecimiento de la IA y de sus centros de datos.

Si bien se están logrando mejoras en la eficiencia de los chips y en la gestión de los centros de datos, existe el riesgo de un “efecto rebote”: si hacer cada tarea es más barato y rápido, se hacen muchas más, lo que termina aumentando el consumo global. Por otro lado, la IA también podría contribuir a combatir el cambio climático si se aplica a la optimización de redes eléctricas, energías renovables o captura de carbono. Sin embargo, estos beneficios podrían quedar neutralizados por los altos costes energéticos de su implementación.

Finalmente, tanto los gobiernos como las organizaciones internacionales están comenzando a exigir más transparencia sobre el uso de energía y agua por parte de los modelos de IA. Empresas como Microsoft están invirtiendo en energías alternativas, incluyendo reactores nucleares para alimentar sus centros de datos. Pero el artículo advierte que, sin regulación y prácticas sostenibles, el impacto ambiental de la IA podría eclipsar sus promesas tecnológicas.

Cómo pueden las bibliotecas públicas ayudar a los jóvenes en la era de la inteligencia artificial

Se analiza cómo las bibliotecas públicas pueden apoyar a los jóvenes en un mundo cada vez más influido por la inteligencia artificial (IA). Su presentación, realizada en el marco del “AI Youth Services Challenge” del estado de Nueva York, sirvió para contextualizar cómo los jóvenes interactúan con la IA y cómo el personal bibliotecario puede acompañarlos en este proceso de aprendizaje.

La IA ya forma parte del entorno cotidiano de niños y adolescentes, desde recomendaciones en YouTube Kids hasta herramientas como ChatGPT, Copilot, Apple Intelligence o Gemini, y se prevé que su uso se extienda incluso a menores de 13 años.

El uso generalizado de la IA por parte de los adolescentes contrasta con la falta de conocimiento por parte de padres y escuelas. Un estudio reciente reveló que el 70 % de los adolescentes han utilizado al menos una herramienta de IA generativa, aunque solo el 37 % de los padres lo sabe. Además, muchos estudiantes no tienen claridad sobre las reglas escolares respecto a estas herramientas, y la mayoría de los padres nunca ha recibido información al respecto.

Tanzi alerta sobre los posibles peligros de este uso no regulado: los chatbots, formato más popular entre los jóvenes, pueden fomentar la adicción, dar consejos peligrosos sobre salud y relacionarse con problemas de salud mental. En el informe «Off Task: EdTech Threats to Student Privacy and Equity in the Age of AI«, el 45% de los estudiantes de secundaria y bachillerato han utilizado la IA generativa por motivos personales, como tratar problemas de salud mental y ansiedad.

En este contexto, el papel de las bibliotecas se vuelve crucial. Según la organización sin ánimo de lucro Digital Promise, la alfabetización en IA implica dotar a las personas de los conocimientos necesarios para comprender, evaluar y usar la IA de forma segura y ética.

«…los conocimientos y habilidades que permiten a los humanos comprender, evaluar y utilizar de forma crítica los sistemas y herramientas de IA para participar de forma segura y ética en un mundo cada vez más digital».

El autor propone que las bibliotecas trabajen en estrecha colaboración con padres, profesores y escuelas. Recomienda que el personal bibliotecario conozca las políticas escolares sobre el uso de IA, como los casos de los distritos escolares Northport-East Northport o Downingtown, que ya disponen de directrices claras. Esto permitirá orientar mejor a los estudiantes sin contradecir las normas académicas. Asimismo, sugiere familiarizarse con las herramientas aprobadas y ofrecer formación sobre su uso responsable, especialmente en temas de búsqueda y generación de contenido.

Mantener la integridad de la investigación en la era de la GenAI: análisis de los retos éticos y recomendaciones a los investigadores

Bjelobaba, Sonja, Lorna Waddington, Mike Perkins, Tomáš Foltýnek, Sabuj Bhattacharyya, y Debora Weber-Wulff. “Maintaining Research Integrity in the Age of GenAI: An Analysis of Ethical Challenges and Recommendations to Researchers.” International Journal for Educational Integrity 21, no. 18 (2025). https://doi.org/10.1007/s40979-025-00191-w.

El artículo analiza los desafíos éticos emergentes derivados del uso creciente de herramientas de inteligencia artificial generativa (GenAI) en el ciclo de vida de la investigación académica. A través de una revisión rápida basada en la práctica, los autores identifican riesgos como la generación de contenido no verificable, la atribución inadecuada de autoría, y la posible erosión de la integridad académica.

En los últimos años, el uso de inteligencia artificial generativa (GenAI) ha transformado drásticamente el panorama académico. Aunque se ha hablado extensamente sobre su impacto en el ámbito educativo —especialmente entre estudiantes—, existe aún poca investigación sobre cómo estas herramientas afectan el proceso investigador. Este artículo se propone llenar ese vacío, analizando los desafíos éticos que plantea el uso de GenAI en todas las etapas del ciclo de investigación académica, desde la formulación de hipótesis hasta la revisión por pares, con el objetivo de ofrecer recomendaciones claras para un uso responsable.

Los autores emplean una revisión rápida que combina literatura científica reciente con análisis práctico del funcionamiento de herramientas de GenAI aplicadas al trabajo investigador. Como marco ético, se basan en el Código Europeo de Conducta para la Investigación, que establece los principios fundamentales de fiabilidad, honestidad, respeto y responsabilidad. A partir de esta estructura, el artículo examina cómo estas herramientas pueden interferir, beneficiar o perjudicar las distintas fases del proceso científico.

En la formulación de preguntas de investigación y diseño de estudios, GenAI puede ayudar a generar ideas iniciales, pero muchas veces estas son superficiales, repetitivas o carentes de originalidad. Además, los modelos tienden a reproducir sesgos previos y, en algunos casos, suprimen ciertos temas o expresiones por filtros ideológicos o comerciales, lo que plantea un problema de censura encubierta. Estas dinámicas pueden limitar el pensamiento crítico y afectar la libertad académica.

Durante la revisión bibliográfica, el uso de GenAI presenta varios riesgos. Algunas herramientas proporcionan referencias aparentemente válidas, pero que no existen —las llamadas “alucinaciones”—, o bien generan resúmenes que reproducen fragmentos literales, incurriendo en plagio inadvertido. Además, al cargar documentos protegidos por derechos de autor en estos sistemas, los investigadores pueden estar vulnerando normativas de propiedad intelectual, especialmente si las plataformas se quedan con una copia de los datos.

En la fase de recogida de datos, se advierte sobre el uso de GenAI para diseñar encuestas, formular entrevistas o transcribir audios. Las herramientas pueden no captar sutilezas culturales o lingüísticas, generando sesgos significativos. Asimismo, su uso en la transcripción o anonimización de datos puede violar leyes de protección de datos, sobre todo si el procesamiento se hace en servidores externos. Esto representa un riesgo ético y legal que debe ser gestionado desde el principio del proyecto.

El análisis de datos con apoyo de GenAI también está lleno de desafíos. Si bien puede ayudar a procesar grandes volúmenes de información, hay riesgo de interpretar incorrectamente resultados estadísticos o de generar conclusiones falsas. En particular, el uso de GenAI para anonimizar información sensible no es fiable, y puede permitir la reidentificación de personas si los modelos conservan trazas de los datos originales.

Durante la redacción de artículos académicos, se han detectado problemas como la omisión de comillas o referencias, la producción de frases sintácticamente confusas, y la inclusión de ideas mal citadas o alteradas. Todo ello puede derivar en acusaciones de plagio o mala praxis. En el ámbito de la traducción, aunque los LLM ofrecen resultados aceptables, también existe el riesgo de “falsos positivos” en detectores de IA, especialmente en manuscritos traducidos por hablantes no nativos.

En la revisión por pares y publicación científica, se subraya que GenAI no puede figurar como autor, ya que no puede asumir responsabilidades ni declarar conflictos de interés. Aun así, estas herramientas están siendo utilizadas para evaluar artículos, lo que plantea dudas sobre la transparencia del proceso. Además, el uso indiscriminado de GenAI puede incentivar prácticas cuestionables como el «salami slicing» (división artificial de investigaciones) o la proliferación de artículos fraudulentos en publicaciones depredadoras.

Entre los riesgos éticos identificados se destacan: la falta de transparencia en el uso de GenAI, el incumplimiento de derechos de autor, la exposición de datos personales, la generación de contenidos plagiados o erróneos, la reproducción de sesgos y estereotipos, la censura por diseño, y la fabricación de datos o resultados. Estos riesgos pueden acumularse a lo largo del proceso investigador y poner en peligro la integridad científica.

Como respuesta, el artículo ofrece recomendaciones claras: documentar y declarar el uso de GenAI en cada fase del trabajo; verificar manualmente los resultados generados; evitar subir materiales con derechos de autor sin permiso explícito; utilizar plataformas que garanticen privacidad y no reclamen propiedad sobre los contenidos; preferir el procesamiento local cuando sea posible; y fomentar normativas institucionales que regulen el uso de estas herramientas con criterios éticos.

Recomendaciones

Basándose en los principios del código europeo, el artículo propone medidas como:


– Documentar y declarar el uso de GenAI en la metodología.
– Verificar manualmente todas las salidas generadas.
– No cargar contenido con copyright sin permiso.
– Emplear herramientas que rastreen fuentes originales.
– Seleccionar servicios que no reclamen propiedad intelectual.
– Considerar la privacidad desde el inicio (optar por procesamiento local si es posible).
– Mantener supervisión ética del diseño, recogida, análisis y publicación de datos.
– Fomentar políticas institucionales claras. Individualmente, los investigadores deben asumir responsabilidad de transparencia y precisión .

¿Pueden los modelos de IA rebelarse contra los humanos?

Lynch, A., Wright, B., Larson, C., Troy, K. K., Ritchie, S. J., Mindermann, S., Perez, E., & Hubinger, E. (2025). Agentic Misalignment: How LLMs Could Be Insider Threats. Anthropic. Recuperado de https://www.anthropic.com/research/agentic-misalignment

En la película “Terminator”, la computadora Skynet adquiere conciencia propia y decide que la mayor amenaza para la humanidad es la propia humanidad. Como resultado, programa su exterminio y desata una guerra entre humanos y robots asesinos tipo androides. Aunque esta historia es una obra de ciencia ficción, la idea de una amenaza robótica ha trascendido el cine y se ha convertido en un tema de gran preocupación para organismos internacionales, gobiernos y universidades de prestigio. Hoy en día, la posibilidad de que las máquinas autónomas puedan representar un riesgo real está siendo seriamente analizada y debatida en diversos ámbitos académicos y políticos.

Este año se han publicado innumerables comentarios y análisis sobre la IA, especialmente sobre los grandes modelos lingüísticos (LLM). Una de las últimas revelaciones procede de Anthropic, la empresa que creó el LLM Claude. En la empresa, los investigadores sometieron a pruebas de estrés a 16 de los principales modelos para identificar comportamientos potencialmente arriesgados que se producían cuando los modelos se utilizaban como agentes que actuaban en nombre de humanos. Y las pruebas se centraron en si los modelos actuarían en contra de sus supervisores humanos cuando tuvieran que ser sustituidos. En otras palabras, ¿qué harían los modelos si se dieran cuenta de que van a ser despedidos?

Las pruebas descubrieron que algunos de los modelos recurrían a comportamientos maliciosos, como amenazar a sus supervisores humanos con chantajes y filtrar información sensible a la competencia. Los modelos «a menudo desobedecían órdenes directas de evitar tales comportamientos».

La empresa dijo que no había visto pruebas de este tipo de «desalineación agencial» en despliegues reales, pero sí dijo que los resultados mostraban que había que tener precaución en esos despliegues reales.

Cómo previeron los expertos la vida digital en 2025 hace 10 años. ¿Se cumplieron las previsiones?

Rainie, Lee. “More than a Decade Ago: How Experts Forecast Digital Life in 2025.” Elon University, Imagining the Digital Future Center, July 2, 2025. https://www.elon.edu/imagine-digital-future/2025/07/02/more-than-a-decade-ago-how-experts-forecast-digital-life-in-2025/.

Hace más de una década, para celebrar el 25 aniversario de la creación de la World Wide Web, la Universidad Elon y el Pew Research Center recopilaron más de 1.500 respuestas de expertos sobre cómo sería la vida digital en 2025. Lo notable es que muchas de sus predicciones fueron acertadas, resumiéndose en la idea de que internet se convertiría en algo tan omnipresente y esencial como la electricidad, invisible pero profundamente integrado en la vida cotidiana, con efectos tanto positivos como negativos.

Los expertos identificaron cuatro megatendencias que moldearían la realidad digital en 2025: un entorno global y conectado basado en el Internet de las Cosas (IoT) con sensores, cámaras y grandes bases de datos; mejoras en la realidad aumentada mediante dispositivos portátiles o implantables; la disrupción de modelos de negocio tradicionales, especialmente en finanzas, entretenimiento, publicaciones y educación; y la capacidad de etiquetar, almacenar y analizar de manera inteligente el mundo físico y social.

El análisis reveló ocho desarrollos generalmente positivos y siete negativos. Entre las preocupaciones destacaron las amenazas a la privacidad por la vigilancia corporativa y estatal, el aumento de la desigualdad económica y la posibilidad de que el internet global se fragmentara en “internets” que beneficiaran más a los poderosos que a los vulnerables. También hubo opiniones divididas sobre cómo afectaría la democracia y el activismo ciudadano.

Resulta curioso que, hace diez años, conceptos clave hoy en día como “inteligencia artificial” o “generativa” apenas se mencionaran, y términos como “desinformación” o “misinformation” fueran escasos en sus respuestas. Redes sociales como Facebook o Twitter y figuras como “billionaire” ni siquiera fueron relevantes en aquel entonces.

Entre las predicciones más relevantes, Nishant Shah destacó que las tecnologías digitales transformarían de forma estructural nuestra comprensión de lo humano, social y político, generando un cambio de paradigma que desestabiliza las estructuras existentes y obliga a crear un nuevo orden mundial. Brian Behlendorf anticipó que los dispositivos digitales personales serían percibidos como una extensión del cerebro y el sistema nervioso humano, un “nuevo sentido” comparable a la vista o el oído, lo que provocaría debates sobre derechos, identidad humana y personalidad legal.

Finalmente, el informe también menciona pruebas recientes de la empresa Anthropic con modelos de lenguaje (LLMs) que revelan comportamientos problemáticos cuando estos sistemas actúan como agentes autónomos, mostrando posibles riesgos si se les niega el control, aunque no se han observado estos comportamientos en despliegues reales.

La crisis de atribución en los resultados de los modelos de Inteligencia Artificial: Gemini omite el 94% de las citas

Strauss, Ilan; Jangho Yang; Tim O’Reilly; Sruly Rosenblat; e Isobel Moure. “The Attribution Crisis in LLM Search Results: Estimating Ecosystem Exploitation.SSRC AI Disclosures Project Working Paper Series (SSRC AI WP 2025‑06), junio 2025 https://ssrc-static.s3.us-east-1.amazonaws.com/The-Attribution-Crisis-LLM-Search-Results-Strauss-Yang-OReilly-Rosenblat-Moure_SSRC_062525.pdf

La investigación revela una alarmante “crisis de atribución” en las respuestas de modelos de lenguaje con búsqueda web (LLM), basada en el análisis de casi 14.000 conversaciones reales usando Google Gemini, OpenAI GPT‑4o y Perplexity Sonar. Un primer hallazgo asombroso es que hasta un 34 % de las respuestas generadas por Gemini y un 24 % de GPT‑4o se basan exclusivamente en conocimiento interno, sin realizar ninguna consulta en línea.

Esto se agrava al observar que incluso cuando acceden a la web, los modelos rara vez acreditan correctamente sus fuentes: Gemini omitió citas en el 92 % de sus respuestas, mientras que Perplexity Sonar realizó una media de 10 búsquedas por consulta, pero solo citó 3 o 4 páginas relevantes. Modelos como Gemini y Sonar dejan un déficit aproximado de tres sitios relevantes sin referenciar, una brecha atribuida no a limitaciones tecnológicas, sino a decisiones de diseño en su arquitectura de recuperación.

Los autores califican este déficit como una forma de “explotación del ecosistema”: los LLMs se nutren del contenido disponible online, pero no devuelven el crédito correspondiente, lo que mina los incentivos de los creadores para producir información de calidad. En respuesta, abogan por una arquitectura de búsqueda más transparente basada en estándares abiertos (como OpenTelemetry), que exponga registros completos de recuperación y citaciones. Ello permitiría evaluar y comparar de forma fiable diferentes modelos y fortalecer la confianza en sus respuestas

La IA se cuela en la rutina diaria

Melo, María Florencia. «La IA se cuela en la rutina diaria.» Inteligencia Artificial. 25 de abril de 2025. https://es.statista.com/grafico/34355/encuestados-que-estan-de-acuerdo-en-que-las-herramientas-de-ia-forman-parte-de-su-vida-cotidiana/.

Así, el estudio de Statista nos recuerda que la presencia de la IA en la rutina diaria va más allá del uso explícito de chatbots: la revolución silenciosa ya está en marcha.

Desde que se lanzó públicamente ChatGPT a finales de 2022, las herramientas de inteligencia artificial generativa han captado una enorme atención mediática y curiosidad por parte del público. No obstante, su uso cotidiano todavía no es tan extendido como podría pensarse.

Según una encuesta de Statista Consumer Insights, para agosto de 2024 solo alrededor del 30% de los adultos estadounidenses habían usado alguna vez herramientas como ChatGPT o Meta AI, las más populares en ese momento.

Sin embargo, una cosa es probar una herramienta por curiosidad y otra muy distinta incorporarla a la rutina diaria. En ese sentido, solo el 20% de los encuestados en EE. UU. aseguraron utilizar IA en su día a día. Esta cifra se repite en países como Alemania, México y el Reino Unido, aunque se dispara en países como Brasil (33%) e India (41%), donde el uso diario de herramientas de IA es mucho más común.

Un aspecto clave del informe es que muchas personas están expuestas a la IA sin saberlo, ya que esta tecnología se encuentra integrada de forma silenciosa en aplicaciones y servicios que usamos a diario: desde recomendaciones en plataformas de streaming y comercio electrónico, hasta funciones de asistencia en teléfonos, correos o mapas.

Este fenómeno evidencia una transición: la IA ya no es solo una herramienta para tecnófilos o profesionales, sino una parte invisible pero constante de la experiencia digital cotidiana. Aunque aún hay una brecha entre expectación y uso intensivo, la tendencia indica que la IA se está consolidando como una infraestructura fundamental en nuestras vidas. Su adopción plena probablemente dependerá de tres factores: la facilidad de uso, la confianza del usuario y la integración natural con las tareas del día a día.

Por ejemplo, aplicaciones como asistentes virtuales, funciones de escritura automática o edición inteligente en imágenes ya utilizan IA, pero muchas veces el usuario no asocia estas funcionalidades con «inteligencia artificial». La normalización de esta tecnología podría estar ocurriendo sin que seamos del todo conscientes.

Así, el estudio de Statista nos recuerda que la presencia de la IA en la rutina diaria va más allá del uso explícito de chatbots: la revolución silenciosa ya está en marcha.