Archivo de la etiqueta: Inteligencia artificial

El 83% de las personas prefieren herramientas de inteligencia artificial frente a motores de búsqueda tradicionales

Goodwin, Danny. «Google’s search market share drops below 90% for first time since 2015Search Engine Land, January 13, 2025

Ver original

Las búsquedas mediante inteligencia artificial están redefiniendo el panorama digital. Aunque aún hay obstáculos que superar —como la precisión de las respuestas y la necesidad de una mayor transparencia—, la tendencia apunta a que cada vez más personas usarán estas herramientas como complemento o sustituto de los buscadores tradicionales.

Una encuesta reciente publicada en Innovating with AI revela un cambio notable en el comportamiento de los usuarios: el 83 % afirma que prefiere utilizar herramientas de búsqueda basadas en inteligencia artificial (IA), como ChatGPT, Perplexity AI o Grok, en lugar de los motores de búsqueda tradicionales como Google. Esta tendencia se alinea con datos de StatCounter, que muestran una caída en la cuota de mercado de Google por debajo del 90 % en 2024, marcando su nivel más bajo desde 2015. La gente comienza a percibir que los motores clásicos no siempre ofrecen la experiencia más eficiente o relevante.

Las ventajas que los usuarios encuentran en las búsquedas impulsadas por IA incluyen la posibilidad de recibir respuestas directas, precisas y resumidas, sin tener que hacer clic en múltiples enlaces. La IA permite interactuar con el buscador mediante lenguaje natural, lo que facilita la comprensión y la personalización de las consultas. Además, estas herramientas reducen el “ruido SEO” —contenido optimizado artificialmente para posicionarse—, ofreciendo resultados que los usuarios perciben como más auténticos y útiles.

Sin embargo, la adopción de la búsqueda con IA no está exenta de desafíos. Uno de los más mencionados es el fenómeno de las «alucinaciones«: respuestas incorrectas o inventadas que algunas IA pueden generar. Modelos como GPT-4, si bien avanzados, todavía muestran fallos en la precisión de ciertos datos. Por ello, aunque la mayoría de usuarios prefieren este tipo de búsqueda, solo el 38 % afirma confiar plenamente en las respuestas generadas por IA. En consecuencia, muchas personas combinan ambas formas de búsqueda: utilizan IA para obtener una visión general rápida y motores tradicionales cuando buscan información muy específica o actualizada.

Expertos como Nick Reese, exdirector de tecnología del Departamento de Seguridad Nacional de EE.UU., señalan que la IA no reemplazará totalmente a la búsqueda tradicional, sino que convivirá con ella en un modelo híbrido. De hecho, Google ya ha comenzado a integrar resúmenes generados por IA en sus resultados, en un esfuerzo por no perder terreno ante estas nuevas herramientas. Las búsquedas con IA se utilizan especialmente para investigar un tema, redactar textos o entender conceptos complejos, mientras que Google sigue siendo dominante en áreas como noticias, productos o ubicaciones.

Inteligencia artificial y Lingüística con Fermín Domínguez Santana. Planeta Biblioteca 2025/07/08

Inteligencia artificial y Lingüística con Fermín Domínguez Santana.

Planeta Biblioteca 2025/07/08

ESCUCHAR

Descargar

En esta ocasión conversamos con Fermín Domínguez Santana, Profesor Ayudante Doctor en Lingüística General en la Universidad de La Laguna (ULL), miembro del Instituto Universitario de Lingüística Andrés Bello y del grupo de investigación AIGELE, especializado en la instrucción gramatical del español como lengua extranjera. Dialogamos sobre el impacto de la inteligencia artificial (IA) generativa en ámbitos como la lexicografía, la enseñanza de lenguas y la traducción. Fermín está realizando una estancia de investigación en el marco del proyecto PReLemma (Parámetros para recursos léxicos multilingües más accesibles), que dirigen Teresa Fuentes y Jesús Torres, de la Facultad de Traducción y Documentación.

También abordó el papel de la IA en el aprendizaje de idiomas, destacando su utilidad para resolver ambigüedades lingüísticas y fomentar una mayor autonomía y motivación del alumnado. También presentó su proyecto de innovación docente con la herramienta Sketch Engine, que permite a los estudiantes explorar corpus lingüísticos y comprender el funcionamiento real de la lengua en diferentes contextos. Analizó cómo las metodologías activas y las herramientas digitales están transformando la didáctica de las lenguas, y planteó cómo la colaboración entre lexicógrafos e IA puede enriquecer el registro de variedades dialectales.

Finalmente, compartió su visión sobre el futuro del campo, proponiendo que los lingüistas del mañana deben combinar el conocimiento teórico con habilidades tecnológicas y digitales. Entre sus intereses actuales se encuentra el impulso de nuevas líneas de investigación en lingüística aplicada, análisis del discurso y el desarrollo ético de herramientas de IA en el ámbito humanístico.

Uso responsable de la IA en contextos académicos: Integración de recursos múltiples con sentido ético

MoxieLearn. “Clarifying AI Use in Academia: How to Create Use Cases That Call upon the Strengths of Multiple AI Resources.MoxieLearn Blog, publicado hace aproximadamente 1 año. https://moxielearn.ai/blog/clarifying-ai-use-in-academia-how-to-create-use-cases-that-call-upon-the‑strengths‑of‑multiple‑ai‑resources

Se ofrece una guía completa para el uso eficaz de herramientas de inteligencia artificial en contextos académicos, especialmente en investigación y escritura. El autor enfatiza que, en lugar de depender de una sola herramienta, los investigadores deberían combinar múltiples modelos de IA, aprovechando las fortalezas específicas de cada uno para enriquecer sus proyectos.

En primer lugar, se propone una metodología estructurada por fases que incluye: (1) definir claramente los objetivos académicos, (2) mapear las capacidades de diferentes plataformas de IA (por ejemplo, GPT para redacción, BERT para análisis de texto, modelos especializados para revisión de datos), y (3) construir un flujo de trabajo integrado. Este sistema permite, por ejemplo, que mientras un modelo genere borradores de literatura, otro se encargue del análisis temático y un tercero optimice la calidad lingüística del texto.

Gran parte del trabajo como adoptantes tempranos de la inteligencia artificial en el ámbito académico se enfoca en aclarar cómo puede utilizarse esta tecnología de manera ética y responsable. Una y otra vez se insiste en la importancia de desarrollar tres dimensiones fundamentales de la alfabetización en IA: funcional, crítica y retórica. Estas dimensiones constituyen los pilares sobre los que se construyen los casos de uso efectivos de la IA. El marco conceptual de alfabetización en IA de Moxie se basa en el trabajo de Selber (2004), Multiliteracies for a Digital Age.

El autor también resalta la importancia de considerar aspectos como la transparencia en el uso de IA, la ética en la investigación y el control humano en la revisión final. Enfatiza que la IA debe ser vista como una colaboradora asistida que requiere supervisión, especialmente para evitar sesgos, errores factuales o problemas de integridad académica.

Así, el enfoque planteado fomenta un uso estratégico y complementario de múltiples herramientas de IA, potenciando áreas en las que cada modelo destaca —desde generación de ideas y revisión literaria hasta análisis de datos y corrección de estilo—, lo que redunda en procesos más eficientes y robustos.

Finalmente, el autor anima a la comunidad académica a documentar sus casos de uso, compartir experiencias y definir buenas prácticas para el uso interdisciplinario de IA, con el fin de crear una cultura colaborativa y reflexiva sobre cómo estas tecnologías pueden fortalecer la investigación científica de forma responsable.

La demanda de electricidad de los centros de datos por el auge de la inteligencia artificial (IA) se duplicará para 2030.

Melo, María Florencia. “La IA dispara el consumo energético global.Statista, 11 de abril de 2025. https://es.statista.com/grafico/34292/generacion-de-electricidad-para-abastecer-los-centros-de-datos-por-fuente-de-energia/.

Un informe reciente de la Agencia Internacional de la Energía (IEA) advierte que la demanda de electricidad de los centros de datos —especialmente por el auge de la inteligencia artificial (IA)— se duplicará para 2030. Se espera que casi la mitad de esta energía provenga de fuentes renovables como la solar, eólica e hidráulica, aunque el gas natural, el carbón y la energía nuclear seguirán teniendo un papel importante.

La revolución tecnológica liderada por la inteligencia artificial (IA) está generando transformaciones profundas en el ámbito energético. Según un informe publicado por la Agencia Internacional de la Energía (IEA) en abril de 2025, la demanda eléctrica de los centros de datos —infraestructuras esenciales para el funcionamiento de la IA, la computación en la nube, el almacenamiento de datos y los servicios digitales— se duplicará con creces en los próximos cinco años.

El aumento de la demanda no será uniforme a nivel global. En países como Estados Unidos, Japón o Malasia, se prevé que los centros de datos representen entre una quinta parte y más de la mitad del incremento total en el consumo eléctrico.

El gráfico de Statista muestra que a nivel global el consumo de electricidad de los centros de datos aumentará notablemente entre 2025 y 2035. China seguirá dependiendo del carbón más que Estados Unidos, que recurrirá más al gas natural y reducirá su uso de carbón. Ambos países aumentarán considerablemente su generación a partir de fuentes solares y eólicas.

El aumento en el uso de energía trae consigo una consecuencia directa: las emisiones de carbono. Actualmente, los centros de datos emiten unas 180 millones de toneladas de CO₂ indirectamente, lo que representa un 0,5 % de todas las emisiones globales relacionadas con la combustión. Esta cifra podría aumentar si no se adoptan medidas correctoras.

No obstante, la IEA subraya que la IA no es solo parte del problema, sino también parte de la solución. Si se aplica correctamente, puede contribuir a optimizar redes eléctricas, reducir el consumo en industrias clave y acelerar el desarrollo de tecnologías limpias como baterías de alta capacidad o sistemas solares más eficientes.

El 93% de los estudiantes usa herramientas de Inteligencia artificial

Kelly, Rhea. 2025. “Survey: Student AI Use on the Rise.” Campus Technology, 25 de junio de 2025. https://campustechnology.com/articles/2025/06/25/survey-student-ai-use-on-the-rise.aspx.

El estudio confirma que la inteligencia artificial se ha convertido en una herramienta habitual en la vida académica de muchos estudiantes. Aun así, su integración plantea desafíos importantes que deben abordarse desde las instituciones educativas, fomentando un uso crítico, ético y estratégico.

Un reciente estudio llevado a cabo por Microsoft en colaboración con PSB Insights revela que el uso de inteligencia artificial (IA) entre estudiantes estadounidenses está creciendo rápidamente. Según la encuesta, publicada por Campus Technology el 25 de junio de 2025, el 93 % de los estudiantes mayores de 16 años ha utilizado alguna vez herramientas de IA en sus estudios. Este dato indica una integración casi universal de estas tecnologías en la vida académica, una cifra que ha aumentado significativamente en comparación con el año anterior.

El informe también muestra un incremento notable en la frecuencia de uso. El 42 % de los encuestados afirma utilizar IA al menos semanalmente, mientras que un 30 % la emplea diariamente. Esto representa un aumento de 26 puntos porcentuales en el grupo que la usa con frecuencia y una disminución de 20 puntos entre quienes nunca la han utilizado, lo que evidencia una adopción acelerada y progresiva de la IA en entornos educativos.

Los fines para los que los estudiantes utilizan la IA son variados. La mayoría recurre a ella para generar ideas iniciales o ayudarles a comenzar tareas (37 %), para resumir información (33 %) o para obtener respuestas rápidas (33 %). Otros la emplean como herramienta de retroalimentación preliminar (32 %), como medio de aprendizaje personalizado (30 %) o para mejorar su escritura (28 %). Además, se valora su utilidad para crear materiales visuales, desarrollar habilidades para el futuro, completar tareas enteras o simplemente para liberar tiempo y cuidar del bienestar personal. Estas cifras muestran que los estudiantes no solo utilizan la IA como ayuda puntual, sino también como un recurso para el aprendizaje autónomo, la organización y la creatividad.

Lluvia de ideas y arranque de tareas: 37 %
Resúmenes de información: 33 %
Obtener respuestas rápidamente: 33 %
Retroalimentación inicial: 32 %
Aprendizaje personalizado: 30 %
Mejora de escritura: 28 %
Diseño visual para presentaciones: 25 %
Desarrollo de habilidades futuras: 22 %
Realización completa de tareas: 22 %
Fomento de la creatividad: 21 %
Liberar tiempo para aprendizaje o bienestar: 21 %
Apoyo al bienestar personal: 19 %

Sin embargo, el uso creciente de la IA también viene acompañado de preocupaciones. Un 33 % teme ser acusado de hacer trampa o plagio; un 30 % se preocupa por volverse demasiado dependiente de estas herramientas; y un 28 % teme recibir información inexacta o engañosa. También surgen inquietudes sobre la pérdida de oportunidades valiosas de aprendizaje (24 %) y sobre los posibles dilemas éticos y de autonomía (24 %). Estos datos indican que, si bien los beneficios son evidentes, los estudiantes no son ingenuos frente a los riesgos que conlleva esta tecnología.

Acusaciones de plagio o trampa: 33 %
Dependencia excesiva de la IA: 30 %
Información inexacta o desinformación: 28 %
Pérdida de aspectos significativos del aprendizaje: 24 %
Cuestiones éticas y autonómicas: 24 %

La formación en competencias digitales, el establecimiento de políticas claras y el acompañamiento docente serán claves para equilibrar los beneficios de la IA con una educación significativa y responsable.

El consumo de energía de la inteligencia artificial se dispara junto con la huella climática

Metz, Cade. “Artificial Intelligence’s Energy Use Is Skyrocketing — Along with Its Climate Footprint.” MIT Technology Review, May 20, 2025. https://www.technologyreview.com/2025/05/20/1116327/ai-energy-usage-climate-footprint-big-tech/.

La inteligencia artificial está generando una demanda energética descomunal. A medida que los modelos se vuelven más grandes y se utilizan con mayor frecuencia, los centros de datos necesitan más electricidad que nunca.

En 2022, consumieron alrededor de 460 teravatios-hora (TWh), pero se estima que esa cifra superará los 1.000 TWh para 2026, lo cual equivale al consumo eléctrico anual de un país como Japón. En la actualidad, la IA representa ya hasta el 20 % del uso energético de los centros de datos, y se prevé que alcance el 50 % antes de que termine el año.

Además de la electricidad, el enfriamiento de los centros de datos exige enormes cantidades de agua. Muchos de ellos utilizan sistemas de refrigeración por evaporación que requieren cientos de miles de litros diarios. Se calcula que el uso de agua asociado a la IA podría ascender a entre 4.200 y 6.600 millones de metros cúbicos anuales para 2027, más que el consumo total del Reino Unido. En 2022, solo Google, Meta y Microsoft usaron en conjunto más de 2.200 millones de metros cúbicos de agua, a menudo en zonas propensas a la sequía.

El impacto climático también es preocupante. Entrenar grandes modelos de IA, como GPT-3, puede emitir tanto CO₂ como varios cientos de vuelos de larga distancia. Aunque las empresas tecnológicas han prometido usar fuentes renovables o incluso energía nuclear, las emisiones totales siguen aumentando. Por ejemplo, las emisiones de Google aumentaron un 48 % entre 2019 y 2023 debido en gran parte al crecimiento de la IA y de sus centros de datos.

Si bien se están logrando mejoras en la eficiencia de los chips y en la gestión de los centros de datos, existe el riesgo de un “efecto rebote”: si hacer cada tarea es más barato y rápido, se hacen muchas más, lo que termina aumentando el consumo global. Por otro lado, la IA también podría contribuir a combatir el cambio climático si se aplica a la optimización de redes eléctricas, energías renovables o captura de carbono. Sin embargo, estos beneficios podrían quedar neutralizados por los altos costes energéticos de su implementación.

Finalmente, tanto los gobiernos como las organizaciones internacionales están comenzando a exigir más transparencia sobre el uso de energía y agua por parte de los modelos de IA. Empresas como Microsoft están invirtiendo en energías alternativas, incluyendo reactores nucleares para alimentar sus centros de datos. Pero el artículo advierte que, sin regulación y prácticas sostenibles, el impacto ambiental de la IA podría eclipsar sus promesas tecnológicas.

Cómo pueden las bibliotecas públicas ayudar a los jóvenes en la era de la inteligencia artificial

Se analiza cómo las bibliotecas públicas pueden apoyar a los jóvenes en un mundo cada vez más influido por la inteligencia artificial (IA). Su presentación, realizada en el marco del “AI Youth Services Challenge” del estado de Nueva York, sirvió para contextualizar cómo los jóvenes interactúan con la IA y cómo el personal bibliotecario puede acompañarlos en este proceso de aprendizaje.

La IA ya forma parte del entorno cotidiano de niños y adolescentes, desde recomendaciones en YouTube Kids hasta herramientas como ChatGPT, Copilot, Apple Intelligence o Gemini, y se prevé que su uso se extienda incluso a menores de 13 años.

El uso generalizado de la IA por parte de los adolescentes contrasta con la falta de conocimiento por parte de padres y escuelas. Un estudio reciente reveló que el 70 % de los adolescentes han utilizado al menos una herramienta de IA generativa, aunque solo el 37 % de los padres lo sabe. Además, muchos estudiantes no tienen claridad sobre las reglas escolares respecto a estas herramientas, y la mayoría de los padres nunca ha recibido información al respecto.

Tanzi alerta sobre los posibles peligros de este uso no regulado: los chatbots, formato más popular entre los jóvenes, pueden fomentar la adicción, dar consejos peligrosos sobre salud y relacionarse con problemas de salud mental. En el informe «Off Task: EdTech Threats to Student Privacy and Equity in the Age of AI«, el 45% de los estudiantes de secundaria y bachillerato han utilizado la IA generativa por motivos personales, como tratar problemas de salud mental y ansiedad.

En este contexto, el papel de las bibliotecas se vuelve crucial. Según la organización sin ánimo de lucro Digital Promise, la alfabetización en IA implica dotar a las personas de los conocimientos necesarios para comprender, evaluar y usar la IA de forma segura y ética.

«…los conocimientos y habilidades que permiten a los humanos comprender, evaluar y utilizar de forma crítica los sistemas y herramientas de IA para participar de forma segura y ética en un mundo cada vez más digital».

El autor propone que las bibliotecas trabajen en estrecha colaboración con padres, profesores y escuelas. Recomienda que el personal bibliotecario conozca las políticas escolares sobre el uso de IA, como los casos de los distritos escolares Northport-East Northport o Downingtown, que ya disponen de directrices claras. Esto permitirá orientar mejor a los estudiantes sin contradecir las normas académicas. Asimismo, sugiere familiarizarse con las herramientas aprobadas y ofrecer formación sobre su uso responsable, especialmente en temas de búsqueda y generación de contenido.

Un juez avala como ‘uso justo’ el entrenamiento de IA con millones de libros

MIT Technology Review. “AI Giants Win Big in the Copyright Fight. Here’s What Happens Now.” MIT Technology Review, July 1, 2025. https://www.technologyreview.com/2025/07/01/1119486/ai-copyright-meta-anthropic/

Un juez federal de Estados Unidos dictaminó que el uso de millones de libros por parte de Anthropic para entrenar su modelo Claude constituye «uso justo» (fair use), ya que se trató de un uso altamente transformativo. En un caso paralelo, un tribunal también falló a favor de Meta, al considerar que los autores no demostraron perjuicio económico suficiente por el entrenamiento de su modelo Llama

Estas decisiones judiciales proporcionan un respaldo legal significativo a grandes empresas tecnológicas —como Anthropic, Meta, Google, OpenAI y Microsoft— al determinar que pueden usar contenido accesible en línea para entrenar sus modelos sin tener que pagar a los creadores originales

No obstante, se advierte sobre límites importantes: en el caso de Anthropic, el juez Alsup señaló que conservar millones de libros pirateados en una “biblioteca central” no es uso justo, por lo que esa parte del litigio sigue en curso.

Este giro refuerza la doctrina del fair use en los EE.UU., estableciendo que el entrenamiento de IA puede estar protegido legalmente si no causa daño al mercado original. Sin embargo, los fallos se basan en detalles concretos de cada caso, y no suponen una carta blanca general. En especial, los tribunales dejaron abierta la posibilidad de futuras demandas si se demuestra el uso de material pirateado o un impacto negativo en los mercados creativos .

Como reacción, surgen iniciativas empresariales como el servicio «pay per crawl» de Cloudflare, diseñado para que los creadores de contenido puedan exigir compensación a las compañías de IA por acceder a sus sitios web. Además, algunos medios, como Microsoft, optan por formatos menos expuestos al scraping web, como la publicación impresa de su revista Signal

Finalmente decir que estos hitos legales representan una victoria para la industria de la IA, al legitimar el uso transformativo de contenido protegido, pero también mantienen vivo el debate sobre la compensación justa, la procedencia ética de los datos y la sostenibilidad del ecosistema creativo en línea.

Ver además: Re:Create sostiene que el entrenamiento de modelos de IA constituye un uso transformador y un posible uso justo

IA sin voluntad: riesgos reales en lugar de ficciones

Loukides, Mike. “Normal Technology at Scale.” O’Reilly Radar, June 10, 2025. https://www.oreilly.com/radar/normal-technology-at-scale/

El artículo parte de una crítica a las ideas de superinteligencia y AGI (inteligencia artificial general), conceptos que considera mal definidos y poco útiles. Según Loukides, la inteligencia artificial (IA) ya supera a los humanos en muchas tareas, pero carece de algo fundamental: la voluntad. Una IA no puede desear resolver un problema si no sabe que ese problema existe. Aunque en el mundo tecnológico parece que la adopción de la IA está despegando rápidamente, en sectores como la agricultura, la industria o la construcción, los cambios son mucho más lentos debido a la inversión necesaria y a la dificultad de pasar de un prototipo a un sistema en producción.

Se afirma que los verdaderos riesgos de la IA no están en los escenarios apocalípticos de la ciencia ficción, sino en daños reales como los sesgos, la mala calidad de los datos y la posibilidad de aplicar estos errores a gran escala. Por ejemplo, antes se rechazaban candidatos por discriminación caso por caso, pero ahora eso puede hacerse de forma masiva y automática. Del mismo modo, prácticas policiales como el perfilado racial pueden ampliarse a poblaciones enteras, con el respaldo injustificado de que «lo dijo una IA».

Loukides destaca que estos riesgos no se deben únicamente a la IA, sino a los efectos de la economía de escala. Pone como ejemplo el caso de Target, que en los años 2000 detectó que una adolescente estaba embarazada mediante análisis de sus compras y le envió publicidad para futuras madres, antes de que sus padres lo supieran. Esto no fue producto de la IA moderna, sino de la combinación de datos centralizados y algoritmos estadísticos. En décadas anteriores, esto no habría sido posible porque los datos estaban dispersos en pequeñas farmacias independientes, que han desaparecido con la consolidación de grandes cadenas. La tecnología no cambió tanto como lo hizo la economía: la concentración empresarial creó la posibilidad de analizar datos masivos.

Así, el autor introduce el concepto de la “ética de la escala”. El problema no es solo que la IA cometa errores, sino que amplifica su impacto. La IA permite inundar espacios creativos con contenido mediocre, silenciar voces disidentes, aplicar vigilancia masiva y reforzar dinámicas de poder injustas. Y esto no es solo un tema tecnológico, sino sistémico: ¿cómo diseñamos instituciones que funcionen a escala humana, que protejan la privacidad y promuevan la equidad?

El artículo concluye planteando si podemos usar la IA no para sustituirnos, sino para potenciar nuestra creatividad y construir mejores instituciones. Las máquinas pueden jugar ajedrez, pero no desean jugarlo. Pueden generar música, pero no disfrutarla. Entonces, ¿pueden ayudarnos a disfrutar, a crear, a imaginar? ¿Podemos diseñar sistemas que hagan eso posible?

Finalmente, Loukides cita a Michael Lopp (alias @Rands), quien afirma que estamos «condenados» no por la IA en sí, sino por el uso que hacen de ella personas con poder y malas intenciones. Sin embargo, también cree que estamos “bendecidos” por vivir en una época donde las herramientas pueden servir para fortalecer a los creativos. La clave está en mantener la curiosidad, cuestionar las estructuras y actuar como humanos. Para ello, debemos abandonar la idea de que la IA es un monstruo fuera de control y recordar que detrás de cada tecnología hay decisiones humanas. Solo así podremos evitar los peores escenarios y aprovechar lo mejor que la IA tiene para ofrecernos.

Mantener la integridad de la investigación en la era de la GenAI: análisis de los retos éticos y recomendaciones a los investigadores

Bjelobaba, Sonja, Lorna Waddington, Mike Perkins, Tomáš Foltýnek, Sabuj Bhattacharyya, y Debora Weber-Wulff. “Maintaining Research Integrity in the Age of GenAI: An Analysis of Ethical Challenges and Recommendations to Researchers.” International Journal for Educational Integrity 21, no. 18 (2025). https://doi.org/10.1007/s40979-025-00191-w.

El artículo analiza los desafíos éticos emergentes derivados del uso creciente de herramientas de inteligencia artificial generativa (GenAI) en el ciclo de vida de la investigación académica. A través de una revisión rápida basada en la práctica, los autores identifican riesgos como la generación de contenido no verificable, la atribución inadecuada de autoría, y la posible erosión de la integridad académica.

En los últimos años, el uso de inteligencia artificial generativa (GenAI) ha transformado drásticamente el panorama académico. Aunque se ha hablado extensamente sobre su impacto en el ámbito educativo —especialmente entre estudiantes—, existe aún poca investigación sobre cómo estas herramientas afectan el proceso investigador. Este artículo se propone llenar ese vacío, analizando los desafíos éticos que plantea el uso de GenAI en todas las etapas del ciclo de investigación académica, desde la formulación de hipótesis hasta la revisión por pares, con el objetivo de ofrecer recomendaciones claras para un uso responsable.

Los autores emplean una revisión rápida que combina literatura científica reciente con análisis práctico del funcionamiento de herramientas de GenAI aplicadas al trabajo investigador. Como marco ético, se basan en el Código Europeo de Conducta para la Investigación, que establece los principios fundamentales de fiabilidad, honestidad, respeto y responsabilidad. A partir de esta estructura, el artículo examina cómo estas herramientas pueden interferir, beneficiar o perjudicar las distintas fases del proceso científico.

En la formulación de preguntas de investigación y diseño de estudios, GenAI puede ayudar a generar ideas iniciales, pero muchas veces estas son superficiales, repetitivas o carentes de originalidad. Además, los modelos tienden a reproducir sesgos previos y, en algunos casos, suprimen ciertos temas o expresiones por filtros ideológicos o comerciales, lo que plantea un problema de censura encubierta. Estas dinámicas pueden limitar el pensamiento crítico y afectar la libertad académica.

Durante la revisión bibliográfica, el uso de GenAI presenta varios riesgos. Algunas herramientas proporcionan referencias aparentemente válidas, pero que no existen —las llamadas “alucinaciones”—, o bien generan resúmenes que reproducen fragmentos literales, incurriendo en plagio inadvertido. Además, al cargar documentos protegidos por derechos de autor en estos sistemas, los investigadores pueden estar vulnerando normativas de propiedad intelectual, especialmente si las plataformas se quedan con una copia de los datos.

En la fase de recogida de datos, se advierte sobre el uso de GenAI para diseñar encuestas, formular entrevistas o transcribir audios. Las herramientas pueden no captar sutilezas culturales o lingüísticas, generando sesgos significativos. Asimismo, su uso en la transcripción o anonimización de datos puede violar leyes de protección de datos, sobre todo si el procesamiento se hace en servidores externos. Esto representa un riesgo ético y legal que debe ser gestionado desde el principio del proyecto.

El análisis de datos con apoyo de GenAI también está lleno de desafíos. Si bien puede ayudar a procesar grandes volúmenes de información, hay riesgo de interpretar incorrectamente resultados estadísticos o de generar conclusiones falsas. En particular, el uso de GenAI para anonimizar información sensible no es fiable, y puede permitir la reidentificación de personas si los modelos conservan trazas de los datos originales.

Durante la redacción de artículos académicos, se han detectado problemas como la omisión de comillas o referencias, la producción de frases sintácticamente confusas, y la inclusión de ideas mal citadas o alteradas. Todo ello puede derivar en acusaciones de plagio o mala praxis. En el ámbito de la traducción, aunque los LLM ofrecen resultados aceptables, también existe el riesgo de “falsos positivos” en detectores de IA, especialmente en manuscritos traducidos por hablantes no nativos.

En la revisión por pares y publicación científica, se subraya que GenAI no puede figurar como autor, ya que no puede asumir responsabilidades ni declarar conflictos de interés. Aun así, estas herramientas están siendo utilizadas para evaluar artículos, lo que plantea dudas sobre la transparencia del proceso. Además, el uso indiscriminado de GenAI puede incentivar prácticas cuestionables como el «salami slicing» (división artificial de investigaciones) o la proliferación de artículos fraudulentos en publicaciones depredadoras.

Entre los riesgos éticos identificados se destacan: la falta de transparencia en el uso de GenAI, el incumplimiento de derechos de autor, la exposición de datos personales, la generación de contenidos plagiados o erróneos, la reproducción de sesgos y estereotipos, la censura por diseño, y la fabricación de datos o resultados. Estos riesgos pueden acumularse a lo largo del proceso investigador y poner en peligro la integridad científica.

Como respuesta, el artículo ofrece recomendaciones claras: documentar y declarar el uso de GenAI en cada fase del trabajo; verificar manualmente los resultados generados; evitar subir materiales con derechos de autor sin permiso explícito; utilizar plataformas que garanticen privacidad y no reclamen propiedad sobre los contenidos; preferir el procesamiento local cuando sea posible; y fomentar normativas institucionales que regulen el uso de estas herramientas con criterios éticos.

Recomendaciones

Basándose en los principios del código europeo, el artículo propone medidas como:


– Documentar y declarar el uso de GenAI en la metodología.
– Verificar manualmente todas las salidas generadas.
– No cargar contenido con copyright sin permiso.
– Emplear herramientas que rastreen fuentes originales.
– Seleccionar servicios que no reclamen propiedad intelectual.
– Considerar la privacidad desde el inicio (optar por procesamiento local si es posible).
– Mantener supervisión ética del diseño, recogida, análisis y publicación de datos.
– Fomentar políticas institucionales claras. Individualmente, los investigadores deben asumir responsabilidad de transparencia y precisión .