Archivo de la etiqueta: Inteligencia artificial

GAIDeT: una herramienta práctica para declarar el uso de la IA en la investigación y la publicación.

GAIDeT Declaration Generator

GAIDeT, es una herramienta práctica para declarar de forma clara y estandarizada el uso de IA generativa en la investigación y la publicación académica. Su propuesta combina fases del proceso de investigación con roles de la IA, apoyada por una herramienta en línea que genera declaraciones automáticas. El objetivo es fomentar transparencia, responsabilidad y confianza en la comunicación científica.

La creciente presencia de herramientas de inteligencia artificial generativa (IA generativa) en la investigación académica y plantea una necesidad crítica: mejorar la transparencia en la forma en que los investigadores divulgan el uso de estas herramientas, ya que muchas declaraciones existentes son vagas o directamente inexistentes, lo que perjudica la reproducibilidad y comprensión del proceso científico.

Para resolver esto, los autores proponen el marco GAIDeT (Generative Artificial Intelligence Delegation Taxonomy), un sistema inspirado en taxonomías como CRediT o NIST, pero adaptado específicamente para describir cómo, dónde y en qué tareas se ha delegado trabajo a herramientas de IA en el flujo de investigación. Este sistema articula dos dimensiones clave: por un lado, la etapa del proceso de investigación (por ejemplo: generación de ideas, búsqueda bibliográfica, redacción, análisis de datos); por otro, el rol específico desempeñado por la IA (como síntesis de texto, traducción, análisis de sesgos), siempre dejando claro que el control y la responsabilidad final recaen en el investigador humano.

Para facilitar su implantación, se creó una herramienta en línea llamada GAIDeT Declaration Generator . Esta herramienta guía al usuario mediante preguntas simples sobre cómo utilizó la IA, qué herramienta utilizó y en qué fase del trabajo, generando automáticamente una declaración estandarizada que puede insertarse directamente en un manuscrito —realizando así la tarea sin cargas administrativas adicionales para los autores

La adopción de GAIDeT aporta beneficios tangibles para distintos actores académicos:

  • Autores: les proporciona una forma estándar de demostrar uso responsable y transparente de la IA, reforzando la credibilidad de su trabajo.
  • Editores: simplifica la evaluación de si la IA se usó como una herramienta legítima o si se delegó indebidamente trabajo académico.
  • Revisores: les ofrece contexto adicional para valorar decisiones metodológicas y definir el alcance real de la participación de IA.
  • Moderadores de repositorios: les ayuda a proteger la integridad de los archivos, aclarando el nivel de asistencia de IA en los documentos depositados.
  • Lectores: facilita interpretar los resultados del estudio con precisión, comprendiendo en qué medida fueron asistidos por IA

Su objetivo es que las declaraciones de uso de IA sean una parte natural del proceso académico, tan comunes como los conflictos de interés o las fuentes de financiación, devolviendo claridad y confianza a la ciencia en tiempos de innovación acelerada

Consensus: motor de búsqueda impulsado por inteligencia artificial (IA) para facilitar la investigación científica y académica con fuentes confiables

Consensus

https://consensus.app/

Consensus es un motor de búsqueda impulsado por inteligencia artificial (IA) diseñado para facilitar la investigación científica y académica. A diferencia de los motores de búsqueda tradicionales, Consensus permite a los usuarios realizar preguntas en lenguaje natural y obtener respuestas basadas en evidencia extraídas de más de 200 millones de artículos científicos revisados por pares. La plataforma utiliza modelos de lenguaje avanzados para analizar y sintetizar la información relevante, proporcionando resúmenes claros y concisos con citas directas a las fuentes originales.

Cuando un usuario formula una pregunta, Consensus realiza una búsqueda en su base de datos de artículos científicos y utiliza algoritmos de IA para generar una respuesta que resume los hallazgos más relevantes. Cada respuesta incluye citas numeradas que corresponden a los artículos de donde se extrajo la información, permitiendo a los usuarios verificar y profundizar en las fuentes originales .

Consensus es especialmente útil para investigadores, estudiantes y profesionales que buscan acceder rápidamente a información científica confiable. Es ideal para:

  • Realizar revisiones de literatura
  • Obtener resúmenes de estudios científicos.
  • Identificar tendencias y consensos en la investigación.
  • Generar contenido académico respaldado por evidencia.

Los detectores de escritura con IA marcan erróneamente el 60 % de textos de hablantes no nativos como escritos por IA

Myers, Andrew. «AI-Detectors Biased Against Non-Native English WritersStanford Institute for Human-Centered Artificial Intelligence, 15 de mayo de 2023. https://hai.stanford.edu/news/ai-detectors-biased-against-non-native-english-writers.

Los detectores de escritura con IA funcionan mejor con hablantes nativos de inglés. Los ensayos de estudiantes nacidos en EE. UU. fueron evaluados con alta precisión, mientras que los textos de hablantes no nativos fueron clasificados erróneamente como generados por IA en más del 60 % de los casos.

Un estudio de la Universidad de Stanford revela que los detectores de contenido generado por inteligencia artificial (IA) presentan sesgos significativos contra los escritores no nativos de inglés. Estos sistemas, diseñados para identificar textos producidos por IA, muestran una precisión notablemente baja al evaluar ensayos escritos por estudiantes cuya lengua materna no es el inglés.

La investigación, dirigida por el profesor James Zou, encontró que mientras los detectores alcanzaban una precisión casi perfecta al evaluar ensayos de estudiantes nacidos en EE. UU., clasificaron erróneamente más del 61% de los ensayos del TOEFL (Test of English as a Foreign Language) como generados por IA. Además, todos los detectores identificaron como IA 18 de los 91 ensayos evaluados (19%), y al menos uno de ellos marcó 89 de los 91 ensayos (97%) como potencialmente generados por IA.

Este sesgo se atribuye al uso de métricas como la «perplejidad», que mide la complejidad lingüística. Los escritores no nativos suelen obtener puntuaciones más bajas en aspectos como riqueza léxica, diversidad léxica, complejidad sintáctica y gramatical, lo que los hace más susceptibles a ser identificados erróneamente como generadores de IA. Además, los sistemas actuales son fácilmente manipulables mediante técnicas como la «ingeniería de indicaciones», donde se solicita a una IA generativa que reescriba un texto utilizando un lenguaje más sofisticado, lo que puede engañar a los detectores.

Los autores del estudio advierten sobre los riesgos éticos de utilizar estos detectores sin una evaluación rigurosa, ya que podrían llevar a acusaciones injustas o sanciones para estudiantes y trabajadores extranjeros. Proponen evitar su uso en entornos educativos con alta presencia de hablantes no nativos de inglés y sugieren el desarrollo de métodos más sofisticados, como la incorporación de marcas de agua digitales en los textos generados por IA, para mejorar la fiabilidad de los sistemas de detección.

Fiabilidad de los detectores de escritura con IA

La fiabilidad de los detectores de texto generado por inteligencia artificial (IA) es un tema de creciente preocupación y debate en diversos ámbitos, como la educación, el periodismo y la investigación académica. Aunque existen herramientas comerciales que afirman altos niveles de precisión, diversos estudios han evidenciado limitaciones significativas en su desempeño.

Investigaciones han revelado que muchos detectores de IA presentan tasas de precisión inferiores al 80%. Por ejemplo, un estudio realizado por Weber-Wulff y colaboradores en 2023 evaluó 14 herramientas de detección, incluyendo Turnitin y GPTZero, y encontró que «todos puntuaron por debajo del 80% de precisión, y solo 5 superaron el 70%» . Además, estas herramientas tienden a clasificar los textos más como humanos que como generados por IA, y su precisión disminuye al parafrasear el contenido.

Un estudio adicional de la Universidad de Maryland destacó que los detectores actuales no son fiables en escenarios prácticos, con un rendimiento apenas superior al de un clasificador aleatorio. Además, técnicas de parafraseo pueden reducir significativamente la tasa de detección.

El uso de detectores de IA también ha suscitado preocupaciones éticas. Investigaciones han demostrado que estos sistemas tienden a clasificar erróneamente los textos de personas no nativas en inglés como generados por IA. Por ejemplo, un estudio reveló que los ensayos de escritores no nativos fueron clasificados como generados por IA en un 61,3% de los casos, en comparación con solo el 10% de los ensayos de escritores nativos.

Además, se ha observado que los detectores de IA pueden tener dificultades para identificar contenido generado por modelos avanzados como GPT-4, lo que plantea desafíos adicionales para su aplicación en contextos académicos y profesionales.

Dado el panorama actual, se recomienda utilizar los detectores de IA como herramientas complementarias y no como métodos definitivos para evaluar la autoría de un texto. Es esencial considerar el contexto y aplicar un juicio humano informado al interpretar los resultados de estas herramientas. Además, se destaca la importancia de desarrollar tecnologías de detección más avanzadas y éticamente responsables para abordar los desafíos emergentes en la identificación de contenido generado por IA.

Los medios de comunicación ante la desinformación: inteligencia artificial, discursos de odio, teorías de la conspiración y verificación

Teruel Rodríguez, Laura, María Livia García Faroldi y José Alberto España Pérez, eds. Los medios de comunicación ante la desinformación: inteligencia artificial, discursos de odio, teorías de la conspiración y verificación. Valencia: Tirant lo Blanch, 2025 https://open.tirant.com/cloudLibrary/ebook/info/9788411839358

Esta obra colectiva reúne a expertos en comunicación, periodismo, derecho y tecnología para analizar cómo los medios de comunicación enfrentan los desafíos impuestos por la desinformación en la era digital.

El volumen se estructura en varios capítulos que abordan temas como el impacto de la inteligencia artificial en la creación y difusión de contenidos, la proliferación de discursos de odio y teorías de la conspiración en plataformas digitales, y las estrategias de verificación empleadas por los medios para garantizar la veracidad de la información. Cada capítulo ofrece una perspectiva crítica y multidisciplinar, destacando tanto los riesgos como las oportunidades que presentan estas problemáticas para el ejercicio del periodismo y la democracia.

Además de los análisis teóricos, el libro incluye estudios de caso que ilustran cómo los medios de comunicación han respondido a situaciones concretas de desinformación, proporcionando ejemplos prácticos y lecciones aprendidas. Se presta especial atención a la formación de los profesionales de la comunicación en habilidades digitales y éticas, así como al papel de las instituciones y la legislación en la regulación de la información en línea.

Esta obra está dirigida a estudiantes, investigadores y profesionales interesados en comprender los retos actuales de la comunicación en el contexto digital y en desarrollar estrategias efectivas para combatir la desinformación. Ofrece una visión amplia y actualizada de los desafíos y oportunidades que presentan estas problemáticas en el ámbito mediático.

Inteligencia artificial y nuevas tecnologías en las ciencias sociales y en las humanidades

Inteligencia artificial y nuevas tecnologías en las ciencias sociales y en las humanidades, coordinado por Ana Cristina del Paso Gallego, Luis Gabriel Martínez Montenegro y Marcos Sánchez-Elez Martín, es una obra colectiva publicada por Tirant lo Blanch en 2025

Texto completo

Este volumen reúne catorce capítulos escritos por cuarenta expertos que analizan cómo la inteligencia artificial (IA) y las nuevas tecnologías están transformando la investigación, la docencia y la práctica profesional en diversas disciplinas de las ciencias sociales y las humanidades. Los temas abordados incluyen el impacto de la IA en áreas como la economía, la comunicación, la educación, el trabajo social, la filología, la psicología, el derecho, el periodismo, la ciberseguridad y la ética. Cada capítulo ofrece una perspectiva crítica y multidisciplinar, destacando tanto los beneficios como los riesgos asociados al uso de estas tecnologías.

Además de los capítulos principales, el libro presenta comunicaciones seleccionadas de un congreso celebrado en la Universidad Complutense de Madrid en abril de 2024, que aportan casos prácticos y reflexiones adicionales sobre la aplicación de la IA en contextos reales.

Esta obra está dirigida a estudiantes, investigadores y profesionales interesados en comprender cómo la IA y las nuevas tecnologías están moldeando el futuro de las ciencias sociales y las humanidades. Ofrece una visión amplia y actualizada de los desafíos y oportunidades que presentan estas herramientas en el ámbito académico y profesional.

La IA está haciendo que leer libros parezca obsoleto y los estudiantes tienen mucho que perder

Baron, Naomi S. – “AI Is Making Reading Books Feel Obsolete – and Students Have a Lot to Lose.The Conversation, August 14, 2023. https://theconversation.com/ai-is-making-reading-books-feel-obsolete-and-students-have-a-lot-to-lose-262680

El artículo aborda cómo la inteligencia artificial está cambiando la forma en que los estudiantes interactúan con la lectura y el aprendizaje.

«Se está gestando una tormenta perfecta para la lectura. La inteligencia artificial (IA) ha llegado en un momento en el que tanto los niños como los adultos ya dedicaban menos tiempo a leer libros que en un pasado no muy lejano. Como lingüista, estudio cómo la tecnología influye en la forma en que las personas leen, escriben y piensan. Esto incluye el impacto de la IA, que está cambiando drásticamente la forma en que las personas se relacionan con los libros u otros tipos de escritos, ya sea por obligación, para investigar o por placer. Me preocupa que la IA esté acelerando un cambio continuo en el valor que las personas otorgan a la lectura como actividad humana».

Naomi S. Barón

La autora, profesora y experta en educación, señala que las herramientas de IA, como los resúmenes automáticos y los asistentes de escritura, están reduciendo la necesidad de leer libros completos. Esto puede llevar a una comprensión superficial de los contenidos y a una pérdida de habilidades críticas como el análisis profundo y la reflexión personal.

Además, se destaca que la dependencia de la IA para tareas académicas puede disminuir la capacidad de los estudiantes para desarrollar habilidades cognitivas esenciales, como la concentración sostenida y el pensamiento crítico. La autora advierte que esta tendencia podría tener consecuencias a largo plazo en la formación intelectual de las nuevas generaciones.

Por último, se sugiere que, aunque la IA puede ser una herramienta útil, no debe reemplazar la experiencia de lectura profunda y reflexiva que los libros ofrecen. Se hace un llamado a equilibrar el uso de la tecnología con métodos tradicionales de aprendizaje para preservar el desarrollo cognitivo integral de los estudiantes.

Este análisis invita a reflexionar sobre cómo la tecnología está transformando la educación y la importancia de mantener prácticas que fomenten el pensamiento crítico y la comprensión profunda.

Impacto del uso de la inteligencia artificial en el desarrollo cognitivo y emocional de niños y adolescentes

Masur, C. “Is AI Taking Over Your Kid’s Brain?Psychology Today, junio 12, 2025. https://www.psychologytoday.com/us/blog/parenting-matters/202506/is-ai-taking-over-your-kids-brain

Se analiza cómo el uso creciente de herramientas de inteligencia artificial (IA) por parte de niños y adolescentes —para tareas escolares, la redacción de ensayos y exámenes, o incluso para resolver conflictos interpersonales— puede tener efectos negativos en su desarrollo cognitivo y emocional

Se presenta un estudio del Pew Research Center que muestra que un 26 % de los adolescentes usan IA para tareas escolares, cifra que sube al 31 % entre adolescentes negros e hispanos, y entre estudiantes de 11.º y 12.º grado. Además, el 54 % considera aceptable usar ChatGPT para investigar y 29 % para resolver problemas matemáticos. Entre quienes conocen la plataforma, 79 % lo ve como herramienta válida para la investigación.

En el ámbito universitario, el uso de IA es aún más común, con un 86 % de estudiantes utilizándola para escribir, investigar y completar tareas de manera recurrente. Se desglosa cómo emplean estas herramientas: 69 % para buscar información, 42 % para corregir gramática, 33 % para resumir documentos, 28 % para parafrasear, y 24 % para redactar borradores iniciales.

Se expresa una preocupación central: al delegar tareas intelectuales en la IA, los jóvenes podrían ver afectadas capacidades esenciales como el razonamiento lógico, la construcción de argumentos convincente y la expresión precisa de ideas; habilidades que se desarrollan procesando ideas por cuenta propia.

Por todo ello, se plantean preguntas éticas y educativas: ¿Estamos sacrificando el pensamiento crítico y la autonomía intelectual al permitir una dependencia creciente de la IA? ¿O estamos simplemente adaptándonos a una tendencia inevitable, considerando que muchas profesiones ya integran estas herramientas en su práctica diaria —como la medicina o el derecho—?

Las habilidades del bibliotecario y las necesidades de la inteligencia artificial

Harper, Corey A., y Paul Groth. 2025. “The Librarian Skillset and the Needs of Artificial Intelligence.” Cataloging & Classification Quarterly. https://doi.org/10.1080/01639374.2025.2539787

En un contexto donde nuevos roles emergen en la industria, la academia y el gobierno —como los de gestión responsable de IA, ingeniería de sistemas de IA, entre otros— existe una sorprendente alineación entre lo que históricamente ha sido la formación bibliotecaria y lo que demanda el ecosistema tecnológico actual.

El artículo destaca que competencias centrales del bibliotecariado —como la organización de la información, la elaboración de documentación, la evaluación del impacto social y el trabajo colaborativo con comunidades de usuarios y desarrolladores— son altamente relevantes en el entorno de desarrollo de IA. Estas capacidades permiten, entre otras cosas, que los sistemas de IA sean más transparentes, éticos y contextualizados.

A fin de hacer tangible esta correspondencia, los autores realizan un mapeo estructurado entre las competencias definidas por la American Library Association (ALA) y los planes de estudio de Biblioteconomía e Información y las competencias requeridas por los roles emergentes en IA. Este ejercicio identificó cinco áreas clave de alineación: (1) IA responsable, (2) justicia social, (3) ingeniería de datos, (4) evaluación, y (5) trabajo con comunidades.

Finalmente, el artículo subraya que el perfil bibliotecario —tradicionalmente vinculado a la gestión del conocimiento, la ética y el acceso equitativo a la información— tiene un potencial significativo para influir en el desarrollo y la supervisión de sistemas de IA. En particular, aporta una perspectiva orientada a la equidad, la transparencia y la inclusión, que resulta fundamental en la gobernanza de tecnologías emergentes.

Google revela el costo ambiental de Gemini: menos energía por consulta, pero más emisiones globales

Crownhart, Casey. 2025.In a First, Google Has Released Data on How Much Energy an AI Prompt Uses.” MIT Technology Review, August 21, 2025. https://www.technologyreview.com/2025/08/21/1122288/google-gemini-ai-energy

Google ha publicado un informe técnico detallado sobre la huella ambiental de su modelo de IA Gemini, destacando métricas clave como energía, emisiones de carbono y consumo de agua por cada consulta de texto, algo poco común entre empresas del sector

Según este estudio, la consulta mediana de texto en Gemini utiliza aproximadamente 0,24 vatios-hora, una cifra equivalente a ver la televisión durante menos de nueve segundos. Además, la emisión de carbono por consulta es de 0,03 gramos de CO₂ equivalente, y el consumo de agua asciende a 0,26 ml, es decir, alrededor de cinco gotas.

Estos avances reflejan una mejora notable en eficiencia: en el último año, el consumo energético por consulta cayó 33 veces, mientras que la huella de carbono disminuyó 44 veces, todo esto mientras mejoraba la calidad de las respuestas de Gemini

Google atribuye estos logros a una estrategia integral que abarca desde el diseño de hardware y algoritmos más eficientes hasta mejoras en modelos y centro de datos alimentados por energías limpias .

No obstante, expertos han planteado críticas sobre el enfoque de Google, señalando que sus estimaciones podrían ser engañosas, ya que omiten impactos indirectos como el uso de agua adicional y una contabilización optimista de las emisiones de carbono (basada en el mercado).

Aun así, a pesar de la aparente eficiencia por consulta, el consumo total de energía y agua sigue siendo relevante, especialmente considerando la escala global del uso de IA

Finalmente, aunque la empresa ha avanzado en eficiencia y transparencia, su huella global de emisiones ha aumentado —un 51 % desde 2019— principalmente por la creciente demanda energética derivada del uso de IA y el crecimiento de sus centros de datos