Archivo de la etiqueta: Inteligencia artificial

Impacto del uso de la inteligencia artificial en el desarrollo cognitivo y emocional de niños y adolescentes

Masur, C. “Is AI Taking Over Your Kid’s Brain?Psychology Today, junio 12, 2025. https://www.psychologytoday.com/us/blog/parenting-matters/202506/is-ai-taking-over-your-kids-brain

Se analiza cómo el uso creciente de herramientas de inteligencia artificial (IA) por parte de niños y adolescentes —para tareas escolares, la redacción de ensayos y exámenes, o incluso para resolver conflictos interpersonales— puede tener efectos negativos en su desarrollo cognitivo y emocional

Se presenta un estudio del Pew Research Center que muestra que un 26 % de los adolescentes usan IA para tareas escolares, cifra que sube al 31 % entre adolescentes negros e hispanos, y entre estudiantes de 11.º y 12.º grado. Además, el 54 % considera aceptable usar ChatGPT para investigar y 29 % para resolver problemas matemáticos. Entre quienes conocen la plataforma, 79 % lo ve como herramienta válida para la investigación.

En el ámbito universitario, el uso de IA es aún más común, con un 86 % de estudiantes utilizándola para escribir, investigar y completar tareas de manera recurrente. Se desglosa cómo emplean estas herramientas: 69 % para buscar información, 42 % para corregir gramática, 33 % para resumir documentos, 28 % para parafrasear, y 24 % para redactar borradores iniciales.

Se expresa una preocupación central: al delegar tareas intelectuales en la IA, los jóvenes podrían ver afectadas capacidades esenciales como el razonamiento lógico, la construcción de argumentos convincente y la expresión precisa de ideas; habilidades que se desarrollan procesando ideas por cuenta propia.

Por todo ello, se plantean preguntas éticas y educativas: ¿Estamos sacrificando el pensamiento crítico y la autonomía intelectual al permitir una dependencia creciente de la IA? ¿O estamos simplemente adaptándonos a una tendencia inevitable, considerando que muchas profesiones ya integran estas herramientas en su práctica diaria —como la medicina o el derecho—?

Las habilidades del bibliotecario y las necesidades de la inteligencia artificial

Harper, Corey A., y Paul Groth. 2025. “The Librarian Skillset and the Needs of Artificial Intelligence.” Cataloging & Classification Quarterly. https://doi.org/10.1080/01639374.2025.2539787

En un contexto donde nuevos roles emergen en la industria, la academia y el gobierno —como los de gestión responsable de IA, ingeniería de sistemas de IA, entre otros— existe una sorprendente alineación entre lo que históricamente ha sido la formación bibliotecaria y lo que demanda el ecosistema tecnológico actual.

El artículo destaca que competencias centrales del bibliotecariado —como la organización de la información, la elaboración de documentación, la evaluación del impacto social y el trabajo colaborativo con comunidades de usuarios y desarrolladores— son altamente relevantes en el entorno de desarrollo de IA. Estas capacidades permiten, entre otras cosas, que los sistemas de IA sean más transparentes, éticos y contextualizados.

A fin de hacer tangible esta correspondencia, los autores realizan un mapeo estructurado entre las competencias definidas por la American Library Association (ALA) y los planes de estudio de Biblioteconomía e Información y las competencias requeridas por los roles emergentes en IA. Este ejercicio identificó cinco áreas clave de alineación: (1) IA responsable, (2) justicia social, (3) ingeniería de datos, (4) evaluación, y (5) trabajo con comunidades.

Finalmente, el artículo subraya que el perfil bibliotecario —tradicionalmente vinculado a la gestión del conocimiento, la ética y el acceso equitativo a la información— tiene un potencial significativo para influir en el desarrollo y la supervisión de sistemas de IA. En particular, aporta una perspectiva orientada a la equidad, la transparencia y la inclusión, que resulta fundamental en la gobernanza de tecnologías emergentes.

Google revela el costo ambiental de Gemini: menos energía por consulta, pero más emisiones globales

Crownhart, Casey. 2025.In a First, Google Has Released Data on How Much Energy an AI Prompt Uses.” MIT Technology Review, August 21, 2025. https://www.technologyreview.com/2025/08/21/1122288/google-gemini-ai-energy

Google ha publicado un informe técnico detallado sobre la huella ambiental de su modelo de IA Gemini, destacando métricas clave como energía, emisiones de carbono y consumo de agua por cada consulta de texto, algo poco común entre empresas del sector

Según este estudio, la consulta mediana de texto en Gemini utiliza aproximadamente 0,24 vatios-hora, una cifra equivalente a ver la televisión durante menos de nueve segundos. Además, la emisión de carbono por consulta es de 0,03 gramos de CO₂ equivalente, y el consumo de agua asciende a 0,26 ml, es decir, alrededor de cinco gotas.

Estos avances reflejan una mejora notable en eficiencia: en el último año, el consumo energético por consulta cayó 33 veces, mientras que la huella de carbono disminuyó 44 veces, todo esto mientras mejoraba la calidad de las respuestas de Gemini

Google atribuye estos logros a una estrategia integral que abarca desde el diseño de hardware y algoritmos más eficientes hasta mejoras en modelos y centro de datos alimentados por energías limpias .

No obstante, expertos han planteado críticas sobre el enfoque de Google, señalando que sus estimaciones podrían ser engañosas, ya que omiten impactos indirectos como el uso de agua adicional y una contabilización optimista de las emisiones de carbono (basada en el mercado).

Aun así, a pesar de la aparente eficiencia por consulta, el consumo total de energía y agua sigue siendo relevante, especialmente considerando la escala global del uso de IA

Finalmente, aunque la empresa ha avanzado en eficiencia y transparencia, su huella global de emisiones ha aumentado —un 51 % desde 2019— principalmente por la creciente demanda energética derivada del uso de IA y el crecimiento de sus centros de datos

Introducción a Prompt Engineering

Academia IA. Introducción a Prompt Engineering: La Nota. Academia IA, marzo de 2024. https://academia-ia.com/wp-content/uploads/2024/03/PROMPT-ENGINEERING-LA-NOTA.pptx.pdf

Prompt Engineering ofrece una introducción concisa y visual al arte de diseñar indicaciones efectivas para interactuar con modelos de lenguaje como ChatGPT. El documento destaca la importancia de la claridad y precisión en la formulación de prompts para obtener respuestas útiles y coherentes de la inteligencia artificial. Se exploran diversas estrategias y mejores prácticas para mejorar la interacción con estos sistemas, facilitando su aplicación en tareas profesionales, educativas y creativas. Además, se enfatiza la relevancia del prompt engineering en el contexto actual de la inteligencia artificial, donde la calidad de las interacciones puede determinar el éxito de su implementación en diferentes ámbitos.

ChatGPT: Aprendizaje rápido de ingeniería de prompts con más de 100 ejemplos

Hernández, J.A., Conde, Javier, Querol, Blanca, Martínez, G., Reviriego, P. ChatGPT Tus primeros prompts con 100 ejemploss. Universidad Politécnica de Madrid, 2024.

Español

Inglés

Está guía está diseñada para ayudar a usuarios de todos los niveles a dominar la técnica del prompt engineering, es decir, la creación de indicaciones efectivas para interactuar con modelos de lenguaje como ChatGPT.

La obra se estructura en torno a más de 100 ejemplos prácticos que ilustran cómo formular preguntas y comandos claros y precisos para obtener respuestas útiles y coherentes de la inteligencia artificial. Cada ejemplo está acompañado de una explicación detallada que contextualiza su uso y destaca las mejores prácticas en la redacción de indicaciones.

Además de los ejemplos, el libro ofrece una introducción teórica sobre el funcionamiento de los modelos de lenguaje y la importancia de una comunicación efectiva con la IA. También se abordan aspectos éticos y consideraciones sobre el impacto de la inteligencia artificial en diversos campos.

En resumen, esta obra se presenta como una herramienta esencial para quienes deseen mejorar su interacción con modelos de lenguaje avanzados, facilitando su aplicación en tareas profesionales, educativas y creativas.

Prompt Engineering

Lee Boonstra. Prompt Engineering. Innopreneur, abril de 2025. https://www.innopreneur.io/wp-content/uploads/2025/04/22365_3_Prompt-Engineering_v7-1.pdf.innopreneur.io

El documento «Prompt Engineering» de Lee Boonstra, publicado por Innopreneur en abril de 2025, ofrece una guía detallada sobre la creación de indicaciones efectivas para modelos de inteligencia artificial, especialmente aquellos basados en el modelo Gemini dentro de Vertex AI. El texto destaca la importancia de redactar indicaciones precisas y bien estructuradas para obtener respuestas útiles y coherentes de los modelos de IA. Además, se exploran diversas técnicas y estrategias para mejorar la interacción con estos sistemas, facilitando su aplicación en tareas prácticas y profesionales.

¿Cómo utilizan la Inteligencia Artificial los trabajadores de las bibliotecas?

Ontario Council of University Libraries (OCUL). 2025. New Survey Report Shows How Library Workers Use AI. Publicado el 19 de agosto de 2025.

Texto completo

Se exploran las percepciones, experiencias y necesidades de formación de los trabajadores de bibliotecas universitarias de Ontario en relación con la inteligencia artificial (IA) y el aprendizaje automático.

El estudio se desarrolló entre el 14 y el 30 de mayo de 2025 mediante un cuestionario cualitativo distribuido a través de canales de comunicación de OCUL y Scholars Portal. La encuesta recibió 247 respuestas válidas, lo que representa aproximadamente un 8 % del personal de las bibliotecas miembros.

Los resultados muestran un panorama mixto: el 51 % de los encuestados declaró sentirse extremadamente o moderadamente familiarizado con la IA, aunque solo un 16 % la utiliza más allá de herramientas populares como ChatGPT o Microsoft Copilot. Además, un 28 % de los participantes afirmó no emplear ninguna herramienta de IA, en muchos casos manifestando actitudes críticas o preocupaciones sobre su madurez tecnológica, los costos y el posible impacto en los puestos de trabajo. Por otro lado, quienes sí integran la IA en su labor la emplean para tareas administrativas, análisis de datos, comunicación estratégica, mejora de metadatos, programación y apoyo a la investigación de usuarios. Entre las herramientas citadas, además de ChatGPT y Copilot, destacan Gemini, Scopus AI, Web of Science AI, Perplexity y Github Copilot.

El informe también recoge una fuerte demanda de desarrollo profesional. Los participantes señalaron intereses en áreas como prompt engineering, evaluación de herramientas, ética y privacidad, integración en flujos de investigación, generación de metadatos y aplicaciones pedagógicas. Sin embargo, emergieron dos grandes obstáculos: el tiempo y la capacidad. Muchos trabajadores expresaron la dificultad de mantenerse actualizados en un campo en rápida evolución, así como la tensión entre los beneficios potenciales de la IA y la carga laboral existente.

Entre las recomendaciones, el informe sugiere crear un repositorio compartido de recursos y guías, garantizar tiempo y financiación para la capacitación, establecer grupos de trabajo para evaluar herramientas específicas, redactar lineamientos sobre el uso ético de la IA y promover casos de uso que muestren cómo la tecnología puede complementar —y no sustituir— el trabajo humano. Finalmente, plantea la necesidad de estudios más profundos y de seguimiento, incluyendo grupos focales y programas de capacitación, para dar forma a una estrategia más sólida de incorporación de la IA en las bibliotecas universitarias de Ontario.

La mayor demanda colectiva por derechos de autor contra la industria de la IA: el caso Anthropic

Novet, Jordan. “AI Industry Horrified to Face Largest Copyright Class Action Ever Certified.” Ars Technica, August 21, 2025. https://arstechnica.com/tech-policy/2025/08/ai-industry-horrified-to-face-largest-copyright-class-action-ever-certified/.

Investigadores se han convertido en protagonistas de un caso sin precedentes: un tribunal federal en California ha aprobado una demanda colectiva (class action) contra Anthropic, una startup especializada en inteligencia artificial. Tres autores (Andrea Bartz, Charles Graeber y Kirk Wallace Johnson) actúan como representantes de todos los escritores cuyos libros registrados hayan sido descargados y utilizados por Anthropic para entrenar su modelo de IA. La demanda alega que la empresa obtuvo millones de títulos de sitios pirata como LibGen y PiLiMi sin consentimiento, lo que podría derivar en daños millonarios para la compañía si se prueba la infracción.

Desde la perspectiva legal, aunque el juez William Alsup reconoció que el entrenamiento del modelo podría constituir un uso legítimo (fair use), también resolvió que la mera conservación de libros piratas en una biblioteca central viola los derechos de autor, lo que justifica llevar el caso a juicio. En paralelo, organizaciones del sector tecnológico, como la Consumer Technology Association y la Computer and Communications Industry Association, han expresado su alarma ante un veredicto adverso: advierten que esta certificación de clase podría representar una amenaza existencial para Anthropic y el ecosistema emergente de IA en EE. UU., al desalentar futuros inversores y minar la competitividad tecnológica del país.

La demanda se ha expandido de forma dramática: lo que comenzó con tres autores podría llegar a incluir hasta 7 millones de demandantes potenciales, cada uno con posibilidad de reclamar hasta 150.000 USD por obra infringida. Eso transforma el caso en el mayor litigio por derechos de autor jamás aprobado en EE. UU., con riesgos financieros que podrían ascender a cientos de miles de millones de dólares.

La IA en la educación superior: hallazgos y recomendaciones del WCET’s 2025 Survey

Sebesta, Judith. “Insights into AI’s Transformative Role in Higher Education: WCET’s 2025 Survey.” WCET Frontiers, August 21, 2025. Accessed August 22, 2025. https://wcet.wiche.edu/frontiers/2025/08/21/insights-ai-transformative-role-in-higher-ed-wcets-2025-survey/

El sondeo de WCET 2025 muestra que la IA está transformando la educación superior, especialmente en enseñanza, aprendizaje y evaluación. Destaca oportunidades en eficiencia e innovación, pero también riesgos como la brecha digital y la obsolescencia de programas tradicionales. El informe propone diez recomendaciones para una integración ética, equitativa y estratégica de la IA en las instituciones.

Desde hace apenas dos años, la adopción de herramientas de inteligencia artificial (IA) generativa ha comenzado a reformar profundamente la educación superior. El segundo sondeo de WCET, realizado en 2025 tras el inicial en 2023, revela que la incorporación de la IA ya no es una opción que se pueda postergar: muchas instituciones han iniciado procesos de integración, mayoritariamente en áreas como la enseñanza y el aprendizaje, pero también en operaciones y gobernanza. Este cambio refleja un movimiento decidido hacia una transformación estructural, más allá de los temores iniciales sobre la integridad académica.

En el ámbito pedagógico, la IA está redefiniendo tareas académicas: desde la creación y edición de contenidos hasta el diseño curricular, la herramienta se posiciona como un acelerador de eficiencia y productividad. Asimismo, se proyecta una innovación significativa en los métodos de evaluación: en lugar de valorar solamente productos finales, se prioriza el proceso de aprendizaje en sí, aprovechando la IA para analizar cómo interactúan los estudiantes con estas herramientas y obtener comprensión sobre su pensamiento crítico. Esta tendencia podría desplazar gradualmente el énfasis hacia habilidades orales y habilidades prácticas por encima del peso tradicional de los títulos.

No obstante, el informe subraya desafíos persistentes: la brecha digital y el riesgo de que los programas tradicionales queden obsoletos son preocupaciones centrales. Ante un mercado laboral cambiante, donde las competencias podrían prevalecer sobre los diplomas, las instituciones enfrentan el imperativo de garantizar un acceso justo a tecnologías de IA, y al mismo tiempo preparar estudiantes para un entorno donde las habilidades, más que los credenciales, conducirán al éxito profesional.

Para orientar esta transformación, el sondeo ofrece diez recomendaciones prácticas (actionable recommendations):

  1. Crear políticas claras respecto al uso de IA.
  2. Invertir en formación para alfabetización y fluidez en IA.
  3. Establecer estructuras de apoyo institucionales.
  4. Ofrecer incentivos para uso responsable e innovador.
  5. Coordinar el uso de IA en el currículo.
  6. Abordar desafíos de manera proactiva.
  7. Promover un uso ético y equitativo de la IA.
  8. Expandir la formación dirigida a estudiantes.
  9. Emplear IA para mejorar la eficiencia operativa.
  10. Fomentar la experimentación institucional

El documento insta a un paso decisivo del conocimiento a la acción: las instituciones de educación superior deben diseñar estrategias deliberadas que combinen ética, equidad y sostenibilidad para integrar la IA como una aliada de su misión centrada en el ser humano. Solo así podrán transformar la educación de forma responsable, sin que la tecnología reemplace, sino que complemente y potencie lo esencial del aprendizaje.

Inteligencia artificial y catalogación en bibliotecas

Getaneh Alemu, Anna Maria Tammaro; Navigating the artificial intelligence frontier on cataloguing and metadata work in libraries: an interview with Getaneh AlemuDigital Library Perspectives 20 August 2025; 41 (3): 587–592. https://doi.org/10.1108/DLP-08-2025-208

Se reflexiona sobre cómo la inteligencia artificial (IA) está transformando la catalogación. Plantea que la relación ideal entre la IA y los representantes humanos debe basarse en la complementariedad, más que en la sustitución. Según el autor, las máquinas pueden hacerse cargo de tareas repetitivas y estructuradas —como la clasificación inicial o el etiquetado automático—, mientras que los bibliotecarios y catalogadores deben conservar el papel de brindar juicio experto, interpretación contextual y garantía de calidad, elementos que aún son difícilmente automatizables

Además, Alemu insiste en que la implementación responsable de la IA en entornos bibliotecarios debe partir de los principios éticos de transparencia y precisión. Es fundamental que los sistemas automatizados actúen con transparencia, de modo que los usuarios puedan entender cómo se generan los metadatos y qué criterios siguen los algoritmos

La entrevista también destaca una visión esperanzadora para el futuro: la IA no debería percibirse como una amenaza, sino como una herramienta para potenciar la eficiencia, liberando a los profesionales de la biblioteconomía de labores mecánicas para enfocarse en aspectos más complejos y creativos de su labor. Alemu vislumbra un ecosistema en que la tecnología permita una mejor organización del conocimiento, sin sacrificar la supervisión humana ni el cuidado por la calidad bibliográfica.

La postura de Alemu subraya la necesidad de un enfoque equilibrado: integrar la IA como aliada, no como reemplazo, reforzando el rol humano a través de la ética, la transparencia y la experiencia profesional en catalogación y metadatos.