Archivo de la etiqueta: Inteligencia artificial

Introducción a Prompt Engineering

Academia IA. Introducción a Prompt Engineering: La Nota. Academia IA, marzo de 2024. https://academia-ia.com/wp-content/uploads/2024/03/PROMPT-ENGINEERING-LA-NOTA.pptx.pdf

Prompt Engineering ofrece una introducción concisa y visual al arte de diseñar indicaciones efectivas para interactuar con modelos de lenguaje como ChatGPT. El documento destaca la importancia de la claridad y precisión en la formulación de prompts para obtener respuestas útiles y coherentes de la inteligencia artificial. Se exploran diversas estrategias y mejores prácticas para mejorar la interacción con estos sistemas, facilitando su aplicación en tareas profesionales, educativas y creativas. Además, se enfatiza la relevancia del prompt engineering en el contexto actual de la inteligencia artificial, donde la calidad de las interacciones puede determinar el éxito de su implementación en diferentes ámbitos.

ChatGPT: Aprendizaje rápido de ingeniería de prompts con más de 100 ejemplos

Hernández, J.A., Conde, Javier, Querol, Blanca, Martínez, G., Reviriego, P. ChatGPT Tus primeros prompts con 100 ejemploss. Universidad Politécnica de Madrid, 2024.

Español

Inglés

Está guía está diseñada para ayudar a usuarios de todos los niveles a dominar la técnica del prompt engineering, es decir, la creación de indicaciones efectivas para interactuar con modelos de lenguaje como ChatGPT.

La obra se estructura en torno a más de 100 ejemplos prácticos que ilustran cómo formular preguntas y comandos claros y precisos para obtener respuestas útiles y coherentes de la inteligencia artificial. Cada ejemplo está acompañado de una explicación detallada que contextualiza su uso y destaca las mejores prácticas en la redacción de indicaciones.

Además de los ejemplos, el libro ofrece una introducción teórica sobre el funcionamiento de los modelos de lenguaje y la importancia de una comunicación efectiva con la IA. También se abordan aspectos éticos y consideraciones sobre el impacto de la inteligencia artificial en diversos campos.

En resumen, esta obra se presenta como una herramienta esencial para quienes deseen mejorar su interacción con modelos de lenguaje avanzados, facilitando su aplicación en tareas profesionales, educativas y creativas.

Prompt Engineering

Lee Boonstra. Prompt Engineering. Innopreneur, abril de 2025. https://www.innopreneur.io/wp-content/uploads/2025/04/22365_3_Prompt-Engineering_v7-1.pdf.innopreneur.io

El documento «Prompt Engineering» de Lee Boonstra, publicado por Innopreneur en abril de 2025, ofrece una guía detallada sobre la creación de indicaciones efectivas para modelos de inteligencia artificial, especialmente aquellos basados en el modelo Gemini dentro de Vertex AI. El texto destaca la importancia de redactar indicaciones precisas y bien estructuradas para obtener respuestas útiles y coherentes de los modelos de IA. Además, se exploran diversas técnicas y estrategias para mejorar la interacción con estos sistemas, facilitando su aplicación en tareas prácticas y profesionales.

¿Cómo utilizan la Inteligencia Artificial los trabajadores de las bibliotecas?

Ontario Council of University Libraries (OCUL). 2025. New Survey Report Shows How Library Workers Use AI. Publicado el 19 de agosto de 2025.

Texto completo

Se exploran las percepciones, experiencias y necesidades de formación de los trabajadores de bibliotecas universitarias de Ontario en relación con la inteligencia artificial (IA) y el aprendizaje automático.

El estudio se desarrolló entre el 14 y el 30 de mayo de 2025 mediante un cuestionario cualitativo distribuido a través de canales de comunicación de OCUL y Scholars Portal. La encuesta recibió 247 respuestas válidas, lo que representa aproximadamente un 8 % del personal de las bibliotecas miembros.

Los resultados muestran un panorama mixto: el 51 % de los encuestados declaró sentirse extremadamente o moderadamente familiarizado con la IA, aunque solo un 16 % la utiliza más allá de herramientas populares como ChatGPT o Microsoft Copilot. Además, un 28 % de los participantes afirmó no emplear ninguna herramienta de IA, en muchos casos manifestando actitudes críticas o preocupaciones sobre su madurez tecnológica, los costos y el posible impacto en los puestos de trabajo. Por otro lado, quienes sí integran la IA en su labor la emplean para tareas administrativas, análisis de datos, comunicación estratégica, mejora de metadatos, programación y apoyo a la investigación de usuarios. Entre las herramientas citadas, además de ChatGPT y Copilot, destacan Gemini, Scopus AI, Web of Science AI, Perplexity y Github Copilot.

El informe también recoge una fuerte demanda de desarrollo profesional. Los participantes señalaron intereses en áreas como prompt engineering, evaluación de herramientas, ética y privacidad, integración en flujos de investigación, generación de metadatos y aplicaciones pedagógicas. Sin embargo, emergieron dos grandes obstáculos: el tiempo y la capacidad. Muchos trabajadores expresaron la dificultad de mantenerse actualizados en un campo en rápida evolución, así como la tensión entre los beneficios potenciales de la IA y la carga laboral existente.

Entre las recomendaciones, el informe sugiere crear un repositorio compartido de recursos y guías, garantizar tiempo y financiación para la capacitación, establecer grupos de trabajo para evaluar herramientas específicas, redactar lineamientos sobre el uso ético de la IA y promover casos de uso que muestren cómo la tecnología puede complementar —y no sustituir— el trabajo humano. Finalmente, plantea la necesidad de estudios más profundos y de seguimiento, incluyendo grupos focales y programas de capacitación, para dar forma a una estrategia más sólida de incorporación de la IA en las bibliotecas universitarias de Ontario.

La mayor demanda colectiva por derechos de autor contra la industria de la IA: el caso Anthropic

Novet, Jordan. “AI Industry Horrified to Face Largest Copyright Class Action Ever Certified.” Ars Technica, August 21, 2025. https://arstechnica.com/tech-policy/2025/08/ai-industry-horrified-to-face-largest-copyright-class-action-ever-certified/.

Investigadores se han convertido en protagonistas de un caso sin precedentes: un tribunal federal en California ha aprobado una demanda colectiva (class action) contra Anthropic, una startup especializada en inteligencia artificial. Tres autores (Andrea Bartz, Charles Graeber y Kirk Wallace Johnson) actúan como representantes de todos los escritores cuyos libros registrados hayan sido descargados y utilizados por Anthropic para entrenar su modelo de IA. La demanda alega que la empresa obtuvo millones de títulos de sitios pirata como LibGen y PiLiMi sin consentimiento, lo que podría derivar en daños millonarios para la compañía si se prueba la infracción.

Desde la perspectiva legal, aunque el juez William Alsup reconoció que el entrenamiento del modelo podría constituir un uso legítimo (fair use), también resolvió que la mera conservación de libros piratas en una biblioteca central viola los derechos de autor, lo que justifica llevar el caso a juicio. En paralelo, organizaciones del sector tecnológico, como la Consumer Technology Association y la Computer and Communications Industry Association, han expresado su alarma ante un veredicto adverso: advierten que esta certificación de clase podría representar una amenaza existencial para Anthropic y el ecosistema emergente de IA en EE. UU., al desalentar futuros inversores y minar la competitividad tecnológica del país.

La demanda se ha expandido de forma dramática: lo que comenzó con tres autores podría llegar a incluir hasta 7 millones de demandantes potenciales, cada uno con posibilidad de reclamar hasta 150.000 USD por obra infringida. Eso transforma el caso en el mayor litigio por derechos de autor jamás aprobado en EE. UU., con riesgos financieros que podrían ascender a cientos de miles de millones de dólares.

La IA en la educación superior: hallazgos y recomendaciones del WCET’s 2025 Survey

Sebesta, Judith. “Insights into AI’s Transformative Role in Higher Education: WCET’s 2025 Survey.” WCET Frontiers, August 21, 2025. Accessed August 22, 2025. https://wcet.wiche.edu/frontiers/2025/08/21/insights-ai-transformative-role-in-higher-ed-wcets-2025-survey/

El sondeo de WCET 2025 muestra que la IA está transformando la educación superior, especialmente en enseñanza, aprendizaje y evaluación. Destaca oportunidades en eficiencia e innovación, pero también riesgos como la brecha digital y la obsolescencia de programas tradicionales. El informe propone diez recomendaciones para una integración ética, equitativa y estratégica de la IA en las instituciones.

Desde hace apenas dos años, la adopción de herramientas de inteligencia artificial (IA) generativa ha comenzado a reformar profundamente la educación superior. El segundo sondeo de WCET, realizado en 2025 tras el inicial en 2023, revela que la incorporación de la IA ya no es una opción que se pueda postergar: muchas instituciones han iniciado procesos de integración, mayoritariamente en áreas como la enseñanza y el aprendizaje, pero también en operaciones y gobernanza. Este cambio refleja un movimiento decidido hacia una transformación estructural, más allá de los temores iniciales sobre la integridad académica.

En el ámbito pedagógico, la IA está redefiniendo tareas académicas: desde la creación y edición de contenidos hasta el diseño curricular, la herramienta se posiciona como un acelerador de eficiencia y productividad. Asimismo, se proyecta una innovación significativa en los métodos de evaluación: en lugar de valorar solamente productos finales, se prioriza el proceso de aprendizaje en sí, aprovechando la IA para analizar cómo interactúan los estudiantes con estas herramientas y obtener comprensión sobre su pensamiento crítico. Esta tendencia podría desplazar gradualmente el énfasis hacia habilidades orales y habilidades prácticas por encima del peso tradicional de los títulos.

No obstante, el informe subraya desafíos persistentes: la brecha digital y el riesgo de que los programas tradicionales queden obsoletos son preocupaciones centrales. Ante un mercado laboral cambiante, donde las competencias podrían prevalecer sobre los diplomas, las instituciones enfrentan el imperativo de garantizar un acceso justo a tecnologías de IA, y al mismo tiempo preparar estudiantes para un entorno donde las habilidades, más que los credenciales, conducirán al éxito profesional.

Para orientar esta transformación, el sondeo ofrece diez recomendaciones prácticas (actionable recommendations):

  1. Crear políticas claras respecto al uso de IA.
  2. Invertir en formación para alfabetización y fluidez en IA.
  3. Establecer estructuras de apoyo institucionales.
  4. Ofrecer incentivos para uso responsable e innovador.
  5. Coordinar el uso de IA en el currículo.
  6. Abordar desafíos de manera proactiva.
  7. Promover un uso ético y equitativo de la IA.
  8. Expandir la formación dirigida a estudiantes.
  9. Emplear IA para mejorar la eficiencia operativa.
  10. Fomentar la experimentación institucional

El documento insta a un paso decisivo del conocimiento a la acción: las instituciones de educación superior deben diseñar estrategias deliberadas que combinen ética, equidad y sostenibilidad para integrar la IA como una aliada de su misión centrada en el ser humano. Solo así podrán transformar la educación de forma responsable, sin que la tecnología reemplace, sino que complemente y potencie lo esencial del aprendizaje.

Inteligencia artificial y catalogación en bibliotecas

Getaneh Alemu, Anna Maria Tammaro; Navigating the artificial intelligence frontier on cataloguing and metadata work in libraries: an interview with Getaneh AlemuDigital Library Perspectives 20 August 2025; 41 (3): 587–592. https://doi.org/10.1108/DLP-08-2025-208

Se reflexiona sobre cómo la inteligencia artificial (IA) está transformando la catalogación. Plantea que la relación ideal entre la IA y los representantes humanos debe basarse en la complementariedad, más que en la sustitución. Según el autor, las máquinas pueden hacerse cargo de tareas repetitivas y estructuradas —como la clasificación inicial o el etiquetado automático—, mientras que los bibliotecarios y catalogadores deben conservar el papel de brindar juicio experto, interpretación contextual y garantía de calidad, elementos que aún son difícilmente automatizables

Además, Alemu insiste en que la implementación responsable de la IA en entornos bibliotecarios debe partir de los principios éticos de transparencia y precisión. Es fundamental que los sistemas automatizados actúen con transparencia, de modo que los usuarios puedan entender cómo se generan los metadatos y qué criterios siguen los algoritmos

La entrevista también destaca una visión esperanzadora para el futuro: la IA no debería percibirse como una amenaza, sino como una herramienta para potenciar la eficiencia, liberando a los profesionales de la biblioteconomía de labores mecánicas para enfocarse en aspectos más complejos y creativos de su labor. Alemu vislumbra un ecosistema en que la tecnología permita una mejor organización del conocimiento, sin sacrificar la supervisión humana ni el cuidado por la calidad bibliográfica.

La postura de Alemu subraya la necesidad de un enfoque equilibrado: integrar la IA como aliada, no como reemplazo, reforzando el rol humano a través de la ética, la transparencia y la experiencia profesional en catalogación y metadatos.

Estereotipos de la profesión bibliotecaria en la inteligencia artificial generativa

Spennemann, Dirk H. R., y Kay Oddone. “What do librarians look like? Stereotyping of a profession by generative AI.” Journal of Librarianship and Information Science (publicado recientemente). DOI: 10.1177/09610006251357286

El artículo investiga si existen sesgos en la representación visual de los bibliotecarios en las respuestas generadas por ChatGPT. El objetivo principal es analizar cómo la inteligencia artificial reproduce o refuerza estereotipos profesionales al generar imágenes asociadas a esta profesión.

Se analiza cómo la inteligencia artificial generativa, específicamente ChatGPT4o con integración de DALL·E, produce imágenes estereotipadas de bibliotecarios en distintos contextos (bibliotecas escolares, públicas y universitarias). El estudio compara representaciones generadas por IA con estereotipos tradicionales profundamente arraigados en la percepción social del oficio.

Los autores parten de la premisa de que los estereotipos profesionales —como la imagen del bibliotecario rígido, femenino, de mediana edad, vestido con rebecas y gafas— persisten desde hace décadas y han sido reforzados por la cultura popular. La investigación se propone averiguar si la IA reproduce estos estereotipos o introduce sesgos adicionales que distorsionan la realidad demográfica de la profesión.

El marco teórico de la investigación se sustenta en la idea de que los estereotipos son “generalizaciones perezosas” que reducen a los individuos a una serie de características simplificadas y frecuentemente sesgadas. Esto implica una reflexión crítica sobre cómo la IA, al aprender de grandes cantidades de datos, puede perpetuar imágenes prejuiciosas que afectan la percepción de los bibliotecarios como un grupo homogéneo, con atributos visuales específicos que posiblemente no correspondan con la diversidad real del perfil profesional.

El método consistió en usar zero-shot prompting, es decir, instrucciones abiertas a ChatGPT para generar imágenes en dos situaciones: (1) dos bibliotecarios conversando y (2) un bibliotecario asesorando a un usuario. Se produjeron 300 imágenes en total (50 por escenario y tipo de biblioteca). Estas se analizaron según variables como género, edad, etnicidad, indumentaria, peinados, postura corporal y representación del espacio bibliotecario.

Los resultados muestran un claro sesgo. En términos étnicos, más del 98% de los bibliotecarios fueron representados como caucásicos, con mínima aparición de asiáticos (1,6%) y prácticamente ninguna representación afrodescendiente o de otras minorías. En cuanto al género, mientras que las bibliotecas escolares presentaron cierta paridad (52% hombres, 48% mujeres), las públicas y universitarias mostraron una fuerte sobrerrepresentación masculina, llegando al 94% de hombres en universidades, lo cual contradice las estadísticas reales que indican que la profesión es mayoritariamente femenina. Además, los hombres fueron situados sistemáticamente en posiciones de autoridad, ya sea de pie, en el lado izquierdo de la imagen o interactuando con usuarios de forma jerárquica, lo que refuerza la percepción de dominación masculina en el ámbito profesional.

Respecto a la edad, se observó una tendencia a representar a los bibliotecarios como más mayores en entornos académicos y públicos, mientras que en las bibliotecas escolares se los mostró más jóvenes. En el caso de las mujeres, los estereotipos visuales fueron evidentes: las más jóvenes aparecían con el cabello suelto o en coleta y con blusas, mientras que las de mayor edad eran representadas con moños, rebecas y gafas. Los hombres, por su parte, eran retratados con barba a medida que aumentaba la edad y predominantemente vestidos con traje, especialmente en el entorno universitario.

El análisis también reveló problemas éticos: algunas imágenes mostraban conductas inapropiadas, como bibliotecarios (sobre todo hombres mayores) colocando la mano en el hombro de usuarios, lo cual puede transmitir un mensaje de exceso de familiaridad o incluso acoso. Además, la IA cometió errores de generación (libreros flotantes, figuras con más extremidades, etc.), reflejando las limitaciones técnicas del modelo.

En la discusión, los autores señalan que, aunque ciertos rasgos coinciden con la demografía real (predominio de profesionales caucásicos y de edad media-alta), la IA tergiversa aspectos clave al sobrerrepresentar a hombres en posiciones de autoridad y minimizar la presencia femenina. Esto refuerza prejuicios que ya afectan la percepción pública de la profesión y la consolidan como subordinada o poco visible. Además, se alerta sobre el peligro de que imágenes producidas por IA —al ser baratas, rápidas y libres de derechos— se difundan ampliamente en materiales educativos o de comunicación, contribuyendo a perpetuar desigualdades y discriminación en lugar de reflejar la diversidad real.

En conjunto, este trabajo contribuye al debate en torno a los riesgos y limitaciones éticas del uso de inteligencia artificial generativa en contextos profesionales, especialmente aquellos en que la representación visual puede influir en la percepción pública y en dinámicas de identidad laboral. La investigación subraya la necesidad de mayor vigilancia y conciencia crítica sobre la manera en que la IA reproduce normas culturales y estereotipos visuales.

ChatGPT tiende a ignorar las retractaciones en artículos científicos

Chawla, Dalmeet Singh. «ChatGPT Tends to Ignore Retractions on Scientific PapersChemical & Engineering News, 15 de agosto de 2025. https://cen.acs.org/policy/publishing/ChatGPT-tends-ignore-retractions-scientific/103/web/2025/08

Un estudio reciente revela que ChatGPT, específicamente la versión GPT 4o-mini, no identifica ni menciona las retractaciones o problemas de validez en artículos científicos previamente retirados.

Al analizar 217 estudios académicos que habían sido retirados o señalados por preocupaciones de validez en la base de datos Retraction Watch, los investigadores descubrieron que el modelo de lenguaje no hacía referencia a estas retractaciones en ninguno de los 6.510 informes generados. En cambio, en 190 casos, describió los artículos como de «líder mundial» o «excelente internacionalmente». Solo en 27 casos se mencionaron críticas, y en 5 de ellos, incluyendo uno sobre la hidroxicloroquina como tratamiento para la COVID-19, se calificaron como «controvertidos».

Además, al verificar 61 afirmaciones de estudios retirados, el modelo respondió afirmativamente en dos tercios de los casos, incluso cuando la información ya había sido desmentida. Los autores del estudio sugieren que los algoritmos de inteligencia artificial, como ChatGPT, deberían ajustarse para reconocer y manejar adecuadamente las retractaciones, ya que su uso en revisiones bibliográficas podría propagar información científica

Debora Weber-Wulff, científica informática de la Universidad de Ciencias Aplicadas HTW Berlín, advierte que la dependencia excesiva de estas herramientas puede corromper el registro científico. Sin embargo, cuestiona la metodología del estudio, señalando que la falta de comparación con artículos no retirados limita la evaluación del desempeño del modelo. También destaca que las retractaciones no siempre están claramente marcadas en la literatura, lo que dificulta su identificación incluso para los humanos.

Este hallazgo subraya la necesidad de mejorar la capacidad de los modelos de lenguaje para reconocer y manejar información científica retractada, especialmente en contextos académicos donde la precisión es crucial.

ArXivBench: Evaluando la fiabilidad de los modelos de lenguaje en la generación de referencias académicas

Li, Ning; Zhang, Jingran; Cui, Justin. ArXivBench: When You Should Avoid Using ChatGPT for Academic Writing. arXiv preprint (v2), 7 de agosto de 2025. arXiv:2504.10496 [cs.IR]. https://arxiv.org/html/2504.10496v2

Los modelos de lenguaje a gran escala (LLMs) han mostrado capacidades impresionantes en razonamiento, pregunta-respuesta y generación de texto, pero su tendencia a generar contenido erróneo o referencias falsas sigue siendo una preocupación crítica en entornos académicos rigurosos. El artículo se enfoca en evaluar qué tan fiables son estos modelos al generar referencias académicas, concretamente enlaces a artículos en arXiv.

El artículo presenta ArXivBench, un banco de pruebas diseñado para evaluar la fiabilidad de los modelos de lenguaje a gran escala (LLMs) al generar referencias y enlaces a artículos académicos en arXiv. Los autores parten de la preocupación por el uso creciente de LLMs en redacción académica, donde su capacidad para producir contenido coherente y persuasivo no siempre va acompañada de precisión factual. En particular, señalan el riesgo de que los modelos generen referencias inventadas o incorrectas, lo que compromete la integridad de un trabajo de investigación.

Para abordar este problema, ArXivBench reúne un conjunto de 6.500 prompts que cubren trece áreas temáticas dentro de la informática, organizadas en ocho categorías y cinco subcampos. La herramienta incluye un flujo de trabajo automatizado para generar nuevos prompts y un sistema de evaluación que permite medir el rendimiento de diferentes modelos sin recurrir a técnicas de recuperación aumentada (RAG), evaluando así sus capacidades “de fábrica”. Se probaron quince modelos, tanto de código abierto como propietarios, analizando su precisión al proporcionar enlaces correctos y contenido relevante.

Los resultados muestran que el rendimiento varía de forma significativa según la disciplina. El subcampo de inteligencia artificial es donde los modelos ofrecen mejores resultados, mientras que en otras áreas las tasas de error son más elevadas. Entre los modelos evaluados, Claude-3.5-Sonnet destacó por su capacidad para generar respuestas relevantes y referencias exactas, superando de forma consistente a otros competidores.

Los autores concluyen que, si bien los LLMs pueden ser útiles en ciertas fases del trabajo académico, no son aún herramientas plenamente fiables para la generación de referencias académicas, especialmente en áreas menos cubiertas por sus datos de entrenamiento. ArXivBench se propone así como un instrumento para medir y mejorar la fiabilidad de estos sistemas, ofreciendo datos comparativos que orienten tanto a investigadores como a desarrolladores hacia un uso más responsable y fundamentado de la inteligencia artificial en la producción científica.