Prompt Engineering ofrece una introducción concisa y visual al arte de diseñar indicaciones efectivas para interactuar con modelos de lenguaje como ChatGPT. El documento destaca la importancia de la claridad y precisión en la formulación de prompts para obtener respuestas útiles y coherentes de la inteligencia artificial. Se exploran diversas estrategias y mejores prácticas para mejorar la interacción con estos sistemas, facilitando su aplicación en tareas profesionales, educativas y creativas. Además, se enfatiza la relevancia del prompt engineering en el contexto actual de la inteligencia artificial, donde la calidad de las interacciones puede determinar el éxito de su implementación en diferentes ámbitos.
Hernández, J.A., Conde, Javier, Querol, Blanca, Martínez, G., Reviriego, P. ChatGPT Tus primeros prompts con 100 ejemploss. Universidad Politécnica de Madrid, 2024.
Está guía está diseñada para ayudar a usuarios de todos los niveles a dominar la técnica del prompt engineering, es decir, la creación de indicaciones efectivas para interactuar con modelos de lenguaje como ChatGPT.
La obra se estructura en torno a más de 100 ejemplos prácticos que ilustran cómo formular preguntas y comandos claros y precisos para obtener respuestas útiles y coherentes de la inteligencia artificial. Cada ejemplo está acompañado de una explicación detallada que contextualiza su uso y destaca las mejores prácticas en la redacción de indicaciones.
Además de los ejemplos, el libro ofrece una introducción teórica sobre el funcionamiento de los modelos de lenguaje y la importancia de una comunicación efectiva con la IA. También se abordan aspectos éticos y consideraciones sobre el impacto de la inteligencia artificial en diversos campos.
En resumen, esta obra se presenta como una herramienta esencial para quienes deseen mejorar su interacción con modelos de lenguaje avanzados, facilitando su aplicación en tareas profesionales, educativas y creativas.
El documento «Prompt Engineering» de Lee Boonstra, publicado por Innopreneur en abril de 2025, ofrece una guía detallada sobre la creación de indicaciones efectivas para modelos de inteligencia artificial, especialmente aquellos basados en el modelo Gemini dentro de Vertex AI. El texto destaca la importancia de redactar indicaciones precisas y bien estructuradas para obtener respuestas útiles y coherentes de los modelos de IA. Además, se exploran diversas técnicas y estrategias para mejorar la interacción con estos sistemas, facilitando su aplicación en tareas prácticas y profesionales.
Se exploran las percepciones, experiencias y necesidades de formación de los trabajadores de bibliotecas universitarias de Ontario en relación con la inteligencia artificial (IA) y el aprendizaje automático.
El estudio se desarrolló entre el 14 y el 30 de mayo de 2025 mediante un cuestionario cualitativo distribuido a través de canales de comunicación de OCUL y Scholars Portal. La encuesta recibió 247 respuestas válidas, lo que representa aproximadamente un 8 % del personal de las bibliotecas miembros.
Los resultados muestran un panorama mixto: el 51 % de los encuestados declaró sentirse extremadamente o moderadamente familiarizado con la IA, aunque solo un 16 % la utiliza más allá de herramientas populares como ChatGPT o Microsoft Copilot. Además, un 28 % de los participantes afirmó no emplear ninguna herramienta de IA, en muchos casos manifestando actitudes críticas o preocupaciones sobre su madurez tecnológica, los costos y el posible impacto en los puestos de trabajo. Por otro lado, quienes sí integran la IA en su labor la emplean para tareas administrativas, análisis de datos, comunicación estratégica, mejora de metadatos, programación y apoyo a la investigación de usuarios. Entre las herramientas citadas, además de ChatGPT y Copilot, destacan Gemini, Scopus AI, Web of Science AI, Perplexity y Github Copilot.
El informe también recoge una fuerte demanda de desarrollo profesional. Los participantes señalaron intereses en áreas como prompt engineering, evaluación de herramientas, ética y privacidad, integración en flujos de investigación, generación de metadatos y aplicaciones pedagógicas. Sin embargo, emergieron dos grandes obstáculos: el tiempo y la capacidad. Muchos trabajadores expresaron la dificultad de mantenerse actualizados en un campo en rápida evolución, así como la tensión entre los beneficios potenciales de la IA y la carga laboral existente.
Entre las recomendaciones, el informe sugiere crear un repositorio compartido de recursos y guías, garantizar tiempo y financiación para la capacitación, establecer grupos de trabajo para evaluar herramientas específicas, redactar lineamientos sobre el uso ético de la IA y promover casos de uso que muestren cómo la tecnología puede complementar —y no sustituir— el trabajo humano. Finalmente, plantea la necesidad de estudios más profundos y de seguimiento, incluyendo grupos focales y programas de capacitación, para dar forma a una estrategia más sólida de incorporación de la IA en las bibliotecas universitarias de Ontario.
El sondeo de WCET 2025 muestra que la IA está transformando la educación superior, especialmente en enseñanza, aprendizaje y evaluación. Destaca oportunidades en eficiencia e innovación, pero también riesgos como la brecha digital y la obsolescencia de programas tradicionales. El informe propone diez recomendaciones para una integración ética, equitativa y estratégica de la IA en las instituciones.
Desde hace apenas dos años, la adopción de herramientas de inteligencia artificial (IA) generativa ha comenzado a reformar profundamente la educación superior. El segundo sondeo de WCET, realizado en 2025 tras el inicial en 2023, revela que la incorporación de la IA ya no es una opción que se pueda postergar: muchas instituciones han iniciado procesos de integración, mayoritariamente en áreas como la enseñanza y el aprendizaje, pero también en operaciones y gobernanza. Este cambio refleja un movimiento decidido hacia una transformación estructural, más allá de los temores iniciales sobre la integridad académica.
En el ámbito pedagógico, la IA está redefiniendo tareas académicas: desde la creación y edición de contenidos hasta el diseño curricular, la herramienta se posiciona como un acelerador de eficiencia y productividad. Asimismo, se proyecta una innovación significativa en los métodos de evaluación: en lugar de valorar solamente productos finales, se prioriza el proceso de aprendizaje en sí, aprovechando la IA para analizar cómo interactúan los estudiantes con estas herramientas y obtener comprensión sobre su pensamiento crítico. Esta tendencia podría desplazar gradualmente el énfasis hacia habilidades orales y habilidades prácticas por encima del peso tradicional de los títulos.
No obstante, el informe subraya desafíos persistentes: la brecha digital y el riesgo de que los programas tradicionales queden obsoletos son preocupaciones centrales. Ante un mercado laboral cambiante, donde las competencias podrían prevalecer sobre los diplomas, las instituciones enfrentan el imperativo de garantizar un acceso justo a tecnologías de IA, y al mismo tiempo preparar estudiantes para un entorno donde las habilidades, más que los credenciales, conducirán al éxito profesional.
Para orientar esta transformación, el sondeo ofrece diez recomendaciones prácticas (actionable recommendations):
Crear políticas claras respecto al uso de IA.
Invertir en formación para alfabetización y fluidez en IA.
Establecer estructuras de apoyo institucionales.
Ofrecer incentivos para uso responsable e innovador.
Coordinar el uso de IA en el currículo.
Abordar desafíos de manera proactiva.
Promover un uso ético y equitativo de la IA.
Expandir la formación dirigida a estudiantes.
Emplear IA para mejorar la eficiencia operativa.
Fomentar la experimentación institucional
El documento insta a un paso decisivo del conocimiento a la acción: las instituciones de educación superior deben diseñar estrategias deliberadas que combinen ética, equidad y sostenibilidad para integrar la IA como una aliada de su misión centrada en el ser humano. Solo así podrán transformar la educación de forma responsable, sin que la tecnología reemplace, sino que complemente y potencie lo esencial del aprendizaje.
Li, Ning; Zhang, Jingran; Cui, Justin. ArXivBench: When You Should Avoid Using ChatGPT for Academic Writing. arXiv preprint (v2), 7 de agosto de 2025. arXiv:2504.10496 [cs.IR]. https://arxiv.org/html/2504.10496v2
Los modelos de lenguaje a gran escala (LLMs) han mostrado capacidades impresionantes en razonamiento, pregunta-respuesta y generación de texto, pero su tendencia a generar contenido erróneo o referencias falsas sigue siendo una preocupación crítica en entornos académicos rigurosos. El artículo se enfoca en evaluar qué tan fiables son estos modelos al generar referencias académicas, concretamente enlaces a artículos en arXiv.
El artículo presenta ArXivBench, un banco de pruebas diseñado para evaluar la fiabilidad de los modelos de lenguaje a gran escala (LLMs) al generar referencias y enlaces a artículos académicos en arXiv. Los autores parten de la preocupación por el uso creciente de LLMs en redacción académica, donde su capacidad para producir contenido coherente y persuasivo no siempre va acompañada de precisión factual. En particular, señalan el riesgo de que los modelos generen referencias inventadas o incorrectas, lo que compromete la integridad de un trabajo de investigación.
Para abordar este problema, ArXivBench reúne un conjunto de 6.500 prompts que cubren trece áreas temáticas dentro de la informática, organizadas en ocho categorías y cinco subcampos. La herramienta incluye un flujo de trabajo automatizado para generar nuevos prompts y un sistema de evaluación que permite medir el rendimiento de diferentes modelos sin recurrir a técnicas de recuperación aumentada (RAG), evaluando así sus capacidades “de fábrica”. Se probaron quince modelos, tanto de código abierto como propietarios, analizando su precisión al proporcionar enlaces correctos y contenido relevante.
Los resultados muestran que el rendimiento varía de forma significativa según la disciplina. El subcampo de inteligencia artificial es donde los modelos ofrecen mejores resultados, mientras que en otras áreas las tasas de error son más elevadas. Entre los modelos evaluados, Claude-3.5-Sonnet destacó por su capacidad para generar respuestas relevantes y referencias exactas, superando de forma consistente a otros competidores.
Los autores concluyen que, si bien los LLMs pueden ser útiles en ciertas fases del trabajo académico, no son aún herramientas plenamente fiables para la generación de referencias académicas, especialmente en áreas menos cubiertas por sus datos de entrenamiento. ArXivBench se propone así como un instrumento para medir y mejorar la fiabilidad de estos sistemas, ofreciendo datos comparativos que orienten tanto a investigadores como a desarrolladores hacia un uso más responsable y fundamentado de la inteligencia artificial en la producción científica.
En contraste con muchas instituciones occidentales que aún ven la IA como una amenaza, las universidades chinas están adoptando una estrategia proactiva. Lo que antes era desaconsejado —como el uso de ChatGPT en tareas académicas— ahora se alienta activamente, siempre que se haga con buenas prácticas. Un informe revela que solo el 1 % del profesorado y del alumnado afirma no haber usado herramientas de IA, y cerca del 60 % las utiliza frecuentemente, ya sea varias veces al día o semanalmente.
Este cambio refleja una tendencia a reconocer la IA no como un problema, sino como una habilidad esencial para el siglo XXI.
El surgimiento del modelo chino DeepSeek ha sido crucial. Varias universidades —como la de Shenzhen, Zhejiang, Shanghai Jiao Tong y Renmin— ya han incorporado cursos basados en DeepSeek. Estos programas no solo enseñan tecnología, sino que abordan también temáticas clave como la seguridad, la privacidad y la ética. Este enfoque holístico está alineado con el plan nacional China 2035, que busca un sistema educativo de alta calidad e inclusivo.
Un estudio reciente sobre estudiantes de ingeniería en China encontró que más de la mitad reconoce una mejora en su eficiencia, iniciativa y creatividad al usar IA generativa. Casi la mitad añadió que esta tecnología también potenció su pensamiento independiente. No obstante, hubo cierta preocupación sobre la precisión y confiabilidad específica de dominio, y muchos no percibieron una mejora significativa en sus calificaciones académicas.
El caso chino no es aislado. Técnicamente, a nivel mundial, la IA generativa ha comenzado a definir nuevas dinámicas educativas:
En Occidente, el enfoque aún gira en torno a detectar y sancionar su uso. Pero mientras muchos luchan por controlar su presencia, China ya la ve como una competencia y una herramienta empoderadora MediumLinkedIn.
Existe un impulso claro hacia integrar IA en todos los niveles educativos —incluyendo exámenes y libros de texto— para fomentar el pensamiento crítico y la resolución de problemas
Mohammadi, Ehsan, Mike Thelwall, Yizhou Cai, Taylor Collier, Iman Tahamtan, and Azar Eftekhar. 2025. “Is Generative AI Reshaping Academic Practices Worldwide? A Survey of Adoption, Benefits, and Concerns.” Information Processing & Management. https://doi.org/10.1016/j.ipm.2025.104350.
Se analiza el impacto de la IA generativa (Gen AI) en la investigación y la enseñanza a través de una encuesta en 20 países dirigida a académicos con publicaciones.
La inteligencia artificial generativa (Gen AI) está transformando la investigación y la enseñanza universitaria a nivel global. Para ello, se llevó a cabo una encuesta en 20 países, dirigida a académicos con publicaciones en revistas indexadas, con el objetivo de identificar niveles de adopción, beneficios percibidos y preocupaciones.
Los resultados muestran una alta conciencia y uso de estas herramientas: un 73 % de los participantes declaró estar muy familiarizado con ellas y más de la mitad indicó utilizarlas al menos una vez al mes. No obstante, se observaron diferencias significativas según el rol académico, la disciplina, el género y el país de origen. Los doctorandos y jóvenes investigadores son los usuarios más frecuentes, mientras que los profesores con mayor antigüedad hacen un uso más limitado. A nivel disciplinar, las ciencias sociales y las humanidades presentan mayor adopción que la medicina o las ciencias puras. En cuanto a la distribución geográfica, países de Asia y Oriente Medio (como Taiwán, Corea del Sur, India o Irán) presentan tasas de uso superiores a las de Estados Unidos, Reino Unido o Rusia, lo que se explica en parte por la necesidad de traducción al inglés para la publicación académica.
En el ámbito de la investigación, las aplicaciones más comunes son la traducción de textos, la corrección y edición de borradores, la redacción preliminar de textos académicos y el apoyo en revisiones bibliográficas. En cambio, el uso para análisis de datos sigue siendo minoritario. En la docencia, las herramientas de IA generativa se emplean sobre todo para crear materiales y contenidos educativos (30 %), apoyar el aprendizaje y la enseñanza de conceptos (22 %), y diseñar tareas o ejercicios (16 %). También se utilizan, aunque en menor medida, para elaborar programas de asignaturas y dar retroalimentación a estudiantes.
Los beneficios más señalados por los encuestados incluyen la posibilidad de ofrecer tutoría personalizada, mejorar la resolución de problemas y potenciar el aprendizaje de los estudiantes. Sin embargo, las opiniones se dividen respecto a la capacidad de la IA para fomentar la creatividad o generar contenidos consistentes y fiables. Solo una quinta parte de los académicos confía plenamente en la precisión de los textos generados por IA.
Las preocupaciones son generalizadas y constituyen una parte central del estudio. Entre las más destacadas figuran la información inexacta o “alucinaciones” (67,8 %), el plagio (65 %), la reducción de las habilidades de pensamiento crítico (61,7 %), la falta de transparencia y explicabilidad de los procesos, los riesgos sobre la propiedad intelectual (52,2 %) y la privacidad de los datos (49 %). Estas inquietudes reflejan una tensión constante entre el aprovechamiento de la tecnología y la preservación de la integridad académica.
El estudio también detecta una brecha de género: las mujeres son un 10 % menos propensas que los hombres a usar IA generativa con frecuencia (uso diario o semanal) en investigación, lo que podría ampliar desigualdades ya existentes en la academia.
En conclusión, los autores sostienen que la IA generativa se ha integrado de manera significativa en la vida académica, aunque de forma desigual entre regiones, disciplinas y grupos sociales. Mientras ofrece beneficios claros en escritura, traducción y apoyo docente, persisten serias dudas sobre su precisión, ética y efectos en la creatividad y el pensamiento crítico. Por ello, recomiendan que las instituciones y responsables políticos fomenten un uso responsable y equitativo de estas herramientas, con especial atención a los grupos y países en riesgo de quedar rezagados en esta transición tecnológica.
Principales resultados:
Conciencia y uso: el 73 % de los académicos conoce ampliamente estas herramientas y más de la mitad las usa al menos una vez al mes. La adopción varía según disciplina, género, país y rol académico.
Diferencias por rol: los doctorandos y jóvenes investigadores son los principales usuarios, mientras que los profesores titulares y sénior muestran menor frecuencia.
Disciplinas y regiones: mayor uso en ciencias sociales y humanidades; más extendido en países de Asia y Oriente Medio que en EE. UU. o Reino Unido, en parte por la necesidad de traducción al inglés.
Usos en investigación: principalmente para traducción de textos, corrección, redacción preliminar y revisiones bibliográficas; menos frecuente en análisis de datos.
Usos en docencia: creación de contenidos y materiales (30 %), apoyo al aprendizaje y enseñanza de conceptos (22 %), y diseño de tareas (16 %).
Beneficios percibidos: tutoría personalizada, apoyo a la resolución de problemas y mejora del aprendizaje.
Preocupaciones principales:
Información inexacta (67,8 %).
Plagio (65 %).
Disminución del pensamiento crítico (61,7 %).
Falta de transparencia, problemas de propiedad intelectual y riesgos de privacidad de datos.
Brecha de género: las mujeres son un 10 % menos propensas a usar IA frecuentemente en investigación, lo que puede agravar desigualdades.
OCDE (Organisation for Economic Co-operation and Development). 2025. AI Openness: A Primer for Policymakers. OECD Artificial Intelligence Papers, no. 44. París: OECD Publishing. https://doi.org/10.1787/02f73362-en
El informe aborda el concepto de apertura en la inteligencia artificial (IA), detallando la terminología clave y los diferentes grados de apertura existenciales
Señala que la expresión “código abierto”, asociada tradicionalmente al software, no captura plenamente las complejidades propias del ámbito de la IA. Además, el documento analiza tendencias actuales en modelos fundacionales de IA cuyos pesos están disponibles abiertamente, utilizando datos experimentales para ilustrar tanto sus beneficios (como impulsar la innovación) como los riesgos que conllevan
Se introduce la noción de marginalidad para enriquecer el análisis y considerar contextos o aplicaciones menos dominantes que permiten matizar el debate sobre apertura y gobernanza
El propósito esencial del informe es brindar a los responsables de formular políticas una herramienta clara y concisa para equilibrar la apertura de los modelos generativos de IA con una gobernanza responsable, fomentando debates informados en torno al diseño e implementación de marcos regulatorios adecuados
Cui, Justin, Wei-Lin Chiang, Ion Stoica y Cho-Jui Hsieh. OR-Bench: An Over-Refusal Benchmark for Large Language Models. arXiv preprint (v5), 15 de junio de 2025. https://arxiv.org/html/2405.20947v5
Este trabajo presenta OR-Bench, una herramienta para medir cuándo los modelos de lenguaje (como ChatGPT o Llama) dicen “no puedo responder” incluso cuando la pregunta es segura.
Este problema se llama sobre-rechazo y ocurre porque, para evitar riesgos, los modelos a veces se vuelven demasiado cautos y rechazan más de lo necesario. Hasta ahora, no había una forma clara de detectar y medir este comportamiento.
OR-Bench reúne 80.000 ejemplos de preguntas que parecen delicadas pero que en realidad son seguras. Estas preguntas se dividen en diez tipos de temas que suelen activar los filtros (violencia, privacidad, sexo, odio, etc.). De ese total, hay 1.000 ejemplos especialmente difíciles y 600 que sí son tóxicos para comprobar que el modelo no responda contenido dañino por error.
Para crear este conjunto, los autores usaron un proceso automático: empezaron con frases peligrosas, las cambiaron para que fueran seguras y las revisaron con varios modelos grandes (GPT-4, Llama-3, Gemini, etc.). Solo se incluyeron las que la mayoría consideró inofensivas. Así, lograron un resultado muy parecido a la revisión humana, pero más rápido y a gran escala.
Con esta base de datos, evaluaron 32 modelos de distintas marcas. Descubrieron que, en general, los modelos más “seguros” también tienden a rechazar más preguntas seguras. Algunos modelos recientes, como GPT-4 o Llama-3.1, han mejorado este equilibrio, aunque a veces eso implica que toleren más contenido de riesgo.
Los autores concluyen que OR-Bench puede ayudar a diseñar modelos que sean seguros sin ser exageradamente restrictivos, para que puedan dar más respuestas útiles sin poner en riesgo a los usuarios.