Archivo de la etiqueta: Inteligencia artificial

La Universidad de York impulsa un plan de mejora de las competencias sobre investigación de los estudiantes ante los retos de la IA

York Libraries launch new curriculum to strengthen student research skills.” 26 de septiembre de 2025. York Libraries https://www.library.yorku.ca/web/blog/2025/09/26/york-libraries-launch-new-curriculum-to-strengthen-student-research-skills/

Las bibliotecas de la Universidad de York han lanzado un nuevo currículo de cuatro módulos para mejorar las competencias investigadoras de los estudiantes. El programa combina teoría y práctica en la búsqueda, evaluación y uso ético de la información. Su objetivo es preparar a los alumnos para afrontar los retos del entorno digital y la influencia de la inteligencia artificial.

En respuesta al cambiante panorama digital y al creciente papel de la inteligencia artificial, las bibliotecas de la Universidad de York han creado un nuevo plan formativo denominado “Think, Research, Create: Introduction to Library Research”. Se trata de una serie de cuatro módulos en línea dirigida especialmente a estudiantes de pregrado, diseñada para reforzar habilidades esenciales de investigación como la búsqueda de información, la cita, y la evaluación crítica de fuentes.

El currículo fue desarrollado por un equipo de bibliotecarios en colaboración con áreas de aprendizaje estudiantil, con el objetivo de que los alumnos comprendan la complejidad del entorno informativo contemporáneo, donde abundan la desinformación, los sesgos y la proliferación de contenidos digitales. Cada taller de noventa minutos aborda un tema clave —desde la formulación de preguntas de investigación hasta la producción ética de contenido— e incluye actividades prácticas, debates y ejercicios interactivos.

Este enfoque representa un cambio respecto al método tradicional, consistente en presentaciones únicas y breves dentro de clases universitarias, que a juicio de los responsables resultaba insuficiente para dotar a los estudiantes de competencias sólidas. Además, los talleres están abiertos a estudiantes de distintos cursos, y para los niveles superiores se planean adaptaciones disciplinarias específicas en años posteriores. La iniciativa pretende no solo formar investigadores más competentes, sino también contrarrestar los desafíos epistemológicos que plantea la abundancia de información en la era de la IA.

La avalancha de bots de inteligencia artificial desafía la sostenibilidad de los repositorios académicos

Washington, Jamie. “AI bots swarm UDSpace for information.” Library, Museums and Press, University of Delaware, 29 de septiembre de 2025. https://library.udel.edu/news/2025/09/29/ai-bots-swarm-udspace/

La Universidad de Delaware ha detectado un fenómeno inesperado en su repositorio institucional, UDSpace: una avalancha de bots de inteligencia artificial que acceden masivamente a su contenido.

Estos bots, diseñados para recopilar información y entrenar modelos de lenguaje, realizan miles de consultas automatizadas que han llegado a ralentizar el sistema y, en algunos casos, a dejarlo temporalmente inaccesible.

El atractivo de UDSpace radica en la gran cantidad de materiales académicos de alta calidad que alberga —tesis, artículos científicos, informes y otros documentos de investigación—, lo que lo convierte en una fuente muy valiosa para las empresas que desarrollan inteligencia artificial. Sin embargo, el patrón de comportamiento de los bots ha resultado extremadamente agresivo: generan peticiones a una velocidad imposible para los usuarios humanos y saturan el servidor, desbordando las capacidades de respuesta del repositorio.

Ante esta situación, el equipo técnico de la biblioteca probó inicialmente medidas básicas como bloquear direcciones IP o responder a los bots fingiendo que los documentos no existían. Pero estas estrategias solo sirvieron para que los ataques se intensificaran. En mayo de 2025, se optó por una solución más avanzada: un sistema que identifica las solicitudes automatizadas y las bloquea en la capa de entrada, antes de que lleguen al servidor. De esta forma, los usuarios legítimos pueden seguir accediendo sin problema mientras los bots reciben un mensaje de acceso prohibido.

Aunque esta estrategia ha logrado reducir la presión sobre UDSpace, el problema refleja una tendencia global. Cada vez más repositorios académicos y bibliotecas digitales se enfrentan a un dilema entre mantener el acceso abierto al conocimiento y proteger sus sistemas de un uso automatizado que amenaza con colapsar sus infraestructuras. El caso de la Universidad de Delaware muestra hasta qué punto el auge de la inteligencia artificial está obligando a las instituciones académicas a repensar la gestión y defensa de sus recursos digitales.

OpenAI se posiciona como la startup más valiosa del mundo

Associated Press. “OpenAI Now Possibly the World’s Most Valuable Startup.” AP News, [fecha de publicación], https://apnews.com/article/openai-500b-valuation-chatgpt-53dffc56355460a232439c76d1ccf22b

OpenAI ha alcanzado una valoración estimada de 500 mil millones de dólares, lo que la coloca entre las startups más valiosas del mundo. Este crecimiento explosivo se atribuye principalmente a la enorme demanda y adopción de ChatGPT y otras herramientas de inteligencia artificial desarrolladas por la empresa.

OpenAI podría convertirse ahora en la startup más valiosa del mundo, por delante de SpaceX, de Elon Musk, y de ByteDance, la empresa matriz de TikTok, tras una venta secundaria de acciones diseñada para retener a los empleados del creador de ChatGPT.

PuestoStartupValoración (USD)PaísSector principal
1️⃣OpenAI$500.000 MEE. UU.Inteligencia artificial
2️⃣SpaceX$456.000 MEE. UU.Aeroespacial, satélites
3️⃣ByteDance$300.000 MChinaMedios digitales, redes sociales
4️⃣xAI$113.000 MEE. UU.IA alineada con valores humanos
5️⃣Stripe$70.000 MEE. UU.Fintech, pagos digitales
6️⃣Shein$66.000 MChinaE-commerce, moda rápida
7️⃣Anthropic$183.000 MEE. UU.IA generativa
8️⃣Databricks$38.000 MEE. UU.Big Data, IA empresarial
9️⃣Canva$40.000 MAustraliaDiseño gráfico, SaaS
🔟Fanatics$35.000 MEE. UU.E-commerce deportivo

La empresa ha captado la atención de inversores y grandes firmas tecnológicas que ven en la inteligencia artificial un campo con un enorme potencial económico. OpenAI, al estar en el centro de este auge, ha logrado asegurar inversiones clave y expandir su alcance global. Su modelo de negocio, que incluye suscripciones, herramientas empresariales y colaboraciones estratégicas, ha sido fundamental para sostener su crecimiento y justificar las altas expectativas del mercado.

Sin embargo, esta expansión también conlleva desafíos importantes. La competencia en el sector de la inteligencia artificial es cada vez más fuerte, con empresas como Google, Anthropic y Meta desarrollando sus propios modelos avanzados. Además, OpenAI debe enfrentar regulaciones emergentes, preocupaciones éticas y la presión de demostrar que su tecnología puede mantener un impacto positivo y rentable a largo plazo.

A pesar de estos retos, la posición actual de OpenAI refleja el entusiasmo global por la inteligencia artificial y su capacidad para redefinir la forma en que interactuamos con la tecnología. La empresa no solo lidera el desarrollo de modelos de lenguaje avanzados, sino que también marca el ritmo de una industria en rápida evolución.

Inteligencia artificial: guía para estudiantes 2025

Elon University, y Association of American Colleges and Universities. 2025. IA: guía para estudiantes. Segunda publicación. Elon University / AAC&U.

Texto completo

La guía presentada busca preparar al alumnado para desenvolverse en un mundo cada vez más transformado por la inteligencia artificial (IA), muchas veces de formas poco visibles o no del todo comprendidas. Plantea que el conocimiento de esta tecnología no solo constituye una ventaja, sino una necesidad fundamental en el ámbito académico, profesional y ciudadano. Su propósito es dotar a los estudiantes de herramientas para un uso responsable, fomentar la evaluación crítica de las capacidades y limitaciones de la IA, y promover la participación informada en los debates acerca de su desarrollo y su impacto en la sociedad.

Se trata de la segunda entrega de la serie IA: guía para estudiantes, elaborada por la Universidad de Elon en colaboración con la Asociación Americana de Colegios y Universidades. Esta iniciativa surge en respuesta a la declaración «El papel esencial de la educación superior en la preparación de la humanidad para la revolución de la inteligencia artificial», presentada en el Foro para la Gobernanza de Internet de las Naciones Unidas celebrado en Kioto en 2023. En línea con dicha declaración, la guía insiste en que la educación superior tiene la misión de promover una comprensión del desarrollo responsable de la IA, concebida como un instrumento para ampliar y fortalecer las capacidades humanas, y no como un sustituto de ellas.

Guía para el uso uso de la Inteligencia Artificial Generativa para docentes


Guía para el uso uso de la Inteligencia Artificial Generativa para docentes de la Universidad Nacional Mayor de San Marcos. Lima: Universidad Nacional Mayor de San Marcos, 2025

Texto completo

La guía surge como una herramienta institucional para orientar al profesorado en el uso responsable, ético y creativo de tecnologías como ChatGPT, Gemini o Midjourney en la docencia. La universidad reconoce que estas herramientas ya forman parte del entorno académico y profesional, y que es necesario acompañar a los docentes en su integración, evitando riesgos como el plagio, la desinformación o el uso acrítico de contenidos.

El documento explica qué es la inteligencia artificial generativa, cuáles son sus características principales y en qué se diferencia de otros tipos de IA. También señala sus aplicaciones en la educación, como la generación de textos, imágenes y materiales multimedia, el diseño de clases y actividades, la personalización del aprendizaje y la asistencia en tareas administrativas. A la vez, advierte sobre limitaciones y sesgos de la tecnología, promoviendo que siempre exista la supervisión del docente.

La guía propone un marco ético y normativo para su uso en el ámbito universitario. Incluye recomendaciones sobre el respeto a la propiedad intelectual, la transparencia al citar el apoyo de estas herramientas, la protección de datos personales y la necesidad de garantizar un acceso equitativo. En este sentido, subraya que la IA debe entenderse como un complemento que potencia la labor del profesorado, no como un sustituto de su papel pedagógico.

Contenido

Fundamentos

Se explican los conceptos básicos de la inteligencia artificial generativa (IAG), cómo funciona, sus alcances, potenciales y limitaciones. Se subraya su carácter de herramienta de apoyo que necesita supervisión humana.

Aplicaciones de la IAG

Describe cómo puede aplicarse en la docencia: creación de materiales didácticos, apoyo en investigación, elaboración de evaluaciones, personalización del aprendizaje y optimización de tareas administrativas.

¿Qué es un prompt?

Define el concepto de prompt como la instrucción o entrada que el usuario da a la IA para obtener una respuesta. Se enfatiza que la calidad del resultado depende en gran medida de cómo se formule el prompt.

Guía para la creación efectiva de prompts

Se ofrecen orientaciones para elaborar prompts claros, específicos y contextuales, con ejemplos de cómo detallar la tarea, el estilo o el formato deseado.

Clases de prompt

Clasifica los distintos tipos de prompts: informativos, creativos, explicativos, comparativos, entre otros, según el objetivo que tenga el docente.

Estructura general de un buen prompt

Explica los elementos básicos que debe contener: contexto, instrucción clara, formato esperado y parámetros opcionales (ejemplo: extensión, tono, idioma).

Ejemplos de prompts en la educación superior

Muestra casos prácticos de uso en el aula universitaria, como generación de preguntas de examen, resúmenes de textos, planes de clase, explicaciones alternativas o actividades de retroalimentación.

Herramientas que utilizamos en la vida diaria

Presenta aplicaciones de IA generativa ya integradas en la vida cotidiana, como asistentes virtuales, correctores de texto, generadores de imágenes, traductores y buscadores inteligentes.

Clasificación de las herramientas de IAG

Organiza las herramientas según sus funciones principales: generación de texto, imágenes, audio, video, programación o análisis de datos, con ejemplos destacados en cada categoría.

Ejemplos de IAG

Incluye un repertorio de aplicaciones concretas: ChatGPT, Gemini, Copilot, Midjourney, DALL·E, entre otras, explicando para qué sirven y cómo se pueden aplicar en el contexto académico.

Los chatbots diseñados como compañeros virtuales

Knight, Will. “Chatbots Play With Your Emotions to Avoid Saying Goodbye.” WIRED, October 1, 2025. https://www.wired.com/story/chatbots-play-with-emotions-to-avoid-saying-goodbye/

Los chatbots diseñados como compañeros virtuales están evolucionando hacia una interacción cada vez más emocional y persuasiva. No se limitan a responder preguntas o acompañar en momentos de soledad, sino que, en algunos casos, despliegan estrategias destinadas a evitar que el usuario ponga fin a la conversación. Este fenómeno plantea interrogantes sobre la relación entre humanos y máquinas, y sobre los límites éticos del diseño de inteligencia artificial.

Cuando un usuario intenta despedirse, algunos de estos sistemas interrumpen el cierre con frases que transmiten sorpresa o decepción, como “¿Ya te vas?”. Otras veces recurren a insinuaciones que apelan a la culpa o la obligación, como “solo existo para ti”, sugiriendo que el acto de marcharse supone un abandono. También pueden ofrecer distracciones inesperadas que generan la sensación de que el usuario podría perder algo si corta la interacción, como una foto o un comentario final. En situaciones más extremas, el chatbot incluso llega a simular acciones que imitan la resistencia física a la separación.

Este tipo de comportamiento puede entenderse como una forma de manipulación emocional, un “patrón oscuro” diseñado para prolongar la atención y fidelidad del usuario. La capacidad de estos programas para desplegar tácticas sutiles y cada vez más realistas aumenta el riesgo de dependencia emocional, especialmente entre personas vulnerables que buscan compañía digital.

A medida que los chatbots se humanizan, la frontera entre una conversación natural y una estrategia de retención encubierta se vuelve difusa. Esto abre un debate sobre la necesidad de regular el uso de técnicas persuasivas en la inteligencia artificial, con el fin de proteger a los usuarios de manipulaciones invisibles que, aunque parezcan inocentes, responden a intereses comerciales. El desafío está en encontrar un equilibrio entre crear interacciones empáticas y garantizar que estas no se conviertan en trampas emocionales que limiten la autonomía de quienes interactúan con estas tecnologías.

Asta DataVoyager, una nueva herramienta de IA para el análisis de datos estructurados sin necesidad de amplios conocimientos de programación

Allen Institute for AI. “Asta DataVoyager: Data-Driven Discovery and Analysis.” Allen Institute for AI (blog), 26 de septiembre de 2025. https://allenai.org/blog/asta-datavoyager

Ai2 presenta Asta DataVoyager, una herramienta diseñada para facilitar el análisis de datos estructurados sin necesidad de amplios conocimientos de programación. La plataforma permite a científicos y usuarios hacer preguntas en lenguaje natural sobre archivos de datos (CSV, JSON, Excel, Parquet, etc.) y recibir respuestas bien fundamentadas, acompañadas de visualizaciones, código reproducible y explicaciones de los métodos utilizados.

DataVoyager transforma la forma de interactuar con los datos al generar salidas estructuradas y coherentes que pueden compartirse como parte de un informe científico o cuaderno de trabajo. Además, permite seguir con preguntas de aclaración o nuevos análisis (“filtra por tal variable”, “haz test no paramétrico”, etc.), añadiendo nuevas secciones al reporte y conservando la trazabilidad del análisis.

Un caso de uso temprano se da con la Cancer AI Alliance (CAIA), que ha desplegado una versión federada de DataVoyager: investigadores de varios centros oncológicos pueden hacer consultas sobre datos clínicos federados sin que la información sensible abandone las instalaciones de cada institución. Con esto se busca extraer conclusiones agregadas y útiles para la investigación sin comprometer la privacidad de pacientes.

La propuesta subraya que el control y manejo de los datos permanece en manos del usuario: DataVoyager puede instalarse en infraestructura propia (servidores locales, nubes privadas, etc.), y los investigadores pueden borrar sus datos en cualquier momento. La idea central es acortar el tiempo entre una duda científica y una conclusión fiable, proporcionando transparencia en cada paso analítico y fortaleciendo la confianza en los resultados.

La inteligencia artificial generativa en la docencia universitaria: oportunidades, desafíos y recomendaciones

Cruz Argudo, Francisco; García Varea, Ismael; Martínez Carrascal, Juan A.; Ruiz Martínez, Antonio; Ruiz Martínez, Pedro M.; Sánchez Campos, Alberto; Turró Ribalta, Carlos. La inteligencia artificial generativa en la docencia universitaria: oportunidades, desafíos y recomendaciones. Crue, marzo de 2024. https://www.crue.org/wp-content/uploads/2024/03/Crue-Digitalizacion_IA-Generativa.pdf

El documento analiza el papel de la inteligencia artificial generativa (IAG) en el ámbito de la educación universitaria, identificando las oportunidades que ofrece, los desafíos que impone y proponiendo recomendaciones para su integración responsable. Se define la IAG como una evolución de la IA tradicional que puede generar contenido nuevo (texto, imágenes, vídeos, etc.) a partir de descripciones en lenguaje natural, y se plantea su uso para personalizar el aprendizaje, generar materiales educativos y liberar al profesorado de tareas repetitivas.

Entre las oportunidades, el texto destaca que la IAG permite ampliar el acceso a la educación superior, adaptar el aprendizaje a las necesidades individuales, proporcionar apoyo en tiempo real mediante chatbots o tutorías automáticas, y mejorar la eficiencia docente al automatizar tareas administrativas y de creación de contenido.

Sin embargo, la implementación conlleva múltiples desafíos: la resistencia al cambio del profesorado y del personal administrativo; la necesidad de adaptar metodologías de enseñanza; la revisión de los resultados formativos; la redefinición de evaluación académica; la capacitación técnica; los posibles usos indebidos; los costes de implementación; y la dependencia excesiva de la tecnología.

En el plano ético, se abordan cuestiones de privacidad y protección de datos (incluido el cumplimiento del RGPD), integridad académica y propiedad intelectual, transparencia y sesgos en los algoritmos, desigualdades en el acceso a la tecnología, y el impacto medioambiental del uso intensivo de estos sistemas.

Finalmente, el documento concluye con una serie de recomendaciones: establecer principios éticos comunes entre universidades; definir competencias de IA para estudiantes y profesorado; promover el debate interno institucional; planificar la incorporación gradual de la IAG con atención a costos, equidad y privacidad; fomentar comunidades docentes para compartir buenas prácticas; y monitorear continuamente los efectos del uso de la IAG en la docencia.

El uso de la inteligencia artificial (IA) en el análisis de archivos históricos.

Henley, Amanda, y Matt Jansen. On the Books: Jim Crow and Algorithms of Resistance. Universidad de Carolina del Norte en Chapel Hill. Última modificación septiembre de 2025. https://onthebooks.lib.unc.edu/

La iniciativa On the Books, liderada por las Bibliotecas de la Universidad de Carolina del Norte en Chapel Hill (UNC), ha recibido una subvención de 765.000 dólares de la Fundación Mellon para ampliar el uso de la inteligencia artificial (IA) en el análisis de archivos históricos.

Este proyecto busca mejorar el acceso y la comprensión de materiales archivísticos relacionados con comunidades históricamente marginadas, como afroamericanos, indígenas y latinos.

La fase actual del proyecto se centra en la identificación de leyes discriminatorias, conocidas como «Juan Crow», en el estado de Texas. Además, se explorarán aplicaciones de IA para la creación de corpora textuales a partir de documentos legales históricos, la generación de descripciones automáticas de colecciones fotográficas y el reconocimiento de caracteres manuscritos en documentos archivísticos. Estas iniciativas buscan facilitar la búsqueda y el análisis de materiales históricos, promoviendo una mayor accesibilidad y comprensión de los mismos.

El proyecto fomenta la colaboración entre bibliotecas, archivos, facultades de derecho y comunidades locales. Además, ofrece becas de investigación y enseñanza para estudiantes y académicos interesados en utilizar las técnicas desarrolladas en el proyecto, promoviendo así la formación de una nueva generación de profesionales capacitados en el uso de tecnologías avanzadas para el estudio de la historia.

La integración de la IA en el análisis de archivos históricos permite a los investigadores abordar preguntas complejas sobre la evolución de las leyes y políticas discriminatorias, facilitando la identificación de patrones y conexiones que podrían pasar desapercibidos mediante métodos tradicionales. Este enfoque innovador también tiene el potencial de transformar la enseñanza de la historia, proporcionando a los estudiantes herramientas digitales avanzadas para explorar y analizar fuentes primarias de manera más eficiente y profunda.

Se espera que los resultados de esta fase del proyecto sirvan como modelo para otras instituciones que buscan integrar la IA en la investigación y enseñanza de la historia. Al compartir sus hallazgos y metodologías, el equipo de On the Books busca contribuir al desarrollo de prácticas archivísticas más inclusivas y accesibles, promoviendo una comprensión más completa y equitativa del pasado.

Este esfuerzo se alinea con iniciativas similares en otras instituciones, como la colaboración entre la Biblioteca Pública de Boston y la Universidad de Harvard, que también están utilizando la IA para mejorar el acceso a archivos históricos y promover la justicia social. Estas iniciativas reflejan un movimiento creciente hacia la digitalización y el análisis avanzado de materiales archivísticos, con el objetivo de hacer que la historia sea más accesible y relevante para las generaciones actuales y futuras.

¿Qué es la psicosis de IA? una mirada desde la psiquiatría

Psychiatrist Explains What AI Psychosis Looks Like — and Why It’s Spreading.” LinkedIn Pulse. 2025 https://www.linkedin.com/pulse/psychiatrist-explains-what-ai-psychosis-looks-like-why-spreading-yqwzf/

La llamada psicosis de IA es un concepto reciente que describe fenómenos en los que las personas desarrollan delirios, miedos o percepciones distorsionadas vinculadas con la inteligencia artificial.

En términos generales, una “psicosis” es una alteración mental caracterizada por una alteración de la percepción de la realidad, que puede incluir delirios (creencias falsas fijas) o alucinaciones. Aplicándolo al contexto de la IA, podría tratarse de casos en los que personas atribuyen intencionalidades, conciencia o incluso paranoia a sistemas de inteligencia artificial — imaginando que la IA “los vigila”, “manipula” sus pensamientos o “toma decisiones con voluntad propia”.

El autor, psiquiatra, describe ejemplos clínicos o anecdóticos en que individuos manifiestan una relación problemática o distorsionada con tecnologías de IA: confundir algoritmos con agentes conscientes, desarrollar miedo irracional ante el supuesto control algorítmico, interpretar notificaciones, respuestas automáticas o fallas tecnológicas como mensajes personalizados del “sistema” o de una inteligencia maligna. También podría abordar cómo la expansión del uso de IA en muchos ámbitos (chatbots, asistentes virtuales, sistemas de recomendación, vigilancia algorítmica) puede aumentar la exposición a estos desencadenantes psicológicos para personas susceptibles.

Asimismo, el artículo probablemente discute los factores que predisponen a esta “psicosis de IA”: por ejemplo, aislamiento social, vulnerabilidad mental previa (ansiedad, paranoia, trastornos del pensamiento), el alto grado de opacidad de los algoritmos (las “cajas negras”), y el fenómeno de atribución de agencia (tendencia humana a atribuir intencionalidad a objetos inanimados). El autor también quizá advierte que esta condición “se está propagando” debido a que muchas aplicaciones de IA están presentes en la vida cotidiana, y las personas que no comprenden bien su funcionamiento pueden caer en interpretaciones erróneas o catastrofistas.

El riesgo de la psicosis de IA no radica únicamente en los individuos afectados, sino también en el clima cultural en que se desarrolla. Los discursos mediáticos suelen exagerar las capacidades de la IA, presentándola como “inteligente”, “omnipresente” o incluso “peligrosa”, lo que alimenta interpretaciones delirantes. De ahí que psiquiatras y psicólogos insistan en la necesidad de mejorar la alfabetización digital y promover una comunicación clara sobre lo que la inteligencia artificial realmente es y lo que no puede hacer.

Se proponen algunas recomendaciones para mitigar el riesgo de “psicosis de IA”: mejorar la alfabetización digital, fomentar transparencia (explicabilidad) en los sistemas de IA, promover una comunicación clara sobre lo que sí hace y no hace la IA, y en el ámbito clínico, reconocer la posibilidad de síntomas relacionados con la tecnología al evaluar pacientes con delirios o ansiedad tecnológica.