Archivo de la etiqueta: Inteligencia artificial

El uso de la inteligencia artificial (IA) en el análisis de archivos históricos.

Henley, Amanda, y Matt Jansen. On the Books: Jim Crow and Algorithms of Resistance. Universidad de Carolina del Norte en Chapel Hill. Última modificación septiembre de 2025. https://onthebooks.lib.unc.edu/

La iniciativa On the Books, liderada por las Bibliotecas de la Universidad de Carolina del Norte en Chapel Hill (UNC), ha recibido una subvención de 765.000 dólares de la Fundación Mellon para ampliar el uso de la inteligencia artificial (IA) en el análisis de archivos históricos.

Este proyecto busca mejorar el acceso y la comprensión de materiales archivísticos relacionados con comunidades históricamente marginadas, como afroamericanos, indígenas y latinos.

La fase actual del proyecto se centra en la identificación de leyes discriminatorias, conocidas como «Juan Crow», en el estado de Texas. Además, se explorarán aplicaciones de IA para la creación de corpora textuales a partir de documentos legales históricos, la generación de descripciones automáticas de colecciones fotográficas y el reconocimiento de caracteres manuscritos en documentos archivísticos. Estas iniciativas buscan facilitar la búsqueda y el análisis de materiales históricos, promoviendo una mayor accesibilidad y comprensión de los mismos.

El proyecto fomenta la colaboración entre bibliotecas, archivos, facultades de derecho y comunidades locales. Además, ofrece becas de investigación y enseñanza para estudiantes y académicos interesados en utilizar las técnicas desarrolladas en el proyecto, promoviendo así la formación de una nueva generación de profesionales capacitados en el uso de tecnologías avanzadas para el estudio de la historia.

La integración de la IA en el análisis de archivos históricos permite a los investigadores abordar preguntas complejas sobre la evolución de las leyes y políticas discriminatorias, facilitando la identificación de patrones y conexiones que podrían pasar desapercibidos mediante métodos tradicionales. Este enfoque innovador también tiene el potencial de transformar la enseñanza de la historia, proporcionando a los estudiantes herramientas digitales avanzadas para explorar y analizar fuentes primarias de manera más eficiente y profunda.

Se espera que los resultados de esta fase del proyecto sirvan como modelo para otras instituciones que buscan integrar la IA en la investigación y enseñanza de la historia. Al compartir sus hallazgos y metodologías, el equipo de On the Books busca contribuir al desarrollo de prácticas archivísticas más inclusivas y accesibles, promoviendo una comprensión más completa y equitativa del pasado.

Este esfuerzo se alinea con iniciativas similares en otras instituciones, como la colaboración entre la Biblioteca Pública de Boston y la Universidad de Harvard, que también están utilizando la IA para mejorar el acceso a archivos históricos y promover la justicia social. Estas iniciativas reflejan un movimiento creciente hacia la digitalización y el análisis avanzado de materiales archivísticos, con el objetivo de hacer que la historia sea más accesible y relevante para las generaciones actuales y futuras.

¿Qué es la psicosis de IA? una mirada desde la psiquiatría

Psychiatrist Explains What AI Psychosis Looks Like — and Why It’s Spreading.” LinkedIn Pulse. 2025 https://www.linkedin.com/pulse/psychiatrist-explains-what-ai-psychosis-looks-like-why-spreading-yqwzf/

La llamada psicosis de IA es un concepto reciente que describe fenómenos en los que las personas desarrollan delirios, miedos o percepciones distorsionadas vinculadas con la inteligencia artificial.

En términos generales, una “psicosis” es una alteración mental caracterizada por una alteración de la percepción de la realidad, que puede incluir delirios (creencias falsas fijas) o alucinaciones. Aplicándolo al contexto de la IA, podría tratarse de casos en los que personas atribuyen intencionalidades, conciencia o incluso paranoia a sistemas de inteligencia artificial — imaginando que la IA “los vigila”, “manipula” sus pensamientos o “toma decisiones con voluntad propia”.

El autor, psiquiatra, describe ejemplos clínicos o anecdóticos en que individuos manifiestan una relación problemática o distorsionada con tecnologías de IA: confundir algoritmos con agentes conscientes, desarrollar miedo irracional ante el supuesto control algorítmico, interpretar notificaciones, respuestas automáticas o fallas tecnológicas como mensajes personalizados del “sistema” o de una inteligencia maligna. También podría abordar cómo la expansión del uso de IA en muchos ámbitos (chatbots, asistentes virtuales, sistemas de recomendación, vigilancia algorítmica) puede aumentar la exposición a estos desencadenantes psicológicos para personas susceptibles.

Asimismo, el artículo probablemente discute los factores que predisponen a esta “psicosis de IA”: por ejemplo, aislamiento social, vulnerabilidad mental previa (ansiedad, paranoia, trastornos del pensamiento), el alto grado de opacidad de los algoritmos (las “cajas negras”), y el fenómeno de atribución de agencia (tendencia humana a atribuir intencionalidad a objetos inanimados). El autor también quizá advierte que esta condición “se está propagando” debido a que muchas aplicaciones de IA están presentes en la vida cotidiana, y las personas que no comprenden bien su funcionamiento pueden caer en interpretaciones erróneas o catastrofistas.

El riesgo de la psicosis de IA no radica únicamente en los individuos afectados, sino también en el clima cultural en que se desarrolla. Los discursos mediáticos suelen exagerar las capacidades de la IA, presentándola como “inteligente”, “omnipresente” o incluso “peligrosa”, lo que alimenta interpretaciones delirantes. De ahí que psiquiatras y psicólogos insistan en la necesidad de mejorar la alfabetización digital y promover una comunicación clara sobre lo que la inteligencia artificial realmente es y lo que no puede hacer.

Se proponen algunas recomendaciones para mitigar el riesgo de “psicosis de IA”: mejorar la alfabetización digital, fomentar transparencia (explicabilidad) en los sistemas de IA, promover una comunicación clara sobre lo que sí hace y no hace la IA, y en el ámbito clínico, reconocer la posibilidad de síntomas relacionados con la tecnología al evaluar pacientes con delirios o ansiedad tecnológica.

Catálogo de Prompts

Ávila Vergara, Vilton, Leddy Diana Pájaro Zapardiel y Marcela Varas Riquelme. Catálogo de Prompts. Broward International University, Maestría en Ciencias de la Educación Virtual, curso Introduction to Artificial Intelligence in Education. Dirigido por Dr. Arsenio Pérez Pérez. Junio de 2024.

Texto completo

El Catálogo de Prompts es un proyecto académico orientado a mostrar cómo la inteligencia artificial generativa (IAG) puede aplicarse en el ámbito educativo a través de la formulación de instrucciones o prompts. Los autores destacan que la efectividad de los modelos de lenguaje depende en gran medida de la claridad, especificidad y contexto de las instrucciones, lo que permite generar respuestas más útiles y coherentes.

El documento explica las características clave de un buen prompt —claridad, contexto, especificidad, longitud adecuada, orientación, tono y relevancia—, ilustrándolas con ejemplos prácticos. Además, propone una clasificación de prompts según su función: estructurales, secuenciales, argumentales, condicionales, comparativos y abiertos, cada uno con aplicaciones específicas en procesos de enseñanza y aprendizaje.

También se aborda el concepto de shot prompting (zero-shot, one-shot y few-shot), que describe diferentes estrategias para guiar a los modelos con ejemplos. Se presenta la estructura básica de un prompt (contexto, instrucción, detalles y cierre) y se mencionan esquemas prácticos como RTF (Rol–Tarea–Formato) o CARE (Contexto–Acción–Resultado–Ejemplos), que ayudan a estandarizar y optimizar su diseño.

El catálogo incluye más de veinte ejemplos de prompts diseñados específicamente para contextos educativos: desde generar preguntas y actividades en clase, crear evaluaciones y autoevaluaciones, hasta elaborar recursos didácticos, bibliografías comentadas o presentaciones digitales. Estos modelos buscan facilitar la labor docente, personalizar el aprendizaje y fomentar la reflexión crítica entre estudiantes.

Finalmente, se realizó una prueba práctica de un prompt complejo en diferentes LLMs gratuitos (ChatGPT, Perplexity, Gemini y Claude), comprobando que la calidad de las respuestas varía según la plataforma, aunque todas resultaron funcionales. La conclusión resalta la importancia de la “ingeniería de prompts” como proceso iterativo y esencial para optimizar la interacción entre usuarios y sistemas de IA, así como el potencial de esta herramienta para transformar la educación.

Acuerdo histórico de 1.500 millones de dólares entre Anthropic y autores por uso no autorizado de libros por su inteligencia artificial

Ortutay, Barbara. “Judge Approves $1.5 Billion Copyright Settlement Between AI Company Anthropic and Authors.” AP News, 25 de septiembre de 2025. https://apnews.com/article/anthropic-authors-copyright-judge-artificial-intelligence-9643064e847a5e88ef6ee8b620b3a44c

Un juez aprobó un acuerdo de 1.500 millones de dólares entre Anthropic y autores cuyos libros fueron usados sin permiso para entrenar su IA. Cada obra recibirá aproximadamente 3.000 dólares, aunque no cubre libros futuros. El caso sienta un precedente clave en la protección de derechos de autor frente a tecnologías de inteligencia artificial.

El 25 de septiembre de 2025, un juez federal aprobó preliminarmente un acuerdo histórico de 1.500 millones de dólares entre la empresa de inteligencia artificial Anthropic y un grupo de autores y editores. La disputa surgió cuando los autores denunciaron que la compañía había utilizado sin autorización cerca de 465.000 libros protegidos por derechos de autor para entrenar su modelo de lenguaje Claude. Este acuerdo prevé una compensación de aproximadamente 3.000 dólares por cada libro afectado, aunque no contempla obras que se publiquen en el futuro. El juez destacó la complejidad de distribuir los fondos de manera justa, pero consideró que el acuerdo era razonable y proporcionado para las partes involucradas.

La demanda original fue presentada por varios escritores que alegaban que Anthropic había recopilado ilegalmente millones de libros, almacenándolos en una biblioteca central para alimentar su sistema de inteligencia artificial. A pesar de que en una decisión previa se había reconocido que el uso de ciertos libros para entrenamiento podía considerarse un uso justo, el juez determinó que la compañía sí había infringido los derechos de autor al almacenar y explotar un volumen tan grande de obras sin permiso. Este punto resultó clave para la aprobación del acuerdo, al establecer un reconocimiento de responsabilidad por parte de la empresa.

Este acuerdo marca un precedente importante en el ámbito de la inteligencia artificial y los derechos de autor. Por primera vez, una compañía tecnológica se compromete a una compensación multimillonaria por el uso no autorizado de obras literarias, lo que podría influir en futuras disputas legales y en la manera en que los desarrolladores de IA acceden a contenido protegido. Representa un avance significativo en la protección de los autores y en la reivindicación de sus derechos frente a grandes empresas tecnológicas.

Anthropic expresó su satisfacción por la resolución, afirmando que este acuerdo les permitirá centrarse en el desarrollo de herramientas de inteligencia artificial de manera responsable y segura. El juez, por su parte, subrayó la importancia de garantizar un proceso de reclamaciones transparente, de modo que todos los autores, incluidos aquellos menos conocidos, puedan recibir una compensación justa. En conjunto, este caso refleja un punto de inflexión en la relación entre la tecnología y la propiedad intelectual, estableciendo límites claros sobre el uso de obras protegidas en la creación de sistemas de IA.

Plan de acción Horizont 2025: Fomentar las habilidades y la alfabetización digital para la enseñanza con IA generativa

Robert, Jenay. 2025. “2025 Horizon Action Plan: Building Skills and Literacy for Teaching with GenAI.” EDUCAUSE Library, September 29, 2025. https://library.educause.edu/resources/2025/9/2025-educause-horizon-action-plan-building-skills-and-literacy-for-teaching-with-genai

El documento parte de la idea de que la inteligencia artificial generativa (GenAI) ya está transformando profundamente la educación superior. Frente a ese impacto, los autores reclaman que las instituciones educativas no respondan pasivamente, sino que tomen un rol activo en diseñar el futuro que quieran ver. Con ese propósito, se conformó un panel global de expertos que proyectó escenarios futuros ideales para la integración de GenAI en la educación, y a partir de ellos se elaboró este “plan de acción” con pasos concretos para alcanzarlos.

El informe propone que el desarrollo de competencias y alfabetización digital para enseñar con GenAI debe estructurarse de manera intencional. Entre los ámbitos de intervención que se destacan están: formación docente específica en herramientas de IA, gobernanza institucional del uso de IA, prácticas pedagógicas emergentes, fortalecimiento de la alfabetización digital crítica, interoperabilidad con sistemas educativos existentes y medidas de ciberseguridad.

  • Herramientas de IA para la enseñanza y el aprendizaje
  • Formación del profesorado en IA generativa
  • Gobernanza de la IA
  • Fortalecimiento de la ciberseguridad
  • Innovación en las prácticas docentes
  • Alfabetización digital crítica

Se enfatiza que no hay un único camino válido: el plan sugiere múltiples “rutas” o estrategias escalables según la capacidad de cada institución. Las recomendaciones también insisten en la colaboración entre partes interesadas —docentes, equipos de TI, responsables institucionales—, así como en la necesidad de pilotajes, iteraciones y evaluación continua para ajustar las iniciativas de integración de GenAI.

Asimismo, el plan reconoce desafíos: la desigualdad de acceso tecnológico, la brecha de competencias entre profesorado, las preocupaciones éticas (sesgos, plagio, transparencia), la protección de datos y la gobernanza institucional. Estas cuestiones demandan marcos claros, políticas y soporte organizacional para que el uso de GenAI sea seguro, equitativo y pedagógicamente significativo.

200+1 prompts para educación: guía para docentes innovadores.

Unitec. (2024). 200+1 prompts para educación: guía para docentes
innovadores.
. Tegucigalpa: Universidad Tecnológica Centroamericana (Unitec), 2024.

“200 Prompts para Educadores” es una guía práctica diseñada para fomentar la reflexión, creatividad y mejora continua en el ámbito educativo. Está estructurado en forma de preguntas o frases disparadoras (prompts) que los docentes pueden usar para:

  • Reflexionar sobre su práctica pedagógica, incluyendo temas como la planificación, evaluación, gestión del aula y desarrollo profesional.
  • Estimular el pensamiento crítico y creativo en estudiantes, promoviendo el diálogo, la escritura reflexiva y el aprendizaje activo.
  • Fortalecer el vínculo entre teoría y práctica, al invitar a los educadores a conectar sus experiencias con principios pedagógicos y tendencias actuales.
  • Promover la innovación educativa, con prompts que abordan el uso de tecnología, metodologías activas, inclusión y liderazgo docente.

Los prompts están organizados en categorías como: motivación, evaluación, tecnología, inclusión, liderazgo, autocuidado, entre otros. Cada sección busca empoderar al docente como agente de cambio y fomentar una cultura de mejora continua en las instituciones educativas.

100 aplicaciones de la inteligencia artificial generativa

Universidad Internacional de Valencia (VIU). 100 aplicaciones de la inteligencia artificial generativa. Valencia: VIU, 2024.

Texto completo

El informe no solo ofrece un inventario de aplicaciones, sino que propone una reflexión sobre cómo integrar la IAG de manera responsable, maximizando sus beneficios y minimizando riesgos. Con ello, busca servir de guía tanto para profesionales como para instituciones interesadas en adoptar y regular el uso de estas tecnologías emergentes.

El documento 100 aplicaciones de la inteligencia artificial generativa ofrece una panorámica amplia y estructurada sobre los usos actuales de esta tecnología en múltiples sectores. Presenta la IAG como una de las innovaciones más transformadoras de los últimos años, con el potencial de redefinir tanto la vida cotidiana como el trabajo en áreas tan diversas como la educación, la salud, la creatividad, la comunicación y la empresa.

A lo largo del texto se muestran ejemplos concretos que ilustran cómo la IAG ya se aplica en la práctica. En el ámbito educativo, se destaca su utilidad para generar materiales personalizados, apoyar la docencia y facilitar el aprendizaje adaptativo. En la salud, la IA contribuye al análisis de datos clínicos, al diagnóstico asistido y al diseño de tratamientos personalizados. En el campo creativo, se subraya la capacidad de los modelos generativos para producir textos, imágenes, música y vídeos, abriendo nuevas oportunidades para artistas y comunicadores.

El documento también señala el impacto de la IAG en el sector empresarial, donde puede optimizar procesos, mejorar la atención al cliente, automatizar tareas y apoyar la toma de decisiones estratégicas. Asimismo, se enfatizan los retos éticos y sociales que acompañan a su implementación: la necesidad de garantizar la transparencia, mitigar sesgos, proteger la privacidad y reflexionar sobre sus implicaciones en el empleo.

Las bibliotecas como actores clave en moldear el uso ético, responsable y accesible de la inteligencia artificial generativa (IA).

Enis, Matt. “AI Influencers: Libraries Guiding AI Use.Library Journal, September 16, 2025. https://www.libraryjournal.com/story/performingarts/ai-influencers-libraries-guiding-ai-use

El artículo aborda cómo las bibliotecas están emergiendo como actores clave en moldear el uso ético, responsable y accesible de la inteligencia artificial generativa (IA). Los autores subrayan que tecnologías recientes como ChatGPT han alcanzado una adopción masiva en tiempos sorprendentemente breves, lo que hace urgente que las bibliotecas intervengan no solo como espacios de acceso, sino como mediadoras críticas y formadoras en este nuevo ecosistema.

Una de las funciones primordiales es la alfabetización en IA: bibliotecarios necesitan aprender las herramientas, comprender sus implicaciones (beneficios y riesgos), y poder enseñar a otros. Además, se les llama a colaborar con actores locales (empresas, organismos de desarrollo laboral, entidades educativas) para identificar qué competencias se necesitan en cada comunidad, compartiendo recursos entre distintos tipos de bibliotecas para maximizar impacto.

El artículo destaca experiencias concretas: por ejemplo, en la Universidad de Carolina del Norte (UNC), se creó un AI Studio que ofrece talleres, espacios de creación y diálogo entre estudiantes, profesores y personal administrativo, con el objetivo de democratizar el acceso a herramientas de IA y fomentar un uso reflexivo.

También se señala el reto de la velocidad de cambio: los modelos de IA, las herramientas y los debates éticos evolucionan muy rápido, de manera que lo que se aprenda hoy puede quedar obsoleto mañana. En respuesta, se plantea que la formación para el personal de bibliotecas debe ser continua, que existan espacios para compartir tanto descubrimientos como fracasos, y que la política de las instituciones debe ajustarse dinámicamente.

Finalmente, se insiste en que las bibliotecas pueden influir no solamente dentro de sus muros, sino participando en políticas locales y estatales, asesorando sobre marcos regulatorios, ayudando a municipios o gobiernos locales a definir políticas de IA, y actuando como puentes entre comunidad, ética, tecnología y educación.

Comparativa entre ChatGPT y Gemini: creatividad, interacción y productividad en la inteligencia artificial

Caswell, Amanda. 2025. I Switched from ChatGPT to Gemini for One Week — and Here’s Why I’m Going Back to ChatGPT. Tom’s Guide, 25 de septiembre de 2025. https://www.tomsguide.com/ai/i-switched-from-chatgpt-to-gemini-for-one-week-and-heres-why-im-going-back-to-chatgpt

Un análisis reciente de la experiencia de uso de Gemini, el modelo de inteligencia artificial de Google, frente a ChatGPT, evidencia diferencias significativas en creatividad, interacción y adaptación al usuario.

Durante una semana de prueba, Gemini demostró ser eficaz en tareas estructuradas, como la programación y la investigación, y ofreció una integración fluida con herramientas del ecosistema Google, incluyendo Docs y Gmail. Sin embargo, su desempeño en contextos que requieren creatividad y fluidez conversacional fue limitado en comparación con ChatGPT, que mantiene un estilo más versátil, expresivo y capaz de generar ideas originales en sesiones de lluvia de ideas o redacción más elaborada.

Otro punto destacado en la comparación es la capacidad de memoria de contexto. Mientras que ChatGPT logra seguir conversaciones largas y mantener la coherencia en proyectos continuos, Gemini mostró dificultades para recordar información previa en interacciones prolongadas, lo que puede afectar la productividad en tareas complejas o colaborativas. Por otro lado, Gemini ofrece ventajas para usuarios integrados en el ecosistema Google, permitiendo automatizar flujos de trabajo administrativos y de investigación de manera más directa, especialmente en la versión de suscripción avanzada Gemini Advanced.

En términos generales, aunque Gemini representa un avance en eficiencia y conectividad con herramientas digitales, ChatGPT sigue siendo superior en términos de creatividad, riqueza conversacional y adaptabilidad a tareas que requieren pensamiento crítico. El análisis sugiere que, mientras Gemini puede ser útil para productividad y tareas técnicas, la interacción con ChatGPT proporciona un valor diferencial en creatividad y generación de contenido original, consolidándose como la herramienta preferida para usuarios que priorizan la profundidad, la innovación y la continuidad en sus proyectos de IA.

🤖 ChatGPT

Fortalezas:

  • Creatividad y expresividad
  • Mantiene el contexto en conversaciones largas
  • Mejor para tareas creativas y críticas

Debilidades:

  • Salida menos estructurada
  • Puede tener dificultades con contextos extensos
  • Menos opciones de personalización

🌐 Gemini

Fortalezas:

  • Integración con herramientas de Google
  • Bueno para programación e investigación
  • Suscripción avanzada ofrece funciones adicionales

Debilidades:

  • Menos creativo y expresivo
  • Dificultades en conversaciones prolongadas
  • Flujo conversacional más débil

Una artista creada por inteligencia artificial firma un contrato discográfico de 3 millones de dólares

ZDNet. 2025. “An AI Musician Just Got a Multi-Million Dollar Record Deal.ZDNet, September 22, 2025. https://www.zdnet.com/article/an-ai-musician-just-got-a-multi-million-dollar-record-deal/

Una artista musical generada por inteligencia artificial, controlada por un artista de R&B, ha firmado un contrato discográfico por valor de 3 millones de dólares, en un contexto marcado por varias demandas contra empresas de IA que infringen los derechos de las industrias creativas.

Xania Monet, una “artista” creado mediante IA, cuyas canciones parten de letras escritas por la poeta Telisha Jones, las cuales luego son procesadas por una plataforma de IA llamada Suno para transformarse en composiciones completas. Este enfoque híbrido, donde la voz, producción y arreglos pueden derivarse de algoritmos basados en los insumos humanos, ejemplifica la frontera cada vez más difusa entre lo humano y lo artificial en la creación artística.

El contrato, supuestamente valuado en 3 millones de dólares con la discográfica Hallwood Media, viene acompañado de logros en las listas musicales (17 millones de reproducciones): la música de Xania Monet ha ingresado en rankings de Billboard, lo que demuestra que no solo es un experimento tecnológico sino también un actor emergente en la industria del entretenimiento. Esta combinación de éxito comercial y origen artificial genera una caja de resonancia de cuestiones éticas, legales y estéticas. Por un lado, plantea preguntas sobre la autoría real: ¿quién merece el crédito cuando una parte significativa del trabajo la realiza un sistema de IA? Por otro lado, pone en alerta a artistas humanos que pueden sentir que su espacio creativo se ve invadido por máquinas que no “trabajan” en el sentido tradicional.

Reacciones de músicos contemporáneos no se han hecho esperar. Por ejemplo, la cantante Kehlani expresó públicamente su desdén hacia el proyecto, señalando que este tipo de acuerdos “trascienden nuestro control” y cuestionando la justicia de que una entidad artificial ocupe un puesto en el mundo musical sin el desgaste humano que normalmente subyace detrás de una carrera artística. Estas críticas no solo se centran en el ámbito simbólico, sino también en el impacto práctico: la competencia por audiencia, financiamiento y espacio en plataformas digitales podría volverse más desigual frente a músicos que dependen enteramente de procesos manuales, emocionales y humanos.

¿Hasta qué punto una canción sigue siendo “arte” si fue compuesta, arreglada o realizada por una máquina? Y más aún: ¿cómo se regulará la propiedad intelectual, los derechos de autor y la remuneración cuando las fronteras entre creador humano y tecnología se vuelven borrosas? Este episodio no solo marca un hito comercial, sino que configura uno de los debates culturales más urgentes del siglo XXI.

El caso de Xania Monet abre un debate más amplio sobre el valor del arte, la originalidad y la identidad de la autoria en un contexto donde la IA puede generar productos que rivalizan en calidad con los que producen seres humanos.