Archivo de la categoría: Tecnologías de la información

Inteligencia afectiva en la inteligencia artificial

Schroeder, Ray. “Affective Intelligence in Artificial Intelligence.” Inside Higher Ed, 21 de enero de 2026. https://www.insidehighered.com/opinion/columns/online-trending-now/2026/01/21/affective-intelligence-artificial-intelligence

Un aspecto que a menudo se pasa por alto en los debates sobre inteligencia artificial (IA) en educación: la inteligencia afectiva. El autor, Ray Schroeder, subraya que muchas tecnologías impulsadas por IA han sido diseñadas principalmente para analizar y responder a datos cuantitativos —como hechos, cifras y fórmulas— lo cual es útil, pero insuficiente para la complejidad de los procesos de enseñanza y aprendizaje. A juicio de Schroeder, la efectividad educativa no depende solo de transmitir información, sino también de reconocer y responder a las emociones, motivaciones y experiencias individuales de los estudiantes, factores que tradicionalmente han sido dominio de los docentes humanos más atentos y empáticos.

El texto explora cómo las tecnologías modernas, especialmente los sistemas de tutoría inteligente y agentes de IA, están evolucionando para incorporar capacidades de reconocimiento emocional. Estas herramientas avanzadas pueden analizar expresiones faciales, tono de voz o patrones de interacción para percibir estados afectivos y adaptar la enseñanza en consecuencia. Schroeder argumenta que este tipo de inteligencia afectiva integrada en IA representa un potencial significativo para personalizar el aprendizaje y mejorar la experiencia educativa de los estudiantes al ajustarse a su ritmo, frustraciones, logros y necesidades emocionales, algo que las IA tradicionales no lograban.

Además, el artículo sitúa este avance en el contexto más amplio de la práctica docente: si bien los sistemas con sensibilidad afectiva no reemplazarán la función humana, pueden complementar a los educadores al proporcionar datos adicionales sobre la disposición emocional del estudiante. Esto podría permitir intervenciones más tempranas y efectivas cuando ocurre frustración o desmotivación, así como acelerar el progreso cuando el estudiante muestra compromiso y comodidad con el material. Schroeder cierra con una invitación a los líderes y facultades de educación superior a experimentar, comprender y liderar el uso de estas tecnologías, enfatizando que el liderazgo informado es clave para maximizar los beneficios de la IA afectiva en la educación.

Apple se lanza al hardware de IA: desarrolla un pin inteligente con cámaras y Siri renovado

Shanklin, Will. 2026. “Apple Is Reportedly Developing a Wearable AI Pin.” Engadget, 21 de enero de 2026. https://www.engadget.com/wearables/apple-is-reportedly-developing-a-wearable-ai-pin-204705065.html

Apple estaría trabajando en el desarrollo de un dispositivo portátil con inteligencia artificial en forma de pin, que podría marcar su entrada oficial en la categoría de hardware de IA independiente de iPhones, Apple Watches o AirPods

Según informes recientes citados por Engadget. Este wearable, descrito como un disco circular delgado similar al tamaño de un AirTag pero ligeramente más grueso, incorporaría múltiples sensores como dos cámaras (una estándar y otra gran angular), tres micrófonos y un altavoz, además de un botón físico y carga inalámbrica inductiva parecida a la de los Apple Watch.

El informe también señala que este AI pin estaría en las primeras fases de desarrollo y podría integrarse con la próxima generación de Siri revisada como chatbot estilo ChatGPT, lo que sugiere un enfoque multimodal que combina visión, audio y procesamiento de IA para interactuar con el entorno del usuario sin necesidad de una pantalla. Aunque los detalles completos sobre cómo funcionará o cómo se posicionará dentro del ecosistema Apple aún no se han revelado oficialmente, estas filtraciones sitúan al proyecto como parte de la estrategia de Apple para competir en el creciente mercado de dispositivos de IA portátiles, especialmente frente a iniciativas de otras grandes tecnológicas como OpenAI y Meta.

Sin embargo, también hay cautela: el desarrollo del pin inteligente se considera muy temprano, y existe la posibilidad de que el proyecto no llegue a concretarse o sea modificado sustancialmente antes de un lanzamiento que, según algunas fuentes, podría ocurrir alrededor de 2027. Este período de gestación prolongado y la fuerte competencia en el segmento (incluido el histórico fracaso comercial de otros AI pins como el de Humane, que generó críticas por su rendimiento limitado) subrayan los desafíos que Apple enfrenta al intentar posicionar un nuevo tipo de producto de IA que atraiga a los consumidores más allá del atractivo tecnológico inicial.

La noticia pone de relieve cómo las grandes empresas tecnológicas están invirtiendo en interfaces de IA fuera de las pantallas tradicionales, explorando formas de interacción más contextuales y siempre accesibles, pero también plantea interrogantes sobre la utilidad real de estos dispositivos y su aceptación en el mercado masivo.

Citas fantasma y ciencia creada con ayuda de IA en un informe sobre salud infantil de la administración Trump

Manto, Margaret. “The MAHA Report Has Been Updated to Replace Citations That Didn’t Exist.” NOTUS, 29 de mayo de 2025. https://www.notus.org/health-science/maha-report-update-citations

El informe MAHA, publicado en mayo de 2025 y encargado a la secretaria de Salud y Servicios Humanos, Robert F. Kennedy Jr., contenía numerosas referencias a estudios que no existían o eran fabricados, lo que sugiere que partes significativas del texto podrían haber sido generadas mediante prompts a sistemas de generative AI (IA generativa)

El informe Make America Healthy Again (MAHA), un documento emblemático publicado por la Comisión MAHA bajo la administración de Donald Trump, centrado en la salud infantil y en causas de enfermedad crónica en Estados Unidos. Una investigación del propio medio reveló originalmente que al menos siete citas incluidas en la versión inicial del informe simplemente no existían en la literatura científica —es decir, atribuían estudios que no estaban publicados o que jamás fueron escritos por los autores listados— lo que llevó a una fuerte preocupación por la integridad científica del texto.

Ante esta revelación, la Casa Blanca y el Departamento de Salud y Servicios Humanos (HHS) procedieron a reemplazar las citas inexistentes en una nueva versión del informe publicada en el sitio oficial de la Casa Blanca. Cinco de las referencias falsas fueron sustituidas por trabajos completamente distintos, y dos por estudios reales de los mismos autores mencionados previamente, aunque con títulos y contenidos distintos. Por ejemplo, un estudio epidemiológico supuestamente escrito por la investigadora Katherine Keyes fue reemplazado por un enlace a un artículo de KFF Health News sobre un tema similar, y otras referencias vinculadas a publicidad de medicamentos en niños se cambiaron por artículos periodísticos y estudios más antiguos sobre tendencias en uso de psicofármacos. Aunque estas nuevas fuentes parecen corresponder a estudios legítimos, no está claro si respaldan de manera precisa las afirmaciones formuladas en el informe original.

Además de sustituir las citas inexistentes, la versión actualizada también modificó referencias que habían sido mal interpretadas en la versión previa. Por ejemplo, un estudio que se usó para sostener que la psicoterapia es tan eficaz como los medicamentos en el corto plazo fue reemplazado después de que uno de los autores originales señalará a NOTUS que su investigación no incluía psicoterapia dentro de los parámetros analizados. A pesar de los cambios, tanto la Casa Blanca como funcionarios de HHS minimizaron la gravedad de los errores, describiéndolos como problemas menores de formato que ya habían sido corregidos, y defendieron la sustancia general del informe. Voceros oficiales declararon que el documento sigue siendo una evaluación histórica y transformadora para entender la epidemia de enfermedades crónicas que afectan a los niños estadounidenses, y subrayaron que los ajustes no alteran sus conclusiones principales.

Sin embargo, la actualización y corrección de citas ha suscitado debates profundos sobre los estándares de rigor científico que deben aplicarse a informes gubernamentales de salud pública, especialmente cuando estos documentos se utilizan para formular políticas importantes. Organizaciones periodísticas, científicos y legisladores han cuestionado la confiabilidad de las referencias del MAHA report y han pedido mayor transparencia en cómo se elaboran y revisan estos textos, así como sobre el uso de tecnologías como la inteligencia artificial durante su redacción. La situación ilustra las tensiones entre la comunicación científica, la integridad académica y las prioridades políticas en la producción de informes de política pública.

La ciencia se está ahogando en la basura de la IA

Andersen, Ross. 2026. “Science Is Drowning in AI Slop.The Atlantic, 22 de enero de 2026. https://www.msn.com/en-us/news/us/science-is-drowning-in-ai-slop/ar-AA1UK0tV

Ross Andersen aborda una crisis creciente en el mundo académico: el aluvión de investigaciones generadas con apoyo de inteligencia artificial que están saturando la producción científica con contenidos de baja calidad, irrelevantes o incluso falsos, lo que él denomina “AI slop” —una especie de desecho digital académico– que la comunidad científica aún no ha aprendido a gestionar eficazmente.

Cada día, en Bluesky y LinkedIn, Quintana veía a académicos publicar mensajes sobre el hallazgo de estas “citas fantasma” en artículos científicos. (La versión inicial del “Informe MAHA” de la administración Trump sobre la salud infantil, publicada la pasada primavera, contenía más de media docena de ellas). Pero hasta que Quintana encontró un falso artículo firmado por un “Quintana” citado en una revista para la que actuaba como revisor, había pensado que el problema se limitaba a publicaciones con estándares más bajos. “Cuando ocurre en una revista que respetas, te das cuenta de lo extendido que está el problema”.

Casi inmediatamente después de que los grandes modelos de lenguaje se popularizaran, los manuscritos comenzaron a llegar a las bandejas de entrada de las revistas en cantidades nunca vistas. Parte de este fenómeno puede atribuirse a la capacidad de la IA para aumentar la productividad, especialmente entre científicos no angloparlantes que necesitan ayuda para presentar su investigación. Pero ChatGPT y herramientas similares también se están utilizando para dar una nueva apariencia de plausibilidad a trabajos fraudulentos o chapuceros, según Mandy Hill, directora general de publicación académica en Cambridge University Press & Assessment. Esto hace que la tarea de separar el grano de la paja sea mucho más lenta para editores y revisores, y también más compleja desde el punto de vista técnico.

Andersen explica que la presión por publicar, combinada con la facilidad de generación de texto e incluso figuras mediante modelos de lenguaje avanzados, ha hecho que conferencias y revistas reciban enormes cantidades de trabajos que no aportan hallazgos verificables ni replicables, y que rara vez se someten a una revisión crítica profunda.

Este problema se agrava por la propia mecánica de la revisión por pares: muchos revisores están recurriendo también a herramientas de IA para evaluar artículos, y al mismo tiempo algunos autores insertan mensajes ocultos que incitan a estas IA a elogiar sus textos, lo que distorsiona aún más el proceso. Andersen describe casos concretos, como ilustraciones generadas que parecen plausibles pero son absurdas o científicamente incorrectas, y un incremento sin precedente en las presentaciones a conferencias de alto impacto en campos como el aprendizaje automático y la robótica. La IA también puede generar las imágenes de un artículo falso. Un artículo de revisión de 2024, ya retractado, publicado en Frontiers in Cell and Developmental Biology, incluía una ilustración generada por IA de una rata con unos testículos desproporcionadamente grandes y ridículos, que no solo superó la revisión por pares, sino que se publicó antes de que nadie lo advirtiera. Por embarazoso que fuera para la revista, el daño fue escaso. Mucho más preocupante es la capacidad de la IA generativa para crear imágenes convincentes de tejidos cortados en láminas finísimas, campos microscópicos o geles de electroforesis, que se usan habitualmente como pruebas en la investigación biomédica.

Las actas de congresos son el principal canal de publicación de artículos en IA y otras ciencias de la computación, y en los últimos años se han visto desbordadas por los envíos. NeurIPS, una de las principales conferencias de IA, ha visto duplicarse las presentaciones en cinco años. ICLR, la conferencia líder en aprendizaje profundo, también ha experimentado un aumento y parece incluir una cantidad considerable de slop: una startup de detección de LLM analizó los envíos para su próxima reunión en Brasil y encontró más de 50 que incluían citas alucinadas. La mayoría no se había detectado durante la revisión por pares. Eso podría deberse a que muchas de las revisiones por pares se realizaron con ayuda de la IA. Pangram Labs analizó recientemente miles de informes de revisión enviados a ICLR y descubrió que más de la mitad habían sido redactados con ayuda de un LLM, y alrededor de una quinta parte eran completamente generados por IA. En todas las ciencias académicas, los autores de artículos incluso han empezado a usar fuentes blancas diminutas para incrustar mensajes secretos dirigidos a los LLM revisores. Instan a las IA a elogiar el artículo que están leyendo, a describirlo como “revolucionario” y “transformador”, y a ahorrarles la molestia de una revisión exigente sugiriendo solo correcciones fáciles.

Este volumen ha superado la capacidad de revisión crítica de la comunidad, de modo que la investigación real y valiosa queda sepultada por un ruido cuya proporción crece constantemente. Además, el autor extiende el análisis a los servidores de preprints (sitios donde los científicos comparten borradores de sus trabajos antes de la revisión formal), donde la llegada masiva de textos asistidos por IA ha catalizado un incremento de publicaciones superficiales. Esto plantea un riesgo no solo para la credibilidad de estos repositorios, sino para todo el sistema de comunicación científica, que depende de un equilibrio entre cantidad y calidad para que los hallazgos genuinos puedan ser detectados, replicados y aprovechados. Expertos citados señalan que si este flujo no se frena, podría convertirse en una “crisis existencial” para ciertos campos del conocimiento, al difuminarse la distinción entre trabajo bien fundamentado y “slop” generado por algoritmos que simplemente repiten patrones sin entendimiento real. Hasta el punto de que ya se está hablando de una teoría conspirativa denominada “internet muerto”. Sus defensores creen que, en las redes sociales y otros espacios en línea, solo unas pocas personas reales crean publicaciones, comentarios e imágenes, y que el resto son generados y amplificados por redes de bots en competencia. Las IA escribirían la mayoría de los artículos y revisarían la mayoría de ellos. Este intercambio vacío serviría para entrenar nuevos modelos de IA. Imágenes fraudulentas y citas fantasma se incrustarían cada vez más profundamente en nuestros sistemas de conocimiento. Se convertirían en una contaminación epistemológica permanente que nunca podría filtrarse.

El desafío de la IA: cómo el profesorado universitario evalúa el presente y el futuro de la educación superior en la era de la IA.

Rainie, Lee y American Association of Colleges and Universities. The AI Challenge: How College Faculty Assess the Present and Future of Higher Education in the Age of AI. Imagening the Digital Future Center (Elon University), 2026.

Direct to Full Text Report (26 pages; PDF)

Charts (23 pages; PDF)

Methodology and Topline (21 pages; PDF)

El informe colaborativo del Imagining the Digital Future Center y la American Association of Colleges and Universities presenta los resultados de una encuesta nacional realizada entre más de 1.000 profesoras y profesores universitarios sobre cómo la inteligencia artificial generativa (IA) está afectando la enseñanza, el aprendizaje y la integridad académica en la educación superior actual

El hallazgo más contundente es la preocupación generalizada del profesorado sobre la influencia de la IA en el pensamiento crítico y la honestidad académica: un 95 % de los docentes encuestados cree que las herramientas de IA generativa pueden incrementar la dependencia de los estudiantes en estas tecnologías y debilitar sus habilidades críticas, y una gran mayoría señala que han observado un aumento de problemas de integridad académica desde que estas herramientas se han popularizado. Muchos profesores piensan que estos cambios impactan directamente en la misión fundamental de la educación superior, poniendo en riesgo tanto la calidad del aprendizaje como el valor de los títulos universitarios.

No obstante, el informe también reconoce un reconocimiento creciente del potencial positivo de la IA, especialmente en aspectos relacionados con la personalización del aprendizaje y la eficiencia en ciertos procesos educativos. Un porcentaje significativo de docentes ya incluye temas de alfabetización en IA —como sesgos, privacidad y ética— en sus clases y muchos han desarrollado políticas explícitas sobre el uso aceptable de IA en los trabajos académicos. Los resultados destacan, además, que la mayoría de las instituciones todavía no están bien preparadas para implementar la IA de manera efectiva, y que existe una fragmentación en las políticas institucionales. En conjunto, el informe plantea que el desafío no radica en si la IA transformará la educación superior, sino en cómo las universidades encauzarán ese cambio para fortalecer el aprendizaje, la integridad y los valores educativos fundamentales.

Datos clave:

  1. Alcance de la encuesta

Más de 1.000 profesores universitarios participaron a nivel nacional.

Evaluó el uso, percepción y políticas relacionadas con la inteligencia artificial generativa (IA) en la enseñanza.

  1. Preocupaciones principales

95 % de los docentes cree que la IA puede debilitar el pensamiento crítico de los estudiantes.

Mayoría observa un incremento en problemas de integridad académica desde la popularización de la IA.

Temor a que la IA afecte la calidad del aprendizaje y el valor de los títulos universitarios.

  1. Reconocimiento del potencial

La IA puede personalizar el aprendizaje y mejorar la eficiencia en tareas educativas.

Muchos docentes incorporan alfabetización en IA, incluyendo ética, sesgos y privacidad.

Se desarrollan políticas explícitas sobre el uso aceptable de IA en trabajos académicos.

  1. Desafíos institucionales

La mayoría de las universidades no están completamente preparadas para integrar la IA de manera efectiva.

Existen diferencias importantes entre instituciones en cuanto a políticas y regulaciones sobre IA.

  1. Conclusión

La IA transformará la educación superior, pero el reto real es cómo las universidades guían esta transformación para proteger la integridad académica y mejorar el aprendizaje.

Las bibliotecas están en la primera línea de la alfabetización equitativa en inteligencia artificial

De Brasdefer, María. Libraries at the Frontline of Equitable AI Literacy. International Federation of Library Associations and Institutions (IFLA), 30 de octubre de 2025.

Texto completo

Se presenta una visión estratégica sobre cómo las bibliotecas pueden responder a la transformación digital impulsada por la IA al empoderar a las comunidades con habilidades críticas y reflexivas. Impulsa un modelo de alfabetización que combina teoría, práctica y valores éticos, reconociendo a las bibliotecas como agentes clave para garantizar que la transición hacia sociedades influenciadas por la IA sea inclusiva y equitativa.

Libraries at the Frontline of Equitable AI Literacy, explora el papel clave que las bibliotecas desempeñan en la promoción de la alfabetización en inteligencia artificial (IA) en sus comunidades. Centrándose en el proyecto Media and Information Literacy for Societal Resilience (MILSR), también conocido como Supercharged by AI, el texto describe cómo esta iniciativa fortaleció la resiliencia informativa de bibliotecas y usuarios en 10 países europeos durante 18 meses, desde diciembre de 2023 hasta mayo de 2025.

Esta iniciativa se desarrolló mediante exposiciones y talleres diseñados para dotar a los participantes de habilidades, herramientas y recursos que les permitan entender y navegar en un ecosistema de información cada vez más influido por la IA.

El documento contextualiza el proyecto dentro de los desafíos contemporáneos: la inteligencia artificial está profundamente integrada en la creación y difusión de información, lo que modifica radicalmente los entornos mediáticos y plantea nuevos retos para la ciudadanía y los profesionales de la información. Frente a esto, las bibliotecas se posicionan como espacios seguros y accesibles, donde personas de todas las edades pueden desarrollar competencias críticas sobre la IA, comprender sus implicaciones y aprender a interactuar con herramientas inteligentes de manera responsable. El informe resalta que la alfabetización mediática tradicional ya no es suficiente sin un componente explícito de comprensión de la IA, dado que esta tecnología influye tanto en los contenidos como en los canales de distribución.

Además de describir los objetivos y alcance del proyecto MILSR, el informe incluye análisis de enfoques pedagógicos y experiencias prácticas que se implementaron en distintas bibliotecas europeas participantes. Estas actividades combinaron exposiciones informativas con talleres interactivos que permitieron a los usuarios explorar casos reales de uso de la IA, identificar riesgos —como la desinformación— y reconocer oportunidades para aplicar estas tecnologías de forma ética y beneficiosa. El documento enfatiza que la alfabetización en IA no debe limitarse a la tecnología en sí misma, sino que debe integrarse dentro de un marco más amplio de alfabetización mediática e informacional, donde las bibliotecas actúan como facilitadoras del acceso equitativo al conocimiento.

Cómo se está incorporando la IA generativa en las empresas

MIT Sloan Management Review y Databricks. The Great Acceleration: CIO Perspectives on Generative AI. Informe MIT SMR–Databricks, 2023.

Texto completo

Se analiza cómo los directores de sistemas de información (CIO) perciben y están incorporando la inteligencia artificial generativa (GenAI) en sus organizaciones. El estudio se basa en una encuesta global a líderes tecnológicos y ejecutivos senior, y sitúa a la IA generativa como un punto de inflexión comparable a anteriores grandes olas tecnológicas, por su velocidad de adopción y su potencial para transformar procesos, modelos de negocio y la toma de decisiones estratégicas.

Uno de los hallazgos centrales del informe es que los CIO consideran la IA generativa no solo como una herramienta de eficiencia, sino como un acelerador estratégico capaz de redefinir la ventaja competitiva. A diferencia de tecnologías previas, la GenAI está siendo explorada simultáneamente en múltiples áreas —desde desarrollo de software, análisis de datos y atención al cliente hasta creación de contenidos y soporte a la toma de decisiones—, lo que obliga a los responsables de TI a adoptar una visión transversal y a colaborar estrechamente con otras áreas del negocio.

El estudio también subraya que el principal reto no es tecnológico, sino organizativo y cultural. Los CIO identifican barreras como la falta de talento especializado, la necesidad de datos de alta calidad, los riesgos asociados a la gobernanza, la seguridad y la ética, y la dificultad de escalar pilotos exitosos a toda la organización. En este contexto, el informe destaca la importancia de establecer marcos sólidos de gobernanza de datos y de IA, así como de invertir en capacitación interna para que empleados y directivos comprendan y utilicen la GenAI de forma responsable y eficaz.

Finalmente, The Great Acceleration concluye que la IA generativa está redefiniendo el rol del CIO, que pasa de ser un gestor de infraestructuras a un líder estratégico del cambio digital. Los CIO más avanzados son aquellos que actúan como traductores entre tecnología y negocio, impulsan la experimentación controlada y alinean la adopción de la GenAI con los valores, la misión y los objetivos a largo plazo de la organización. En este sentido, el informe presenta la inteligencia artificial generativa como una oportunidad decisiva, pero también como una responsabilidad clave para el liderazgo tecnológico contemporáneo.

Clarivate presenta Alma Specto: IA aplicada a las bibliotecas para sacar el máximo partido a las colecciones

Clarivate. “Clarivate empowers libraries to unlock the value of their collections with Alma Specto.Clarivate News, 20 de enero de 2026. https://clarivate.com/news/clarivate-empowers-libraries-to-unlock-the-value-of-their-collections-with-alma-specto/

Alma Specto es una plataforma avanzada para la gestión de colecciones digitales creada por Ex Libris (parte de Clarivate) y diseñada especialmente para bibliotecas y archivos. Su objetivo principal es proporcionar una solución integral que cubre todo el ciclo de vida de los recursos digitales, desde la catalogación y gestión hasta la preservación a largo plazo y el acceso a los usuarios finales

Clarivate Plc, proveedor global de soluciones de inteligencia y tecnología, ha presentado Alma Specto, una nueva plataforma impulsada por inteligencia artificial (IA) diseñada para ayudar a las bibliotecas a gestionar, enriquecer y mostrar sus colecciones digitales de forma más eficaz. Ante el crecimiento exponencial de los recursos digitales, muchas bibliotecas enfrentan retos como catalogación manual, metadatos incompletos y dificultades para que sus activos sean descubiertos por usuarios e investigadores. Alma Specto busca superar estas barreras mediante herramientas que automatizan y mejoran la calidad de los metadatos, incluyendo archivos de imagen y materiales no textuales con poca o ninguna descripción.

El desarrollo de esta plataforma se ha realizado en colaboración con bibliotecas reconocidas como las de la Universidad de Viena, la Universidad Bocconi y la Universidad de Maine, integrando las necesidades reales del sector en su diseño. Entre las funciones clave figuran el Asistente de Metadatos Digitales impulsado por IA, que extrae entidades y agrupa ítems similares para etiquetado masivo; la enriquecimiento automático de metadatos, que mejora la accesibilidad y el descubrimiento de colecciones; y un constructor de exposiciones que permite a las bibliotecas presentar sus recursos en formatos atractivos y accesibles para públicos diversos.

Alma Specto también ofrece un flujo de trabajo integrado desde la ingestión y catalogación hasta la exhibición y experiencias personalizadas de descubrimiento para usuarios expertos y público general. Para clientes de Alma Digital, la transición es sencilla, ya que no se requiere migración de datos, solo una actualización de sistema. Se espera que los primeros usuarios activos comiencen a implementar la plataforma en el primer trimestre de 2026, con funcionalidades adicionales como preservación de contenido digital previstas para la primera mitad del año.

Anthropic y Teach For All lanzan una iniciativa global de capacitación en IA para educadores

Anthropic. “Anthropic and Teach For All launch global AI training initiative for educators.” Anthropic News, 21 de enero de 2026. https://www.anthropic.com/news/anthropic-teach-for-all

Anthropic, la compañía de inteligencia artificial detrás del asistente Claude, se ha asociado con Teach For All, una red global de organizaciones educativas, para poner en marcha una iniciativa de formación en IA destinada a docentes de todo el mundo. Esta colaboración, denominada AI Literacy & Creator Collective (LCC), pretende dotar de herramientas de inteligencia artificial y competencias prácticas a más de 100 000 profesores y exalumnos de la red, que abarca 63 países y más de 1,5 millones de estudiantes en escuelas con recursos limitados.

A diferencia de otros programas en los que los educadores son simples usuarios de tecnología, esta iniciativa sitúa a los docentes como co-creadores activos en el diseño y la adaptación de la IA a contextos educativos reales. Anthropic proporcionará acceso a Claude y otros recursos, y los profesionales de la educación ofrecerán retroalimentación directa para influir en la evolución del producto. Según la CEO de Teach For All, Wendy Kopp, es fundamental que los propios docentes ayuden a definir cómo se utiliza y diseña la IA para avanzar hacia resultados educativos más equitativos.

El programa está estructurado en tres componentes principales. El primero es la AI Fluency Learning Series, una serie de sesiones en directo sobre competencias IA y aplicaciones en el aula; el segundo es Claude Connect, un espacio continuo donde más de 1 000 docentes de más de 60 países comparten casos de uso, ideas y experiencias; y el tercero es Claude Lab, un entorno de laboratorio donde docentes con acceso a Claude Pro pueden experimentar, recibir asesoría mensual de Anthropic y participar directamente en la hoja de ruta del producto.

Ya hay ejemplos prácticos del impacto inicial de esta colaboración: docentes en Liberia han creado currículos interactivos de educación climática con herramientas generadas por IA, profesores en Bangladesh han desarrollado una app gamificada para reforzar habilidades matemáticas de alumnos de secundaria, y educadores en Argentina están diseñando espacios digitales interactivos alineados con sus programas escolares. Además, esta alianza se suma a otras iniciativas educativas de Anthropic, como pilotos nacionales de IA en Islandia y programas colaborativos en Ruanda y Estados Unidos, con el objetivo de garantizar que comunidades de todos los contextos puedan beneficiarse del potencial de la inteligencia artificial en la educación.

OpenAI confirma que su primer dispositivo con ChatGPT llegará en 2026

Mehrotra, Pranob. 2026. OpenAI Executive Confirms First ChatGPT-Powered Device Is Coming Your Way in 2026.” Digital Trends, 20 de enero de 2026. https://www.digitaltrends.com/computing/openai-executive-confirms-first-chatgpt-powered-device-is-coming-your-way-in-2026

La empresa presentará su primer dispositivo físico potenciado por ChatGPT en 2026, marcando su entrada en el mercado de hardware además del software de inteligencia artificial. El dispositivo estaría diseñado para ofrecer acceso manos libres a ChatGPT, utilizando inteligencia artificial contextual para interactuar con el usuario de forma continua y simplificada.

El CEO Sam Altman ya había sugerido que el dispositivo sería algo diferente a un smartphone tradicional, describiéndolo como un gadget elegante y orientado a asistencia contextual inteligente. Un prototipo filtrado con el nombre en clave Sweetpea —un dispositivo portátil de audio que se coloca detrás de la oreja— es uno de los posibles productos que OpenAI tiene en desarrollo.

OpenAI adquirió la empresa de diseño del exjefe de diseño de Apple, Jony Ive, lo que aceleró las expectativas de que la compañía entre en el mundo del hardware. Los rumores y filtraciones apuntan a un dispositivo portátil, posiblemente con interacción manos libres y sin pantalla tradicional, pensado para ofrecer acceso continuo a ChatGPT de forma contextual a las necesidades del usuario. Aunque OpenAI no ha confirmado oficialmente el formato ni el nombre definitivo del producto, se cree que esta iniciativa marca un paso estratégico importante en la expansión de la empresa más allá del software hacia el hardware con IA integrada.