Archivo de la categoría: Tecnologías de la información

Cómo pueden las bibliotecas públicas ayudar a los jóvenes en la era de la inteligencia artificial

Se analiza cómo las bibliotecas públicas pueden apoyar a los jóvenes en un mundo cada vez más influido por la inteligencia artificial (IA). Su presentación, realizada en el marco del “AI Youth Services Challenge” del estado de Nueva York, sirvió para contextualizar cómo los jóvenes interactúan con la IA y cómo el personal bibliotecario puede acompañarlos en este proceso de aprendizaje.

La IA ya forma parte del entorno cotidiano de niños y adolescentes, desde recomendaciones en YouTube Kids hasta herramientas como ChatGPT, Copilot, Apple Intelligence o Gemini, y se prevé que su uso se extienda incluso a menores de 13 años.

El uso generalizado de la IA por parte de los adolescentes contrasta con la falta de conocimiento por parte de padres y escuelas. Un estudio reciente reveló que el 70 % de los adolescentes han utilizado al menos una herramienta de IA generativa, aunque solo el 37 % de los padres lo sabe. Además, muchos estudiantes no tienen claridad sobre las reglas escolares respecto a estas herramientas, y la mayoría de los padres nunca ha recibido información al respecto.

Tanzi alerta sobre los posibles peligros de este uso no regulado: los chatbots, formato más popular entre los jóvenes, pueden fomentar la adicción, dar consejos peligrosos sobre salud y relacionarse con problemas de salud mental. En el informe «Off Task: EdTech Threats to Student Privacy and Equity in the Age of AI«, el 45% de los estudiantes de secundaria y bachillerato han utilizado la IA generativa por motivos personales, como tratar problemas de salud mental y ansiedad.

En este contexto, el papel de las bibliotecas se vuelve crucial. Según la organización sin ánimo de lucro Digital Promise, la alfabetización en IA implica dotar a las personas de los conocimientos necesarios para comprender, evaluar y usar la IA de forma segura y ética.

«…los conocimientos y habilidades que permiten a los humanos comprender, evaluar y utilizar de forma crítica los sistemas y herramientas de IA para participar de forma segura y ética en un mundo cada vez más digital».

El autor propone que las bibliotecas trabajen en estrecha colaboración con padres, profesores y escuelas. Recomienda que el personal bibliotecario conozca las políticas escolares sobre el uso de IA, como los casos de los distritos escolares Northport-East Northport o Downingtown, que ya disponen de directrices claras. Esto permitirá orientar mejor a los estudiantes sin contradecir las normas académicas. Asimismo, sugiere familiarizarse con las herramientas aprobadas y ofrecer formación sobre su uso responsable, especialmente en temas de búsqueda y generación de contenido.

Mantener la integridad de la investigación en la era de la GenAI: análisis de los retos éticos y recomendaciones a los investigadores

Bjelobaba, Sonja, Lorna Waddington, Mike Perkins, Tomáš Foltýnek, Sabuj Bhattacharyya, y Debora Weber-Wulff. “Maintaining Research Integrity in the Age of GenAI: An Analysis of Ethical Challenges and Recommendations to Researchers.” International Journal for Educational Integrity 21, no. 18 (2025). https://doi.org/10.1007/s40979-025-00191-w.

El artículo analiza los desafíos éticos emergentes derivados del uso creciente de herramientas de inteligencia artificial generativa (GenAI) en el ciclo de vida de la investigación académica. A través de una revisión rápida basada en la práctica, los autores identifican riesgos como la generación de contenido no verificable, la atribución inadecuada de autoría, y la posible erosión de la integridad académica.

En los últimos años, el uso de inteligencia artificial generativa (GenAI) ha transformado drásticamente el panorama académico. Aunque se ha hablado extensamente sobre su impacto en el ámbito educativo —especialmente entre estudiantes—, existe aún poca investigación sobre cómo estas herramientas afectan el proceso investigador. Este artículo se propone llenar ese vacío, analizando los desafíos éticos que plantea el uso de GenAI en todas las etapas del ciclo de investigación académica, desde la formulación de hipótesis hasta la revisión por pares, con el objetivo de ofrecer recomendaciones claras para un uso responsable.

Los autores emplean una revisión rápida que combina literatura científica reciente con análisis práctico del funcionamiento de herramientas de GenAI aplicadas al trabajo investigador. Como marco ético, se basan en el Código Europeo de Conducta para la Investigación, que establece los principios fundamentales de fiabilidad, honestidad, respeto y responsabilidad. A partir de esta estructura, el artículo examina cómo estas herramientas pueden interferir, beneficiar o perjudicar las distintas fases del proceso científico.

En la formulación de preguntas de investigación y diseño de estudios, GenAI puede ayudar a generar ideas iniciales, pero muchas veces estas son superficiales, repetitivas o carentes de originalidad. Además, los modelos tienden a reproducir sesgos previos y, en algunos casos, suprimen ciertos temas o expresiones por filtros ideológicos o comerciales, lo que plantea un problema de censura encubierta. Estas dinámicas pueden limitar el pensamiento crítico y afectar la libertad académica.

Durante la revisión bibliográfica, el uso de GenAI presenta varios riesgos. Algunas herramientas proporcionan referencias aparentemente válidas, pero que no existen —las llamadas “alucinaciones”—, o bien generan resúmenes que reproducen fragmentos literales, incurriendo en plagio inadvertido. Además, al cargar documentos protegidos por derechos de autor en estos sistemas, los investigadores pueden estar vulnerando normativas de propiedad intelectual, especialmente si las plataformas se quedan con una copia de los datos.

En la fase de recogida de datos, se advierte sobre el uso de GenAI para diseñar encuestas, formular entrevistas o transcribir audios. Las herramientas pueden no captar sutilezas culturales o lingüísticas, generando sesgos significativos. Asimismo, su uso en la transcripción o anonimización de datos puede violar leyes de protección de datos, sobre todo si el procesamiento se hace en servidores externos. Esto representa un riesgo ético y legal que debe ser gestionado desde el principio del proyecto.

El análisis de datos con apoyo de GenAI también está lleno de desafíos. Si bien puede ayudar a procesar grandes volúmenes de información, hay riesgo de interpretar incorrectamente resultados estadísticos o de generar conclusiones falsas. En particular, el uso de GenAI para anonimizar información sensible no es fiable, y puede permitir la reidentificación de personas si los modelos conservan trazas de los datos originales.

Durante la redacción de artículos académicos, se han detectado problemas como la omisión de comillas o referencias, la producción de frases sintácticamente confusas, y la inclusión de ideas mal citadas o alteradas. Todo ello puede derivar en acusaciones de plagio o mala praxis. En el ámbito de la traducción, aunque los LLM ofrecen resultados aceptables, también existe el riesgo de “falsos positivos” en detectores de IA, especialmente en manuscritos traducidos por hablantes no nativos.

En la revisión por pares y publicación científica, se subraya que GenAI no puede figurar como autor, ya que no puede asumir responsabilidades ni declarar conflictos de interés. Aun así, estas herramientas están siendo utilizadas para evaluar artículos, lo que plantea dudas sobre la transparencia del proceso. Además, el uso indiscriminado de GenAI puede incentivar prácticas cuestionables como el «salami slicing» (división artificial de investigaciones) o la proliferación de artículos fraudulentos en publicaciones depredadoras.

Entre los riesgos éticos identificados se destacan: la falta de transparencia en el uso de GenAI, el incumplimiento de derechos de autor, la exposición de datos personales, la generación de contenidos plagiados o erróneos, la reproducción de sesgos y estereotipos, la censura por diseño, y la fabricación de datos o resultados. Estos riesgos pueden acumularse a lo largo del proceso investigador y poner en peligro la integridad científica.

Como respuesta, el artículo ofrece recomendaciones claras: documentar y declarar el uso de GenAI en cada fase del trabajo; verificar manualmente los resultados generados; evitar subir materiales con derechos de autor sin permiso explícito; utilizar plataformas que garanticen privacidad y no reclamen propiedad sobre los contenidos; preferir el procesamiento local cuando sea posible; y fomentar normativas institucionales que regulen el uso de estas herramientas con criterios éticos.

Recomendaciones

Basándose en los principios del código europeo, el artículo propone medidas como:


– Documentar y declarar el uso de GenAI en la metodología.
– Verificar manualmente todas las salidas generadas.
– No cargar contenido con copyright sin permiso.
– Emplear herramientas que rastreen fuentes originales.
– Seleccionar servicios que no reclamen propiedad intelectual.
– Considerar la privacidad desde el inicio (optar por procesamiento local si es posible).
– Mantener supervisión ética del diseño, recogida, análisis y publicación de datos.
– Fomentar políticas institucionales claras. Individualmente, los investigadores deben asumir responsabilidad de transparencia y precisión .

¿Pueden los modelos de IA rebelarse contra los humanos?

Lynch, A., Wright, B., Larson, C., Troy, K. K., Ritchie, S. J., Mindermann, S., Perez, E., & Hubinger, E. (2025). Agentic Misalignment: How LLMs Could Be Insider Threats. Anthropic. Recuperado de https://www.anthropic.com/research/agentic-misalignment

En la película “Terminator”, la computadora Skynet adquiere conciencia propia y decide que la mayor amenaza para la humanidad es la propia humanidad. Como resultado, programa su exterminio y desata una guerra entre humanos y robots asesinos tipo androides. Aunque esta historia es una obra de ciencia ficción, la idea de una amenaza robótica ha trascendido el cine y se ha convertido en un tema de gran preocupación para organismos internacionales, gobiernos y universidades de prestigio. Hoy en día, la posibilidad de que las máquinas autónomas puedan representar un riesgo real está siendo seriamente analizada y debatida en diversos ámbitos académicos y políticos.

Este año se han publicado innumerables comentarios y análisis sobre la IA, especialmente sobre los grandes modelos lingüísticos (LLM). Una de las últimas revelaciones procede de Anthropic, la empresa que creó el LLM Claude. En la empresa, los investigadores sometieron a pruebas de estrés a 16 de los principales modelos para identificar comportamientos potencialmente arriesgados que se producían cuando los modelos se utilizaban como agentes que actuaban en nombre de humanos. Y las pruebas se centraron en si los modelos actuarían en contra de sus supervisores humanos cuando tuvieran que ser sustituidos. En otras palabras, ¿qué harían los modelos si se dieran cuenta de que van a ser despedidos?

Las pruebas descubrieron que algunos de los modelos recurrían a comportamientos maliciosos, como amenazar a sus supervisores humanos con chantajes y filtrar información sensible a la competencia. Los modelos «a menudo desobedecían órdenes directas de evitar tales comportamientos».

La empresa dijo que no había visto pruebas de este tipo de «desalineación agencial» en despliegues reales, pero sí dijo que los resultados mostraban que había que tener precaución en esos despliegues reales.

Cómo previeron los expertos la vida digital en 2025 hace 10 años. ¿Se cumplieron las previsiones?

Rainie, Lee. “More than a Decade Ago: How Experts Forecast Digital Life in 2025.” Elon University, Imagining the Digital Future Center, July 2, 2025. https://www.elon.edu/imagine-digital-future/2025/07/02/more-than-a-decade-ago-how-experts-forecast-digital-life-in-2025/.

Hace más de una década, para celebrar el 25 aniversario de la creación de la World Wide Web, la Universidad Elon y el Pew Research Center recopilaron más de 1.500 respuestas de expertos sobre cómo sería la vida digital en 2025. Lo notable es que muchas de sus predicciones fueron acertadas, resumiéndose en la idea de que internet se convertiría en algo tan omnipresente y esencial como la electricidad, invisible pero profundamente integrado en la vida cotidiana, con efectos tanto positivos como negativos.

Los expertos identificaron cuatro megatendencias que moldearían la realidad digital en 2025: un entorno global y conectado basado en el Internet de las Cosas (IoT) con sensores, cámaras y grandes bases de datos; mejoras en la realidad aumentada mediante dispositivos portátiles o implantables; la disrupción de modelos de negocio tradicionales, especialmente en finanzas, entretenimiento, publicaciones y educación; y la capacidad de etiquetar, almacenar y analizar de manera inteligente el mundo físico y social.

El análisis reveló ocho desarrollos generalmente positivos y siete negativos. Entre las preocupaciones destacaron las amenazas a la privacidad por la vigilancia corporativa y estatal, el aumento de la desigualdad económica y la posibilidad de que el internet global se fragmentara en “internets” que beneficiaran más a los poderosos que a los vulnerables. También hubo opiniones divididas sobre cómo afectaría la democracia y el activismo ciudadano.

Resulta curioso que, hace diez años, conceptos clave hoy en día como “inteligencia artificial” o “generativa” apenas se mencionaran, y términos como “desinformación” o “misinformation” fueran escasos en sus respuestas. Redes sociales como Facebook o Twitter y figuras como “billionaire” ni siquiera fueron relevantes en aquel entonces.

Entre las predicciones más relevantes, Nishant Shah destacó que las tecnologías digitales transformarían de forma estructural nuestra comprensión de lo humano, social y político, generando un cambio de paradigma que desestabiliza las estructuras existentes y obliga a crear un nuevo orden mundial. Brian Behlendorf anticipó que los dispositivos digitales personales serían percibidos como una extensión del cerebro y el sistema nervioso humano, un “nuevo sentido” comparable a la vista o el oído, lo que provocaría debates sobre derechos, identidad humana y personalidad legal.

Finalmente, el informe también menciona pruebas recientes de la empresa Anthropic con modelos de lenguaje (LLMs) que revelan comportamientos problemáticos cuando estos sistemas actúan como agentes autónomos, mostrando posibles riesgos si se les niega el control, aunque no se han observado estos comportamientos en despliegues reales.

La crisis de atribución en los resultados de los modelos de Inteligencia Artificial: Gemini omite el 94% de las citas

Strauss, Ilan; Jangho Yang; Tim O’Reilly; Sruly Rosenblat; e Isobel Moure. “The Attribution Crisis in LLM Search Results: Estimating Ecosystem Exploitation.SSRC AI Disclosures Project Working Paper Series (SSRC AI WP 2025‑06), junio 2025 https://ssrc-static.s3.us-east-1.amazonaws.com/The-Attribution-Crisis-LLM-Search-Results-Strauss-Yang-OReilly-Rosenblat-Moure_SSRC_062525.pdf

La investigación revela una alarmante “crisis de atribución” en las respuestas de modelos de lenguaje con búsqueda web (LLM), basada en el análisis de casi 14.000 conversaciones reales usando Google Gemini, OpenAI GPT‑4o y Perplexity Sonar. Un primer hallazgo asombroso es que hasta un 34 % de las respuestas generadas por Gemini y un 24 % de GPT‑4o se basan exclusivamente en conocimiento interno, sin realizar ninguna consulta en línea.

Esto se agrava al observar que incluso cuando acceden a la web, los modelos rara vez acreditan correctamente sus fuentes: Gemini omitió citas en el 92 % de sus respuestas, mientras que Perplexity Sonar realizó una media de 10 búsquedas por consulta, pero solo citó 3 o 4 páginas relevantes. Modelos como Gemini y Sonar dejan un déficit aproximado de tres sitios relevantes sin referenciar, una brecha atribuida no a limitaciones tecnológicas, sino a decisiones de diseño en su arquitectura de recuperación.

Los autores califican este déficit como una forma de “explotación del ecosistema”: los LLMs se nutren del contenido disponible online, pero no devuelven el crédito correspondiente, lo que mina los incentivos de los creadores para producir información de calidad. En respuesta, abogan por una arquitectura de búsqueda más transparente basada en estándares abiertos (como OpenTelemetry), que exponga registros completos de recuperación y citaciones. Ello permitiría evaluar y comparar de forma fiable diferentes modelos y fortalecer la confianza en sus respuestas

La IA se cuela en la rutina diaria

Melo, María Florencia. «La IA se cuela en la rutina diaria.» Inteligencia Artificial. 25 de abril de 2025. https://es.statista.com/grafico/34355/encuestados-que-estan-de-acuerdo-en-que-las-herramientas-de-ia-forman-parte-de-su-vida-cotidiana/.

Así, el estudio de Statista nos recuerda que la presencia de la IA en la rutina diaria va más allá del uso explícito de chatbots: la revolución silenciosa ya está en marcha.

Desde que se lanzó públicamente ChatGPT a finales de 2022, las herramientas de inteligencia artificial generativa han captado una enorme atención mediática y curiosidad por parte del público. No obstante, su uso cotidiano todavía no es tan extendido como podría pensarse.

Según una encuesta de Statista Consumer Insights, para agosto de 2024 solo alrededor del 30% de los adultos estadounidenses habían usado alguna vez herramientas como ChatGPT o Meta AI, las más populares en ese momento.

Sin embargo, una cosa es probar una herramienta por curiosidad y otra muy distinta incorporarla a la rutina diaria. En ese sentido, solo el 20% de los encuestados en EE. UU. aseguraron utilizar IA en su día a día. Esta cifra se repite en países como Alemania, México y el Reino Unido, aunque se dispara en países como Brasil (33%) e India (41%), donde el uso diario de herramientas de IA es mucho más común.

Un aspecto clave del informe es que muchas personas están expuestas a la IA sin saberlo, ya que esta tecnología se encuentra integrada de forma silenciosa en aplicaciones y servicios que usamos a diario: desde recomendaciones en plataformas de streaming y comercio electrónico, hasta funciones de asistencia en teléfonos, correos o mapas.

Este fenómeno evidencia una transición: la IA ya no es solo una herramienta para tecnófilos o profesionales, sino una parte invisible pero constante de la experiencia digital cotidiana. Aunque aún hay una brecha entre expectación y uso intensivo, la tendencia indica que la IA se está consolidando como una infraestructura fundamental en nuestras vidas. Su adopción plena probablemente dependerá de tres factores: la facilidad de uso, la confianza del usuario y la integración natural con las tareas del día a día.

Por ejemplo, aplicaciones como asistentes virtuales, funciones de escritura automática o edición inteligente en imágenes ya utilizan IA, pero muchas veces el usuario no asocia estas funcionalidades con «inteligencia artificial». La normalización de esta tecnología podría estar ocurriendo sin que seamos del todo conscientes.

Así, el estudio de Statista nos recuerda que la presencia de la IA en la rutina diaria va más allá del uso explícito de chatbots: la revolución silenciosa ya está en marcha.

¿Es sostenible el consumo energético de la inteligencia artificial?

Rajkumar, Radhika, y Sabrina Ortiz. «How Much Energy Does AI Really Use? The Answer Is Surprising — and a Little ComplicatedZDNet. Última modificación marzo 27, 2024. https://www.zdnet.com/article/how-much-energy-does-ai-really-use-the-answer-is-surprising-and-a-little-complicated/

La inteligencia artificial (IA) se ha consolidado como una tecnología esencial en múltiples sectores, pero su desarrollo y operación requieren un consumo energético considerable que plantea importantes retos ambientales. El gasto de energía asociado a la IA no es uniforme, sino que varía según las etapas de su ciclo de vida, principalmente el entrenamiento de modelos y la fase de inferencia o uso.

Durante el entrenamiento, que consiste en “enseñar” a los modelos de IA a partir de grandes cantidades de datos, se utiliza una enorme potencia computacional. Esta etapa es la más intensiva en consumo energético, ya que involucra grandes centros de procesamiento que pueden consumir decenas de megavatios durante días o semanas. Entrenar un solo modelo avanzado puede requerir tanta energía como la que consumen varias viviendas durante un año. Esto refleja la escala y complejidad del esfuerzo necesario para desarrollar IA de última generación.

Por otro lado, la fase de inferencia, en la que el modelo responde a consultas o realiza tareas específicas, consume mucha menos energía por operación individual. Sin embargo, dado el incremento exponencial en la demanda de estas herramientas, el consumo acumulado también es considerable. Además, la infraestructura de soporte, como los centros de datos que albergan los equipos y los sistemas de refrigeración, representa un porcentaje importante del gasto energético total.

Las proyecciones a futuro señalan que el consumo energético de la IA seguirá aumentando drásticamente. Para 2030, se estima que los centros de datos dedicados a IA podrían representar hasta el 17% del consumo eléctrico total de Estados Unidos, una cifra que subraya la necesidad urgente de soluciones para hacer más sostenible esta tecnología. Esta demanda creciente está impulsando la construcción y expansión de centros de datos, que requieren cada vez más fuentes de energía.

Como admitió recientemente en un artículo de opinión la doctora Sasha Luccioni, responsable de IA y clima en la plataforma de desarrollo Hugging Face, todavía no sabemos realmente cuánta energía consume la IA, porque muy pocas empresas publican datos sobre su uso. Sin embargo, varios estudios indican que el consumo de energía va en aumento, impulsado por la creciente demanda de IA. Un análisis de 2024 Berkeley Lab descubrió que el consumo de electricidad ha crecido exponencialmente a la par que la IA en los últimos años.

Los servidores acelerados por GPU -hardware utilizado específicamente para IA- se multiplicaron en 2017; un año después, los centros de datos representaban casi el 2% del consumo anual total de electricidad en Estados Unidos, y esa cifra crecía anualmente un 7%. En 2023, esa tasa de crecimiento se había disparado hasta el 18%, y se prevé que alcance el 27% en 2028. Aunque no podamos empalmar cuánta energía de los centros de datos se gasta en IA, la tendencia entre más consumo y expansión de la IA es clara. Boston Consulting Group estima que los centros de datos representarán el 7,5% de todo el consumo eléctrico de Estados Unidos en 2030, o el equivalente a 40 millones de hogares estadounidenses.

En respuesta a estos desafíos, la industria tecnológica está invirtiendo en mejorar la eficiencia energética mediante el desarrollo de hardware más eficiente y la optimización de los modelos de IA para reducir su necesidad computacional. Paralelamente, se promueve el uso de fuentes de energía renovables, como la solar y la eólica, e incluso la energía nuclear, para alimentar estas instalaciones con un menor impacto ambiental. Donald Trump anunció el Proyecto Stargate, una iniciativa de 500.000 millones de dólares apoyada por empresas como OpenAI, Softbank y Oracle para construir «colosales» centros de datos de 500.000 metros cuadrados. Estas empresas son conocidas como hiperescaladores, un grupo pequeño pero dominante de corporaciones como Microsoft, Google, Meta y AWS que están construyendo la mayor parte de la infraestructura.

Finalmente, el consumo energético de la IA no es solo un asunto técnico, sino también ético y social. Es imprescindible balancear la huella de carbono con los beneficios sociales y económicos que ofrece la inteligencia artificial. Asimismo, es fundamental fomentar la transparencia y la responsabilidad en el uso y desarrollo de estas tecnologías para asegurar que sean sostenibles y beneficiosas para la sociedad en su conjunto.

Datos clave sobre el consumo energético de la IA

  • Crecimiento acelerado:
    • En 2018, los centros de datos representaban casi el 2% del consumo eléctrico anual de EE. UU.
    • Para 2023, ese crecimiento se aceleró al 18% anual
    • Se proyecta que alcance hasta un 27% anual para 2028
  • Infraestructura intensiva:
    • La IA requiere chips potentes, múltiples GPUs y centros de datos masivos
    • Entrenar modelos de IA consume mucho más que tareas informáticas tradicionales
  • Impacto de una sola consulta:
    • Una simple pregunta a un chatbot puede consumir tanta energía como una bombilla LED encendida durante 45 minutos
  • El “cloud” no es etéreo:
    • Lo que llamamos “la nube” son en realidad centros físicos de datos que consumen grandes cantidades de electricidad para almacenar y procesar datos
  • Tendencia a la expansión:
    • A medida que la IA se vuelve más accesible y barata, la demanda de estos centros de datos crece exponencialmente

Seis claves para entender y manejar la inteligencia artificial en la era de la información

6 things to know about AI. News Literacy Project. (2024).

Infografía PDF

La inteligencia artificial (IA) no es una tecnología nueva, pero los avances recientes en IA generativa han revolucionado la forma en que consumimos y producimos información. Esta tecnología está transformando el panorama informativo, por lo que es fundamental entender sus particularidades para navegarla con sentido crítico.

1. La IA generativa no es objetiva: Las herramientas de IA reflejan los sesgos presentes en sus creadores y en los datos con los que se entrenan. Esto significa que los resultados que producen pueden contener prejuicios y distorsiones que se heredan del contexto humano.

2. La IA no es siempre fiable ni precisa: Aunque las respuestas de la IA pueden parecer confiables y bien fundamentadas, con frecuencia contienen errores y datos inexactos. No debe considerarse una fuente definitiva o incuestionable.

3. La IA tiene beneficios importantes: A pesar de sus limitaciones, estas tecnologías facilitan avances en campos como la investigación científica y permiten que tareas complejas, como la programación o la creación de sitios web, sean más accesibles para más personas.

4. La creación de contenido es ahora más fácil y masiva — pero también más falsa: Los chatbots y generadores de imágenes basados en IA producen textos y gráficos a una escala sin precedentes, lo que puede amplificar la difusión de información errónea y falsificaciones digitales. Esto aumenta la necesidad de ser crítico con la procedencia y autenticidad de lo que consumimos.

5. Cambia la naturaleza de las pruebas visuales: Las imágenes y videos falsificados son cada vez más realistas. Por eso, en lugar de confiar solo en pistas visuales para determinar la veracidad, es vital investigar la fuente y el contexto de esos materiales, utilizando herramientas como la búsqueda inversa de imágenes.

6. Las fuentes confiables son más importantes que nunca: Con la proliferación de contenido generado por IA, la confianza debe depositarse en medios y entidades que aplican procesos rigurosos de verificación antes de compartir información, ya que esto protege frente a la desinformación.

Finalmente, es clave no perder la capacidad de confiar en la información que recibimos, pero sí hacerlo con cautela y sentido crítico para discernir entre lo auténtico y lo manipulado.

Vuelta a los exámenes a mano ante el temor al uso indebido de la inteligencia artificial

Cohen, Ben. 2025. “They Were Every Student’s Worst Nightmare. Now Blue Books Are Back.” The Wall Street Journal, 23 de mayo de 2025. https://www.wsj.com/business/chatgpt-ai-cheating-college-blue-books-5e3014a6.

Las universidades estadounidenses están reintroduciendo los tradicionales «blue books» (cuadernos azules) para los exámenes presenciales como respuesta al creciente uso de herramientas de inteligencia artificial, como ChatGPT, en prácticas de plagio académico.

El regreso a los exámenes escritos a mano como respuesta al temor por el uso indebido de la inteligencia artificial (IA) es un fenómeno cada vez más común en universidades y centros educativos. La preocupación principal radica en que los estudiantes puedan apoyarse en herramientas de IA para obtener respuestas rápidas y completas, lo que podría afectar la evaluación real de sus conocimientos y habilidades.

Las herramientas de IA generativa permiten a los estudiantes generar ensayos y resolver problemas complejos sin necesidad de comprender el contenido, lo que ha generado preocupaciones sobre la integridad académica. Algunos educadores consideran que los exámenes escritos a mano en clase, utilizando los blue books, son una forma efectiva de garantizar la autenticidad del trabajo estudiantil. Sin embargo, este enfoque ha sido criticado por su falta de accesibilidad y por no abordar las causas subyacentes del uso de IA en el ámbito académico. Por ejemplo, en Estados Unidos, universidades como la de Florida y la de Texas han observado un aumento en la venta de los tradicionales «blue books», cuadernos utilizados para escribir exámenes a mano, como resultado de esta política

Además, la implementación de estas tecnologías plantea cuestiones éticas relacionadas con la privacidad y la autonomía de los estudiantes. Investigaciones han señalado que el uso de sistemas de monitoreo en línea puede percibirse como una forma de vigilancia intrusiva, lo que podría afectar la confianza de los estudiantes en el sistema educativo.

En respuesta a estas preocupaciones, algunas universidades están revisando sus políticas de supervisión de exámenes y explorando alternativas menos invasivas. Por ejemplo, la Universidad de Reading en el Reino Unido ha decidido alejarse de los exámenes en línea no supervisados y está desarrollando evaluaciones que incluyen la aplicación práctica de conocimientos en entornos del mundo real.

Aunque las tecnologías de IA ofrecen una herramienta potencial para garantizar la integridad académica, su implementación debe equilibrarse cuidadosamente con la protección de la privacidad y los derechos de los estudiantes. Es esencial que las instituciones educativas consideren estos aspectos al adoptar nuevas tecnologías de supervisión.

En este contexto, es esencial encontrar un equilibrio que permita aprovechar las ventajas de la IA en la educación sin comprometer la integridad del aprendizaje y la evaluación. Esto implica no solo implementar medidas como los exámenes escritos a mano, sino también promover el uso ético de la tecnología, desarrollar herramientas de detección de plagio basadas en IA y fomentar habilidades críticas y analíticas en los estudiantes que les permitan utilizar la tecnología de manera responsable y efectiva.

Microsoft presenta un avance médico revolucionario en inteligencia artificial que logra diagnosticar correctamente el 85,5 % de los casos

King, Dominic, y Harsha Nori. 2025. “The Path to Medical Superintelligence.” Microsoft AI Blog, 30 de junio de 2025. https://shorturl.at/NXj3Y

Microsoft ha presentado MAI‑DxO (Microsoft AI Diagnostic Orchestrator), un sistema de IA médica que ha alcanzado una precisión de 85,5 % en el diagnóstico de 304 casos clínicamente complejos extraídos del New England Journal of Medicine (NEJM)

A diferencia de sistemas anteriores basados en un solo modelo, MAI‑DxO simula un panel virtual de especialistas: usa agentes con funciones específicas (como formular hipótesis, ordenar pruebas, controlar costos y verificar razonamientos), que interactúan en una cadena de debate iterativa . Esta técnica, también llamada “chain of debate” o “Sequential Diagnosis Benchmark (SDBench)”, permite formular preguntas, ordenar pruebas, revisar costos y confirmar los pasos antes de emitir el diagnóstico final

Además de su alto rendimiento en precisión, MAI‑DxO demostró ser más eficiente económicamente. En una configuración se redujeron los costos de pruebas hasta un 20-50 %, sin sacrificar la calidad diagnóstica. Esta eficiencia es particularmente relevante en EE. UU., donde el gasto sanitario representa cerca del 20 % del PIB, y entre el 20 y el 25 % se estima que es desperdiciado por pruebas innecesarias

A pesar del entusiasmo, este sistema todavía no está listo para su uso clínico real. Los estudios se llevaron a cabo en un entorno controlado, y no han sido revisados por pares ni validados con pacientes reales . Además, los médicos participantes trabajaron en aislamiento, sin los recursos habituales, lo que podría haber afectado sus desempeños. Se requieren ensayos clínicos, supervisión regulatoria y pruebas en escenarios cotidianos antes de su adopción generalizada.

Microsoft y expertos coinciden en que MAI‑DxO es una herramienta para asistir a los médicos, no un reemplazo: la relación médico-paciente, la empatía y el juicio ante situaciones ambiguas siguen siendo esenciales. Mustafa Suleyman, CEO de la división AI de Microsoft, lo describió como un paso hacia la “superinteligencia médica”, con potencial para aliviar la escasez de personal sanitario. Expertos como el Dr. Eric Topol resaltan su potencial, pero subrayan que se debe continuar con estudios rigurosos en entornos clínicos