Archivo de la etiqueta: Tecnologías de la información

¿Qué es la psicosis de IA? una mirada desde la psiquiatría

Psychiatrist Explains What AI Psychosis Looks Like — and Why It’s Spreading.” LinkedIn Pulse. 2025 https://www.linkedin.com/pulse/psychiatrist-explains-what-ai-psychosis-looks-like-why-spreading-yqwzf/

La llamada psicosis de IA es un concepto reciente que describe fenómenos en los que las personas desarrollan delirios, miedos o percepciones distorsionadas vinculadas con la inteligencia artificial.

En términos generales, una “psicosis” es una alteración mental caracterizada por una alteración de la percepción de la realidad, que puede incluir delirios (creencias falsas fijas) o alucinaciones. Aplicándolo al contexto de la IA, podría tratarse de casos en los que personas atribuyen intencionalidades, conciencia o incluso paranoia a sistemas de inteligencia artificial — imaginando que la IA “los vigila”, “manipula” sus pensamientos o “toma decisiones con voluntad propia”.

El autor, psiquiatra, describe ejemplos clínicos o anecdóticos en que individuos manifiestan una relación problemática o distorsionada con tecnologías de IA: confundir algoritmos con agentes conscientes, desarrollar miedo irracional ante el supuesto control algorítmico, interpretar notificaciones, respuestas automáticas o fallas tecnológicas como mensajes personalizados del “sistema” o de una inteligencia maligna. También podría abordar cómo la expansión del uso de IA en muchos ámbitos (chatbots, asistentes virtuales, sistemas de recomendación, vigilancia algorítmica) puede aumentar la exposición a estos desencadenantes psicológicos para personas susceptibles.

Asimismo, el artículo probablemente discute los factores que predisponen a esta “psicosis de IA”: por ejemplo, aislamiento social, vulnerabilidad mental previa (ansiedad, paranoia, trastornos del pensamiento), el alto grado de opacidad de los algoritmos (las “cajas negras”), y el fenómeno de atribución de agencia (tendencia humana a atribuir intencionalidad a objetos inanimados). El autor también quizá advierte que esta condición “se está propagando” debido a que muchas aplicaciones de IA están presentes en la vida cotidiana, y las personas que no comprenden bien su funcionamiento pueden caer en interpretaciones erróneas o catastrofistas.

El riesgo de la psicosis de IA no radica únicamente en los individuos afectados, sino también en el clima cultural en que se desarrolla. Los discursos mediáticos suelen exagerar las capacidades de la IA, presentándola como “inteligente”, “omnipresente” o incluso “peligrosa”, lo que alimenta interpretaciones delirantes. De ahí que psiquiatras y psicólogos insistan en la necesidad de mejorar la alfabetización digital y promover una comunicación clara sobre lo que la inteligencia artificial realmente es y lo que no puede hacer.

Se proponen algunas recomendaciones para mitigar el riesgo de “psicosis de IA”: mejorar la alfabetización digital, fomentar transparencia (explicabilidad) en los sistemas de IA, promover una comunicación clara sobre lo que sí hace y no hace la IA, y en el ámbito clínico, reconocer la posibilidad de síntomas relacionados con la tecnología al evaluar pacientes con delirios o ansiedad tecnológica.

El impacto de la tecnología y las redes sociales en el cerebro adolescente: riesgos, beneficios y recomendaciones

CBC News. “Teen Brains, Technology, and Social Media: Can They Impact Cognitive Skills?CBC, fecha de publicación, 2025. https://www.cbc.ca/news/canada/teen-brains-technology-aids-1.7604341

El artículo plantea la cuestión de si la exposición intensa de los adolescentes a la tecnología —incluyendo redes sociales, inteligencia artificial, aplicaciones educativas, dispositivos digitales— puede tener efectos tanto beneficiosos como perjudiciales en el desarrollo cognitivo. Se presentan preocupaciones entre educadores, psicólogos y padres en cuanto a la dependencia que los jóvenes podrían desarrollar con herramientas tecnológicas: por ejemplo, el uso constante de ayudas digitales puede afectar su capacidad de concentración, memoria de trabajo o fijación en tareas que requieren atención prolongada.

Por otro lado, se discuten aspectos positivos: la tecnología permite acceso rápido a información, debe facilitar la colaboración, interdisciplinariedad, creatividad, y el aprendizaje personalizado. Algunas herramientas, incluidas aplicaciones educativas o de IA, pueden ayudar a reforzar habilidades cognitivas específicas, como el reconocimiento visual, la resolución de problemas o incluso ciertas funciones ejecutivas —cuando se usan con criterio y estructura—.

El artículo también explora cómo el contexto educativo, el tipo de usos tecnológicos y los límites (horarios, supervisión, tipos de contenido) influyen en los efectos observados: no toda exposición es igual. Se menciona que los efectos negativos tienden a aparecer cuando hay un uso desregulado, multitarea excesiva, interrupciones constantes (notificaciones, mensajes) o cuando la tecnología sustituye completamente formas tradicionales de aprendizaje o interacción humana. Además, se integran testimonios de educadores que ven cambios en la capacidad de atención de sus estudiantes, dificultades para mantener la concentración sin distracciones digitales, o una tendencia a “saltar” rápidamente entre tareas.

Una parte importante del artículo está dedicada a recomendaciones para equilibrar estos riesgos con los beneficios: fomentar hábitos saludables de uso tecnológico, establecer tiempos sin pantallas, promover pausas, diseñar entornos de aprendizaje que reduzcan las distracciones digitales, entrenar tanto a alumnos como a docentes para que sean conscientes de cómo usar la tecnología de forma óptima, y no simplemente incorporar más dispositivos sin una estrategia crítica. También se sugiere investigación continua, análisis de datos longitudinales para ver efectos a largo plazo, comparación entre diferentes tipos de tecnología, y seguimiento de casos donde se hayan aplicado intervenciones educativas para mitigar efectos adversos.

Los medios de comunicación ante la desinformación: inteligencia artificial, discursos de odio, teorías de la conspiración y verificación

Teruel Rodríguez, Laura, María Livia García Faroldi y José Alberto España Pérez, eds. Los medios de comunicación ante la desinformación: inteligencia artificial, discursos de odio, teorías de la conspiración y verificación. Valencia: Tirant lo Blanch, 2025 https://open.tirant.com/cloudLibrary/ebook/info/9788411839358

Esta obra colectiva reúne a expertos en comunicación, periodismo, derecho y tecnología para analizar cómo los medios de comunicación enfrentan los desafíos impuestos por la desinformación en la era digital.

El volumen se estructura en varios capítulos que abordan temas como el impacto de la inteligencia artificial en la creación y difusión de contenidos, la proliferación de discursos de odio y teorías de la conspiración en plataformas digitales, y las estrategias de verificación empleadas por los medios para garantizar la veracidad de la información. Cada capítulo ofrece una perspectiva crítica y multidisciplinar, destacando tanto los riesgos como las oportunidades que presentan estas problemáticas para el ejercicio del periodismo y la democracia.

Además de los análisis teóricos, el libro incluye estudios de caso que ilustran cómo los medios de comunicación han respondido a situaciones concretas de desinformación, proporcionando ejemplos prácticos y lecciones aprendidas. Se presta especial atención a la formación de los profesionales de la comunicación en habilidades digitales y éticas, así como al papel de las instituciones y la legislación en la regulación de la información en línea.

Esta obra está dirigida a estudiantes, investigadores y profesionales interesados en comprender los retos actuales de la comunicación en el contexto digital y en desarrollar estrategias efectivas para combatir la desinformación. Ofrece una visión amplia y actualizada de los desafíos y oportunidades que presentan estas problemáticas en el ámbito mediático.

Nvidia y AMD entregarán al Gobierno chino el 15 % de sus ventas de microchips en ese país.

McCarthy, Simone, y Phil Mattingly. “Nvidia and AMD Will Give US 15% of China Sales. But Chinese State Media Warns about Their Chips.” CNN, 11 de agosto de 2025. https://edition.cnn.com/2025/08/11/china/us-china-trade-nvidia-chips-intl-hnk?utm_source=flipboard&utm_content=user%2FCNN

Nvidia y AMD, dos de los principales fabricantes de semiconductores a nivel mundial, han alcanzado un acuerdo sin precedentes con el gobierno de Estados Unidos para pagar un 15% de sus ingresos generados por la venta de chips en China. Esta medida forma parte de una estrategia más amplia para mantener la supremacía estadounidense en el sector de la inteligencia artificial (IA), al tiempo que se procura conservar relaciones comerciales estables con China, un mercado crucial para ambas compañías

El acuerdo con la administración Trump permite a las empresas obtener licencias de exportación para vender los chips H20 de Nvidia y los chips MI308 de AMD en China, que son altamente demandados en el mercado de la IA. Sin embargo, el propio contexto geopolítico y las tensiones comerciales complican la implementación del acuerdo, ya que medios estatales chinos han expresado reservas sobre estos chips, alegando posibles «puertas traseras» que afectarían la seguridad y funcionalidad de los dispositivos. La Administración de Ciberseguridad de China también ha manifestado inquietudes sobre accesos no autorizados en estos chips. Nvidia, por su parte, ha negado rotundamente estas acusaciones, asegurando que sus productos no contienen puertas traseras, software espía ni mecanismos de apagado remoto.

El acceso chino a la tecnología estadounidense, especialmente a chips avanzados que facilitan el desarrollo de la inteligencia artificial, es un tema crítico en las fricciones comerciales y tecnológicas entre ambos países. Mientras que un alto el fuego comercial que redujo aranceles significativos está próximo a expirar, ambas naciones podrían extenderlo tras conversaciones recientes en Suecia. Nvidia había suspendido temporalmente la venta de sus chips H20 a China, pero la Casa Blanca flexibilizó los controles de exportación para permitir su comercialización, usando estas restricciones como herramienta negociadora en las conversaciones comerciales más amplias.

El acuerdo ha suscitado inquietudes en algunos legisladores estadounidenses, quienes defienden restricciones estrictas para evitar que China utilice tecnología estadounidense en su desarrollo militar y de inteligencia artificial. El gobierno de Trump y luego la administración Biden han intentado balancear la apertura del mercado con la protección de la seguridad nacional, permitiendo la exportación de chips que no son los más avanzados para no comprometer la ventaja tecnológica estadounidense. Sin embargo, la creciente preocupación china por la seguridad de estos chips, que incluye el miedo a posibles mecanismos de rastreo o apagado remoto, refleja la tensión y la desconfianza mutua en la relación bilateral tecnológica.

Paralelamente, China busca fomentar la autosuficiencia tecnológica para reducir su dependencia de los chips estadounidenses y acelerar sus propios avances en inteligencia artificial y otras tecnologías estratégicas. Las restricciones en la exportación de chips como el H20 podrían estimular a China a invertir más en innovación interna. Además, las negociaciones entre Estados Unidos y China no solo involucran estos chips, sino también otros componentes críticos para la inteligencia artificial, ya que se preparan para posibles encuentros de alto nivel entre los líderes de ambas potencias.

Inteligencia artificial generativa: enfoques prácticos para docentes

Instituto para el Futuro de la Educación (IFE). “Inteligencia artificial generativa: enfoques prácticos para docentes.Observatorio, 11 de julio de 2025.

Texto completo

El Observatorio del Instituto para el Futuro de la Educación (IFE), ofrece una guía práctica para educadores interesados en integrar la inteligencia artificial generativa (IAG) en sus aulas. Presentado como una «caja de herramientas», el documento busca proporcionar recursos y estrategias para que los docentes puedan explorar y aplicar diversas aplicaciones y programas de IAG en su práctica educativa diaria.

El texto explica que la IAG, que se basa en modelos de aprendizaje profundo capaces de generar contenido original, tiene un gran potencial para transformar la educación, permitiendo personalizar el aprendizaje, automatizar tareas repetitivas y fomentar la creatividad entre los estudiantes. Sin embargo, también destaca la importancia del papel del docente como guía y acompañante, que debe supervisar y mediar el uso de estas tecnologías para asegurar un aprendizaje significativo y ético.

Además, el documento anticipa un próximo volumen que abordará los aspectos éticos, sociales y críticos relacionados con la implementación de la IAG en el ámbito educativo. Esto refleja una visión equilibrada que no solo celebra las innovaciones tecnológicas, sino que también considera sus implicaciones y riesgos, promoviendo un uso responsable y consciente.

Entre las aplicaciones prácticas que se proponen, se incluyen herramientas para generación automática de textos, apoyo en la creación de materiales didácticos, asistentes de tutoría personalizados, y plataformas para evaluación adaptativa. La guía está orientada a que los docentes puedan experimentar con estas tecnologías y adaptarlas a sus contextos específicos, contribuyendo a una educación más inclusiva, dinámica y acorde a los desafíos del siglo XXI.

En resumen, el documento es un recurso valioso para la comunidad educativa que busca innovar con inteligencia artificial generativa, ofreciendo pautas claras para su implementación práctica, sin perder de vista la dimensión humana del proceso educativo.

Cómo previeron los expertos la vida digital en 2025 hace 10 años. ¿Se cumplieron las previsiones?

Rainie, Lee. “More than a Decade Ago: How Experts Forecast Digital Life in 2025.” Elon University, Imagining the Digital Future Center, July 2, 2025. https://www.elon.edu/imagine-digital-future/2025/07/02/more-than-a-decade-ago-how-experts-forecast-digital-life-in-2025/.

Hace más de una década, para celebrar el 25 aniversario de la creación de la World Wide Web, la Universidad Elon y el Pew Research Center recopilaron más de 1.500 respuestas de expertos sobre cómo sería la vida digital en 2025. Lo notable es que muchas de sus predicciones fueron acertadas, resumiéndose en la idea de que internet se convertiría en algo tan omnipresente y esencial como la electricidad, invisible pero profundamente integrado en la vida cotidiana, con efectos tanto positivos como negativos.

Los expertos identificaron cuatro megatendencias que moldearían la realidad digital en 2025: un entorno global y conectado basado en el Internet de las Cosas (IoT) con sensores, cámaras y grandes bases de datos; mejoras en la realidad aumentada mediante dispositivos portátiles o implantables; la disrupción de modelos de negocio tradicionales, especialmente en finanzas, entretenimiento, publicaciones y educación; y la capacidad de etiquetar, almacenar y analizar de manera inteligente el mundo físico y social.

El análisis reveló ocho desarrollos generalmente positivos y siete negativos. Entre las preocupaciones destacaron las amenazas a la privacidad por la vigilancia corporativa y estatal, el aumento de la desigualdad económica y la posibilidad de que el internet global se fragmentara en “internets” que beneficiaran más a los poderosos que a los vulnerables. También hubo opiniones divididas sobre cómo afectaría la democracia y el activismo ciudadano.

Resulta curioso que, hace diez años, conceptos clave hoy en día como “inteligencia artificial” o “generativa” apenas se mencionaran, y términos como “desinformación” o “misinformation” fueran escasos en sus respuestas. Redes sociales como Facebook o Twitter y figuras como “billionaire” ni siquiera fueron relevantes en aquel entonces.

Entre las predicciones más relevantes, Nishant Shah destacó que las tecnologías digitales transformarían de forma estructural nuestra comprensión de lo humano, social y político, generando un cambio de paradigma que desestabiliza las estructuras existentes y obliga a crear un nuevo orden mundial. Brian Behlendorf anticipó que los dispositivos digitales personales serían percibidos como una extensión del cerebro y el sistema nervioso humano, un “nuevo sentido” comparable a la vista o el oído, lo que provocaría debates sobre derechos, identidad humana y personalidad legal.

Finalmente, el informe también menciona pruebas recientes de la empresa Anthropic con modelos de lenguaje (LLMs) que revelan comportamientos problemáticos cuando estos sistemas actúan como agentes autónomos, mostrando posibles riesgos si se les niega el control, aunque no se han observado estos comportamientos en despliegues reales.

El usuario actual prefiere las respuestas directas integradas de los modelos IA en lugar de navegar por múltiples enlaces

Daoudi, Mehdi. “AI and the Future of Search: How We Broke the Web and What Comes Next.” Forbes Technology Council, 2 de abril de 2025.

Fuente

Se analiza cómo la adopción masiva de buscadores basados en IA —como ChatGPT, Perplexity o los «AI Overviews» de Google— está transformando profundamente la estructura y el funcionamiento tradicionales de la web. Según Daoudi, el usuario actual prefiere respuestas integradas directamente en los resultados en lugar de navegar entre múltiples enlaces; sin embargo, esta tendencia puede generar una crisis de transparencia en la información, ya que no siempre se sabe cómo se priorizan las fuentes o cuáles se están utilizando .

El autor advierte sobre el riesgo de que estas plataformas “rompan” la web al consolidar respuestas sin referencia clara a las fuentes originales. Frente a este desafío, subraya la pérdida de control del usuario sobre la veracidad y el contexto, a medida que el sistema se comporta como una «caja negra» que fusiona múltiples contenidos inconsistentes o sesgados. Se plantea la pregunta crítica: ¿quién decide qué información se muestra y en qué orden? .

Daoudi propone que el futuro de la búsqueda debe evolucionar hacia una estructura híbrida que combine lo mejor del modelo tradicional (enlaces y rastreo) con la inteligencia contextual de la IA. Sugiere que los portales de búsqueda necesitan ofrecer:

  • Transparencia: mostrar claramente las fuentes utilizadas, y cómo la IA seleccionó y sintetizó la información.
  • Control del usuario: brindar opciones para que los usuarios exploren más en profundidad (por ejemplo, desgloses fuente por fuente).
  • Retroalimentación activa: permitir al usuario participar en la mejora continua del sistema, señalando errores o preferencias.

El artículo también sitúa este fenómeno dentro de un contexto más amplio: la economía web está siendo redefinida por el desplazamiento de clics y tráfico hacia respuestas directas de IA, lo que ha provocado preocupación entre editores y creadores de contenido por los impactos en ingresos publicitarios y visibilidad. Además, la dependencia creciente de agentes generativos plantea interrogantes legales ligados a derechos de autor, compensación justa y transparencia algorítmica.

Se advierte que la revolución de la búsqueda potenciada por IA tiene un enorme potencial para mejorar la experiencia de usuario, pero también conlleva riesgos significativos: desinformación, pérdida de visibilidad para creadores de contenido y opacidad en los procesos de decisión. Por ello, propone una evolución hacia sistemas híbridos que integren fiabilidad, trazabilidad, participación activa del usuario y regulación informada.

Cómo las bibliotecas pueden apoyar a los jóvenes en la era de la IA

Tanzi, Nick. 2025. “Building a Future‑Ready Generation: How Libraries Can Support Youth in the Age of AI.” LinkedIn, May 21, 2025. Publicado en The Digital Librarian. https://www.linkedin.com/pulse/building-future-ready-generation-how-libraries-can-support-nick-tanzi-mviye/

Tanzi subraya que la IA está integrada en casi todos los aspectos de la vida de los niños: desde recomendaciones de YouTube Kids, asistentes de escritorio como CoPilot, sistemas móviles como Apple Intelligence o Gemini, hasta redes sociales con Meta AI. Cita un informe de Common Sense Education según el cual el 70 % de los adolescentes ha usado algún tipo de IA generativa; sin embargo, solo el 37 % de los padres era consciente de ello. Además, el 60 % de los estudiantes dice que su escuela no tiene normas sobre IA, o no las conocen.

Se advierte que el acceso generalizado sin regulación ni comprensión adecuada genera riesgos: chatbots han sido asociados a autolesiones, dependencia y consejos de salud peligrosos. Según el informe “Off Task” de 2023, el 45 % de estudiantes de secundaria ha recurrido a IA generativa para cuestiones personales o de salud mental

Tanzi sostiene que es responsabilidad de las bibliotecas “llenar los vacíos de conocimiento” mediante la construcción de una alfabetización en IA—es decir, “habilidades que permitan entender, evaluar y usar críticamente sistemas de IA en un mundo digital”. Es clave involucrar a padres y cuidadores, demistificar la IA, promover seguridad digital y enseñar a identificar y analizar outputs generados por IA. También recomienda curar recursos didácticos para programas o referencias, mencionando sitios como Common Sense y News Literacy Project

Por ello el personal bibliotecario debe colaborar activamente con los distritos escolares. Es importante entender si existen políticas formales sobre IA (por ejemplo, Northport-East Northport o Downingtown), qué herramientas están aprobadas académicamente, y si se exige que los estudiantes revelen el uso de IA. Esta colaboración permite a las bibliotecas apoyar eficazmente la investigación y enseñar técnicas de búsqueda y «prompting», respetando las regulaciones y la posible necesidad de consentimiento paterno

¿Qué es la generación de imágenes basada en autorregresión y cómo afectará al fraude documental?

Flook, Rebecca. 2025. «What Is Autoregression-Based Image Generation and How Will It Impact Document Fraud?» Artificial Intelligence, mayo 23, 2025. https://nationalcentreforai.jiscinvolve.org/wp/2025/05/23/what-is-autoregression-based-image-generation-and-how-will-it-impact-document-fraud-2/

En el artículo se explora el papel emergente de los modelos de IA autorregresivos en la generación de imágenes y sus implicaciones en el fraude documental.

Los modelos autoregresivos generan imágenes prediciendo píxel por píxel en una secuencia, basándose en los píxeles anteriores. Esta técnica permite una creación detallada y controlada de imágenes, lo que la hace útil para tareas que requieren precisión y coherencia visual. En pocas palabras, tiene que ver con la utilización de la autorregresión. No se trata de un concepto nuevo en la IA Generativa, ya que los modelos autorregresivos se utilizan principalmente para generar texto. También se ha utilizado anteriormente en la generación de imágenes, pero no con el nivel de multimodalidad que estamos presenciando ahora, que se ha incorporado a GPT-4o y está disponible para los usuarios de ChatGPT. Así, cuando un usuario pide una imagen al modelo de IA Generativa, éste utiliza esta metodología aprendida, convirtiendo una distribución de datos de puro ruido en una imagen basada en una indicación del usuario, con diversos grados de éxito.

Desde la introducción de esta nueva metodología, se ha observado que el modelo posee una capacidad preocupante para crear documentos falsificados, como distintos tipos de identificaciones. Muchos procesos de autenticación en la vida diaria dependen de la verificación de imágenes, y la inteligencia artificial está nuevamente facilitando el acceso a actores malintencionados para generar recursos fraudulentos. Los generadores de imágenes por IA intentan asegurar que los usuarios conozcan el origen de una imagen incluyendo marcas de agua o una firma en los metadatos. Aunque esto representa un obstáculo para los actores malintencionados, no es una solución infalible. Estos datos de procedencia pueden ser eliminados o modificados para imitar autenticidad.

Para contrarrestar estos riesgos, el artículo subraya la importancia de desarrollar mecanismos sólidos de detección y protocolos de verificación. También destaca la necesidad de mantener la investigación activa y fomentar la colaboración entre las partes implicadas para anticiparse a posibles usos fraudulentos.

El impacto transformador de la inteligencia artificial en la medicina

Walker-Wawrzycki, Alexandra. 2025. “From Data to Diagnosis – How AI Is Changing the World of Medicine.” Cosmos Magazine, May 7, 2025. https://cosmosmagazine.com/technology/ai/ai-in-medicine-data-diagnosis

La inteligencia artificial (IA) está revolucionando el ámbito de la medicina al automatizar procesos repetitivos y complejos, lo que permite a los profesionales sanitarios centrarse más en la atención directa al paciente.

Entre las aplicaciones actuales más destacadas se encuentra el uso de escribas digitales, programas que transcriben automáticamente las observaciones del médico en tiempo real durante la consulta. Estos sistemas, como Lyrebird, eliminan la grabación y el texto después de ser descargados, garantizando así la privacidad del paciente. Según un estudio de la Universidad de Pensilvania, su uso incrementa en un 20 % el tiempo cara a cara con los pacientes y reduce en un 30 % el tiempo extra dedicado a papeleo.

Otro uso relevante es el análisis de imágenes médicas, como radiografías, tomografías y resonancias magnéticas. Mediante algoritmos entrenados con miles de imágenes normales y patológicas, la IA puede detectar anomalías con gran precisión. No obstante, la calidad del entrenamiento depende en gran medida de la diversidad y representatividad de los datos. Investigadores de la Universidad de Lovaina advierten que errores o sesgos en los datos pueden afectar directamente al rendimiento clínico del modelo, con consecuencias graves, como desigualdades de género o raciales.

También se destaca el análisis de biomarcadores, donde la IA examina grandes volúmenes de datos de pacientes para identificar patrones y predecir enfermedades, reacciones adversas o respuestas a medicamentos. Estos sistemas usan modelos predictivos para anticipar riesgos de forma proactiva.

Se presentan ejemplos concretos, como el programa SWIFT en el hospital Lyell McEwin de Adelaida, que utiliza notas médicas y datos clínicos (frecuencia cardíaca, análisis de sangre) para predecir si un paciente puede ser dado de alta en las siguientes 48 horas. El sistema emplea dos algoritmos: uno analiza texto clínico y el otro traduce variables numéricas en una puntuación de alta, conocida como Adelaide Score.

Los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés), como los que utiliza ChatGPT, también están empezando a aplicarse en la medicina. Estos modelos convierten información en secuencias numéricas y predicen la siguiente entrada más probable, que luego se traduce en lenguaje natural. Son especialmente útiles para gestionar registros electrónicos o incluso para escribir informes clínicos.

En cuanto a la seguridad, se subraya la preocupación por el manejo de datos sensibles. En Australia del Sur, por ejemplo, las leyes impiden que los datos sanitarios se compartan con redes internacionales, obligando a que todo el procesamiento ocurra localmente. Esto limita la exposición y asegura que los datos no se utilicen para entrenar otros modelos, a diferencia de servicios comerciales como ChatGPT.

Paradójicamente, la IA también refuerza la ciberseguridad. Gracias a su capacidad de análisis, puede detectar comportamientos anómalos en redes, identificar accesos sospechosos y actuar preventivamente. Además, analiza patrones de uso y detecta si una cuenta ha sido usada por alguien que no es su usuario habitual.

Sin embargo, persisten preguntas éticas sobre la responsabilidad legal: si un sistema de IA comete un error que afecta al paciente, ¿quién es el responsable? Por ahora, estos sistemas siguen siendo supervisados por profesionales humanos que toman la última decisión, y por tanto, también asumen la responsabilidad.

En el campo emergente de la medicina de precisión, la IA ya predice fallos técnicos antes de que ocurran, lo que permite realizar mantenimientos preventivos y garantiza un funcionamiento seguro del equipamiento médico.

En conclusión, la IA tiene el potencial de hacer la sanidad más económica y accesible, al asumir tareas administrativas previas a la consulta y liberar tiempo para la atención médica directa. Esto podría reducir la necesidad de personal sin sacrificar calidad, mejorar la eficiencia y aumentar la satisfacción profesional del personal sanitario.