Archivo de la etiqueta: Inteligencia artificial

Reddit demanda a Anthropic por utilizar sus datos sin autorización para entrenar su modelo

Zeff, Maxwell. “Reddit Sues Anthropic for Allegedly Not Paying for Training Data.” TechCrunch, 4 de junio de 2025. https://techcrunch.com/2025/06/04/reddit-sues-anthropic-for-allegedly-not-paying-for-training-data/

El 4 de junio de 2025, Reddit interpuso una demanda contra Anthropic, una empresa dedicada a la inteligencia artificial, en un tribunal de California. La denuncia se basa en que Anthropic habría utilizado sin autorización los datos de Reddit para entrenar su modelo de lenguaje, conocido como Claude. Reddit acusa a Anthropic de incumplir sus normas de uso y de ignorar las restricciones técnicas impuestas para proteger su contenido.

Específicamente, la demanda señala que Anthropic empleó bots automatizados para acceder al sitio de Reddit más de 100.000 veces desde julio de 2024, a pesar de que Reddit había establecido en su archivo robots.txt la prohibición expresa de este tipo de acceso no autorizado. Este archivo es una herramienta estándar que permite a los sitios web controlar y limitar el acceso de bots a sus contenidos.

Reddit destaca que, a diferencia de otras grandes compañías de tecnología como OpenAI y Google, con quienes tiene acuerdos de licencia para el uso de sus datos, Anthropic no obtuvo ningún permiso para utilizar la información alojada en Reddit. Esta falta de autorización constituye, según Reddit, una violación de derechos y una explotación indebida de su patrimonio digital.

Como consecuencia, Reddit solicita que se le otorguen daños compensatorios por el uso no autorizado de su contenido y que el tribunal emita una orden que prohíba a Anthropic seguir utilizando los datos de la plataforma sin consentimiento. Este caso se suma a un creciente debate legal y ético sobre el uso de datos en la formación de modelos de inteligencia artificial y la protección de los derechos de los creadores y propietarios de contenido en internet.

Políticas sobre el uso de la inteligencia artificial generativa (IA Gen) en la enseñanza superior

EDUCAUSE. 2025. “In the Room Where It Happens: Generative AI Policy Creation in Higher Education.” EDUCAUSE Review, May 7, 2025. https://er.educause.edu/articles/2025/5/in-the-room-where-it-happens-generative-ai-policy-creation-in-higher-education

Se analiza el modo en que las universidades están respondiendo al auge de la inteligencia artificial generativa (IA Gen) mediante la creación de políticas institucionales. A medida que herramientas como ChatGPT, Copilot o Bard se integran en la vida académica, las instituciones enfrentan el reto de formular directrices claras, responsables y equitativas sobre su uso.

Según datos del estudio EDUCAUSE AI Landscape 2025, menos del 40 % de las universidades encuestadas han desarrollado políticas específicas relacionadas con el uso aceptable de estas herramientas. Esto refleja una desconexión entre el crecimiento del uso de la IA y la gobernanza que debería acompañarlo.

Una de las principales preocupaciones que aborda el artículo es que muchas de las conversaciones sobre IA generativa ocurren de forma fragmentada dentro de las instituciones. Los debates se dan por separado en unidades como servicios de TI, bibliotecas, centros de enseñanza y aprendizaje, oficinas de accesibilidad o departamentos académicos, sin una coordinación transversal. Esta falta de conexión impide un enfoque coherente y compartido sobre cómo incorporar la IA en la docencia, la investigación, la administración y los servicios al estudiante. Además, al tratarse de un fenómeno que impacta de forma transversal, la ausencia de colaboración puede generar vacíos normativos o inconsistencias en su aplicación.

El artículo hace una llamada a crear “espacios comunes” donde confluyan las distintas voces de la comunidad universitaria, desde estudiantes y profesorado hasta personal técnico y administrativo. Sostiene que incluir una diversidad de perspectivas en la creación de políticas no solo promueve un enfoque más justo y reflexivo, sino que también fortalece el sentido de pertenencia institucional. Esta participación amplia y deliberativa puede contribuir a identificar riesgos éticos, brechas en el acceso o preocupaciones sobre privacidad que de otro modo podrían quedar fuera del debate.

Asimismo, se subraya la importancia de fomentar una cultura institucional basada en la colaboración y la transparencia, en lugar de limitarse a imponer normas desde arriba. El desarrollo de políticas inclusivas, señala el texto, es un proceso tanto técnico como cultural. Se trata de alinear la gobernanza tecnológica con los valores educativos y sociales de la institución, garantizando que la IA generativa se utilice de manera responsable, creativa y crítica.

En conclusión, el artículo propone que la formulación de políticas sobre IA en la educación superior debe hacerse «en la sala donde ocurre», es decir, en espacios reales de deliberación colectiva, abiertos a todas las voces. Solo así será posible construir un marco normativo robusto y alineado con los desafíos actuales de la enseñanza, la equidad y la transformación digital en las universidades.

Inteligencia Artificial y Formas de Trabajo Emergentes

Cuadros Garrido, María Elisa, y Alejandra Selma Penalva, eds. 2024. Inteligencia Artificial y Formas de Trabajo Emergentes. A Coruña: Editorial Colex. https://d2eb79appvasri.cloudfront.net/erp-colex/openaccess/libros/7821.pdf

El libro ofrece una mirada rigurosa y crítica sobre cómo la inteligencia artificial está transformando las formas de trabajar, exigiendo nuevas normas y enfoques que aseguren que los derechos laborales no se vean erosionados por la automatización. Representa una aportación valiosa para el diseño de políticas públicas que permitan una transición digital justa e inclusiva.

El libro Inteligencia Artificial y Formas de Trabajo Emergentes, coordinado por María Elisa Cuadros Garrido y Alejandra Selma Penalva, reúne una serie de estudios jurídicos que analizan los desafíos que plantea la integración de la inteligencia artificial (IA) en el mundo del trabajo. Publicado en 2024 por Editorial Colex, el texto forma parte de una colección especializada en derecho del trabajo y seguridad social, y está orientado a juristas, académicos y profesionales interesados en comprender los impactos legales, sociales y éticos de esta revolución tecnológica.

El primer capítulo, elaborado por María M. Pardo López, se centra en el marco normativo de la inteligencia artificial en Europa, destacando el Reglamento de IA aprobado en junio de 2024 por la Unión Europea. Este reglamento establece principios para el desarrollo de sistemas de IA confiables y respetuosos con los derechos fundamentales. También se analiza la creación de la Agencia Española de Supervisión de la Inteligencia Artificial y el Convenio Marco del Consejo de Europa sobre IA, que busca proteger los valores democráticos y los derechos humanos frente al uso de tecnologías automatizadas.

En los capítulos siguientes se examinan los efectos de la IA en las relaciones laborales, particularmente en relación con la gestión algorítmica del trabajo. Se aborda cómo las plataformas digitales y otros empleadores están utilizando algoritmos para tomar decisiones sobre contratación, evaluación y despido, lo que plantea serias dudas sobre transparencia, discriminación y tutela judicial efectiva. Se revisa además la jurisprudencia más relevante, como la sentencia del Tribunal Supremo de 2020 sobre los repartidores de plataformas digitales, que reconoció la existencia de una relación laboral pese a la intermediación tecnológica.

Otros capítulos profundizan en cuestiones clave como la protección de datos personales en entornos laborales digitalizados, la responsabilidad civil por daños derivados del uso de IA en el trabajo, la seguridad y salud laboral ante la automatización de tareas, y la necesidad de adaptar la formación de los trabajadores a las nuevas exigencias tecnológicas. El libro propone medidas legislativas para afrontar estos retos y sugiere un enfoque equilibrado entre innovación y protección social.

Kling AI puede crear videos impresionantes con inteligencia artificial en segundos

KlingAI

Kling AI es una herramienta de generación de videos mediante inteligencia artificial que está ganando mucha popularidad por su capacidad de crear videos fluidos y realistas a partir de diferentes entradas, ya sea texto o imágenes. Actualmente, la herramienta funciona con su modelo avanzado Kling 2.0 Master, que ofrece resultados de alta calidad y múltiples opciones creativas.

Kling AI es un software que permite generar videos utilizando técnicas avanzadas de inteligencia artificial. Al igual que otras herramientas similares (como Sora), ofrece la posibilidad de crear videos animados a partir de textos o imágenes, además de editar videos ya existentes con funciones especiales.

Al acceder a Kling, el usuario se encuentra con un panel de control con varias opciones. En la barra lateral izquierda se pueden explorar videos creados por otros usuarios, revisar los propios proyectos y modificar configuraciones. El área más importante es la de generación con IA, donde se puede elegir entre crear imágenes, editarlas, producir videos o generar sonidos.

Esta función es probablemente la más fácil para empezar. El usuario escribe una descripción o prompt tan detallado como quiera, y Kling genera un video basado en esa descripción. Además, incorpora presets que ayudan con ideas para prompts, como “Una mujer mira a la cámara y se pasa la mano por el cabello” o “Un cachorro leyendo un libro en una cafetería”. También permite agregar “prompts negativos” para eliminar elementos no deseados del video. Con solo ingresar el texto y hacer clic en generar, se obtiene el video inicial que luego se puede modificar.

Para aquellos que quieran animar memes u otras imágenes, Kling ofrece una función para transformar imágenes estáticas en videos animados. Puedes usar imágenes predefinidas o subir las tuyas propias, combinando con prompts para ajustar la animación y eliminando elementos no deseados con los prompts negativos.

Mult-Elements es una función avanzada que permite subir una imagen o video para luego modificar elementos específicos dentro de ellos. Por ejemplo, se puede insertar digitalmente a alguien que no estaba presente en un video familiar, eliminar a personas no deseadas que aparecen en el fondo o reemplazar objetos dentro de la escena. Kling facilita esta tarea generando automáticamente los prompts necesarios para estas modificaciones, y permite obtener hasta cuatro resultados diferentes por cada edición.

Los videos creados con Kling 2.0 suelen ser detallados y con bastante movimiento. Sin embargo, la calidad puede variar dependiendo de la complejidad del prompt. La recomendación es centrarse en una idea clara para evitar resultados confusos. Usar una foto clara como base o un sujeto bien definido en el texto mejora notablemente la calidad del video generado.

Kling ofrece diferentes planes de suscripción. La versión más económica cuesta 10 dólares al mes e incluye eliminación de marcas de agua y créditos para videos cortos (hasta 10 segundos). El siguiente nivel cuesta 37 dólares al mes y ofrece mayor control y calidad hasta Full HD. Finalmente, el plan Premier cuesta 92 dólares al mes y brinda créditos adicionales y funciones avanzadas.

También hay una versión gratuita disponible, pero con acceso limitado a créditos y sin acceso al modelo más reciente.

La propuesta «Big Beautiful Bill» busca pausar temporalmente el avance de la IA para evaluar sus implicaciones éticas y sociales.

Perlroth, Nicole, y Stuart A. Thompson. «Trump Taps Palantir to Centralize Data on Americans.» The New York Times, May 30, 2025. https://www.nytimes.com/2025/05/30/technology/trump-palantir-data-americans.html.

La «One Big Beautiful Bill Act» busca centralizar la regulación de la IA a nivel federal durante una década, pero enfrenta críticas por limitar la capacidad de los estados para proteger a sus ciudadanos frente a los desafíos emergentes de esta tecnología.

La propuesta, apodada «Big Beautiful Bill», busca pausar temporalmente el avance de la IA para evaluar sus implicaciones éticas y sociales. La encuesta revela que una parte significativa de la población apoya esta moratoria, reflejando preocupaciones sobre el impacto de la IA en el empleo, la privacidad y la seguridad. Sin embargo, también existen opiniones divididas, con algunos sectores que consideran que una pausa podría obstaculizar la innovación tecnológica y la competitividad.

La propuesta legislativa conocida como «One Big Beautiful Bill Act» es un ambicioso paquete de reformas impulsado por el expresidente Donald Trump y aprobado por la Cámara de Representantes de EE. UU. en mayo de 2025. Entre sus múltiples disposiciones, destaca una cláusula que impone una moratoria de diez años a las regulaciones estatales sobre inteligencia artificial (IA).

Esta disposición prohíbe a los estados promulgar o hacer cumplir leyes específicas relacionadas con la IA durante una década. Esto afectaría legislaciones estatales existentes en lugares como California, Nueva York e Illinois, y detendría más de mil proyectos de ley pendientes en diversas legislaturas estatales.

Los defensores de la moratoria argumentan que una regulación uniforme a nivel federal evitará un mosaico de leyes estatales que podrían obstaculizar la innovación y la competitividad de las empresas tecnológicas estadounidenses en el ámbito global.

La moratoria ha generado una oposición significativa tanto de demócratas como de algunos republicanos. Críticos sostienen que impide a los estados abordar problemas urgentes relacionados con la IA, como la proliferación de deepfakes, fraudes y herramientas de IA discriminatorias. Además, se argumenta que centralizar la regulación en el gobierno federal sin establecer protecciones claras deja a los ciudadanos vulnerables.

Aunque la Cámara de Representantes ha aprobado el proyecto, su futuro en el Senado es incierto. Existen dudas sobre si la disposición relacionada con la IA cumple con la «Regla Byrd», que limita el contenido de los proyectos de reconciliación presupuestaria. Si se determina que la cláusula sobre la IA es «ajena» al presupuesto, podría ser eliminada del proyecto final.

Los usos más comunes de la inteligencia artificial están relacionados con el apoyo emocional y personal

Visual Capitalist. «Ranked: All the Things People Use AI for in 2025Visual Capitalist, April 23, 2025. https://www.visualcapitalist.com/ranked-all-the-things-people-use-ai-for-in-2025/.

En 2025, el uso de la inteligencia artificial (IA) ha experimentado una transformación significativa, enfocándose principalmente en el apoyo emocional y personal. Según un análisis de Marc Zao-Sanders para Harvard Business Review, visualizado por Visual Capitalist, las tres principales aplicaciones de la IA son la terapia y compañía, la organización de la vida y la búsqueda de propósito personal. Este cambio refleja una tendencia hacia la utilización de la IA para gestionar emociones y aspectos personales de la vida cotidiana.

Además de estas aplicaciones, la IA sigue siendo ampliamente utilizada en la creación de contenido, el aprendizaje y la creatividad. Sin embargo, se ha observado una disminución en el uso de la IA para búsquedas específicas, posiblemente debido a la integración de herramientas como Gemini en motores de búsqueda como Google.

El uso de la IA en el ámbito de la salud mental ha surgido como una solución viable ante la falta de recursos en este sector y la creciente epidemia de soledad. La IA se ha mostrado útil en la enseñanza de técnicas de atención plena y terapia cognitivo-conductual. No obstante, existen preocupaciones sobre el reemplazo de las relaciones humanas reales por interacciones con la IA, lo que podría exacerbar la soledad.

Este panorama destaca la necesidad de un enfoque equilibrado en la integración de la IA en aspectos personales y emocionales, asegurando que complemente, y no reemplace, las interacciones humanas esenciales.

Estado actual de la inteligencia artificial (IA) y su impacto en la sociedad 2025

Brennan, Kate, Amba Kak y Sarah Myers West. Artificial Power: AI Now 2025 Landscape. AI Now Institute, 3 de junio de 2025. https://ainowinstitute.org/wp-content/uploads/2025/06/FINAL-20250602_AINowLandscapeReport_Full.pdf

El informe Artificial Power: AI Now 2025 Landscape Report, publicado el 3 de junio de 2025 por el AI Now Institute, ofrece un análisis crítico sobre el estado actual de la inteligencia artificial (IA) y su impacto en la sociedad. El documento destaca cómo las grandes empresas tecnológicas, como Microsoft, Amazon, Google y Meta, han consolidado un poder significativo que influye en diversos aspectos de la vida pública.

El documento subraya cómo las principales empresas tecnológicas —Microsoft, Amazon, Google y Meta— han acumulado un poder significativo, no solo en términos económicos, sino también en su capacidad para influir en las políticas públicas, en la investigación académica y en la vida cotidiana. Esta concentración de poder plantea serias preocupaciones sobre la rendición de cuentas, la equidad y la capacidad de los gobiernos para regular de forma eficaz estas tecnologías.

Uno de los aspectos más destacados del informe es su crítica a las narrativas dominantes sobre la inteligencia artificial. En particular, cuestiona los discursos en torno a la inteligencia artificial general (AGI) y la supuesta «carrera armamentista» global en IA. El informe sostiene que estos relatos tienden a desviar la atención del impacto real que los sistemas actuales de IA están teniendo sobre el trabajo, la economía y la estructura social. En lugar de enfocarse en escenarios hipotéticos, el informe propone centrar los esfuerzos en abordar los problemas concretos que ya están afectando a millones de personas.

El impacto de la IA en el mundo laboral es otro de los temas centrales. Según el informe, la automatización impulsada por la IA está provocando una reestructuración del empleo que afecta especialmente a los trabajadores en condiciones precarias. Aunque a menudo se prometen mejoras en eficiencia y productividad, los beneficios no se reparten equitativamente y los trabajadores rara vez tienen voz en los procesos de toma de decisiones relacionados con la introducción de estas tecnologías. Esta asimetría contribuye a reforzar las desigualdades existentes y a erosionar derechos laborales fundamentales.

Ante este panorama, el AI Now Institute propone una serie de recomendaciones clave. Entre ellas, destaca la necesidad de implementar políticas que frenen la concentración del poder corporativo, fomenten la competencia y garanticen el acceso equitativo a los recursos tecnológicos. También subraya la urgencia de fortalecer los derechos laborales, dando mayor participación a los trabajadores en la gobernanza tecnológica. Finalmente, aboga por un enfoque regulatorio que priorice la justicia social, integrando consideraciones de equidad, inclusión y sostenibilidad en todas las fases del ciclo de vida de los sistemas de IA.

En conjunto, el informe plantea una llamada de atención clara: para que la inteligencia artificial beneficie realmente a la sociedad, es necesario abordar de forma estructural las dinámicas de poder que hoy dominan su desarrollo y aplicación.

Principales hallazgos del informe

  1. Concentración de poder en Big Tech: El informe señala que estas corporaciones han acumulado una ventaja considerable en términos de datos y capacidad computacional, lo que les permite dominar el desarrollo y la implementación de sistemas de IA. Esta concentración de poder plantea desafíos para la rendición de cuentas y la equidad en la sociedad.
  2. Mitos en torno a la IA: Se critica la narrativa predominante sobre la inteligencia artificial general (AGI) y la carrera armamentista en IA, argumentando que estas ideas desvían la atención de los problemas reales y urgentes relacionados con la tecnología actual.
  3. Impacto en el trabajo y la economía: El documento destaca cómo la automatización impulsada por la IA está afectando negativamente a los trabajadores, especialmente a aquellos en roles precarizados, y cómo las promesas de eficiencia a menudo no se traducen en beneficios equitativos para la sociedad en general.
  4. Necesidad de regulación efectiva: El informe aboga por una regulación que no solo se centre en la transparencia y la auditoría técnica, sino que también considere el contexto social y político en el que operan los sistemas de IA.

Integración de la IA en la educación: una mirada crítica, pedagógica y estratégica a las instituciones educativas

Ortiz Contreras, Marcelo. Integración de la IA en la educación: una mirada crítica, pedagógica y estratégica a las instituciones educativas, 2024

Texto completo

La integración de la IA en la educación requiere una visión ética, compromiso institucional y seguimiento especializado. Solo una aproximación estratégica y crítica puede asegurar que la IA impulse la innovación, la equidad y el desarrollo del pensamiento crítico, evitando riesgos de fragmentación y pérdida del sentido educativo.

El documento presenta un análisis crítico y estratégico sobre la incorporación de la inteligencia artificial (IA) en el ámbito educativo, enfatizando que este proceso debe ser reflexivo, responsable y bien estructurado. Se advierte sobre los riesgos de una adopción improvisada, que puede aumentar las desigualdades, debilitar el pensamiento crítico de los estudiantes y poner en riesgo la integridad académica.

Se destaca que el uso indiscriminado de la IA puede reducir la participación activa del alumnado, fomentar respuestas rápidas en lugar de aprendizajes profundos y facilitar el plagio. Además, el exceso de dependencia tecnológica puede provocar una “descarga cognitiva”, donde los estudiantes delegan en la IA tareas intelectuales que deberían desarrollar por sí mismos, perdiendo habilidades de análisis y reflexión.

La propagación de desinformación es otro problema importante, especialmente si los alumnos no están capacitados para validar fuentes y detectar sesgos. Por ello, la educación crítica y la alfabetización digital se presentan como competencias fundamentales para formar ciudadanos capaces de enfrentar estos desafíos.

Los docentes enfrentan el reto de actualizarse constantemente, redefinir su rol como mediadores del conocimiento y adaptar las evaluaciones para distinguir entre aprendizajes auténticos y un uso superficial de la IA. Sin embargo, la falta de formación adecuada y el apoyo institucional pueden generar resistencia y ansiedad ante estas tecnologías.

Por último, se señala que la responsabilidad no debe recaer solo en los profesores. Las instituciones educativas deben asumir un papel activo, creando políticas claras, garantizando el acceso equitativo a la tecnología y protegiendo los datos de la comunidad escolar. La ausencia de una estrategia institucional coherente puede generar desconfianza y respuestas desiguales que perjudican el proyecto educativo.

OpenAI lanza World para verificar la identidad humana mediante el escaneo de iris y rostro a cambio de criptomonedas

Davis, Vicki. “How Do We Know Who’s Human? A New Tech Raises Big Questions.” 10 Minute Teacher Podcast, 3 de mayo de 2025. Podcast de audio. https://www.coolcatteacher.com/e898/

El 1 de mayo de 2025, Sam Altman (CEO de OpenAI y cofundador de este proyecto) lanzó oficialmente en Estados Unidos el programa World, anteriormente conocido como Worldcoin. Este proyecto consiste en instalar centros en seis ciudades estadounidenses (Los Ángeles, San Francisco, Atlanta, Nashville, Miami y Austin) donde se escanean los iris y rostros de las personas mediante dispositivos impulsados por inteligencia artificial.

A cambio del escaneo, se otorga a los usuarios una World ID, una especie de documento digital de identidad, junto con una pequeña cantidad de criptomonedas. Aunque puede parecer un incentivo atractivo, esta propuesta plantea cuestiones profundas sobre la privacidad, la ética digital y el uso de datos biométricos.

Davis explica que esta tecnología responde a tres necesidades emergentes: combatir el fraude de identidad (especialmente ante el auge de las deepfakes y las identidades sintéticas generadas por IA), verificar la edad para proteger a menores en línea (un campo en el que ya se están aplicando soluciones biométricas en países como Francia y Alemania) y garantizar que las personas que interactúan en sitios como Match.com sean reales. Esto último ha llevado a sospechas sobre por qué empresas como VISA o Match Group están involucradas en el proyecto. La autora subraya que detrás del discurso de anonimato de World hay una contradicción fundamental: si se requiere vincular una identidad digital a un perfil para eliminar fraudes, esa identidad ya no es verdaderamente anónima

Para la autora, este tema es una excelente oportunidad educativa. Plantea que la cobertura de esta noticia es un caso perfecto para enseñar alfabetización mediática, ya que existen versiones muy distintas del mismo hecho: algunos medios lo celebran como una forma de obtener criptomonedas fácilmente, mientras otros alertan sobre los riesgos para la privacidad. Davis invita a docentes, padres y estudiantes a reflexionar sobre la fiabilidad de las fuentes, los sesgos informativos y los intereses de las empresas tecnológicas. También propone usar un cartel y un documento descargable con preguntas críticas como herramientas didácticas para fomentar debates en el aula.

Davis es muy crítica con la forma en que muchas empresas, especialmente las tecnológicas, gestionan nuestros datos. Recuerda que “si algo es gratis, probablemente el producto eres tú”, y cita casos como el escaneo ocular en apps educativas, la recopilación de datos incluso en modo incógnito por parte de Google (que afronta una demanda multimillonaria) y el uso no ético del reconocimiento facial. A pesar de que World promete anonimato, su integración con empresas de citas y bancos plantea serias dudas sobre el control y uso de los datos biométricos. Además, solo el 24% de los estadounidenses confían en que las compañías tecnológicas usen sus datos de forma ética, y un 77% desconfía de los líderes de redes sociales, según encuestas citadas por la autora.

Este tipo de tecnologías y debates requieren una formación crítica que solo la educación puede ofrecer. Rechaza la idea de que la inteligencia artificial pueda sustituir la capacidad de análisis humano, y denuncia que quienes afirman no necesitar más educación porque “ChatGPT lo sabe todo” simplemente no entienden cómo funciona la IA ni por qué es peligrosa una confianza ciega en ella. En su opinión, el profesorado sigue siendo imprescindible para formar ciudadanos conscientes y capaces de pensar críticamente.

Un informe sobre Salud presentado por el Secretario de Salud Robert F. Kennedy Jr incluyó estudios inexistentes y referencias científicas erróneas.

Harmon, Stephie. 2025. “RFK Jr.’s ‘Make America Healthy Again’ Report Cites Fake Studies.” Gizmodo, May 30, 2025. https://gizmodo.com/rfk-jr-s-make-america-healthy-again-report-cites-fake-studies-2000608850

El informe «Make America Healthy Again» (MAHA), presentado por Robert F. Kennedy Jr. como Secretario de Salud y Servicios Humanos de EE. UU., ha generado una fuerte polémica debido a la inclusión de estudios inexistentes y referencias científicas erróneas. Aunque el documento afirma estar respaldado por más de 500 fuentes, investigaciones periodísticas han revelado que al menos siete de estas citas corresponden a estudios que no existen o han sido malinterpretados

Hace unos días, un estudio del Tow Center for Digital Journalism, publicado por la Columbia Journalism Review, reveló que los motores de búsqueda impulsados por inteligencia artificial citan incorrectamente las fuentes de noticias en más del 60 % de los casos. Esta alarmante tendencia adquiere aún más relevancia tras la reciente noticia sobre el informe «Make America Healthy Again» promovido por RFK Jr., el cual se apoya en estudios falsos y mal citados, reflejando los peligros reales de la desinformación amplificada por el uso irresponsable de la IA en la producción y difusión de contenidos.

Por ejemplo, se menciona un estudio atribuido a Robert L. Findling sobre la publicidad de medicamentos psicotrópicos en jóvenes, el cual no se encuentra en ninguna base de datos académica, y el propio Findling ha negado haberlo escrito. Otro caso es una supuesta investigación de 2017 sobre la prescripción excesiva de corticosteroides en niños con asma, que tampoco existe. Además, se han detectado errores en citas de estudios reales, como atribuir a una investigación sobre adultos conclusiones aplicables a niños, o afirmar que un estudio incluía psicoterapia cuando no era así

Estos hallazgos han suscitado preocupaciones sobre la integridad científica del informe y han llevado a especulaciones sobre el posible uso de inteligencia artificial generativa en su elaboración. Aunque la Casa Blanca ha calificado los errores como «problemas de formato» y ha prometido actualizaciones, expertos en salud pública y académicos han expresado su alarma por la falta de rigor y transparencia en un documento que podría influir en políticas de salud pública.

El informe también ha sido criticado por omitir causas principales de mortalidad infantil, como accidentes automovilísticos y violencia con armas de fuego, y por promover teorías desacreditadas sobre vacunas y fluoración del agua. Estas controversias ponen en entredicho la credibilidad del informe y resaltan la necesidad de una evaluación rigurosa y basada en evidencia científica en la formulación de políticas de salud.