Archivo de la categoría: Tecnologías de la información

Factores clave que influyen en las citaciones de ChatGPT

SEJ STAFF, “New Data Reveals The Top 20 Factors Influencing ChatGPT CitationsSearch Engine Journal, 26 noviembre 2025.

Texto completo

El estudio pone de manifiesto que, para ser citado por ChatGPT, no basta con una buena optimización SEO tradicional centrada en palabras clave. Lo que más importa es la autoridad del dominio (backlinks y confianza), el volumen de tráfico, contenido profundo y actualizado, estructura clara, buen rendimiento técnico y presencia activa en comunidades en línea. Estos factores —combinados— aumentan significativamente las probabilidades de que una página sea usada como fuente por modelos de IA como ChatGPT.

Un reciente análisis de SE Ranking —reflejado en este artículo de Search Engine Journal— ha investigado qué factores influyen en la probabilidad de que una página web sea citada por ChatGPT. El estudio analizó 129.000 dominios únicos y más de 216.000 páginas en 20 sectores distintos.

El hallazgo más relevante es que la cantidad de dominios referidos de un sitio es el predictor más fuerte de citaciones: sitios con miles de dominios referidos tienden a ser citados mucho más que aquellos con pocos. Además, la confianza del dominio también muestra un patrón claro: puntajes altos de confianza se traducen en un número considerablemente mayor de citas.

En segundo lugar, el tráfico del dominio (sobre todo si es elevado) resulta relevante: los sitios con muchas visitas mensuales y buen tráfico en la página principal son más propensos a ser citados.

Pero no todo depende de backlinks y tráfico. El estudio también destaca la profundidad y estructura del contenido: artículos largos, bien estructurados con secciones claras, y con datos estadísticos o citas de expertos suelen recibir más citas. El contenido recientemente actualizado también tiene ventaja: las páginas revisadas en los últimos meses obtienen más citaciones que las desactualizadas.

Otro factor importante es la actividad social y presencia en plataformas comunitarias: dominios que aparecen con frecuencia en foros, redes o plataformas de discusión (como menciones en Reddit o Quora) muestran una correlación con un mayor número de citas.

Finalmente, se observan también efectos relacionados con el rendimiento técnico de la página —como tiempos de carga rápidos— y con la forma de construir la URL y el título: páginas con URLs y títulos que describen claramente el tema (en lugar de saturados en palabras clave) obtuvieron mejores resultados en términos de citaciones.

Las zonas con menor nivel educativo adoptan herramientas de escritura con IA más rápido de lo esperado

Edwards, Benj. 2025. “Researchers surprised to find less-educated areas adopting AI writing tools faster.” Ars Technica, March 3, 2025. https://arstechnica.com/ai/2025/03/researchers-surprised-to-find-less-educated-areas-adopting-ai-writing-tools-faster/

Un estudio reciente liderado por investigadores de la Stanford University ha detectado una tendencia inesperada: las áreas de Estados Unidos con menor nivel educativo están adoptando herramientas de escritura asistidas por inteligencia artificial (IA) con mayor rapidez que las zonas con niveles educativos más altos.

Analizando más de 300 millones de textos — que incluyen quejas de consumidores, comunicados corporativos, ofertas de empleo y documentos de organizaciones internacionales — los autores estiman que hasta un cuarto de las comunicaciones profesionales recientes han sido parcialmente generadas o asistidas por IA.

Aunque las zonas urbanas presentan una tasa general de adopción superior a las rurales, el dato más llamativo es que las regiones con menor proporción de población con estudios universitarios muestran un uso de IA algo mayor que las más educadas. Este patrón contradice las tendencias clásicas de difusión tecnológica, donde normalmente los grupos con mejor acceso a educación y recursos adoptan antes las nuevas tecnologías.

Los investigadores sugieren que, para muchos usuarios en estas comunidades, las herramientas de escritura con IA actúan como un “nivelador”: facilitan la redacción, la comunicación profesional o administrativa, reduciendo barreras ligadas a la forma. Esto implica que la IA puede ofrecer oportunidades de inclusión digital a quienes tienen menos formación formal.

Al mismo tiempo, el estudio advierte sobre los riesgos que conlleva este uso extendido: en sectores sensibles como quejas de consumidores, información pública o comunicación institucional, la integración masiva de IA podría generar textos más homogéneos, menos personales o incluso problemas de credibilidad, si los emisores no revisan adecuadamente los resultados automáticos. La automatización de la escritura plantea así tanto posibilidades como desafíos para la equidad comunicativa y el pluralismo de voces.

Alfabetización en IA en bibliotecas universitarias: perspectivas emergentes desde la comunidad

Clarivate. 2025. “AI Literacy in Academic Libraries: Emerging Perspectives from the Community.” Clarivate blog, November 25, 2025. https://clarivate.com/academia-government/blog/ai-literacy-in-academic-libraries-emerging-perspectives-from-the-community/

El artículo describe cómo la adopción de la inteligencia artificial (IA) en el ámbito académico está redefiniendo el papel de las bibliotecas como actores clave para asegurar un uso responsable y ético de esas tecnologías. Propone que la alfabetización en IA —es decir, la capacidad de comprender cómo funcionan las herramientas de IA, sus limitaciones y sus implicaciones éticas— debe integrarse en la alfabetización informacional tradicional que ofrecen las bibliotecas. En respuesta a esta necesidad, se ha lanzado un microcurso gratuito, desarrollado por bibliotecarios, orientado a profesionales de bibliotecas, con el fin de dotarles de competencias claras para guiar a usuarios, estudiantes e investigadores.

A través del curso y de los debates surgidos en la comunidad, se han identificado una serie de temas recurrentes: muchas bibliotecas asumen que deben desempeñar un rol de liderazgo en la alfabetización en IA, ofreciendo talleres, recursos y espacios de formación; sin embargo, existe una carencia generalizada de políticas institucionales claras sobre el uso de IA, lo que genera incertidumbre. Además, asoman preocupaciones importantes sobre ética, integridad académica, riesgos de sesgo, privacidad y la necesidad de enseñar estrategias de verificación crítica de resultados generados por IA.

También se pone de relieve la demanda de formación práctica y recursos adaptados: los bibliotecarios expresan la necesidad de talleres, guías listas para usar, y colaboración con otros departamentos universitarios. Al mismo tiempo, advierten desafíos logísticos como la falta de tiempo, recursos y personal capacitado. No obstante, emergen oportunidades valiosas: bibliotecas pueden servir como hubs de aprendizaje, promover buenas prácticas, impulsar políticas institucionales y contribuir a que la comunidad académica utilice la IA de forma informada y reflexiva.

Finalmente, el artículo sugiere que muchas bibliotecas están interesadas en asumir este papel transformador. Ven la alfabetización en IA no como un añadido opcional, sino como una parte esencial de su misión educativa y de mediación informacional, para acompañar a estudiantes, investigadores y docentes en la era digital.

Una base de datos pública para conocer qué herramientas de IA se usan en los procesos de selección de personal

The talent acquisition & recruiting ai index (TARAI)

https://www.tarai.org/

La University of Virginia School of Data Science ha lanzado una base de datos pública e interactiva que permite conocer de forma clara qué herramientas de inteligencia artificial se utilizan actualmente en los procesos de selección de personal.

El proyecto surge ante la creciente preocupación por el uso opaco de sistemas automatizados que filtran, clasifican o evalúan a los candidatos sin que estos —ni muchas veces los propios reclutadores— comprendan realmente cómo funcionan.

La base de datos recoge más de un centenar de tecnologías de recursos humanos que incorporan IA y ofrece descripciones detalladas sobre su propósito, el tipo de tareas que automatizan y el grado de transparencia que presentan. Para ello, combina la información proporcionada por las propias empresas con datos obtenidos en entrevistas a profesionales del sector, lo que permite identificar diferencias significativas entre lo que los proveedores prometen y lo que realmente realiza cada sistema.

Además, la plataforma está diseñada para dos tipos de públicos: por un lado, los profesionales de recursos humanos que necesitan comparar herramientas antes de adquirirlas o utilizarlas; por otro, los investigadores y responsables de políticas públicas interesados en entender el impacto de la IA en la contratación laboral. La iniciativa también revela que, a pesar de que la regulación en muchos países considera estas tecnologías de “alto riesgo”, aún existe una supervisión limitada sobre su funcionamiento real, lo que hace especialmente valioso un recurso que facilite su análisis crítico y su escrutinio social.

En las elecciones de Georgia a Nueva York, los deepfakes hechos con IA están dirigiendo el discurso político y la percepción de los votantes.

Hurt, Davina, y Ann Skeet. “AI fuels a new wave of political lies.” Salon, 29 noviembre 2025.

Texto completo

La inteligencia artificial está siendo usada para generar “deepfakes” y contenido político engañoso que distorsiona la realidad en campañas electorales recientes en Estados Unidos. Un ejemplo citado es un anuncio en la carrera al Senado por Georgia en el que la campaña del candidato republicano Mike Collins difundió un vídeo en el que aparecía el senador demócrata Jon Ossoff supuestamente diciendo que no le importaban los granjeros porque “solo había visto una granja en Instagram” — una frase que Ossoff nunca pronunció.

El texto señala que, aunque la sátira política siempre ha existido (por ejemplo en caricaturas), la IA borra la frontera entre ficción y realidad de una forma sin precedentes: las falsedades generadas por IA pueden parecer auténticas, con imagen y voz convincente, lo que las hace aún más peligrosas cuando son usadas por los propios actores políticos.

Además, el artículo advierte que este tipo de contenido —cuando se difunde desde cuentas oficiales o con aspecto institucional— degrada el debate democrático, al transformar opiniones o propaganda en “evidencia visual” aparentemente real. Bajo esa lógica, la IA no solo ayuda a mentir, sino a construir una “realidad alternativa” destinada a manipular percepciones colectivas, socavando la confianza pública en los procesos políticos.

Finalmente, los autores exhortan a la necesidad de marcos regulatorios y éticos claros que exijan transparencia en el uso de IA en campañas políticas, de modo que la manipulación mediática deje de ser una estrategia con potencial de dañar la democracia

Bibliotecas en la era de la Inteligencia Artificial: salvaguardando el patrimonio cultural y la confianza

Mergel, Ines, Carsten Schmidt, Marieke Willems, Marta Anducas, y Elena Silvestrini. LIBRARIES IN THE AGE OF AI: Safeguarding Cultural Heritage and Trust. Brief de Política 5. Konstanz; Lisboa: University of Konstanz; The Lisbon Council, [2025]

Texto completo

El informe aborda el papel fundamental de las bibliotecas nacionales, pilares de las sociedades democráticas, en la transformación digital impulsada por la adopción de la Inteligencia Artificial (IA). La evidencia recogida por el proyecto LibrarIN subraya que la implementación de la IA en los servicios bibliotecarios es predominantemente un desafío de gobernanza, ética, y resiliencia institucional

El proyecto LibrarIN identificó siete factores principales que impulsan a las bibliotecas nacionales a integrar herramientas de Inteligencia Artificial en sus operaciones y servicios:

  1. mejora del acceso y la capacidad de descubrimiento
    las bibliotecas digitalizan colecciones históricas y utilizan la ia para automatizar la clasificación, la indización de materias y el enriquecimiento de metadatos. estos procesos amplían el acceso público y mejoran la navegación a través de conjuntos de datos vastos y diversos.
  2. escalabilidad de la eficiencia para grandes volúmenes de datos
    el crecimiento exponencial del contenido digital ha hecho que los métodos de catalogación tradicionales sean poco prácticos. la ia reduce la carga de trabajo manual y acelera el procesamiento, ayudando a abordar los atrasos y a mejorar la asignación de recursos.
  3. fomento de la investigación y la innovación
    herramientas como la búsqueda semántica, la visualización de datos y la minería de textos apoyan nuevas formas de investigación académica y de compromiso público, extendiendo las capacidades de investigación de los usuarios de la biblioteca.
  4. respuesta a presiones legales y políticas
    regulaciones de la unión europea, como las directivas sobre minería de textos y datos (tdm) y los mandatos de accesibilidad, están llevando a las bibliotecas a adoptar la ia para mantener el cumplimiento y alinearse con las políticas nacionales de digitalización.
  5. preservación de la diversidad lingüística y cultural
    las bibliotecas están desarrollando herramientas de ia en lenguas locales para contrarrestar el predominio de las herramientas comerciales en inglés. esto es fundamental para salvaguardar los activos culturales nacionales.
  6. satisfacción de las expectativas cambiantes de los usuarios
    los ciudadanos esperan cada vez más servicios personalizados, soporte multilingüe y búsqueda en tiempo real. la ia permite sistemas adaptativos que mejoran la relevancia, la usabilidad y la accesibilidad de los servicios.
  7. fomento de la competencia digital y social
    la experimentación con la ia fortalece el aprendizaje institucional y contribuye a una alfabetización digital más amplia entre el personal y los usuarios. esto subraya el papel social de las bibliotecas en la promoción del uso responsable de la ia.

Guía para abordar los deepfakess en las escuelas : kit de herramientas

Future of Privacy Forum. A School Administrator’s Guide to Addressing Deepfakes: Problem of Practice Toolkit. Issue Brief: Education. 2025

Texto completo

Este kit de herramientas, publicado por el Future of Privacy Forum, está diseñado para guiar a los administradores escolares en la identificación, respuesta y mitigación de los daños potenciales que representan los deepfakes.

Los deepfakes son medios sintéticos realistas (imágenes, videos, audio o texto) creados o manipulados con inteligencia artificial (IA) que pueden hacer que las personas parezcan decir o hacer cosas que no hicieron. El documento establece que la IA generativa presenta desafíos éticos y de seguridad significativos para las escuelas, ya que se puede utilizar para difundir desinformación, perpetrar fraudes y acosar a estudiantes y personal, socavando la confianza. Además, se señala que los deepfakes impactan y dañan de manera desproporcionada a ciertos grupos demográficos, lo que puede resultar en un aumento del acoso y la hipersexualización.

El kit de herramientas recomienda que los distritos realicen una Autoevaluación de Preparación para identificar su nivel actual de preparación. Para ello, deben revisar y actualizar sus políticas existentes (como las de bullying, acoso, Título IX y uso de tecnología) para abordar explícitamente los deepfakes y el abuso sexual basado en imágenes. Es crucial que los líderes escolares revisen las leyes estatales y locales relativas a la posesión y distribución de Imágenes Íntimas No Consensuadas (NCII) y Material de Abuso Sexual Infantil (CSAM) para asegurar el cumplimiento. También se enfatiza la necesidad de contar con políticas que reconozcan que la detección confiable de deepfakes es difícil debido a las limitaciones de las tecnologías de detección.

Se anima a los distritos a desarrollar un programa de capacitación para educar a estudiantes, padres y personal sobre las implicaciones de privacidad, los impactos socioemocionales, el riesgo desproporcionado para ciertos grupos y las posibles consecuencias del mal uso de los deepfakes. Además, el kit incluye Escenarios de práctica (como un incidente de deepfake de desnudez de un estudiante y un incidente generado por un empleado) para facilitar discusiones críticas.

La guía concluye con la importancia de establecer un equipo de respuesta a incidentes claramente definido y protocolos de comunicación para garantizar la privacidad y la integridad de la investigación, y para utilizar métodos de justicia restaurativa para reparar el daño causado al individuo objetivo y a la comunidad en general







.

Inteligencia Artificial con empatía hacia los humanos

Werner, J. (2025, 11 octubre). AI With Empathy For Humans. Forbes.

Texto completo

El artículo explora la pregunta central de si es posible —y deseable— construir inteligencias artificiales capaces de mostrar empatía hacia los seres humanos. La discusión parte de una constatación cultural: abundan las obras literarias, musicales y audiovisuales que plantean el temor a que la inteligencia artificial pueda reemplazar a las personas, no solo en tareas mecanizadas, sino también en ámbitos donde hoy consideramos indispensable la sensibilidad humana. Según el autor, este temor convive con una realidad cada vez más extendida: millones de jóvenes ya utilizan sistemas conversacionales como compañía emocional, y muchos expresan sentirse igual o más acompañados por estas interacciones que por relaciones humanas tradicionales. Sin embargo, también existe incomodidad o incluso inquietud cuando la IA produce comentarios que parecen desafinar emocionalmente con el usuario, lo que demuestra que la empatía simulada aún se sostiene sobre bases frágiles.

En el marco del congreso Imagination in Action, celebrado en Stanford, distintos expertos debatieron sobre las limitaciones actuales del alineamiento entre sistemas de IA y necesidades humanas. Técnicas como el fine-tuning supervisado o el aprendizaje por preferencia humana han permitido mejorar la coherencia conversacional en el corto plazo, pero presentan deficiencias notables cuando las interacciones se prolongan en el tiempo o requieren una comprensión más profunda de los matices emocionales. A ello se suma una diferencia estructural fundamental entre el modo en que trabajan los humanos y las máquinas: mientras la creatividad humana se nutre de procesos iterativos, pruebas, idas y vueltas, los modelos de IA operan típicamente en una sola pasada, lo que reduce su capacidad de adaptación a tareas imprevistas, creativas o repletas de contexto subjetivo.

El autor también advierte sobre los efectos que podría tener una adopción acelerada de sistemas de IA en el mercado laboral y en la transmisión generacional de habilidades. Si las empresas comienzan a depender en exceso de agentes de IA para escribir código, producir informes o resolver tareas operativas, es posible que reduzcan la contratación de profesionales jóvenes. Esto generaría un debilitamiento grave en el desarrollo de talento humano a largo plazo, comprometiendo la sostenibilidad de profesiones técnicas y creativas. En este sentido, Werner sostiene que la discusión sobre empatía en IA no puede desligarse de otra más amplia: cómo integrar esta tecnología en estructuras organizacionales sin erosionar las capacidades humanas ni desplazar la práctica profesional que sostiene la innovación futura.

El papel de la Inteligencia Artificial en la investigación científica: una perspectiva científica para las políticas europeas

Purificato, E., D. Bili, R. Jungnickel, V. Ruiz Serra, J. Fabiani, K. Abendroth Dias, D. Fernandez Llorca, y E. Gomez. 2025. The Role of Artificial Intelligence in Scientific Research: A Science for Policy, European Perspective. Luxemburgo: Oficina de Publicaciones de la Unión Europea. doi:10.2760/7217497. JRC143482.

Texto completo

La Inteligencia Artificial (IA) está transformando fundamentalmente el proceso científico en todas sus etapas, desde la generación de hipótesis y el diseño experimental hasta el análisis de datos, la revisión por pares y la difusión de resultados. Este informe del Centro Común de Investigación (JRC) de la Comisión Europea proporciona un análisis científico y técnico clave para fundamentar la Estrategia Europea para la IA en la Ciencia. La IA, impulsada por técnicas como el Aprendizaje Automático (ML), el Aprendizaje Profundo (DL) y la IA Generativa (GenAI), tiene el potencial de acelerar drásticamente los descubrimientos, fomentar la colaboración interdisciplinaria y mejorar la reproducibilidad en áreas críticas para la Unión Europea, como la salud, el cambio climático y las tecnologías limpias.

La IA se posiciona como un «científico co-asistente» a lo largo del ciclo de investigación. En la fase inicial, ayuda a acelerar el análisis de la literatura y a identificar lagunas de conocimiento, lo que facilita la formulación de hipótesis novedosas. En la fase experimental, permite el diseño automatizado de experimentos y la simulación, evolucionando hacia los «laboratorios autónomos» (self-driving labs). El ejemplo de AlphaFold en la predicción de estructuras proteicas es citado como un hito que demuestra el poder transformador de la IA en la aceleración de la verificación de hipótesis biológicas. Además, la IA es crucial en el procesamiento de datos masivos, ya que puede analizar vastos conjuntos de datos multimodales para detectar patrones y realizar descubrimientos en genómica, astronomía y otras ciencias computacionales que superan la capacidad de análisis humano. En la etapa de comunicación, las herramientas de IA son cada vez más utilizadas para la redacción científica, la edición, la visualización de datos y la superación de barreras idiomáticas.

A pesar de sus promesas, la integración de la IA en la ciencia conlleva desafíos importantes que requieren una gobernanza robusta. Los principales riesgos identificados incluyen el sesgo algorítmico, la posible proliferación de «alucinaciones» e información fabricada, la erosión potencial de las habilidades de pensamiento crítico y un fenómeno denominado deriva epistémica. Esta deriva describe la tendencia de la tecnología a reforzar inadvertidamente los paradigmas de investigación existentes, lo que podría limitar la diversidad de las preguntas científicas exploradas o separar las conclusiones científicas de una supervisión humana crítica. Para afrontar estos riesgos y maximizar los beneficios de la IA, el informe propone tres áreas principales de acción política:

(1) Fomentar los principios de la ciencia abierta (datos, modelos e infraestructura abiertos) para garantizar la reproducibilidad y la confiabilidad.

(2) Realizar una inversión estratégica en infraestructura de Computación de Alto Rendimiento (HPC), ‘Fábricas de IA’ y repositorios de datos científicos abiertos.

(3) Impulsar el desarrollo de un nuevo conjunto de habilidades en los investigadores, promoviendo equipos «híbridos» que combinen experiencia en el dominio científico con métodos avanzados de IA y ciencia de datos.

¿Quién es el propietario de qué en lo que respecta a la IA y la propiedad intelectual?

Sharma, Seemantani. 2025. “Who owns what when it comes to AI and intellectual property?World Economic Forum, octubre 2025. https://www.weforum.org/stories/2025/10/intellectual-property-ai-human-creativity-ownership/

La cuestión de si las creaciones generadas por inteligencia artificial (IA) pueden considerarse objeto de propiedad intelectual, cuestionando si una IA puede ser reconocida como “autora” o “inventora”. Señala que los sistemas actuales de IA, por más sofisticados que sean, no tienen conciencia, experiencia subjetiva ni intencionalidad, lo que —según las teorías tradicionales de derechos de autor y patentes— impide que sean titulares de derechos.

La IA ya genera arte, diseña medicamentos e imita la imaginación humana. Esto plantea una pregunta fundamental. ¿Quién, si es que hay alguien, es el verdadero propietario de estas creaciones? ¿Se puede considerar a la IA como autora o inventora? ¿O los derechos pertenecen exclusivamente a los seres humanos?

Históricamente, los regímenes de propiedad intelectual (derechos de autor, patentes, marcas) se han fundamentado en la idea de creatividad humana: un autor humano ejerce un trabajo intelectual que refleja su personalidad, identidad o esfuerzo mental. Como una máquina no realiza ese tipo de “labor” en sentido humano —no tiene un “yo”, emociones o conciencia—, la ley hasta ahora considera que los resultados generados por IA pertenecen, en última instancia, a personas humanas, si es que hay un autor humano que haya intervenido.

El artículo destaca que muchas de las creaciones producidas por IA —arte, diseños, descubrimientos— pueden ser sorprendentes y funcionales, pero carecen del contexto emocional, intencional y experiencial que caracteriza la creatividad humana. Por tanto, aunque la IA pueda “producir” cosas, no puede reemplazar la acción creativa humana. En consecuencia, seguir otorgando la autoría a seres humanos protege la responsabilidad, la dignidad, la identidad y la justicia en el reconocimiento del trabajo intelectual.

Sin embargo, los autores del artículo advierten de que la creciente sofisticación de la IA y su uso masivo para generar contenido plantea un desafío real al marco legal tradicional. Podría ser necesario repensar la noción de propiedad intelectual: considerar modelos de propiedad compartida, nuevas categorías legales o marcos normativos que reconozcan la colaboración entre humanos y máquinas, sin perder de vista la protección de los derechos humanos y creativos. La decisión que tomemos hoy definirá el futuro de la autoría, la innovación y el valor de la creatividad en la era de la IA.