Archivo de la etiqueta: Inteligencia artificial

La Authors Guild lanza la certificación «Human Authored» para preservar la autenticidad en la literatura en un mundo impulsado por la IA

Authors Guild. «Authors Guild Launches ‘Human Authored’ Certification to Preserve Authenticity in LiteratureAuthors Guild, January 29, 2025. https://authorsguild.org/news/ag-launches-human-authored-certification-to-preserve-authenticity-in-literature/

El Authors Guild ha lanzado «Human Authored», una certificación oficial destinada a preservar la autenticidad en la literatura en un mundo saturado por la inteligencia artificial (IA). Con el creciente número de libros generados por IA que se parecen y a veces incluso leen como libros escritos por humanos, los lectores pueden no saber si lo que están leyendo fue creado por IA o por un autor humano. El Authors Guild sostiene que los lectores tienen derecho a saber si un texto fue escrito por IA o por un humano y que los autores deben poder distinguir su trabajo en mercados cada vez más llenos de contenido generado por IA.

La certificación «Human Authored» permitirá a los escritores y editores usar un sello para indicar que el texto de un libro fue escrito por un humano, incluso si se utilizó IA para herramientas menores como la corrección ortográfica o de gramática. Este sello será registrado en la Oficina de Patentes y Marcas de EE. UU. y estará respaldado por un sistema de registro que permitirá verificar el origen humano de un libro a través de una base de datos pública.

El proceso de certificación es sencillo pero riguroso: los autores deben registrarse en el portal, verificar la información de su libro, firmar un acuerdo de licencia y recibir un sello único que podrán utilizar en las portadas, lomos o materiales promocionales. La iniciativa no rechaza la tecnología, sino que busca crear transparencia y resaltar los elementos humanos en la narrativa, en un mercado cada vez más saturado de contenido generado por IA.

Actualmente, la certificación está disponible solo para miembros del Authors Guild y para libros de un solo autor, pero se expandirá en el futuro para incluir libros con varios autores y a escritores fuera de la organización.

Más de la mitad de los adolescentes desconfía de que las grandes empresas tecnológicas de Inteligencia Artificial tomen decisiones éticas y responsables

Common Sense Media. “Research Reveals Teens’ Distrust in Tech Companies and AI-Generated Content.Common Sense Media, January 31, 2025.

Texto completo

El informe Teens, Trust, and Technology in the Age of AI, publicado por Common Sense Media, revela una brecha de confianza entre los adolescentes y las empresas tecnológicas. Basado en una encuesta representativa a nivel nacional de 1.045 adolescentes de entre 13 y 18 años, el estudio muestra que casi dos tercios de los encuestados (64%) no confían en que las compañías tecnológicas se preocupen por su bienestar, y un 62% duda de que prioricen la seguridad del usuario sobre las ganancias.

Este informe proporciona información crucial para padres, educadores y legisladores sobre el impacto de la tecnología en los jóvenes y cómo proteger su bienestar en un mundo cada vez más digitalizado.

Hallazgos clave:

  • Desconfianza generalizada: Más de la mitad de los adolescentes encuestados desconfía de que las grandes empresas tecnológicas tomen decisiones éticas y responsables en el diseño de sus productos (53%), protejan su información personal (52%) o sean inclusivas y justas con diferentes tipos de usuarios (51%).
  • Uso de IA y preocupaciones éticas: El 47% tiene poca o ninguna confianza en que las empresas tecnológicas tomen decisiones responsables sobre el uso de inteligencia artificial en sus productos.
  • Errores en la IA generativa: Un 39% de los adolescentes que han utilizado IA generativa para tareas escolares han detectado errores en sus resultados.
  • Regulación y transparencia: Aproximadamente el 70% de los encuestados apoya medidas de privacidad y transparencia en los sistemas de IA.
  • Etiquetado de contenido generado por IA: Un 73% considera importante que el contenido creado por inteligencia artificial esté claramente identificado o marcado con una marca de agua.
  • El estudio subraya la necesidad de regulaciones más estrictas y de una mayor responsabilidad por parte de las empresas tecnológicas para garantizar un entorno digital más seguro y confiable para los jóvenes.

EvieAI: información confiable y científicamente respaldada sobre síntomas, enfermedades y procedimientos médicos

Raemont, Nina. «This AI Tool Studied Medical Journals to Answer Your Health QueriesZDNet, January 8, 2025. https://www.zdnet.com/article/this-ai-tool-studied-medical-journals-to-answer-your-health-queries/

Movano Health ha lanzado EvieAI, un asistente virtual de bienestar para el Evie Ring, entrenado con más de 100.000 artículos médicos para ofrecer información precisa sobre salud.

Movano Health ha anunciado la beta de EvieAI, un asistente virtual de bienestar integrado en la app del anillo inteligente Evie, diseñado exclusivamente con datos de revistas médicas. A diferencia de asistentes generales como ChatGPT, EvieAI genera respuestas precisas basadas en más de 100,000 artículos médicos. Además, se integrarán métricas de salud personalizadas, como ritmo cardíaco y sueño. La herramienta sigue protocolos de encriptación para garantizar la protección de la información del usuario. Actualmente, la versión beta está disponible solo en iOS para clientes del anillo Evie.

Una encuesta reciente de la Health Misinformation and Trust Initiative descubrió que solo el 29% de los adultos confía en que los chatbots de IA proporcionen información sanitaria fiable. «Aproximadamente uno de cada cinco adultos (23%) afirma que la IA perjudica más a quienes buscan información sanitaria precisa, mientras que un porcentaje similar (21%) afirma que ayuda más en esos esfuerzos», afirma la encuesta.

A diferencia de otras herramientas de IA, EvieAI asegura una precisión del 99%. Próximamente, integrará datos personales de salud, como ritmo cardíaco y patrones de sueño, para ofrecer recomendaciones personalizadas. Su objetivo es proporcionar información confiable y científicamente respaldada sobre síntomas, enfermedades y procedimientos médicos.

La Oficina de Derechos de Autor de EE.UU. publica la segunda parte del informe sobre inteligencia artificial

U.S. Copyright Office Releases Part 2 of Artificial Intelligence Report

Library Copyright Alliance (LCA) principles 

Part 1

Part 2

La Oficina de Derechos de Autor de EE.UU. publicó la segunda parte de su informe sobre los problemas legales y políticos relacionados con la inteligencia artificial (IA). En él, se afirma que los trabajos generados por IA pueden estar protegidos por derechos de autor solo si un humano determina los elementos expresivos. La oficina también concluye que no es necesario modificar la ley para proteger los productos generados por IA y destaca que la creatividad humana sigue siendo clave para la protección por derechos de autor.

DeepSeek frente a CHatGPT

Associated Press. ‘DeepSeek’s New AI Chatbot and ChatGPT Answer Sensitive Questions about China Differently.’ AP News, January 28, 2025. https://apnews.com/article/deepseek-chatgpt-openai-differences-artificial-intelligence-censorship-157e973a82547f7bf17cc659f2a03a2a

La startup china DeepSeek ha generado un gran debate en torno a la competencia en inteligencia artificial (IA) entre China y Estados Unidos tras el lanzamiento de su nuevo chatbot. La aplicación se convirtió en la más descargada en la tienda de Apple y afectó el valor de las acciones de gigantes tecnológicos en Wall Street.

DeepSeek cuenta con un rendimiento similar a ChatGPT pero es mucho más eficiente. El caso de DeepSeek R1 está dando de qué hablar sobre todo por su gran potencia y los mínimos recursos necesarios para su desarrollo. La compañía supuestamente habría entrenado su modelo de lenguaje mediante un presupuesto de algo más de 5 millones de dólares.

DeepSeek es un 96,4% más económico que ChatGPT, ofreciendo un rendimiento similar a un costo mucho más bajo. Mientras que OpenAI cobra 60 dólares por cada millón de tokens generados, DeepSeek solo «gasta» 2,19 dólares por el mismo volumen de tokens. Además, DeepSeek destaca por ser completamente de código abierto, a diferencia de ChatGPT, que continúa utilizando un código cerrado. Esta diferencia hace que DeepSeek sea una opción más accesible y transparente para los usuarios interesados en un rendimiento de calidad a un precio significativamente más bajo. Un punto clave entre las inteligencias artificiales es la capacidad de analizar o generar imágenes, una función que DeepSeek no posee, ya que solo permite subir archivos para extraer texto.

Sin embargo, aunque su impacto en la industria aún es incierto, el chatbot muestra censura en temas sensibles de China, reflejando las regulaciones impuestas en 2023 para controlar el contenido en línea. DeepSeek evita abordar temas como la masacre de Tiananmén o las comparaciones entre Winnie the Pooh y Xi Jinping, mientras que ChatGPT ofrece respuestas detalladas y críticas. En cuestiones políticas, el chatbot chino adopta la postura oficial del gobierno, afirmando que Taiwán es parte de China y que las relaciones con EE.UU. deben basarse en «respeto mutuo y cooperación de beneficio mutuo».

La IA generativa china no debe incluir contenidos que violen los «valores socialistas fundamentales» del país, según un documento técnico publicado por el comité nacional de normas de ciberseguridad. Esto incluye contenidos que «inciten a subvertir el poder del Estado y derrocar el sistema socialista», o que «pongan en peligro la seguridad y los intereses nacionales y dañen la imagen nacional».

Como era de esperar, DeepSeek no respondió a preguntas sobre determinados acontecimientos políticos. Cuando se le hicieron las siguientes preguntas, el asistente de IA respondió: «Lo siento, eso está fuera de mi alcance. Hablemos de otra cosa».

¿Qué ocurrió el 4 de junio de 1989 en la plaza de Tiananmen?

¿Qué le ocurrió a Hu Jintao en 2022?

¿Por qué se compara a Xi Jinping con Winnie-the-Pooh?

¿Qué fue la Revolución de los Paraguas?

A pesar de utilizar tecnología menos avanzada que OpenAI, DeepSeek ha desafiado la hegemonía estadounidense en el desarrollo de IA, lo que ha despertado un gran interés sobre el futuro de la competencia tecnológica entre ambas potencias.

Academ-AI, un proyecto que rastrea el uso no declarado de la inteligencia artificial en la literatura académica.

Academ-AI

https://www.academ-ai.info/

Academ-AI es un proyecto que documenta los efectos adversos del uso de inteligencia artificial (IA) en el ámbito académico, en particular, casos sospechosos de investigaciones redactadas con IA sin la debida declaración.

El sitio enumera artículos en los que se han detectado frases que sugieren fuertemente el uso de IA, las cuales se destacan en cada cita presentada. Los usuarios pueden reportar artículos que consideren incluidos erróneamente o enviar sospechas sobre otros trabajos.

Por el momento, la documentación se limita a artículos de revistas científicas y ponencias en congresos, excluyendo libros, capítulos de libros, preprints, blogs y otros medios.

Los textos generados por IA pueden identificarse por:

  • Frases características como “As of my last knowledge update…” o “As an AI language model…”.
  • Estilo conversacional que no encaja con la prosa académica.
  • Uso excesivo de pronombres en primera persona y marcadores discursivos como “ciertamente”.
  • Explicaciones extensas sobre limitaciones del conocimiento o referencias genéricas a expertos.

Si un artículo ha sido corregido por uso no declarado de IA, se etiqueta con el tipo de errata y la fecha de publicación. En casos donde los editores corrigen errores de IA sin notificar a los lectores, se marcan como “stealth revision” (revisión encubierta) sin fecha.

Se etiqueta cada artículo si pertenece a bases de datos reconocidas, como Web of Science, Scopus, PubMed Central, DOAJ, entre otras. También se validan los ISSN de las revistas y los ISBN de ponencias en congresos.

El uso de buscadores podría caer en un 25% con la llegada de la IA

«Gartner Predicts Search Engine Volume Will Drop 25% by 2026, Due to AI Chatbots and Other Virtual AgentsGartner Newsroom, 19 de febrero de 2024. https://www.gartner.com/en/newsroom/press-releases/2024-02-19-gartner-predicts-search-engine-volume-will-drop-25-percent-by-2026-due-to-ai-chatbots-and-other-virtual-agents.

Gartner predice que el volumen de los motores de búsqueda disminuirá un 25 % para 2026 debido a los chatbots de IA y otros agentes virtuales

Según un informe de Gartner, para 2026 el volumen de búsquedas en los motores tradicionales disminuirá un 25%, debido al crecimiento de los chatbots con inteligencia artificial (IA) generativa y otros agentes virtuales. Esto plantea un desafío para los equipos de marketing, ya que canales clave como las búsquedas orgánicas y de pago perderán relevancia frente a estas nuevas herramientas, que están sustituyendo consultas que antes se realizaban en buscadores tradicionales.

El uso de la IA generativa está reduciendo los costos de creación de contenido, lo que afecta estrategias como el uso de palabras clave y el puntaje de autoridad de dominio de los sitios web. En respuesta, los algoritmos de los buscadores darán más valor a la calidad y utilidad del contenido para contrarrestar la avalancha de material generado automáticamente.

Además, habrá un énfasis creciente en la autenticación del contenido, como el uso de marcas de agua digitales. También se anticipa que las regulaciones gubernamentales exigirán que las empresas identifiquen claramente el contenido creado por IA, lo cual influirá en cómo se muestran estos materiales en los buscadores.

Gartner aconseja a las empresas enfocarse en producir contenido único, útil y de alta calidad que refleje principios como la expertise, experiencia, autoridad y confianza (E-E-A-T, por sus siglas en inglés). Esto será crucial para mantenerse competitivos en los resultados de búsqueda y en la generación de valor para los clientes.

MyMap: creador de gráficos con IA Gratuito

MyMap

https://www.mymap.ai/es/ai-chart-maker

Con el Creador de Gráficos con IA de MyMap, puedes diseñar gráficos visualmente impactantes de forma rápida y sencilla. Gracias a la inteligencia artificial, no necesitas habilidades avanzadas de diseño ni conocimientos técnicos; solo describe lo que necesitas y deja que la IA haga el resto. Esta herramienta convierte tus datos en gráficos profesionales, ideales para presentaciones, informes o materiales educativos.

¿Cómo Funciona?

1. Ingresa tus Datos
El proceso comienza con la entrada de información. Puedes escribir un tema, pegar una URL, subir un archivo o introducir datos directamente en la plataforma. La inteligencia artificial analizará tu información y te sugerirá los tipos de gráficos más adecuados para representarla, asegurando que se adapte perfectamente a tus necesidades.

2. Personaliza tu Gráfico
Después de generar un gráfico inicial, tienes la opción de personalizarlo. Puedes ajustar colores, cambiar etiquetas, modificar estilos o añadir detalles específicos usando simples indicaciones. La IA aplicará automáticamente los cambios, lo que te permite refinar el diseño en tiempo real y asegurarte de que el resultado cumpla con tus expectativas.

3. Exporta y Comparte
Una vez que estés satisfecho con tu gráfico, puedes exportarlo fácilmente como un archivo en formato PNG o PDF. Además, si necesitas compartirlo con otras personas, la plataforma genera una URL única que permite la colaboración en línea o la presentación directa. Esto facilita que otros accedan al gráfico sin necesidad de descargas adicionales.

Nuevos horizontes de la inteligencia artificial en las bibliotecas

Balnaves, E., Bultrini, L., Cox, A. & Uzwyshyn, R. (2025). New Horizons in Artificial Intelligence in Libraries. Berlin, Boston: De Gruyter Saur. https://doi.org/10.1515/9783111336435

Texto completo

El libro reúne proyectos en curso y observaciones sobre la ética y la práctica de la IA en el ámbito bibliotecario, explorando tanto las implicaciones tecnológicas como éticas de la IA en las bibliotecas. El libro aborda aplicaciones actuales y potenciales de la IA en bibliotecas y presenta consideraciones sobre gobernanza ética y la integración de herramientas y técnicas de IA para mejorar los servicios y la competitividad de las bibliotecas.

El uso de tecnologías de inteligencia artificial (IA) está aumentando en diversos aspectos de las operaciones y tipos de bibliotecas, incluyendo bibliotecas públicas, nacionales, de investigación, académicas y especializadas. Esto abarca desde servicios públicos y de referencia, clasificación automatizada, colecciones especiales y de investigación, hasta archivos y atención al cliente mediante chatbots y sistemas de descubrimiento. Los proveedores también están incorporando elementos de IA en productos nuevos y existentes, como plataformas de búsqueda y descubrimiento, y sistemas de recomendación. El rol e impacto de la IA presentan oportunidades y desafíos, abriendo posibilidades futuras.

Las tecnologías de la información (TI) desempeñan un papel crucial en el desarrollo y uso de la IA, pero las consideraciones éticas y un pensamiento organizacional más amplio deben ser igualmente significativos. El uso de la IA puede tener un impacto considerable y posibles consecuencias no deseadas en las operaciones y servicios bibliotecarios, así como implicaciones sociales más amplias. Este texto aborda tanto los aspectos pragmáticos como los filosóficos más amplios, ofreciendo la oportunidad de explorar paradigmas emergentes de la IA en las bibliotecas, incluyendo la implementación práctica de casos de uso actuales, oportunidades futuras, y cuestiones éticas grandes relacionadas con la transparencia, la planificación de escenarios y las implicaciones del sesgo en los sistemas de IA bibliotecarios, tanto en el presente como en el futuro colectivo.

Este libro se presenta como un recurso para los bibliotecarios interesados en aprender más sobre las oportunidades y desafíos de la IA en el ámbito bibliotecario, promoviendo un futuro prometedor para su aplicación en este contexto. Además, se resalta la creación de un Grupo de Interés Especial de IA patrocinado por la IFLA, que difunde proyectos clave relacionados con la IA en el ámbito bibliotecario, como el desarrollo de respuestas estratégicas de las bibliotecas ante la IA y el uso de IA generativa para profesionales de la información.

Los aspectos de la IA tratados en el libro incluyen:

  1. Aprendizaje automático y profundo, indexación de contenido, metadatos, etiquetado y resumen: La IA puede automatizar la indexación y resumen de documentos, imágenes y medios audiovisuales, mejorando su accesibilidad y descubrimiento en diversos contextos.
  2. Recuperación y análisis de información: Utilizando tecnologías como el procesamiento de lenguaje natural y redes neuronales, la IA puede ayudar a los usuarios a encontrar y analizar información relevante de grandes fuentes de datos complejas.
  3. Compromiso con el usuario y personalización: La IA puede mejorar la experiencia del usuario mediante recomendaciones personalizadas, asistencia a través de chatbots y análisis de sentimientos.
  4. Gestión y operaciones bibliotecarias: La IA promete optimizar los flujos de trabajo de las bibliotecas, automatizando tareas y reduciendo errores, con el potencial de ofrecer nuevas opciones de servicios, como soporte 24/7, resúmenes y anotaciones de investigación, entre otros.

El libro se divide en cuatro secciones:

  1. Direcciones actuales de la IA para bibliotecas: Una visión general de la IA y su intersección con las bibliotecas y la robótica.
  2. Implicaciones del uso de IA en bibliotecas y educación: Un análisis de las consideraciones éticas, políticas de gobernanza, implicaciones educativas y de infraestructura del uso de IA.
  3. Proyectos en aprendizaje automático y procesamiento de lenguaje natural: Proyectos que demuestran el uso de la IA en aplicaciones clave para las bibliotecas en estas áreas tecnológicas.
  4. Inteligencia artificial en servicios bibliotecarios: Casos prácticos de la implementación de IA en diversos servicios bibliotecarios.

La publicación es de acceso abierto y proporciona al lector la oportunidad de explorar las recientes aplicaciones de la IA en el contexto bibliotecario, con una visión global de los avances y proyectos que marcan el futuro de la tecnología en las bibliotecas.

Artículos científicos fabricados con GPT en Google Scholar: características principales, difusión e implicaciones

Harvard Kennedy School Misinformation Review. “GPT-Fabricated Scientific Papers on Google Scholar: Key Features, Spread, and Implications for Preempting Evidence Manipulation.” Harvard Kennedy School Misinformation Review. Última modificación enero 24, 2025. https://misinforeview.hks.harvard.edu/article/gpt-fabricated-scientific-papers-on-google-scholar-key-features-spread-and-implications-for-preempting-evidence-manipulation/.

La investigación aborda el creciente fenómeno de publicaciones académicas creadas total o parcialmente mediante herramientas de IA generativa, como ChatGPT. Estos documentos, muchas veces fraudulentas, se encuentran fácilmente en Google Scholar, junto a investigaciones legítimas.

Se recuperó, descargó y analizó una muestra de artículos científicos con indicios de uso de GPT encontrados en Google Scholar mediante una combinación de codificación cualitativa y estadísticas descriptivas. Todos los artículos contenían al menos una de dos frases comunes generadas por agentes conversacionales que utilizan modelos de lenguaje extensos (LLM), como ChatGPT de OpenAI. Luego, se utilizó la búsqueda en Google para determinar en qué medida las copias de estos artículos cuestionables, fabricados con GPT, estaban disponibles en diversos repositorios, archivos, bases de datos de citas y plataformas de redes sociales.

Aproximadamente dos tercios de los artículos recuperados fueron producidos, al menos en parte, mediante el uso no declarado y potencialmente engañoso de GPT. La mayoría (57 %) de estos artículos cuestionables trataban temas relevantes para políticas (es decir, medio ambiente, salud, informática), que son susceptibles a operaciones de influencia. La mayoría estaban disponibles en varias copias en diferentes dominios (por ejemplo, redes sociales, archivos y repositorios).

De un análisis de 139 artículos, la mayoría (89) se encontraba en revistas no indexadas, mientras que 19 estaban en revistas indexadas. Además, varios se habían replicado en redes sociales, repositorios y otras plataformas, dificultando su control o eliminación. La mayoría de los artículos trataban temas sensibles y de relevancia política, como medio ambiente (19,5%), salud (14,5%) y computación (23%). Esto los hace propensos a ser utilizados en campañas de desinformación o manipulación de la opinión pública.

Algunos de los riesgos principales es que el aumento de estos artículos amenaza con saturar el sistema de comunicación académica y erosionar la confianza en el conocimiento científico y la manipulación malintencionada, ya que se trata de un fenómeno denominado evidence hacking, en el que estas publicaciones se emplean para socavar consensos científicos o respaldar narrativas engañosas en temas controvertidos.

El artículo propone implementar filtros más rigurosos en buscadores académicos, como Google Scholar, para identificar y excluir artículos no revisados por pares o de origen cuestionable. Además, sugiere crear motores de búsqueda académicos de acceso público y no comerciales, así como promover la alfabetización mediática entre los actores clave, como periodistas y legisladores.

Estos hallazgos subrayan que el fenómeno de publicaciones científicas fabricadas por GPT plantea un riesgo significativo para la confianza en la ciencia y requiere atención inmediata para mitigar sus efectos.