Archivo de la categoría: Tecnologías de la información

Confianza y conocimiento de la IA en Estados Unidos

Ognyanova, Katherine, y Vivek Singh. «National AI Opinion Monitor: AI Trust and Knowledge in America.» USA, febrero de 2025. Rutgers University.

Texto completo

Un estudio dirigido por la Universidad de Rutgers ha identificado una creciente brecha en la confianza y el uso de la inteligencia artificial (IA) en Estados Unidos. Según los resultados de la encuesta, las personas con mayores ingresos y niveles educativos son más propensas a utilizar, confiar y conocer la tecnología de IA.

La encuesta, parte del National AI Opinion Monitor (NAIOM), se realizó entre el 25 de octubre y el 8 de noviembre de 2024, con la participación de casi 4.800 personas de distintos grupos demográficos y niveles socioeconómicos. Se evaluó la confianza en los sistemas de IA, en las empresas que los desarrollan y en el contenido generado por IA.

Principales hallazgos:

  • Confianza en la IA: El 47% de los encuestados expresó “bastante” o “mucha” confianza en que la IA actúe en beneficio del público, un porcentaje superior al de la confianza en las redes sociales (39%) o el Congreso (42%).
  • Grupos con mayor confianza: La confianza en la IA es mayor entre los jóvenes de 18 a 24 años (60%), quienes ganan más de 100,000 dólares al año (62%) y quienes poseen estudios de posgrado (60%).
  • Desigualdad en el acceso: Según la profesora Katherine Ognyanova, coautora del estudio, la brecha de confianza en la IA aún no es insalvable, pero si la tecnología sigue siendo más accesible para los grupos de ingresos altos, podría acentuar las desigualdades económicas y limitar oportunidades para otros sectores.

El 62% de los encuestados confía en las noticias producidas por periodistas, mientras que solo el 48% confía en contenido generado por inteligencia artificial (IA). Esto refleja una mayor confianza en el periodismo tradicional frente a la automatización en la producción de noticias.

A pesar de ello, muchas personas tienen dificultades para identificar contenido generado por IA. Solo el 43% de los participantes se siente “algo” o “muy” seguro de poder diferenciar entre noticias creadas por humanos y aquellas generadas por IA. Sin embargo, menos de la mitad tiene certeza de poder hacerlo con precisión, lo que sugiere la necesidad de mayor educación en alfabetización digital.

Aunque la desconfianza hacia el contenido generado por IA es alta, muchas organizaciones de noticias ya utilizan herramientas automatizadas para agilizar la producción de información. Un ejemplo de ello es Lynx Insight de Reuters, que permite generar reportes breves que luego son revisados y editados por periodistas antes de su publicación.

El estudio también evaluó el nivel de conocimiento sobre IA mediante una serie de preguntas a los participantes, dividiéndolos en tres grupos según sus respuestas correctas. El 27% mostró un bajo conocimiento (0-2 respuestas correctas), el 51% tuvo un conocimiento medio (3-4 respuestas correctas) y solo el 23% demostró un alto conocimiento (5-8 respuestas correctas).

El nivel de conocimiento en IA está directamente relacionado con la educación y los ingresos. Entre quienes tienen estudios de posgrado, el 29% mostró un alto nivel de conocimiento, frente al 20% de aquellos sin estudios universitarios. De manera similar, el 27% de quienes ganan más de 100,000 dólares al año demostraron altos conocimientos de IA, comparado con solo el 19% de quienes ganan menos de 25,000 dólares.

Los investigadores enfatizan la importancia de integrar la educación en IA en los planes de estudio desde la educación básica (K-12). La profesora Ognyanova destaca que la alfabetización informativa debe evolucionar al ritmo de los avances tecnológicos, ya que actualmente solo un tercio de la población tiene un conocimiento básico sobre IA.

La BBC denuncia imprecisiones en los resúmenes de noticias generados por IA

Rahman-Jones, Imran. «AI Chatbots Unable to Accurately Summarise News, BBC FindsBBC News, February 11, 2025. https://www.bbc.com/news/articles/c0m17d8827ko.

Un estudio de la BBC encontró que cuatro chatbots de inteligencia artificial—ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) y Perplexity—fallan al resumir con precisión noticias, presentando distorsiones y errores significativos.

En el experimento, la BBC les pidió a estos modelos que resumieran 100 noticias de su sitio web y expertos evaluaron sus respuestas. Se detectó que el 51 % de las respuestas tenía problemas importantes y que el 19 % de aquellas que citaban contenido de la BBC contenían errores factuales, como datos y fechas incorrectas.

Algunos ejemplos de inexactitudes incluyen: Gemini afirmando erróneamente que el NHS no recomienda el vapeo para dejar de fumar, ChatGPT y Copilot diciendo que Rishi Sunak y Nicola Sturgeon aún estaban en el cargo tras haberlo dejado, y Perplexity tergiversando una noticia sobre Medio Oriente.

La directora de BBC News, Deborah Turness, advirtió que las empresas de IA están «jugando con fuego» y pidió que las compañías tecnológicas «retiren» estos resúmenes, como ya hizo Apple tras quejas previas de la BBC.

El informe también señala que los chatbots no solo presentan errores fácticos, sino que tienen dificultades para diferenciar entre opinión y hechos, editorializan y omiten contexto esencial. La BBC busca dialogar con las empresas de IA para encontrar soluciones y garantizar que los editores tengan control sobre el uso de su contenido.

El informe, además señala que, en general, Copilot y Gemini fueron los chatbots con mayores problemas, mientras que ChatGPT y Perplexity mostraron un desempeño algo mejor, aunque también presentaron errores significativos.

DeepSeek revoluciona la IA con modelos de lenguaje a bajo costo y sin supervisión humana

Heaven, Will Douglas. «How DeepSeek Ripped Up the AI Playbook—and Why Everyone’s Going to Follow Its LeadMIT Technology Review, January 31, 2025. https://www.technologyreview.com/2025/01/31/1110740/how-deepseek-ripped-up-the-ai-playbook-and-why-everyones-going-to-follow-it/

El artículo destaca la innovación de DeepSeek, una firma china que ha revolucionado la creación de modelos de lenguaje de gran escala. La compañía presentó su modelo R1, que no solo compite con los mejores modelos estadounidenses, sino que fue desarrollado a una fracción del costo y distribuido de forma gratuita. Esta innovación causó un gran impacto en la industria tecnológica, tanto en EE. UU. como en China, y ha generado un cambio significativo en la forma en que se entrenan los modelos de IA.

Lo más relevante de DeepSeek es su enfoque en el aprendizaje automático autónomo. A diferencia de otros enfoques que dependen de la retroalimentación humana (como el aprendizaje reforzado con retroalimentación humana, RLHF), DeepSeek utiliza retroalimentación generada por computadoras para entrenar sus modelos de manera más eficiente y a menor costo. Este proceso de aprendizaje reforzado automatizado permite que los modelos aprendan por prueba y error sin la intervención humana constante.

La compañía también ha logrado reducir costos mediante el uso de chips antiguos y el uso eficiente de grandes conjuntos de datos, como el conjunto Common Crawl, lo que permite entrenar modelos sin necesidad de construir nuevos datos desde cero. Además, la técnica multi-token prediction ha mejorado la precisión y reducido el costo de la formación del modelo.

El modelo R1 es un ejemplo de cómo la IA puede evolucionar rápidamente, y al compartir sus métodos, DeepSeek ha permitido que otros laboratorios y empresas sigan su ejemplo. Grandes empresas como OpenAI y Google DeepMind podrían estar adoptando enfoques similares en secreto, lo que sugiere que la creación de modelos de razonamiento es más accesible de lo que se pensaba. Esto podría llevar a una proliferación de modelos gratuitos y más avanzados, lo que cambiaría el panorama de la IA.

ChatGPT’s Deep Research identifica 20 puestos de trabajo que serán sustituidos por la IA. ¿Está el tuyo en la lista?

Ortiz, Sabrina. «ChatGPT’s Deep Research Just Identified 20 Jobs It Will Replace. Is Yours on the List?» ZDNet, February 5, 2025. https://www.zdnet.com/article/chatgpts-deep-research-just-identified-20-jobs-it-will-replace-is-yours-on-the-list/.

Tras una análisis en 24 fuentes Deep Research elaboró una tabla que incluía títulos de puestos de trabajo, explicaciones de por qué una IA es mejor que un humano en esa función y la probabilidad de que el puesto sea sustituido.

ChatGPT, utilizando su nueva función Deep Research, identificó 20 trabajos que podrían ser reemplazados por inteligencia artificial, basándose en una investigación de 24 fuentes. La lista de trabajos incluye roles como asesor fiscal, grabador de datos, telemarketing, contable, asistente virtual, traductor y otros. Estos trabajos, según ChatGPT, dependen de habilidades técnicas que la IA puede realizar de manera más eficiente y autónoma, como la transcripción, traducción y revisión de textos, o la gestión de redes sociales y análisis de datos.

¿Qué trabajos sustituirá la IA, según ChatGPT?

el papel de «Asesor fiscal»., con una probabilidad de sustitución del 98%, lo que ChatGPT considera una «automatización casi segura». ChatGPT explicó que la IA sería mejor en esta tarea porque puede procesar rápidamente las normas y cálculos fiscales, lo que la haría más rápida que un humano. Para apoyar su argumento, ChatGPT destacó que ya existen programas fiscales basados en IA.

RangoTrabajoPor qué es mejor que el humanoProbabilidad
1Asesor de impuestosPuede procesar reglas fiscales y cálculos sin errores mucho más rápido que los humanos.98% (Automatización casi segura)
2Grabador de datosProcesa datos a alta velocidad con 100% de consistencia, eliminando errores y ahorrando tiempo.95% (Muy alta)
3TeleoperadorSigue guiones y maneja interacciones con clientes sin descanso ni fatiga, automatizando muchas tareas rutinarias.94% (Muy alta)
4ContableRegistra transacciones y concilia cuentas más rápido y con mayor precisión que los humanos.94% (Muy alta)
5Asistente legalEscanea y resume documentos legales rápidamente, realizando investigaciones de leyes y redactando archivos de manera eficiente.90% (Extremadamente alta)
6Programador de citasManeja calendarios y logística de reuniones las 24 horas, coordinando horarios con facilidad.90% (Extremadamente alta)
7Asistente virtualRealiza tareas rutinarias de oficina simultáneamente para varios usuarios, mejorando la productividad.88% (Extremadamente alta)
8TranscriptorConvierte audio a texto en tiempo real con una precisión de hasta un 99%, mucho más rápido que un humano.87% (Muy alta)
9Corrector de estiloDetecta errores de ortografía y gramática instantáneamente, mejorando con el tiempo.86% (Muy alta)
10Redactor publicitarioGenera contenido escrito como anuncios y eslóganes más rápido y con mayor eficiencia que los humanos.82% (Muy alta)
11Representante de servicio al clienteResponde preguntas frecuentes y resuelve consultas simples al instante, manejando múltiples clientes a la vez.80% (Alta)
12Especialista en marketing por correo electrónicoPersonaliza campañas masivas de correos electrónicos a gran escala, analizando datos para optimizar tiempos de envío.78% (Alta)
13Generador de contenidoProduce artículos y contenido SEO rápidamente, generando más contenido y de menor costo que los humanos.75% (Alta)
14Community managerGenera y programa publicaciones en plataformas sociales, monitorea tendencias y optimiza tiempos de publicación.75% (Alta)
15TraductorTraduce textos instantáneamente con alta precisión, mejorando la comprensión y rapidez.71% (Alta)
16Analista de soporte técnicoResuelve problemas comunes de TI usando vastas bases de conocimiento, reduciendo la necesidad de humanos.70% (Alta)
17Especialista en Selección de PersonalFiltra currículums y empareja candidatos usando IA, acelerando el proceso de contratación.70% (Alta)
18Analista de investigación de mercadoRecolecta y analiza datos de mercado en una fracción del tiempo que los humanos.68% (Alta)
19Agente de viajesProporciona recomendaciones de viaje personalizadas, ajustando planes al instante.65% (Moderadamente alta)
20TutorOfrece enseñanza personalizada y práctica interactiva a bajo costo, con retroalimentación instantánea.60% (Moderada)

El resto de profesiones citadas en la lista por orden son: grabador de datos, teleoperador, contable, asistente jurídico, programador de citas, asistente virtual, transcriptor, corrector, redactor, representante de atención al cliente, comercializador de correo electrónico, comercializador de contenidos, gestor de redes sociales, traductor, analista de soporte técnico, reclutador, analista de estudios de mercado, agente de viajes y tutor.

Todos los trabajos sugeridos por ChatGPT tienen un denominador común: la función depende principalmente de una habilidad técnica que la IA puede realizar bien de forma autónoma. Por ejemplo, la IA puede transcribir, traducir y corregir de forma eficaz, lo que hace menos necesario que los humanos realicen estas tareas.

Sin embargo, el análisis destaca que aunque la IA pueda realizar bien las tareas técnicas de estos roles, las habilidades blandas, como la comunicación, el pensamiento crítico y la gestión interpersonal, siguen siendo esenciales y no pueden ser replicadas por la IA. Por lo tanto, la automatización no necesariamente llevará a la pérdida de empleos, aunque algunas funciones podrían ser más susceptibles al reemplazo. Además, las organizaciones aún enfrentan obstáculos para implementar la IA a gran escala, como la falta de claridad en el retorno de inversión y limitaciones de infraestructura.

¿Significa esta investigación que todo el mundo en estos campos va a perder su trabajo? No, es muy poco probable. El análisis de ChatGPT sólo tiene en cuenta la capacidad de la IA para desempeñar eficazmente las habilidades duras. Sin embargo, las habilidades sociales, como la comunicación, el pensamiento crítico, la resolución de conflictos, el liderazgo, la gestión del tiempo y las habilidades interpersonales, son igualmente importantes para el éxito, y la IA no puede replicar esas capacidades.

Además, las organizaciones aún no están preparadas para adoptar la IA de forma generalizada. Por ejemplo, un informe reciente de Accenture mostró que todavía hay muchos obstáculos que impiden a los líderes empresariales la implementación generalizada de la IA en las organizaciones, como la falta de claridad sobre el retorno de la inversión, las limitaciones de infraestructura y la desconexión de los empleados.

Percepciones de los estudiantes de educación superior sobre ChatGPT

Ravšelj, Dejan, et al. “Higher Education Students’ Perceptions of ChatGPT: A Global Study of Early Reactions.” PLOS One 20, no. 2 (February 5, 2025). https://doi.org/10.1371/journal.pone.0315011

Se analiza cómo los estudiantes universitarios de todo el mundo perciben y utilizan ChatGPT en sus actividades académicas. La investigación se basa en una muestra de 23.218 estudiantes provenientes de 109 países y territorios, convirtiéndose en el estudio más amplio realizado hasta la fecha sobre este tema.

Uno de los principales hallazgos del estudio es que los estudiantes utilizan ChatGPT principalmente para la generación de ideas (brainstorming), la síntesis de textos y la búsqueda de artículos académicos. También se observa que algunos lo emplean para la escritura profesional y creativa, aunque en menor medida. En general, los estudiantes encuentran útil la herramienta para simplificar información compleja y resumir contenido, lo que les ayuda a comprender mejor ciertos temas.

Sin embargo, a pesar de sus ventajas, los estudiantes expresan reservas sobre la fiabilidad de la información proporcionada por ChatGPT, especialmente en contextos que requieren precisión y rigor académico. Algunos incluso consideran que las respuestas de la herramienta son más claras que las explicaciones de sus compañeros o profesores, lo que indica que valoran la capacidad de síntesis y estructuración del contenido que ofrece la IA.

A lo largo del estudio, los participantes manifestaron una preocupación generalizada por el impacto de ChatGPT en la educación, lo que ha llevado a un consenso sobre la necesidad de establecer regulaciones claras para su uso. Entre las principales inquietudes destacan el riesgo de plagio y fraude académico, así como la posibilidad de que fomente el aislamiento social al reducir la interacción entre estudiantes y profesores.

En cuanto al aprendizaje y el desarrollo de habilidades, los estudiantes reconocen que ChatGPT puede mejorar el acceso al conocimiento, aumentar la eficiencia en el estudio y contribuir a la obtención de mejores calificaciones. No obstante, también señalan que su uso excesivo podría afectar el desarrollo de habilidades clave como la comunicación interpersonal, la toma de decisiones, el pensamiento crítico y la competencia en el idioma nativo.

El estudio también explora la percepción de los estudiantes sobre el impacto de la IA en el mercado laboral. En general, creen que la integración de la inteligencia artificial en diversos sectores incrementará la demanda de habilidades digitales y facilitará el trabajo remoto, aunque no prevén un impacto significativo en las tasas de desempleo.

Desde un punto de vista emocional, la mayoría de los estudiantes reportan sentir curiosidad y calma al interactuar con ChatGPT. Esto sugiere que, si bien existen preocupaciones sobre su uso, en términos generales los estudiantes se sienten cómodos utilizando la herramienta y explorando sus posibilidades.

El estudio también identifica diferencias en las percepciones y usos de ChatGPT según factores socioeconómicos y geográficos, lo que indica que el acceso a la tecnología y el contexto cultural influyen en la forma en que los estudiantes adoptan y valoran esta herramienta.

Los hallazgos de esta investigación ofrecen información valiosa para docentes, administradores y legisladores. Los responsables de la educación pueden utilizar estos datos para diseñar planes de estudio que integren la inteligencia artificial de manera efectiva, desarrollar metodologías de enseñanza que fomenten el pensamiento crítico y la autonomía de los estudiantes, y establecer sistemas de evaluación que mitiguen el riesgo de plagio.

Por otro lado, los legisladores y formuladores de políticas educativas deben considerar el desarrollo de estrategias de capacitación digital para preparar a los estudiantes para un mercado laboral en evolución, así como la implementación de regulaciones que aborden las preocupaciones éticas y prácticas relacionadas con el uso de la IA en la educación.

En conclusión, el estudio subraya la importancia de encontrar un equilibrio en la integración de herramientas de inteligencia artificial como ChatGPT en la educación superior. Es fundamental maximizar los beneficios que estas tecnologías pueden ofrecer en términos de acceso al conocimiento y eficiencia en el estudio, sin descuidar la necesidad de desarrollar habilidades esenciales para el aprendizaje y el trabajo futuro.

Libros basura generados por IA ya está en tu biblioteca pública

Maiberg, Emanuel. «AI-Generated Slop Is Already In Your Public Library404 Media, 4 de febrero de 2025. https://www.404media.co/ai-generated-slop-is-already-in-your-public-library-3/

Los bibliotecarios están enfrentando un problema creciente en las bibliotecas públicas de EE. UU. con respecto a los libros de baja calidad generados por inteligencia artificial (IA). Estos libros están siendo incluidos en los catálogos digitales de bibliotecas públicas, lo que obliga a los bibliotecarios a revisar una gran cantidad de material para identificar qué libros son generados por IA y cuáles son escritos por humanos.

Las plataformas Hoopla y OverDrive, que gestionan los libros electrónicos en muchas bibliotecas, están facilitando la inclusión de estos títulos, sin que los bibliotecarios tengan un control efectivo sobre la selección. Aunque Hoopla ofrece un catálogo muy amplio, esto también significa que los bibliotecarios deben lidiar con contenido de baja calidad, incluyendo libros escritos o generados por IA con poca o ninguna supervisión. Este tipo de contenido es conocido como «slop» o «basura de IA», y se ha convertido en un problema debido a la falta de curaduría en las plataformas. Algunos de estos libros, aunque no presentan información peligrosa, están mal escritos y tienen una presentación pobre.

Los bibliotecarios expresan su preocupación por la cantidad creciente de contenido de IA en sus catálogos, ya que los usuarios pueden no ser conscientes de que están leyendo material generado por IA. Además, esto genera un gasto innecesario para las bibliotecas, que deben pagar por libros de baja calidad. Los bibliotecarios piden mayor transparencia y control en el proceso de selección de los libros, y sugieren que los libros generados por IA deben estar claramente identificados en los catálogos para que los usuarios sepan que no fueron escritos por autores humanos.

ChatGPT el chatbot de IA que cambió la vida de los científicos

Lenharo, Mariana. «ChatGPT Turns Two: How the AI Chatbot Has Changed Scientists’ Lives.» Nature, December 2, 2024. https://www.nature.com/articles/d41586-024-03940-y.

Desde su lanzamiento en noviembre de 2022, ChatGPT ha sido utilizado por investigadores para mejorar la redacción académica, revisar literatura científica y escribir código para analizar datos. Aunque algunos creen que el chatbot aumenta la productividad, otros temen que esté facilitando el plagio, introduciendo imprecisiones en los artículos y consumiendo grandes cantidades de energía.

Un estudio de la editorial Wiley, realizado entre marzo y abril de 2024, reveló que el 81% de los investigadores han usado ChatGPT, lo que lo convierte en la herramienta de IA más popular entre los académicos. La mayoría de los encuestados considera que, en los próximos cinco años, será crucial que los investigadores desarrollen habilidades en IA.

  • Se estima que al menos 60.000 artículos académicos publicados en 2023 fueron escritos con la ayuda de un modelo de lenguaje grande (LLM).
  • El 10% de los artículos en biomedicina y el 17,5% en informática en 2024 tuvieron sus resúmenes redactados con asistencia de IA.
  • Se estima que entre el 6,5% y el 16,9% de las revisiones por pares en conferencias de IA en 2023 y 2024 fueron generadas sustancialmente por LLM.

ChatGPT ha demostrado ser útil para superar barreras lingüísticas, ayudando especialmente a investigadores que no tienen el inglés como lengua materna. Sin embargo, se reconoce que tiene limitaciones, especialmente en tareas complejas como revisiones bibliográficas, ya que puede generar información errónea o inventada. Además, la privacidad es una preocupación, ya que los datos introducidos en la IA podrían ser utilizados para entrenar nuevos modelos.

A pesar de estos desafíos, algunos investigadores están explorando la posibilidad de que ChatGPT y otros modelos de IA puedan ir más allá de ser simples asistentes virtuales, convirtiéndose en «científicos» capaces de diseñar proyectos de investigación. Algunos estudios preliminares, como un proyecto reciente en el que los modelos de IA colaboraron para diseñar nanocuerpos contra el coronavirus, han mostrado resultados prometedores.

¿Cómo están utilizando los investigadores la IA? Una encuesta revela pros y contras para la ciencia.

How Are Researchers Using AI? Survey Reveals Pros and Cons For Science. Wileym, 2025

Texto completo

Una encuesta de la editorial Wiley realizada a casi 5.000 investigadores en más de 70 países sugiere que el uso de herramientas de inteligencia artificial (IA) para redactar manuscritos, solicitudes de subvenciones y realizar revisiones por pares será ampliamente aceptado en los próximos dos años.

La mayoría de los encuestados considera que la IA será clave en la investigación y publicación científica, con más de la mitad opinando que ya supera a los humanos en tareas como revisar grandes volúmenes de literatura, resumir hallazgos, detectar errores en la escritura, verificar plagios y organizar citas. Se espera que en los próximos dos años la IA se vuelva común en 34 de 43 casos de uso analizados.

Sin embargo, el uso real de la IA aún es limitado. Solo el 45% de los primeros 1.043 encuestados ha empleado IA en su trabajo, principalmente para traducción, corrección y edición de textos. Aunque el 81% ha usado ChatGPT de OpenAI, solo un tercio conoce otras herramientas como Gemini de Google o Copilot de Microsoft. El uso varía según el país y la disciplina, siendo más frecuente en China y Alemania, así como en investigadores de informática y medicina.

El estudio destaca barreras globales para la adopción de la IA, como la falta de directrices claras y formación, citadas por más del 60% de los investigadores. Además, un 70% considera que las editoriales deben establecer normas sobre el uso aceptable de la IA en la investigación académica.

Un estudio sobre 43 posibles casos de uso de la IA en la investigación científica revela tendencias clave:

  • Alto interés en la IA: La mayoría de los investigadores desean usar IA en 39 de los 43 casos analizados, lo que indica que su adopción limitada hasta ahora no se debe a falta de interés.
  • Reconocimiento de la capacidad de la IA: En 23 casos, los investigadores ya creen que la IA supera a los humanos, mostrando confianza en la tecnología y su potencial actual.
  • Rápida aceptación esperada: Se prevé que en dos años, 34 de los 43 casos de uso sean ampliamente aceptados, lo que sugiere una aceleración en la adopción de la IA en la investigación.
  • Incluso los adoptantes tardíos se preparan: Aunque algunos investigadores son más cautelosos, la mayoría espera que en poco tiempo la IA se convierta en una herramienta esencial en su trabajo.

En cuanto a en el interés de los investigadores respecto a los uso y en la comparación entre el rendimiento de la IA y el humano. Los hallazgos clave incluyen:

  • Promoción y difusión del artículo: Aunque la IA supera a los humanos en varias tareas de post-publicación, los investigadores muestran menor interés en estas aplicaciones, salvo en aquellas que mejoran la accesibilidad de sus trabajos.
  • Determinación del tema de investigación: Los investigadores están dispuestos a usar IA para revisar grandes volúmenes de información, pero no confían en su capacidad para anticipar nuevas tendencias en sus campos.
  • Realización de la investigación: Aunque esta fase genera menos interés, la IA es vista como útil para gestionar grandes cantidades de datos.
  • Preparación para la publicación: Es una de las áreas donde la IA tiene mayor aceptación, especialmente en la autoevaluación y asistencia en la redacción de manuscritos.
  • Revisión por pares: La mayoría de los investigadores prefieren que los humanos sigan desempeñando el papel principal en este proceso, destacando la importancia del juicio humano.

Casos actuales de uso de la IA en investigación

  • Redacción y preparación de manuscritos: 72% de los investigadores están interesados, y 62% consideran que la IA supera a los humanos en tareas como detección de errores, asistencia en escritura, verificación de plagio y generación automática de citas.
  • Manejo de grandes volúmenes de información: 67% de interés y 60% ven a la IA como superior en revisión de estudios, monitoreo de publicaciones y procesamiento de datos.
  • Accesibilidad y difusión de la investigación: 65% de interés y 58% consideran que la IA es útil en resúmenes en lenguaje sencillo y gestión del conocimiento.

Oportunidades en desarrollo

  • Generación de predicciones y recomendaciones: 64% de interés, pero 56% creen que los humanos aún lideran. Aplica a identificación de tendencias y selección de referencias.
  • Automatización de tareas administrativas: 58% de interés y 57% consideran que los humanos siguen siendo clave en gestiones como búsqueda de financiación.

Futuras aplicaciones de la IA en investigación

  • Mejora de métodos de investigación y colaboración: 54% de interés en identificación de colaboradores y optimización de experimentos.
  • Generación automatizada de contenido: 53% de interés en crear contenido multimedia y educativo basado en investigaciones.
  • Revisión por pares asistida por IA: 56% de interés en herramientas para estandarizar comentarios y agilizar el proceso.

El papel de las editoriales científicas en el uso de la IA

  • 70% de los investigadores quieren que los editores establezcan guías claras sobre el uso de IA en publicaciones.
  • 69% desean que ayuden a evitar errores y sesgos.
  • Más de la mitad buscan mejores prácticas para un uso seguro y responsable de la IA.

La Authors Guild lanza la certificación «Human Authored» para preservar la autenticidad en la literatura en un mundo impulsado por la IA

Authors Guild. «Authors Guild Launches ‘Human Authored’ Certification to Preserve Authenticity in LiteratureAuthors Guild, January 29, 2025. https://authorsguild.org/news/ag-launches-human-authored-certification-to-preserve-authenticity-in-literature/

El Authors Guild ha lanzado «Human Authored», una certificación oficial destinada a preservar la autenticidad en la literatura en un mundo saturado por la inteligencia artificial (IA). Con el creciente número de libros generados por IA que se parecen y a veces incluso leen como libros escritos por humanos, los lectores pueden no saber si lo que están leyendo fue creado por IA o por un autor humano. El Authors Guild sostiene que los lectores tienen derecho a saber si un texto fue escrito por IA o por un humano y que los autores deben poder distinguir su trabajo en mercados cada vez más llenos de contenido generado por IA.

La certificación «Human Authored» permitirá a los escritores y editores usar un sello para indicar que el texto de un libro fue escrito por un humano, incluso si se utilizó IA para herramientas menores como la corrección ortográfica o de gramática. Este sello será registrado en la Oficina de Patentes y Marcas de EE. UU. y estará respaldado por un sistema de registro que permitirá verificar el origen humano de un libro a través de una base de datos pública.

El proceso de certificación es sencillo pero riguroso: los autores deben registrarse en el portal, verificar la información de su libro, firmar un acuerdo de licencia y recibir un sello único que podrán utilizar en las portadas, lomos o materiales promocionales. La iniciativa no rechaza la tecnología, sino que busca crear transparencia y resaltar los elementos humanos en la narrativa, en un mercado cada vez más saturado de contenido generado por IA.

Actualmente, la certificación está disponible solo para miembros del Authors Guild y para libros de un solo autor, pero se expandirá en el futuro para incluir libros con varios autores y a escritores fuera de la organización.

La Oficina de Derechos de Autor de EE.UU. publica la segunda parte del informe sobre inteligencia artificial

U.S. Copyright Office Releases Part 2 of Artificial Intelligence Report

Library Copyright Alliance (LCA) principles 

Part 1

Part 2

La Oficina de Derechos de Autor de EE.UU. publicó la segunda parte de su informe sobre los problemas legales y políticos relacionados con la inteligencia artificial (IA). En él, se afirma que los trabajos generados por IA pueden estar protegidos por derechos de autor solo si un humano determina los elementos expresivos. La oficina también concluye que no es necesario modificar la ley para proteger los productos generados por IA y destaca que la creatividad humana sigue siendo clave para la protección por derechos de autor.