Archivo de la categoría: Tecnologías de la información

ChatGPT es realmente pésimo diagnosticando afecciones médicas

published, B. T. (2024, agosto 16). ChatGPT is truly awful at diagnosing medical conditions. Livescience.Com. https://www.livescience.com/technology/artificial-intelligence/chatgpt-less-accurate-than-a-coin-toss-at-medical-diagnosis-new-study-finds

Un estudio reciente reveló que ChatGPT tiene una precisión de menos del 50% al realizar diagnósticos médicos. Los investigadores pidieron al chatbot que evaluara 150 estudios de casos de la web médica Medscape y encontraron que GPT 3.5, la versión del modelo utilizada, solo acertó en el 49% de los casos. Aunque estudios previos demostraron que el chatbot podría aprobar el Examen de Licencia Médica de los Estados Unidos, los autores del nuevo estudio, publicado el 31 de julio en la revista PLOS ONE, advirtieron sobre los peligros de depender de la IA para casos médicos complejos. Según el Dr. Amrit Kirpalani, es crucial que la comunidad médica eduque al público sobre las limitaciones de estas herramientas, que aún no deben reemplazar a los médicos.

Retiran más de 16.000 artículos científicos generados con Inteligencia Artificial

Agencia AFP. «Alerta en la ciencia: se han retirado más de 16 mil artículos científicos hechos con la ayuda de la Inteligencia ArtificialEl Colombiano, 12 de agosto de 2024. https://www.elcolombiano.com/tecnologia/retiran-miles-de-articulos-cientificos-hechos-con-inteligencia-artificial-HP25195741

La ciencia enfrenta una alerta preocupante debido al retiro de más de 16.000 artículos científicos que fueron elaborados con la ayuda de inteligencia artificial (IA). Se espera que esta cifra aumente en los próximos meses. Estos artículos, que presentan errores graves y absurdos, como una imagen de una rata con genitales sobredimensionados o una pierna humana con un número incorrecto de huesos, han sido publicados en revistas científicas importantes.

Aunque la IA, como ChatGPT, se reconoce por su utilidad en tareas como la traducción, su uso en la redacción de artículos científicos ha generado preocupaciones por prácticas deshonestas. Un ejemplo de esto ocurrió en marzo de 2024, cuando un artículo comenzó con una frase típica de ChatGPT, lo que llevó a su retiro.

El empleo de IA en la literatura científica es cada vez más difícil de detectar y está en aumento. Según estudios, al menos 60.000 artículos en 2023 fueron realizados con ayuda de la IA, lo que representa un 1% de la producción científica anual. Esta tendencia está contribuyendo a un aumento significativo en el número de artículos retirados, que alcanzó un récord de 13.000 en 2023.

La IA ha facilitado la creación masiva de artículos científicos de baja calidad, plagiados o falsos, a menudo producidos por «fábricas» de artículos financiadas por investigadores. Se estima que estas «fábricas» son responsables de un 2% de los estudios publicados, cifra que podría estar aumentando considerablemente debido a la IA.

¿Qué es el Proyecto Strawberry? Explicación de la misteriosa herramienta de IA de OpenAI

What is Project Strawberry? OpenAI’s mystery AI tool explained. (2024). ZDNET. Recuperado 13 de agosto de 2024, de https://www.zdnet.com/article/what-is-project-strawberry-openais-mystery-ai-tool-explained/

El miércoles, el CEO de OpenAI, Sam Altman, publicó una foto de un jardín de fresas en X, acompañada de la críptica leyenda «Me encanta el verano en el jardín» A primera vista, podría pensarse que se trata simplemente de un mensaje de agradecimiento por una sana actividad veraniega. Sin embargo, como la mayoría de los crípticos tweets de Sam Altman, es probable que se trate de un huevo de Pascua que apunta a algo más grande: el Proyecto Strawberry.

Project Strawberry es un nuevo modelo de lenguaje de OpenAI que se rumorea tiene capacidades avanzadas de razonamiento, superiores a las de sus predecesores. Según un documento interno obtenido por Reuters en mayo, Strawberry podría usarse para investigaciones profundas, navegando de manera autónoma y fiable por internet. Este proyecto parece estar relacionado con un modelo llamado Q*, que algunos empleados de OpenAI consideran un avance significativo hacia la inteligencia artificial general (AGI).

Algunos de los aspectos clave de Project Strawberry incluyen:

  1. Seguridad de Datos: Mejorar cómo se manejan y protegen los datos de los usuarios para garantizar que su información esté segura y no se utilice de manera inapropiada.
  2. Personalización Controlada: Ofrecer opciones para que los usuarios personalicen cómo la IA interactúa con ellos, sin sacrificar la privacidad o la seguridad.
  3. Transparencia: Proveer a los usuarios con mayor claridad sobre cómo funcionan los modelos de IA y cómo se utilizan sus datos.
  4. Herramientas de Privacidad: Desarrollar herramientas que permitan a los usuarios borrar o controlar los datos que comparten con los modelos de IA.

En cuanto al acceso, Project Strawberry podría estar en pruebas en la plataforma LMSYS Chatbot Arena bajo el nombre «anonymous-chatbot», que ha demostrado ser particularmente eficaz en razonamiento avanzado. Aunque no se ha confirmado oficialmente que este chatbot sea Strawberry, quienes deseen probarlo pueden acceder a la arena y buscar el modelo «anonymous-chatbot», aunque encontrarlo puede requerir paciencia.

Este proyecto refleja el compromiso de OpenAI de construir sistemas de IA que sean tanto útiles como seguros, atendiendo a las preocupaciones crecientes sobre la privacidad en el uso de tecnologías avanzadas.

FLUX 1 de Black Forest Labs: el nuevo modelo de generadores de imagen que supera a sus competidores

Black Forest Labs 

Black Forest Labs, una startup emergente de inteligencia artificial, ha lanzado su modelo de texto a imagen, FLUX 1, que ya supera a competidores como Midjourney 6.0, DALL-E 3 HD y Stable Diffusion 3-Ultra. FLUX 1 destaca en detalles de imagen, complejidad de escenas y adherencia a las indicaciones, según el sistema de clasificación Elo. El modelo ofrece opciones de proporciones y estilos similares a las de otros generadores de imágenes actuales.

El equipo de Black Forest Labs incluye ingenieros que anteriormente trabajaron en Stability AI, la empresa detrás de Stable Diffusion. Stability AI enfrentó problemas recientemente debido a acusaciones de mala gestión contra su CEO, Emad Mostaque, quien renunció. La startup ha recibido respaldo de figuras destacadas de la industria de la IA, incluyendo al CEO de Y Combinator, Garry Tan, y Timo Aila, investigador principal en Nvidia, además de obtener una ronda de financiamiento inicial de 31 millones de dólares liderada por Andreessen Horowitz.

FLUX 1 se diferencia por el uso de técnicas experimentales de entrenamiento, como embeddings posicionales rotativos y un transformador de difusión paralelo. Estas técnicas permiten al modelo analizar múltiples partes de una secuencia simultáneamente, acelerando el proceso de generación de imágenes coherentes a partir de ruido visual.

Black Forest Labs planea lanzar pronto un modelo de texto a video de última generación, lo que podría representar un desafío para otras empresas de IA enfocadas en video, como OpenAI, HeyGen y Runway. Mientras tanto, FLUX 1 ya está disponible en plataformas en la nube como Fal y Replicate.

Wiley y OUP confirman su colaboración en IA

Books+Publishing. «Wiley, OUP Confirm AI PartnershipsBooks+Publishing, August 5, 2024. https://www.booksandpublishing.com.au/articles/2024/08/05/256559/wiley-oup-confirm-ai-partnerships/.

En el Reino Unido, el Bookseller informa de que las editoriales académicas Wiley y Oxford University Press (OUP) han confirmado asociaciones de inteligencia artificial (IA), tras la reciente noticia de que Taylor & Francis ha vendido el acceso a la investigación de sus autores como parte de una asociación de IA con Microsoft.

El 5 de agosto de 2024, Books+Publishing informó que las editoriales académicas Wiley y Oxford University Press (OUP) han confirmado asociaciones con inteligencia artificial (IA), siguiendo el reciente anuncio de Taylor & Francis sobre la venta de acceso a la investigación de sus autores como parte de una colaboración con Microsoft.

OUP está trabajando activamente con empresas que desarrollan grandes modelos de lenguaje para explorar opciones para su desarrollo y uso responsable. La editorial enfatizó la importancia de mejorar los resultados de la investigación y promover el papel crucial de los investigadores en un mundo habilitado por la IA.

Un portavoz de Wiley declaró que la empresa cree en el potencial de la IA generativa para transformar las industrias basadas en el conocimiento y que es de interés público que estas tecnologías emergentes se entrenen con información de alta calidad y confiable. Wiley ha firmado dos acuerdos para utilizar contenido previamente publicado en el entrenamiento de estos modelos, garantizando que los autores y sociedades reciban compensación y protección de derechos según los acuerdos contractuales existentes.

Por otro lado, Cambridge University Press (CUP) está consultando a sus autores sobre la opción de participar y recibir una «remuneración justa» antes de cerrar acuerdos. Mandy Hill, directora general de publicaciones académicas de CUP, afirmó que se priorizarán los intereses y deseos de los autores antes de permitir que su trabajo se licencie para la IA generativa.

Integridad académica en la era de la Inteligencia Artificial Generativa (IAG)

Alonso-Arévalo, Julio. Integridad académica en la era de la Inteligencia Artificial Generativa (IAG). Desiderata, n. 24. (2024)

Texto completo

La Inteligencia Artificial Generativa (IAG) se refiere a sistemas de inteligencia artificial capaces de crear contenido original a partir de datos existentes mediante el aprendizaje automático. Estos sistemas, entrenados con vastos corpus de texto e imágenes, pueden generar textos coherentes, responder preguntas, redactar artículos y crear imágenes detalladas. Herramientas como ChatGPT permiten a los investigadores generar borradores de artículos, reducir el tiempo de escritura y mejorar la coherencia del texto. La IAG tiene usos legítimos, como la revisión y corrección de manuscritos, la visualización de tendencias que puede inspirar nuevas formas de pensar y enfoques creativos de investigación, o ayudar a los investigadores a analizar grandes cantidades de datos y extraer información relevante.

La IA complica el plagio. ¿Cómo deben responder los científicos?

Kwon, Diana. «AI Is Complicating Plagiarism. How Should Scientists RespondNature, 30 de julio de 2024. https://doi.org/10.1038/d41586-024-02371-z.

El uso de herramientas de inteligencia artificial generativa (IA) en la escritura plantea preguntas difíciles sobre cuándo debería permitirse su uso. Estos sistemas, como ChatGPT, pueden ahorrar tiempo, mejorar la claridad y reducir barreras lingüísticas. Sin embargo, complican el debate sobre el uso indebido del trabajo ajeno, ya que la IA puede generar texto que se asemeja a contenidos existentes, lo que podría considerarse plagio.

La IA generativa plantea un desafío al distinguir entre la escritura completamente humana y la completamente generada por máquinas, creando una «zona gris» difícil de definir. Aunque el uso no autorizado de herramientas de IA puede no ser considerado plagio, podría verse como generación de contenido no autorizado. Este debate también incluye preocupaciones sobre la infracción de derechos de autor, ya que estas herramientas se entrenan con grandes cantidades de textos publicados sin permiso.

El uso de IA en la redacción académica ha aumentado rápidamente, con estimaciones que indican que al menos el 10% de los resúmenes en artículos biomédicos de 2024 han utilizado estas herramientas. La comunidad académica está dividida sobre cuándo el uso de IA es ético o constituye plagio. Algunas revistas han comenzado a exigir la divulgación completa del uso de IA, pero las políticas varían.

AI EN ARTÍCULOS ACADÉMICOS
Según un análisis de 14 millones de resúmenes de PubMed, el uso de palabras estilísticas (como «delves») aumentó de forma inusitada tras la generalización de los grandes modelos lingüísticos. Ello eclipsó el aumento de palabras relacionadas con el contenido de la pandemia (como «COVID»).

Además, los detectores de textos generados por IA aún no son completamente fiables, especialmente cuando los textos han sido ligeramente editados. Esto dificulta identificar y diferenciar entre contenido generado por IA y por humanos, especialmente para autores no nativos en inglés. La integración de herramientas de IA en plataformas comunes como Word y Google Docs complicará aún más la distinción entre contenido influenciado por IA y el que no lo es.

La respuesta de la comunidad científica incluye la necesidad de desarrollar guías claras sobre el uso de IA y reconocer que el avance tecnológico podría seguir superando la capacidad de regulación y detección.

La inteligencia artificial generativa en la docencia universitaria

Franganillo, Jorge, Carlos Lopezosa, y Marina Salse. «La inteligencia artificial generativa en la docencia universitaria». Report, 27 de octubre de 2023. http://eprints.rclis.org/45099/.

Texto completo

Este documento tiene como objetivo ayudar al profesorado universitario a gestionar el uso la inteligencia artificial generativa en su actividad docente. Es un documento con finalidad práctica que se inicia con una presentación del concepto de inteligencia artificial (IA) y sus diversos tipos, después presenta los retos que la IA supone para la educación superior y finalmente analiza su aplicación en la docencia. En este último contexto, se ofrecen algunas propuestas para usar la IA adecuadamente en la evaluación del alumnado y se proporcionan unas rúbricas que permiten también saber si el alumnado ha hecho un uso correcto de estas herramientas.


Scopus AI Beta: análisis funcional y casos

Aguilera-Cora, Elisenda, Carlos Lopezosa, y Lluís Codina. «Scopus AI Beta: Functional Analysis and Cases». Report, 4 de enero de 2024. http://eprints.rclis.org/45321/.

Texto completo

Las bases de datos académicas son una fuente fundamental para identificar bibliografía relevante en un campo de estudio. Scopus contiene más de 90 millones de registros e indexa unos 12.000 documentos al día. Sin embargo, este contexto y la propia naturaleza acumulativa de la ciencia dificultan la identificación selectiva de la información. Además, las herramientas de búsqueda en bases de datos académicas no son muy intuitivas y requieren un proceso iterativo y relativamente lento de búsqueda y evaluación. En respuesta a estos retos, Elsevier ha lanzado Scopus AI, actualmente en su versión Beta. Como el producto está aún en fase de desarrollo, la experiencia actual del usuario no es representativa del producto final. Scopus AI es una inteligencia artificial que genera breves síntesis de los documentos indexados en la base de datos, a partir de instrucciones o indicaciones. Este estudio examina la interfaz y las principales funciones de esta herramienta y la explora a partir de tres casos prácticos. El análisis funcional muestra que la interfaz de Scopus AI Beta es intuitiva y fácil de usar. La herramienta de IA de Elsevier permite al investigador obtener una visión general de un problema, así como identificar autores y enfoques, en una sesión de búsqueda más ágil que la convencional. Scopus AI Beta no sustituye a la búsqueda convencional en todos los casos, pero es un acelerador de los procesos académicos. Es una herramienta valiosa para revisiones bibliográficas, construcción de marcos teóricos y verificación de relaciones entre variables, entre otras aplicaciones.

Actitudes hacia la IA

Insights 2024: Attitudes toward AI. Elsevier, 2024

Texto completo

Los avances en la ciencia, la tecnología y la atención médica dan forma al progreso humano. La inteligencia artificial (IA) ha emergido como una fuerza formidable en los últimos años, ayudando a transformar cómo trabajamos, consumimos información, innovamos y muchos otros aspectos de nuestras vidas. En particular, los avances recientes en IA generativa tienen el potencial de ser transformadores.

La mayoría de los investigadores y clínicos son conscientes de la IA, pero su uso regular es bajo, aunque se espera que crezca. Las instituciones aún no han comunicado claramente sus restricciones o preparativos para el uso incrementado de la IA.

Las actitudes hacia la IA son variadas, pero el sentimiento general es más positivo que negativo entre los investigadores y clínicos. Se pueden tomar medidas específicas para aumentar la confianza en las herramientas de IA, y comunicarlas puede mejorar la comodidad de los usuarios.

El panorama de la inteligencia artificial (IA) está cambiando rápidamente, y para asegurar que la tecnología tenga un impacto positivo en la investigación y la atención médica, es crucial monitorear las opiniones de quienes podrían utilizarla.

La investigación «Insights 2024: Attitudes toward AI.» se propuso hacer esto mediante una encuesta a casi 3,000 personas que trabajan en investigación (incluidos líderes e investigadores corporativos) y en salud (clínicos) de todo el mundo.

El estudio examina las actitudes de investigadores y clínicos hacia la inteligencia artificial, incluida la IA generativa. Analiza su atractivo, impacto percibido, los beneficios para ellos y para la sociedad en general, el grado de transparencia necesario para sentirse cómodos utilizando herramientas basadas en esta tecnología, y los desafíos que ven con la IA. También revisa el uso actual de la IA y lo que los encuestados creen que ayudaría a aumentar la confianza en las herramientas de IA.

El Panorama Actual de la IA Explora la conciencia, percepciones y uso de la IA (incluida la GenAI) entre investigadores y clínicos a nivel mundial:

  • El 96% ha oído hablar de la IA (incluida la GenAI); las estadísticas subsiguientes excluyen al 4% que no está familiarizado con la IA.
  • El 54% de los que conocen la IA la han usado; el 31% la ha utilizado para fines laborales, siendo mayor en China (39%) que en EE.UU. (30%) e India (22%).
  • El 11% está muy familiarizado con la IA, es decir, la ha usado mucho.
  • ChatGPT es el producto de IA más conocido (89%).
  • El 25% ha utilizado ChatGPT para fines laborales.
  • El 49% de los que no han usado IA citan la falta de tiempo como razón.
  • El 72% cree que la IA (incluida la GenAI) tendrá un impacto transformador o significativo en su área de trabajo.

Una Perspectiva Futura sobre la IA Descubre las expectativas de investigadores y clínicos, incluyendo los posibles beneficios y desventajas de la tecnología:

  • El 95% cree que la IA ayudará a acelerar el descubrimiento de conocimiento.
  • El 94% piensa que la IA aumentará rápidamente el volumen de investigación científica y médica.
  • El 92% espera ver ahorros de costos para instituciones y empresas.
  • El 67% de los que no usan IA esperan utilizarla en los próximos 2-5 años.
  • El 42% de quienes tienen preocupaciones éticas sobre la IA citan como principal desventaja su incapacidad para reemplazar la creatividad, el juicio y/o la empatía humana.
  • El 71% espera que los resultados de las herramientas dependientes de la IA generativa se basen únicamente en fuentes de alta calidad y confiables.

Modelando un Futuro Impulsado por la IA Examina las preocupaciones de investigadores y clínicos en el contexto de construir confianza y comodidad en las herramientas de IA, y lee recomendaciones para desarrolladores e instituciones:

  • El 94% cree que la IA podría usarse para desinformación.
  • El 86% está preocupado de que la IA cause errores críticos o contratiempos.
  • El 81% piensa que la IA erosionará en cierta medida el pensamiento crítico, con el 82% de los doctores expresando preocupación por una posible dependencia excesiva de la IA para tomar decisiones clínicas.
  • El 58% dice que entrenar el modelo para que sea factualmente preciso, moral y no dañino (seguridad) aumentaría mucho su confianza en la herramienta.
  • Conocer la información que utiliza el modelo y que esté actualizada fue lo más valorado por los encuestados para aumentar su comodidad en el uso de una herramienta de IA.

Comprender no solo las preocupaciones, sino también los factores que construyen la confianza y la comodidad de los investigadores y clínicos con las herramientas de IA, puede ayudar a los desarrolladores de tecnología a crear mejores herramientas y a las instituciones a maximizar sus beneficios. La mayoría de los encuestados están preocupados por el uso de la IA para desinformación y por la posibilidad de errores críticos o contratiempos. La precisión factual y la información actualizada son claves para aumentar la confianza entre los usuarios.