Archivo de la etiqueta: Inteligencia artificial

El impacto potencial de la inteligencia artificial en la equidad y la inclusión en la educación

Varsik, S. and L. Vosberg (2024), “The potential impact of Artificial Intelligence on equity and inclusion in education”, OECD Artificial Intelligence Papers, No. 23, OECD Publishing, Paris, https://doi.org/10.1787/15df715b-en.

«The Potential Impact of Artificial Intelligence on Equity and Inclusion in Education» revisa el impacto de la Inteligencia Artificial (IA) en la equidad e inclusión en la educación, centrándose en herramientas de IA centradas en los estudiantes, dirigidas por docentes y otras herramientas institucionales. Destaca el potencial de la IA para adaptar el aprendizaje a las necesidades individuales, al tiempo que aborda desafíos como el acceso desigual, los sesgos inherentes y la necesidad de una formación exhaustiva para los docentes.

El documento subraya la importancia de equilibrar los beneficios potenciales de la IA con consideraciones éticas y el riesgo de agravar las disparidades existentes. También resalta la necesidad de abordar preocupaciones relacionadas con la privacidad y la ética, mejorar la sensibilidad cultural, gestionar el techno-ableism (discriminación por capacidades tecnológicas) y proporcionar formación continua en IA para los profesionales de la educación.

Además, el documento enfatiza la importancia de mantener la integridad educativa frente a la creciente influencia comercial. Se fomenta la investigación sobre las implicaciones de las herramientas de IA para la equidad e inclusión, con el fin de garantizar que la adopción de la IA en la educación promueva un entorno de aprendizaje más equitativo e inclusivo.

Tres autores demandan a Anthropic por infracción de derechos de autor en el entrenamiento de IA

Roth, E. (2024, agosto 20). Authors sue Anthropic for training AI using pirated books. The Verge. https://www.theverge.com/2024/8/20/24224450/anthropic-copyright-lawsuit-pirated-books-ai

La compañía de inteligencia artificial Anthropic enfrenta una demanda colectiva en un tribunal federal de California, interpuesta por tres autores que afirman que la empresa utilizó sus libros y cientos de miles de obras más para entrenar su chatbot Claude, impulsado por IA.

Un grupo de autores ha demandado a la compañía de inteligencia artificial Anthropic, acusándola de entrenar sus modelos de IA con libros pirateados, según informó Reuters. La demanda colectiva, presentada en un tribunal de California, alega que Anthropic «construyó un negocio multimillonario robando cientos de miles de libros con derechos de autor.»

La demanda sostiene que Anthropic utilizó un conjunto de datos de código abierto conocido como «The Pile» para entrenar su familia de chatbots Claude. Dentro de este conjunto de datos se encuentra «Books3», una vasta biblioteca de ebooks pirateados que incluye obras de Stephen King, Michael Pollan y miles de otros autores. A principios de agosto, Anthropic confirmó a Vox que utilizó «The Pile» para entrenar a Claude.

La demanda afirma que Anthropic descargó y reprodujo copias de «The Pile» y «Books3», sabiendo que estos conjuntos de datos contenían contenido con derechos de autor extraído de sitios pirata como Bibiliotik. Los autores buscan que el tribunal certifique la demanda colectiva, exija a Anthropic el pago de daños y perjuicios propuestos, y prohíba a la compañía utilizar material protegido por derechos de autor en el futuro.

Los escritores que demandan a Anthropic incluyen a Andrea Bartz, autora de We Were Never Here; Charles Graeber, autor de The Good Nurse; y Kirk Wallace Johnson, autor de The Feather Thief. Aunque se reconoce que «Books3» ha sido eliminado de la versión «más oficial» de «The Pile», la versión original supuestamente sigue disponible en línea. Una investigación reciente también descubrió que compañías como Anthropic y Apple entrenaron sus modelos de IA con miles de subtítulos de videos de YouTube extraídos de «The Pile».

El año pasado, el exgobernador de Arkansas Mike Huckabee y otros autores presentaron una demanda similar contra Meta, Microsoft y EleutherAI, la organización sin fines de lucro detrás de «The Pile», por acusaciones de uso indebido de sus obras para entrenar modelos de IA. Otros autores, como George R.R. Martin, Jodi Picoult y Michael Chabon, también han demandado a OpenAI por el supuesto uso de su contenido protegido por derechos de autor.

Explorando las capacidades de ChatGPT como bibliotecario investigador, ético de la investigación, generador de datos y predictor de datos.

Lehr, Steven A., Aylin Caliskan, Suneragiri Liyanage, y Mahzarin R. Banajii. «ChatGPT as Research Scientist: Probing GPT’s Capabilities as a Research Librarian, Research Ethicist, Data Generator, and Data Predictor.» Proceedings of the National Academy of Sciences 121, no. 35 (2024): e2404328121. https://doi.org/10.1073/pnas.2404328121

¿Hasta qué punto es ChatGPT un buen investigador científico? Se probó sistemáticamente las capacidades de GPT-3.5 y GPT-4 en cuatro componentes centrales del proceso científico: como bibliotecario de investigación, ético de investigación, generador de datos y predictor de datos novedosos, utilizando la ciencia psicológica como campo de pruebas.

En el Estudio 1 (Bibliotecario de Investigación), a diferencia de los investigadores humanos, GPT-3.5 y GPT-4 alucinaron, generando autoritariamente referencias ficticias el 36,0% y el 5,4% de las veces, respectivamente, aunque GPT-4 mostró una capacidad evolutiva para reconocer sus ficciones.

En el Estudio 2 (Ética de la investigación), GPT-4 (aunque no GPT-3.5) demostró ser capaz de detectar infracciones como el p-hacking en protocolos de investigación ficticios, corrigiendo el 88,6% de los problemas presentados de forma flagrante y el 72,6% de los presentados de forma sutil.

En el Estudio 3 (Generador de datos), ambos modelos reprodujeron sistemáticamente patrones de sesgo cultural descubiertos previamente en grandes corpus lingüísticos, lo que indica que ChatGPT puede simular resultados conocidos, un antecedente de utilidad tanto para la generación de datos como para habilidades como la generación de hipótesis.

Por el contrario, en el Estudio 4 (Predictor de datos novedosos), ninguno de los modelos logró predecir resultados nuevos ausentes en sus datos de entrenamiento, y ninguno pareció aprovechar información sustancialmente nueva a la hora de predecir resultados más o menos novedosos.

En conjunto, estos resultados sugieren que GPT es un bibliotecario defectuoso pero en rápida mejora, un ético de la investigación ya decente, capaz de generar datos en dominios simples con características conocidas, pero deficiente en la predicción de nuevos patrones de datos empíricos para ayudar en futuras experimentaciones.

ChatGPT es realmente pésimo diagnosticando afecciones médicas

published, B. T. (2024, agosto 16). ChatGPT is truly awful at diagnosing medical conditions. Livescience.Com. https://www.livescience.com/technology/artificial-intelligence/chatgpt-less-accurate-than-a-coin-toss-at-medical-diagnosis-new-study-finds

Un estudio reciente reveló que ChatGPT tiene una precisión de menos del 50% al realizar diagnósticos médicos. Los investigadores pidieron al chatbot que evaluara 150 estudios de casos de la web médica Medscape y encontraron que GPT 3.5, la versión del modelo utilizada, solo acertó en el 49% de los casos. Aunque estudios previos demostraron que el chatbot podría aprobar el Examen de Licencia Médica de los Estados Unidos, los autores del nuevo estudio, publicado el 31 de julio en la revista PLOS ONE, advirtieron sobre los peligros de depender de la IA para casos médicos complejos. Según el Dr. Amrit Kirpalani, es crucial que la comunidad médica eduque al público sobre las limitaciones de estas herramientas, que aún no deben reemplazar a los médicos.

Retiran más de 16.000 artículos científicos generados con Inteligencia Artificial

Agencia AFP. «Alerta en la ciencia: se han retirado más de 16 mil artículos científicos hechos con la ayuda de la Inteligencia ArtificialEl Colombiano, 12 de agosto de 2024. https://www.elcolombiano.com/tecnologia/retiran-miles-de-articulos-cientificos-hechos-con-inteligencia-artificial-HP25195741

La ciencia enfrenta una alerta preocupante debido al retiro de más de 16.000 artículos científicos que fueron elaborados con la ayuda de inteligencia artificial (IA). Se espera que esta cifra aumente en los próximos meses. Estos artículos, que presentan errores graves y absurdos, como una imagen de una rata con genitales sobredimensionados o una pierna humana con un número incorrecto de huesos, han sido publicados en revistas científicas importantes.

Aunque la IA, como ChatGPT, se reconoce por su utilidad en tareas como la traducción, su uso en la redacción de artículos científicos ha generado preocupaciones por prácticas deshonestas. Un ejemplo de esto ocurrió en marzo de 2024, cuando un artículo comenzó con una frase típica de ChatGPT, lo que llevó a su retiro.

El empleo de IA en la literatura científica es cada vez más difícil de detectar y está en aumento. Según estudios, al menos 60.000 artículos en 2023 fueron realizados con ayuda de la IA, lo que representa un 1% de la producción científica anual. Esta tendencia está contribuyendo a un aumento significativo en el número de artículos retirados, que alcanzó un récord de 13.000 en 2023.

La IA ha facilitado la creación masiva de artículos científicos de baja calidad, plagiados o falsos, a menudo producidos por «fábricas» de artículos financiadas por investigadores. Se estima que estas «fábricas» son responsables de un 2% de los estudios publicados, cifra que podría estar aumentando considerablemente debido a la IA.

¿Qué es el Proyecto Strawberry? Explicación de la misteriosa herramienta de IA de OpenAI

What is Project Strawberry? OpenAI’s mystery AI tool explained. (2024). ZDNET. Recuperado 13 de agosto de 2024, de https://www.zdnet.com/article/what-is-project-strawberry-openais-mystery-ai-tool-explained/

El miércoles, el CEO de OpenAI, Sam Altman, publicó una foto de un jardín de fresas en X, acompañada de la críptica leyenda «Me encanta el verano en el jardín» A primera vista, podría pensarse que se trata simplemente de un mensaje de agradecimiento por una sana actividad veraniega. Sin embargo, como la mayoría de los crípticos tweets de Sam Altman, es probable que se trate de un huevo de Pascua que apunta a algo más grande: el Proyecto Strawberry.

Project Strawberry es un nuevo modelo de lenguaje de OpenAI que se rumorea tiene capacidades avanzadas de razonamiento, superiores a las de sus predecesores. Según un documento interno obtenido por Reuters en mayo, Strawberry podría usarse para investigaciones profundas, navegando de manera autónoma y fiable por internet. Este proyecto parece estar relacionado con un modelo llamado Q*, que algunos empleados de OpenAI consideran un avance significativo hacia la inteligencia artificial general (AGI).

Algunos de los aspectos clave de Project Strawberry incluyen:

  1. Seguridad de Datos: Mejorar cómo se manejan y protegen los datos de los usuarios para garantizar que su información esté segura y no se utilice de manera inapropiada.
  2. Personalización Controlada: Ofrecer opciones para que los usuarios personalicen cómo la IA interactúa con ellos, sin sacrificar la privacidad o la seguridad.
  3. Transparencia: Proveer a los usuarios con mayor claridad sobre cómo funcionan los modelos de IA y cómo se utilizan sus datos.
  4. Herramientas de Privacidad: Desarrollar herramientas que permitan a los usuarios borrar o controlar los datos que comparten con los modelos de IA.

En cuanto al acceso, Project Strawberry podría estar en pruebas en la plataforma LMSYS Chatbot Arena bajo el nombre «anonymous-chatbot», que ha demostrado ser particularmente eficaz en razonamiento avanzado. Aunque no se ha confirmado oficialmente que este chatbot sea Strawberry, quienes deseen probarlo pueden acceder a la arena y buscar el modelo «anonymous-chatbot», aunque encontrarlo puede requerir paciencia.

Este proyecto refleja el compromiso de OpenAI de construir sistemas de IA que sean tanto útiles como seguros, atendiendo a las preocupaciones crecientes sobre la privacidad en el uso de tecnologías avanzadas.

¿Qué es la IA? Todo el mundo cree saberlo, pero nadie se pone de acuerdo. Y eso es un problema.

What is AI? (2024). MIT Technology Review. Recuperado 10 de agosto de 2024, de https://www.technologyreview.com/2024/07/10/1094475/what-is-artificial-intelligence-ai-definitive-guide/

La inteligencia artificial (IA) es la tecnología más candente de nuestro tiempo. Pero, ¿qué es exactamente? Aunque suene como una pregunta tonta, nunca ha sido más urgente. Aquí tienes la respuesta breve: la IA es un término general para un conjunto de tecnologías que permiten a las computadoras realizar tareas que se consideran inteligentes cuando las realiza una persona. Piensa en reconocer rostros, entender el habla, conducir automóviles, redactar oraciones, responder preguntas o crear imágenes. Sin embargo, incluso esa definición abarca muchas cosas. Y ahí radica el problema. ¿Qué significa que las máquinas comprendan el habla o escriban una oración? ¿Qué tipos de tareas podríamos pedirles a esas máquinas que realicen? ¿Y cuánto deberíamos confiar en ellas?

La inteligencia artificial (IA) es la tecnología más candente de nuestro tiempo. Pero, ¿qué es exactamente? Aunque suene como una pregunta tonta, nunca ha sido más urgente. Aquí tienes la respuesta breve: la IA es un término general para un conjunto de tecnologías que permiten a las computadoras realizar tareas que se consideran inteligentes cuando las realiza una persona. Piensa en reconocer rostros, entender el habla, conducir automóviles, redactar oraciones, responder preguntas o crear imágenes. Sin embargo, incluso esa definición abarca muchas cosas.

Y ahí radica el problema. ¿Qué significa que las máquinas comprendan el habla o escriban una oración? ¿Qué tipos de tareas podríamos pedirles a esas máquinas que realicen? ¿Y cuánto deberíamos confiar en ellas?

A medida que esta tecnología pasa de ser un prototipo a un producto cada vez más rápido, estas preguntas nos afectan a todos. Pero (¡advertencia!) no tengo las respuestas. Ni siquiera puedo decirte qué es exactamente la IA. Las personas que la crean tampoco lo saben realmente. “Estas son las preguntas lo suficientemente importantes como para que todos sientan que pueden tener una opinión”, dice Chris Olah, científico jefe del laboratorio de IA Anthropic con sede en San Francisco. “También creo que puedes debatir sobre esto tanto como quieras y no hay evidencia que te contradiga en este momento”.

Pero si estás dispuesto a subirte y acompañarme, puedo explicarte por qué nadie realmente lo sabe, por qué todos parecen estar en desacuerdo y por qué es importante que te preocupes por ello.

Comencemos con una broma casual.

En 2022, durante el primer episodio de “Mystery AI Hype Theater 3000”, un podcast que critica con humor algunos de los exagerados tópicos del Valle del Silicio, los coanfitriones Alex Hanna y Emily Bender hacen una sugerencia ridícula. Están leyendo en voz alta un extenso artículo de 12,500 palabras escrito por Blaise Agüera y Arcas, vicepresidente de ingeniería de Google, titulado “¿Pueden las máquinas aprender a comportarse?”. Agüera y Arcas argumenta que la IA puede comprender conceptos de manera análoga a cómo lo hacen los humanos, incluidos conceptos como los valores morales. En resumen, tal vez las máquinas puedan aprender a comportarse.

Hanna y Bender no están de acuerdo. Deciden reemplazar el término “IA” por “matemáticas matemáticas”, es decir, mucha y mucha matemática.

Esta irreverente frase busca desmontar lo que consideran como grandilocuencia y antropomorfismo en las frases citadas. Pronto, Hanna, sociólogo y director de investigación en el Instituto de Investigación en IA Distribuida, y Bender, lingüista computacional en la Universidad de Washington (y crítica famosa en internet de la exageración de la industria tecnológica), crean una brecha entre lo que Agüera y Arcas quiere decir y cómo eligen interpretarlo.

“¿Cómo deberían ser responsables moralmente los AIs, sus creadores y sus usuarios?”, pregunta Agüera y Arcas.

¿Cómo deberían ser responsables moralmente las matemáticas matemáticas?, pregunta Bender.

“Eso es un error de categoría”, dice ella. Hanna y Bender no solo rechazan lo que dice Agüera y Arcas; afirman que no tiene sentido. “¿Podemos dejar de hablar de matemáticas matemáticas?”, piden.

El 90% de los estudiantes de Harvard utilizan la Inteligencia artificial generativa

Hirabayashi, Shikoh, Rishab Jain, Nikola Jurković, y Gabriel Wu. «Harvard Undergraduate Survey on Generative AIarXiv preprint arXiv:2406.00833v2 (2024). https://arxiv.org/html/2406.00833v2.

El estudio realizado por Shikoh Hirabayashi, Rishab Jain, Nikola Jurković y Gabriel Wu examina cómo la inteligencia artificial generativa ha influido en la experiencia de los estudiantes universitarios de Harvard. Con una muestra de 326 estudiantes, los resultados revelan que casi el 90% utiliza IA generativa. Aproximadamente el 25% de estos estudiantes ha comenzado a reemplazar las horas de consulta con profesores y la lectura de material obligatorio con la IA.

La mitad de los encuestados está preocupada de que la IA afecte negativamente sus perspectivas laborales, y más de la mitad desea que Harvard ofrezca más clases sobre los impactos futuros de la IA. Además, el estudio muestra que la mitad de los estudiantes teme que la IA aumente la desigualdad económica, y el 40% cree que el riesgo de extinción causado por la IA debería ser tratado como una prioridad global, al igual que las pandemias y la guerra nuclear.

Cerca del 50% de los estudiantes que han tomado clases sobre IA esperan que esta supere las capacidades humanas en casi todas las tareas dentro de 30 años. Finalmente, los autores hacen recomendaciones a la comunidad de Harvard en función de estos resultados.

FLUX 1 de Black Forest Labs: el nuevo modelo de generadores de imagen que supera a sus competidores

Black Forest Labs 

Black Forest Labs, una startup emergente de inteligencia artificial, ha lanzado su modelo de texto a imagen, FLUX 1, que ya supera a competidores como Midjourney 6.0, DALL-E 3 HD y Stable Diffusion 3-Ultra. FLUX 1 destaca en detalles de imagen, complejidad de escenas y adherencia a las indicaciones, según el sistema de clasificación Elo. El modelo ofrece opciones de proporciones y estilos similares a las de otros generadores de imágenes actuales.

El equipo de Black Forest Labs incluye ingenieros que anteriormente trabajaron en Stability AI, la empresa detrás de Stable Diffusion. Stability AI enfrentó problemas recientemente debido a acusaciones de mala gestión contra su CEO, Emad Mostaque, quien renunció. La startup ha recibido respaldo de figuras destacadas de la industria de la IA, incluyendo al CEO de Y Combinator, Garry Tan, y Timo Aila, investigador principal en Nvidia, además de obtener una ronda de financiamiento inicial de 31 millones de dólares liderada por Andreessen Horowitz.

FLUX 1 se diferencia por el uso de técnicas experimentales de entrenamiento, como embeddings posicionales rotativos y un transformador de difusión paralelo. Estas técnicas permiten al modelo analizar múltiples partes de una secuencia simultáneamente, acelerando el proceso de generación de imágenes coherentes a partir de ruido visual.

Black Forest Labs planea lanzar pronto un modelo de texto a video de última generación, lo que podría representar un desafío para otras empresas de IA enfocadas en video, como OpenAI, HeyGen y Runway. Mientras tanto, FLUX 1 ya está disponible en plataformas en la nube como Fal y Replicate.

Wiley y OUP confirman su colaboración en IA

Books+Publishing. «Wiley, OUP Confirm AI PartnershipsBooks+Publishing, August 5, 2024. https://www.booksandpublishing.com.au/articles/2024/08/05/256559/wiley-oup-confirm-ai-partnerships/.

En el Reino Unido, el Bookseller informa de que las editoriales académicas Wiley y Oxford University Press (OUP) han confirmado asociaciones de inteligencia artificial (IA), tras la reciente noticia de que Taylor & Francis ha vendido el acceso a la investigación de sus autores como parte de una asociación de IA con Microsoft.

El 5 de agosto de 2024, Books+Publishing informó que las editoriales académicas Wiley y Oxford University Press (OUP) han confirmado asociaciones con inteligencia artificial (IA), siguiendo el reciente anuncio de Taylor & Francis sobre la venta de acceso a la investigación de sus autores como parte de una colaboración con Microsoft.

OUP está trabajando activamente con empresas que desarrollan grandes modelos de lenguaje para explorar opciones para su desarrollo y uso responsable. La editorial enfatizó la importancia de mejorar los resultados de la investigación y promover el papel crucial de los investigadores en un mundo habilitado por la IA.

Un portavoz de Wiley declaró que la empresa cree en el potencial de la IA generativa para transformar las industrias basadas en el conocimiento y que es de interés público que estas tecnologías emergentes se entrenen con información de alta calidad y confiable. Wiley ha firmado dos acuerdos para utilizar contenido previamente publicado en el entrenamiento de estos modelos, garantizando que los autores y sociedades reciban compensación y protección de derechos según los acuerdos contractuales existentes.

Por otro lado, Cambridge University Press (CUP) está consultando a sus autores sobre la opción de participar y recibir una «remuneración justa» antes de cerrar acuerdos. Mandy Hill, directora general de publicaciones académicas de CUP, afirmó que se priorizarán los intereses y deseos de los autores antes de permitir que su trabajo se licencie para la IA generativa.