Archivo de la etiqueta: Inteligencia artificial

TikTok comenzará a etiquetar el contenido generado por IA para combatir la desinformación


TikTok ha anunciado que comenzará a etiquetar contenido creado utilizando inteligencia artificial cuando se cargue desde fuera de su propia plataforma, como parte de su esfuerzo para combatir la desinformación.

La compañía afirma que si bien la IA ofrece oportunidades creativas increíbles, puede confundir o engañar a los espectadores si no saben que el contenido fue generado por IA. Por lo tanto, la etiqueta ayudará a proporcionar claridad sobre el origen del contenido. TikTok ya etiqueta contenido generado por IA creado con efectos de IA de TikTok, y ha requerido a los creadores que etiqueten contenido realista generado por IA durante más de un año.

Esta medida de TikTok forma parte de un esfuerzo más amplio en la industria tecnológica para proporcionar más salvaguardias para el uso de la IA. Meta anunció en febrero que estaba trabajando con socios de la industria en estándares técnicos que facilitarán la identificación de imágenes y, eventualmente, videos y audio generados por herramientas de inteligencia artificial. Los usuarios de Facebook e Instagram verían etiquetas en imágenes generadas por IA. Google también anunció el año pasado que las etiquetas de IA llegarían a YouTube y otras plataformas.

Este impulso hacia el «marcado de agua digital» y la etiquetación del contenido generado por IA también fue parte de una orden ejecutiva que el presidente de Estados Unidos, Joe Biden, firmó en octubre.

TikTok espera que esta medida ayude a fortalecer la confianza del usuario y a reducir la propagación de desinformación en su plataforma.

Los generadores de imágenes de Inteligencia Artificial Midjourney y DeviantArt afirman que nunca han utilizado imágenes de artistas para entrenar sus modelos de IA


«AI Image Generators Say They Never Used Artists’ Images to Train AI Models». Accedido 10 de mayo de 2024. https://www.courthousenews.com/ai-image-generators-say-they-never-used-artists-images-to-train-ai-models/.

Empresas que ofrecen software de inteligencia artificial generativa de imágenes argumentaron para desestimar una demanda por infracción directa de derechos de autor de artistas que afirman que las empresas utilizaron su trabajo sin permiso para entrenar un modelo de IA de texto a imagen.

Según la demanda colectiva de los artistas, la empresa de software de IA Midjourney y la plataforma de arte en línea DeviantArt utilizaron sus obras para entrenar la herramienta de IA de texto a imagen Stable Diffusion sin pagar a los artistas ni obtener su consentimiento para utilizar sus obras como imágenes de entrenamiento, y las imágenes resultantes siguen compitiendo con las obras de los artistas humanos en el mercado.

Los artistas demandaron por primera vez a DeviantArt, Midjourney y Stability AI, creador de Stable Diffusion, el año pasado, pero el juez superior de distrito de EE.UU. William Orrick desestimó la mayoría de las demandas de los artistas en octubre de 2023, permitiendo que sólo sobreviviera una demanda directa de derechos de autor contra Stability AI.

El juez William Orrick permitió que una única demanda de infracción directa de derechos de autor sobreviviera contra Stability AI, pero desestimó la mayoría de las otras reclamaciones de los artistas.

Los abogados de DeviantArt argumentaron que la plataforma de arte debería ser excluida de la acción porque solo utilizó Stable Diffusion para producir imágenes para su herramienta DreamUp AI y nunca utilizó directamente las imágenes de los artistas para entrenar un modelo de IA o crear imágenes que se parecieran a las de los artistas.

Los abogados de Midjourney ofrecieron una defensa similar. El juez Orrick tomó el asunto bajo consideración.

ChatGPT para bibliometría: un amplio corpus de aplicaciones

Torres-Salinas, Daniel, Mike Thewall, y Wenceslao Arroyo-Machado. «ChatGPT for Bibliometrics:  A Comprehensive Corpus of Applications», 2 de mayo de 2024. https://zenodo.org/records/11103551.

Este artículo explora el papel transformador de ChatGPT en la mejora de las metodologías de investigación bibliométrica a lo largo de varias etapas del estudio académico. Analiza la aplicación de ChatGPT en estudios bibliométricos en cinco etapas fundamentales de la investigación: preparación y consulta, procesamiento de datos, análisis de datos, interpretación de resultados y redacción científica. Destacando la versatilidad de ChatGPT, el artículo muestra su utilidad para agilizar el manejo de datos, mejorar la profundidad analítica y facilitar la comunicación académica. Con capacidades que van desde la consulta de API externas hasta la personalización de respuestas para necesidades de investigación específicas, ChatGPT puede contribuir a la eficiencia y eficacia de la investigación bibliométrica. También se discuten consideraciones éticas, abogando por la integración de ChatGPT para mantener altos estándares éticos y mejorar la integridad de la investigación.

El papel de la inteligencia artificial en la preservación digital de bibliotecas y archivos históricos

Teel, Zoë (Abbie). «Artificial Intelligence’s Role in Digitally Preserving Historic Archives» Preservation, Digital Technology & Culture, vol. 53, no. 1, 2024, pp. 29-33. https://doi.org/10.1515/pdtc-2023-0050

La IA en las bibliotecas ha sido un tema de interés de tendencia durante algún tiempo, ya que dentro de la biblioteca hay numerosos departamentos que cumplen la función de contribuir colectivamente a la misión de la biblioteca. En consecuencia, es imperativo considerar la influencia de la IA en la preservación digital de documentos históricos. Este artículo profundiza en la evolución histórica de los métodos de preservación impulsados ​​por los avances tecnológicos ya que, a lo largo de la historia, bibliotecas, archivos y museos han enfrentado el desafío de preservar colecciones históricas, mientras que muchos de los métodos de preservación tradicionales son costosos e implican mucho trabajo manual. esfuerzo (humano). El hecho de que la IA sea el catalizador de la transformación podría cambiar esta realidad y quizás redefinir el proceso de preservación; Por lo tanto, este artículo explora la tendencia emergente de incorporar la tecnología de IA en las prácticas de preservación y proporciona predicciones sobre el papel transformador de la Inteligencia Artificial en la preservación para el futuro. Con eso en mente, este artículo aborda las siguientes preguntas: ¿podría la IA ser lo que cambia o crea un cambio de paradigma en la forma en que se realiza la preservación?; ¿Y podría ser eso lo que cambiará la forma en que se salvaguarda la historia?

ChatGPT en la Educación Superior – Una síntesis de la literatura y una futura agenda de investigación

Bhullar, P.S., Joshi, M. & Chugh, R. ChatGPT in higher education – a synthesis of the literature and a future research agenda. Educ Inf Technol (2024). https://doi.org/10.1007/s10639-024-12723-x

ChatGPT se ha convertido en un tema importante de investigación y exploración, arrojando luz sobre las prácticas de enseñanza y aprendizaje en el ámbito de la educación superior. Este estudio examina los artículos más influyentes, las revistas más importantes y los países productivos en relación con las citas y publicaciones relacionadas con ChatGPT en la educación superior, al tiempo que arroja luz sobre los grupos temáticos y geográficos emergentes dentro de la investigación sobre el papel y los desafíos de ChatGPT en la enseñanza y el aprendizaje en las instituciones de educación superior.

Se seleccionaron cuarenta y siete artículos de investigación de la base de datos Scopus para el análisis bibliométrico. Los hallazgos indican que el uso de ChatGPT en la educación superior, particularmente en cuestiones de integridad académica e investigación, ha sido estudiado ampliamente por académicos de los Estados Unidos, que han producido el mayor volumen de publicaciones, junto con el mayor número de citas. Este estudio descubre cuatro grupos temáticos distintos (integridad académica, entorno de aprendizaje, participación de los estudiantes e investigación académica) y destaca las áreas de enfoque predominantes en la investigación relacionada con ChatGPT en la educación superior, incluidos los exámenes de los estudiantes, la integridad académica, el aprendizaje de los estudiantes y las prácticas de campo. investigación específica, a través de un análisis bibliográfico por países. El plagio es una preocupación importante en el uso de ChatGPT, que puede reducir la capacidad de los estudiantes para producir material imaginativo, inventivo y original. Este estudio ofrece información valiosa sobre el estado actual de ChatGPT en la literatura sobre educación superior, proporcionando una guía esencial para académicos, investigadores y formuladores de políticas.

Un grupo periódicos de EE.UU. demandan a OpenAI por infracción de derechos de autor en el entrenamiento de su IA

Brittain, Blake. «US newspapers sue OpenAI for copyright infringement over AI training.» Reuters, May 1, 2024, 1:55 AM GMT+2, Accessed May 1, 2024. https://www.reuters.com/legal/us-newspapers-sue-openai-copyright-infringement-over-ai-training-2024-04-30/

Un grupo de periódicos, incluyendo el New York Daily News y el Chicago Tribune, demandaron a Microsoft (MSFT.O) y OpenAI en un tribunal federal de Nueva York el martes, acusándolos de utilizar indebidamente el trabajo de los reporteros para entrenar sus sistemas de inteligencia artificial generativa.

Los ocho periódicos, propiedad del fondo de inversión Alden Global Capital’s MediaNews Group, afirmaron en la demanda que las empresas copiaron ilegalmente millones de sus artículos para entrenar productos de inteligencia artificial, incluyendo el Copilot de Microsoft y el ChatGPT de OpenAI.

La queja sigue a demandas similares en curso contra Microsoft y OpenAI, que ha recibido miles de millones de respaldo financiero de Microsoft, presentadas por el New York Times y los medios de comunicación The Intercept, Raw Story y AlterNet.

Un portavoz de OpenAI dijo el martes que la empresa cuida mucho sus productos y el proceso de diseño para apoyar a las organizaciones de noticias. Un portavoz de Microsoft declinó hacer comentarios sobre la demanda.

Los casos de los periódicos son parte de varias posibles demandas emblemáticas presentadas por propietarios de derechos de autor contra empresas tecnológicas por los datos utilizados para entrenar sus sistemas de inteligencia artificial generativa.

Un abogado de las publicaciones de MediaNews, Steven Lieberman, dijo a Reuters que OpenAI debe su éxito arrollador al trabajo de otros. Los demandados saben que tienen que pagar por computadoras, chips y salarios de empleados, pero «creen de alguna manera que pueden salirse con la suya tomando contenido» sin permiso o pago, dijo.

La demanda dijo que los sistemas de Microsoft y OpenAI reproducen el contenido con derechos de autor de los periódicos «verbatim» cuando se les solicita. Afirmó que ChatGPT también «alucina» artículos atribuidos a los periódicos que dañan sus reputaciones, incluyendo un artículo falso del Denver Post que promocionaba fumar como una cura para el asma y una recomendación falsa del Chicago Tribune para un reposa bebés que fue retirado del mercado después de ser vinculado con la muerte de niños.

OpenAI firma un acuerdo estratégico con el diario británico Financial Times que incluye el uso de contenidos

Lomas, Natasha. «OpenAI Inks Strategic Tie-up with UK’s Financial Times, Including Content Use». TechCrunch (blog), 29 de abril de 2024. https://techcrunch.com/2024/04/29/openai-inks-strategic-tie-up-with-uks-financial-times-including-content-use/.

OpenAI, creador del viral chatbot de IA ChatGPT, ha asegurado otro acuerdo de licencia de noticias en Europa, sumando al Financial Times de Londres a una lista creciente de editores a los que paga por acceso a contenido.

El último acuerdo parece ser más cercano que otros recientes acuerdos de OpenAI con editores, como con el gigante alemán Axel Springer o con la AP, Le Monde y Prisa Media en Francia y España, respectivamente, ya que a,bos grupos se refieren al acuerdo como una «asociación estratégica y acuerdo de licencia». Al igual que en los acuerdos de licencia anteriores de OpenAI con editores, los términos financieros del acuerdo no se hacen públicos. Sin embargo, entendemos que es un acuerdo de licencia no exclusivo, y OpenAI no está adquiriendo ningún tipo de participación en el FT Group.

En cuanto a la licencia de contenido, el acuerdo cubre el uso del contenido del FT por parte de OpenAI para entrenar modelos de IA y, cuando sea apropiado, para mostrar respuestas de IA generadas por herramientas como ChatGPT.

El elemento estratégico parece centrarse en el Financial Times aumentando su comprensión de la IA generativa, especialmente como herramienta de descubrimiento de contenido, y en lo que se presenta como una colaboración destinada a desarrollar «nuevos productos y características de IA para los lectores del FT».

«Mediante la asociación, los usuarios de ChatGPT podrán ver resúmenes, citas y enlaces atribuidos seleccionados al periodismo del Financial Times en respuesta a consultas relevantes», dijo el periódico en un comunicado de prensa.

El editor también señaló que se convirtió en cliente del producto Enterprise de ChatGPT de OpenAI a principios de este año. Además, expresó cautela sobre la confiabilidad de las salidas automatizadas y los riesgos potenciales para la confianza del lector.

John Ridding, CEO del Financial Times Group, escribió en el comunicado: «Este es un acuerdo importante en varios aspectos. Reconoce el valor de nuestro galardonado periodismo y nos dará ideas tempranas sobre cómo se presenta el contenido a través de la IA». Añadió: «Aparte de los beneficios para el Financial Times, hay implicaciones más amplias para la industria. Es correcto, por supuesto, que las plataformas de IA paguen a los editores por el uso de su material».

Las grandes modelos de lenguaje (LLMs) como el GPT de OpenAI, que alimenta el chatbot ChatGPT, son conocidos por su capacidad para fabricar información o «alucinar». Esto es lo opuesto al periodismo, donde los periodistas trabajan para verificar que la información que proporcionan sea lo más precisa posible.

Entonces, no es sorprendente que los primeros movimientos de OpenAI hacia la licencia de contenido para el entrenamiento de modelos se hayan centrado en el periodismo. El gigante de la IA puede esperar que esto ayude a resolver el problema de «alucinación».

También hay otro factor motivador importante en juego aquí: la responsabilidad legal en torno al derecho de autor.

El año pasado, el New York Times anunció que estaba demandando a OpenAI, alegando que su contenido con derechos de autor fue utilizado por el gigante de la IA para entrenar modelos sin una licencia.

Para evitar más demandas de los editores de noticias, cuyo contenido probablemente fue tomado de Internet público (o de otra manera recolectado) para alimentar el desarrollo de LLMs, una forma de cerrar el riesgo es pagar a los editores por el uso de su contenido con derechos de autor. Para los editores, esto significa obtener algo de dinero en efectivo de la licencia de contenido.

OpenAI le dijo a TechCrunch que tiene «alrededor de una docena» de acuerdos con editores firmados (o «inminentes»), y que «muchos» más están en marcha.

Las alucinaciones de ChatGPT provocan una queja de privacidad de la UE

«ChatGPT’s Hallucinations Draw EU Privacy Complaint», POLITICO 29 de abril de 2024. https://www.politico.eu/article/chatgpts-hallucinations-get-eu-privacy-complaint/.

El «alucinar» de ChatGPT y la invención de información vulneran las normas de privacidad de la Unión Europea, según una queja presentada por el grupo de privacidad noyb ante la autoridad de protección de datos de Austria. El grupo de privacidad noyb exige que los reguladores inicien una investigación sobre la conjetura salvaje de ChatGPT sobre la fecha de nacimiento de uno de sus activistas.

Noyb, una organización sin fines de lucro con sede en Viena fundada por el activista Max Schrems, afirmó que su queja fue desencadenada por el fracaso de ChatGPT en proporcionar la fecha de nacimiento correcta de Schrems, haciendo una conjetura en su lugar. El chatbot no informa a los usuarios que no tiene los datos correctos para responder a una solicitud.

La fecha de nacimiento de una persona es un dato personal según el GDPR, que establece varios requisitos sobre cómo se debe manejar la información personal.

Noyb afirma que el comportamiento del chatbot viola el Reglamento General de Protección de Datos (GDPR) en cuanto a privacidad, exactitud de la información, así como el derecho a corregir información inexacta. También argumenta que la empresa de inteligencia artificial se negó a corregir o eliminar respuestas incorrectas, y no revelará ninguna información sobre los datos procesados, sus fuentes o destinatarios.

«Está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la ley de la UE, cuando procesan datos sobre individuos», dijo Maartje de Graaf, abogada de protección de datos de noyb.

«Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología debe cumplir con los requisitos legales, no al revés», dijo.

El New York Times informó anteriormente que «los chatbots inventan información al menos el 3 por ciento de las veces, y hasta el 27 por ciento».

POLITICO también preguntó a ChatGPT sobre la fecha de nacimiento de Schrems y obtuvo tres respuestas diferentes: 24 de junio, 17 de septiembre y 17 de octubre. El cumpleaños de Schrems es en realidad el 1 de octubre, según noyb.

Noyb ahora está pidiendo a la autoridad austriaca que investigue a OpenAI para verificar la exactitud de los datos personales que maneja para alimentar sus grandes modelos de lenguaje. También solicitan a la autoridad que garantice que la empresa cumpla con la solicitud del demandante de acceder a sus propios datos personales.

El grupo de privacidad también pide una «multa administrativa efectiva, proporcionada y disuasiva». «Por ahora, OpenAI parece ni siquiera pretender que puede cumplir con el GDPR de la UE», dijo. Violaciones del GDPR de la UE pueden resultar en una multa de hasta el 4 por ciento de los ingresos globales de una empresa.

Noyb dijo que cualquier investigación regulatoria probablemente se manejaría «a través de la cooperación de la UE». La base de OpenAI en la UE está en Irlanda y los reguladores de privacidad irlandeses pueden ser sus supervisores principales.

La autoridad austriaca confirmó que recibió la queja y dijo que evaluará si necesita ser remitida a otra autoridad nacional. OpenAI no estuvo disponible de inmediato para hacer comentarios.

El pionero de la IA está enfrentando presiones de otros reguladores europeos. La autoridad de protección de datos de Italia prohibió temporalmente a ChatGPT el año pasado operar en el país debido a la presunta violación de las normas de la UE para el manejo de datos personales.

La Junta Europea de Protección de Datos (EDPB), que reúne a los reguladores nacionales de privacidad, luego estableció un grupo de trabajo sobre ChatGPT para coordinar los esfuerzos nacionales.

El papel de la IA en la Educación 4.0

Shaping the Future of Learning: The Role of AI in Education 4. World Economic Forum, 2024

Texto completo

Este informe explora el potencial de la inteligencia artificial para beneficiar a educadores, alumnos y profesores. Los estudios de casos muestran cómo la IA puede personalizar las experiencias de aprendizaje, agilizar las tareas administrativas e integrarse en los planes de estudio.

El informe subraya la importancia de un despliegue responsable, abordando cuestiones como la privacidad de los datos y el acceso equitativo. Dirigido a responsables políticos y educadores, insta a las partes interesadas a colaborar para garantizar que la integración positiva de la IA en los sistemas educativos de todo el mundo conduzca a mejores resultados para todos.

IA para el Descubrimiento Científico

Pool, Robert, ed. AI for Scientific Discovery: Proceedings of a Workshop. Washington, D.C.: National Academies Press, 2024. https://doi.org/10.17226/27457.

Descargar

El taller «IA para el Descubrimiento Científico» tuvo lugar del 12 al 13 de octubre de 2023. Las actas fueron publicadas en abril de 2024. El evento fue organizado por las Academias Nacionales de Ciencias, Ingeniería y Medicina.

Durante el último siglo, la inteligencia artificial (IA) ha evolucionado desde la teoría computacional hasta las tecnologías de conversación cotidianas, capturando la atención e interés del público y los medios de comunicación. También ha llamado la atención de la comunidad científica, donde ha proporcionado una nueva herramienta para apoyar la investigación y la exploración. Si bien la IA en el contexto de la investigación científica ha existido durante décadas, los avances en tecnología computacional y en la percepción en el mundo físico han creado oportunidades para integrar la IA en la ciencia de maneras inesperadas, con capacidades que están acelerando rápidamente. Como resultado, la IA ha sido aprovechada por una colección en expansión de disciplinas en las ciencias físicas y biológicas, así como en dominios de ingeniería. Si bien las oportunidades para la IA en el descubrimiento científico parecen infinitas, existen numerosas preguntas sobre qué hace que un descubrimiento sea confiable y confiable, si dicha investigación debe llevarse a cabo sin supervisión o intervención humana, y cómo priorizar mejor la agenda de investigación y la asignación de recursos sin amplificar las disparidades para individuos y naciones por igual.

Reconociendo la actualidad y las considerables implicaciones de la IA en nuestro mundo, las Academias Nacionales de Ciencias, Ingeniería y Medicina organizaron la IA para el Descubrimiento Científico – Un Taller del 12 al 23 de octubre de 2023. Líderes de todo el mundo en el campo de la IA, destacados investigadores en diversas disciplinas científicas e ingenieriles, y expertos en ética, derecho y ciencias sociales se reunieron para evaluar el estado del campo y proporcionar orientación sobre las oportunidades, así como los desafíos, que se avecinan. Las presentaciones y discusiones exploraron el futuro de la IA en cuanto a su papel como investigador autónomo llevando a cabo descubrimientos y consideraron aspectos éticos de la IA utilizada para el descubrimiento científico independiente.