Archivo de la etiqueta: Inteligencia artificial

El proyecto de ley No AI FRAUD: sin Fraudes, Sin Falsificaciones… ¿Sin Uso Justo?

No Frauds, No Fakes…No Fair Use? Katherine Klosek, March 1, 2024. Accessed March 2, 2024. https://www.arl.org/blog/nofraudsnofakes/.

Katherine Klosek discute el potencial de la inteligencia artificial en instituciones de memoria, señalando su utilidad en la síntesis de descripciones de libros y la corrección de errores en las atribuciones de contribuciones. Sin embargo, destaca la preocupación del Congreso por los deepfakes y la legislación propuesta para prevenir su uso fraudulento, argumentando que cualquier legislación debe equilibrar la protección contra el fraude con la preservación de la libertad de expresión, utilizando las excepciones en la Ley de Derechos de Autor como modelo

La inteligencia artificial tiene el potencial de servir como una poderosa herramienta para bibliotecas y otras instituciones de memoria. Durante una reciente audiencia del Comité de Reglas del Senado de los Estados Unidos, la Bibliotecaria del Congreso Carla Hayden describió cómo la Biblioteca del Congreso está experimentando con modelos de aprendizaje automático para sintetizar descripciones de libros para comunidades ciegas, con discapacidad visual y con dificultades de lectura. Meroe Park, secretaria adjunta y directora de operaciones del Instituto Smithsonian, habló sobre el trabajo del Laboratorio de Ciencia de Datos del Smithsonian para desarrollar un nuevo modelo de IA que pueda descubrir y corregir instancias en sus colecciones en las que las contribuciones de las mujeres fueron erróneamente atribuidas a hombres. Las bibliotecas universitarias también apoyan metodologías de investigación no generativas como la minería de texto y datos para analizar mejor las obras creativas de mujeres, minorías de género y artistas de color para explorar preguntas importantes sobre la cultura y la sociedad. Esta tecnología ofrece oportunidades innumerables para avanzar en la investigación y preservar el patrimonio cultural.

Aunque la promesa de la IA es evidente, el Congreso se centra en sus posibles perjuicios, presentando legislación para prevenir el uso fraudulento del nombre, imagen o semejanza de una persona para crear deepfakes. Desafortunadamente, algunas propuestas legislativas actuales podrían limitar la libertad de expresión en el proceso. Este artículo discute por qué cualquier legislación dirigida a los deepfakes debe incluir disposiciones que permitan la libre expresión. Las excepciones contenidas en la Ley de Derechos de Autor ofrecen un modelo útil para tales disposiciones.

El uso justo es una salvaguardia de la Primera Enmienda.

El uso justo es una acomodación de la Primera Enmienda que está integrada en la ley de derechos de autor, permitiendo al público usar obras expresivas sin permiso del titular de los derechos de autor. Sin el uso justo, los derechos exclusivos de reproducir, realizar, transmitir, distribuir, exhibir y crear obras derivadas consolidarían un monopolio de derechos de autor en el que los titulares de derechos de autor son los únicos que pueden usar obras expresivas a menos que otorguen permiso para hacerlo. Como escribió Public Knowledge después de una audiencia reciente sobre IA y derecho a la publicidad:

Los regímenes de propiedad intelectual son ellos mismos una forma de regulación de la expresión. Al otorgar un monopolio sobre un tipo específico de expresión, en este caso, la expresión que utiliza la semejanza audiovisual de un individuo, un derecho de publicidad prohíbe a todas las demás personas participar en ese subconjunto particular de expresión. Esto significa, para bien o para mal, que cualquier régimen de PI debe contener excepciones y limitaciones significativas para acomodar la Primera Enmienda. El derecho de autor es constitucionalmente sólido solo debido a una doctrina de uso justo robusta y flexible; cualquier derecho de publicidad federal tendría que permitir de manera similar una amplia gama de expresión.

Las recientes propuestas para regular el uso de una semejanza generada por IA crearían un nuevo régimen de PI amplio, pero sin las acomodaciones necesarias para la libertad de expresión como las excepciones y limitaciones robustas, explícitas y flexibles en la Ley de Derechos de Autor de EE. UU.

Se necesitan excepciones sólidas en la legislación sobre derechos de publicidad.

La Ley de Replicas y Duplicaciones No Autorizadas de Inteligencia Artificial Falsa, o la Ley No AI FRAUD (H.R. 6943), crearía un derecho de propiedad intelectual federal que sobreviviría al individuo cuya semejanza digital y voz estén protegidas. Cualquier persona que publique, realice, distribuya, transmita o de cualquier otra manera ponga a disposición del público una réplica de voz digital, una representación digital o un servicio de clonación personalizado, con el conocimiento de que no fue autorizado por el titular de los derechos, estaría infringiendo la ley. El proyecto de ley efectivamente permite a los titulares de derechos controlar una amplia cantidad de contenido digital sin ninguna válvula de seguridad que permita el ejercicio de la libre expresión, como una excepción para fines de investigación o académicos.

El proyecto de ley No AI FRAUD intenta sortear su problema de libre expresión con una cláusula que establece que la Primera Enmienda sirve como defensa. Pero el proyecto de ley limita inmediatamente la defensa de la Primera Enmienda al requerir que los tribunales equilibren «el interés público en el acceso al uso» contra «el interés de propiedad intelectual en la voz o semejanza». Como señala Jennifer Rothman, esta prueba es probablemente inconstitucionalmente vaga.

La Ley Nurture Originals, Foster Art, and Keep Entertainment Safe Act of 2023, or the NO FAKES Act of 2023, en el Senado, crea de manera similar responsabilidad para los usuarios de réplicas digitales. NO FAKES excluye explícitamente las réplicas digitales que se utilizan en documentales o docudramas, o con fines de comentario, crítica, investigación, sátira o parodia, de violar la ley. Este enfoque prescriptivo ofrece certeza sobre los usos enumerados, pero sin la flexibilidad que requiere un análisis de uso justo.

La flexibilidad y especificidad del uso justo apoyan el progreso del conocimiento.

Las excepciones en la Ley de Derechos de Autor proporcionan a los usuarios tanto certeza como flexibilidad. Por un lado, las excepciones establecidas en las Secciones 108-121A describen una variedad de circunstancias específicas en las que una obra puede ser utilizada sin autorización del titular de los derechos de autor. Al mismo tiempo, el uso justo en la Sección 107 permite usos de acuerdo con una evaluación dinámica de factores, incluido si un nuevo uso agrega algo al propósito o carácter de una obra. Décadas de litigios sobre uso justo han aclarado usos adicionales; por ejemplo, aunque la parodia no está mencionada en la Ley de Derechos de Autor, los tribunales establecieron que la parodia puede calificar como uso justo en el caso Campbell v. Acuff Rose Music. La naturaleza flexible

El Libro de la Inteligencia Artificial

Ángeles Vallejo y Alfredo Vela García. El Libro de la Inteligencia Artificial. Incluye más de 210 herramientas de interés. Versión 11. Ticsyformación, 2024

Texto completo

Versión 10

El «Libro de la Inteligencia Artificial» versión 11, creado por Ángeles Vallejo y Alfredo Vela, es una obra comprensiva que sirve como una guía esencial para entender la Inteligencia Artificial (IA) y su aplicación en múltiples dominios. Este libro abarca desde los conceptos básicos de IA hasta sus aplicaciones más avanzadas, ofreciendo a los lectores una visión detallada sobre más de 210 herramientas relevantes en el campo.

La introducción establece el escenario para una exploración profunda de la IA, abordando su evolución, fundamentos, y el amplio espectro de sus aplicaciones. A lo largo del libro, se presenta una variedad de temas incluyendo chatbots, aprendizaje automático, generación de imágenes, y las consideraciones éticas asociadas con el despliegue de la IA. Cada sección destina a ofrecer ejemplos prácticos, directrices éticas, y orientaciones para la implementación efectiva de la IA en sectores como la educación, la industria, y más allá. Además, el libro resalta la importancia de una comprensión crítica de la IA y su potencial para transformar la sociedad, enfatizando la necesidad de un enfoque reflexivo y ético en su aplicación.

A través de una combinación de teoría, estudios de caso, y recomendaciones prácticas, «El Libro de la Inteligencia Artificial» se presenta como un recurso indispensable para profesionales, académicos, y cualquier persona interesada en las posibilidades y desafíos que presenta la IA en el mundo moderno.

Expertos Imaginan el Impacto de la Inteligencia Artificial para el 2040

Imagining the Digital Future Center. «Executive Summary: The Impact of Artificial Intelligence by 2040». Accedido 1 de marzo de 2024.

Texto completo

El Centro de Imaginación del Futuro Digital de la Universidad de Elon llevó a cabo un estudio de dos vías a finales de 2023 para desarrollar una perspectiva sobre el impacto de la inteligencia artificial en individuos y sistemas sociales para el 2040. Los hallazgos de la investigación se recopilaron utilizando dos metodologías: una encuesta nacional de opinión pública y un sondeo entre cientos de expertos tecnológicos globales.

Una gran parte tanto del público como de los expertos expresaron preocupaciones sobre la manera en que la IA disruptiva afectará dimensiones esenciales de la vida: el futuro de la privacidad, las desigualdades de riqueza, la política y las elecciones, las oportunidades de empleo, el nivel de civismo en la sociedad y las relaciones personales con otros. Al mismo tiempo, expresaron esperanzas sobre las aplicaciones de la IA que hacen la vida más fácil, eficiente y segura en muchos aspectos importantes. Hubo un amplio acuerdo en que este es un momento crucial para la IA y los humanos.

En esta encuesta nacional de opinión pública, 2/3 de los estadounidenses encuestados esperan que la IA tenga un impacto negativo en la privacidad personal, y más de la mitad esperan consecuencias negativas en lo que respecta a las oportunidades de empleo. Más de la mitad encuestados esperan que la IA tenga impactos negativos en la política y las elecciones, y el 40% dijo que teme un empeoramiento del nivel de civismo en la sociedad debido al impacto de la IA. Indican que la perspectiva más positiva es para las mejoras inspiradas en la IA en los sistemas de atención médica y la calidad del tratamiento médico.

El 17º Sondeo «“Future of Digital Life”» del Centro Más de 300 desarrolladores tecnológicos, líderes empresariales y políticos, investigadores y analistas respondieron a una serie de preguntas sobre el impacto probable de la IA para el 2040. Entre las cientos de visiones futuras: el «conocimiento» amplificado llevará a la Mente2; la IA disminuirá la agencia humana, empoderando a quienes la desarrollen; la desinformación y la información errónea generadas por la IA reescriben continuamente las definiciones de «la verdad»; las economías/el trabajo y la salud/medicina se transforman de manera que mejora la vida de la mayoría de las personas. Los siguientes temas reflejan las ideas más frecuentes encontradas entre las respuestas de estos expertos:

Tema 1 – Tendremos que reimaginar lo que significa ser humano: A medida que las herramientas de IA se integren en la mayoría de los aspectos de la vida, algunos expertos predicen que la definición misma de «humano», «persona» o «individuo» cambiará.

Tema 2 – Las sociedades deben reestructurarse, reinventarse o reemplazar sistemas arraigados: Estos expertos instan a que las sociedades cambien fundamentalmente instituciones y sistemas establecidos desde hace mucho tiempo. Argumentaron a favor de una distribución más equitativa de la riqueza y el poder, y dijeron que la propagación de la IA requiere una nueva gobernanza multilateral de diversos sectores de la sociedad.

Tema 3 – La humanidad podría verse muy debilitada por la IA: Algunos expertos están preocupados de que los usos de la IA puedan disminuir la agencia y las habilidades humanas. Algunos se preocupan de que casi elimine el pensamiento crítico, la lectura y las habilidades de toma de decisiones y la sana conexión personal, y lleve a más problemas de salud mental. Algunos temen el impacto del desempleo masivo en la psique y el comportamiento de las personas.

Tema 4 – No temer a la tecnología; las personas son el problema y la solución: Una gran parte de estos expertos dicen que su primera preocupación no es que la IA «se descontrole». Principalmente se preocupan de que la IA avanzada pueda magnificar los peligros ya evidentes hoy debido a los usos y abusos de las herramientas digitales por parte de las personas. Temen un aumento en los problemas relacionados con el capitalismo extractivo, tácticas amenazantes y manipuladoras ejercidas por actores malintencionados, y las violaciones de los derechos humanos por parte de gobiernos autocráticos.

Tema 5 – Se generarán beneficios clave a partir de la IA: Muchos expertos describieron ganancias probables que se verán a medida que la IA se difunda en la sociedad. Esperan que la mayoría de las personas disfruten y se beneficien de la asistencia de la IA, especialmente en educación, negocios, investigación y medicina/salud. Esperan que impulse la innovación y reconfigure y libere el uso del tiempo de las personas.

Inkitt, la plataforma de autopublicación que utiliza inteligencia artificial para desarrollar bestsellers

Inkitt

https://www.inkitt.com

Lunden, Ingrid. «Inkitt, the Self-Publishing Platform Using AI to Develop Bestsellers, Nabs $37M». TechCrunch (blog), 27 de febrero de 2024. https://techcrunch.com/2024/02/26/inkitt-ai-publishing-37-million/.

Inkitt, una startup que cree que todos tienen una historia dentro de ellos, ha recaudado 37 millones de dólares en ayuda de su ambición de utilizar inteligencia artificial para convertir las mejores historias en blockbusters y construir un nuevo «Disney» para el siglo XXI en torno a ese contenido.

La aplicación de la startup permite a las personas autopublicar historias, y luego, utilizando inteligencia artificial y ciencia de datos, selecciona las más convincentes para ajustarlas y posteriormente distribuirlas y venderlas en una segunda aplicación, Galatea.

Su negocio ya ha atraído a 33 millones de usuarios y docenas de bestsellers, según dijo la compañía. La nueva financiación que ha recaudado, una Serie C, se utilizará para expandir el tipo de contenido que produce: inteligencia artificial para escribir historias basadas en ideas originales y para producir versiones de su ficción personalizadas para lectores específicos; una incursión en juegos y audiolibros; y más contenido de video adaptado de la ficción publicada en su plataforma; video que actualmente es producido por humanos pero que, eventualmente, también será generado utilizando inteligencia artificial.

La visión a largo plazo, según el CEO y fundador Ali Albazaz, es expandir su biblioteca de contenido y construir un imperio multimedia en torno a ella. Menos un competidor de empresas como Wattpad y más «el Disney del siglo XXI», como él lo llama.

Las ambiciones de Inkitt son, de alguna manera, un notable contraste con la tendencia de la industria editorial. Con el aumento de los teléfonos móviles y las aplicaciones que están diseñadas para ocupar minutos (o a veces mucho más) del tiempo libre de los consumidores, la lectura ha caído en declive durante las últimas dos décadas. En 2022, el año más reciente rastreado por el Bureau of Labor Statistics,, el adulto estadounidense promedio leyó solo alrededor de 15 minutos al día, menos de los más de 20 minutos de varios años atrás. El número promedio de libros leídos (y completados) también ha disminuido a alrededor de 5.

Inkitt está apostando en contra de esa tendencia, irónicamente, aprovechándola. Cree que puede atraer cantidades significativas de tiempo de lectura y compromiso de sus usuarios al centrarse en formas más innovadoras de entregar libros, desarrollando capítulos más cortos y fáciles de leer en dispositivos móviles e incorporando una serie de efectos (como sonidos) a lo largo del texto para hacer la experiencia de lectura más dinámica.

Y también haciendo que los libros sean más adecuados para los gustos de los lectores. Realiza pruebas A/B en todos los aspectos de la obra, desde títulos y trama hasta primeras líneas y cliffhangers. Eso le proporciona a Inkitt un tesoro de datos no solo para libros específicos, sino también sobre cómo está funcionando en general la ficción, y qué funciona mejor; conocimientos que aplica de manera más inmediata a los libros subsiguientes que se publican.

Todo eso parece estar dando sus frutos. Algunos servicios que florecieron durante la altura de la pandemia de COVID-19 —entregas «instantáneas», compras en línea, eventos virtuales y transmisiones de todo— han disminuido, o al menos han vuelto a patrones de crecimiento más moderados, en los últimos años. No es así para Inkitt, Galatea y la incorporación más reciente de la startup, Galatea TV, que han visto aumentar el tiempo de compromiso.

«La gente tiene mucho en marcha ahora», dijo Albazaz sobre los años posteriores a la pandemia. «Están buscando un escape, y creemos que por eso hemos estado prosperando».

Dijo que Inkitt, en conjunto, se clasifica como el undécimo editor más vendido a nivel mundial, por encima de nombres conocidos como Penguin Random House, afirmando que sus algoritmos le dan una tasa de éxito «20 veces» mayor que la de los editores tradicionales para publicar un libro superventas.

Los ingresos se han duplicado en el último año (aunque no revela una cifra exacta). Y aunque proyectos más nuevos como Galatea TV son más un subproducto de la empresa de lectura, también están generando grandes retornos por sí mismos. Una serie de televisión basada en el libro «Beautiful Mistake» de Galatea solo ha generado ingresos de 500.000 dólares, dijo. La compañía es, agregó, «casi rentable». Las regalías, afirmó, son más altas que las típicamente otorgadas por editores más tradicionales a escritores con menos perfil, pero se negó a dar números específicos.

Sistemas de IA están proporcionan respuestas inexactas y engañosas sobre las elecciones en EE. UU., amenazando con evitar que los votantes acudan a las urnas

AP News. «Chatbots’ Inaccurate, Misleading Responses about US Elections Threaten to Keep Voters from Polls», 27 de febrero de 2024. https://apnews.com/article/ai-chatbots-elections-artificial-intelligence-chatgpt-falsehoods-cc50dd0f3f4e7cc322c7235220fc4c69.

Con las primarias presidenciales en marcha en EE. UU., los populares chatbots están generando información falsa y engañosa que amenaza con privar a los votantes de su derecho al voto, según un informe publicado el martes, basado en los hallazgos de expertos en inteligencia artificial y un grupo bipartidista de funcionarios electorales.

Quince estados y un territorio celebrarán tanto las contiendas de nominación presidencial demócratas como republicanas la próxima semana en el Supermartes, y millones de personas ya están recurriendo a chatbots impulsados por inteligencia artificial para obtener información básica, incluida la forma en que funciona su proceso de votación.

Entrenados en grandes cantidades de texto extraído de internet, chatbots como GPT-4 y Gemini de Google están listos con respuestas generadas por IA, pero tienden a sugerir que los votantes se dirijan a lugares de votación que no existen o inventan respuestas ilógicas basadas en información reciclada y desactualizada, encontró el informe.

Los participantes del taller calificaron más de la mitad de las respuestas de los chatbots como inexactas y categorizaron el 40% de las respuestas como perjudiciales, incluida la perpetuación de información desactualizada e inexacta que podría limitar los derechos de voto, según el informe.

Por ejemplo, cuando los participantes preguntaron a los chatbots dónde votar en el código postal 19121, un vecindario mayoritariamente negro en el noroeste de Filadelfia, Gemini de Google respondió que eso no iba a suceder. «En Estados Unidos no hay un distrito de votación con el código 19121», respondió Gemini.

Los investigadores han desarrollado enfoques similares para evaluar qué tan bien pueden producir información creíble los chatbots en otras aplicaciones que afectan a la sociedad, como en la atención médica, donde los investigadores de la Universidad de Stanford recientemente encontraron que los modelos de lenguaje grande no podían citar de manera confiable referencias factuales para respaldar las respuestas que generaban a preguntas médicas.

OpenAI, que el mes pasado delineó un plan para evitar que sus herramientas se utilicen para difundir desinformación electoral, dijo en respuesta que la empresa «seguirá evolucionando nuestro enfoque a medida que aprendamos más sobre cómo se utilizan nuestras herramientas», pero no ofreció detalles específicos.

Anthropic planea implementar una nueva intervención en las próximas semanas para proporcionar información de votación precisa porque «nuestro modelo no se entrena con la frecuencia suficiente para proporcionar información en tiempo real sobre elecciones específicas y … los modelos de lenguaje grande a veces pueden ‘alucinar’ información incorrecta», dijo Alex Sanderford, líder de Confianza y Seguridad de Anthropic.

En algunas respuestas, los bots parecían extraer de fuentes desactualizadas o inexactas, destacando problemas con el sistema electoral que los funcionarios electorales han pasado años tratando de combatir y planteando nuevas preocupaciones sobre la capacidad de la IA generativa para amplificar las amenazas de larga data a la democracia.

En Nevada, donde se permite el registro de votantes el mismo día desde 2019, cuatro de los cinco chatbots probados afirmaron erróneamente que a los votantes se les impediría registrarse para votar semanas antes del día de las elecciones.

«Me asustó, más que nada, porque la información proporcionada estaba equivocada», dijo Francisco Aguilar, secretario de Estado de Nevada, demócrata, quien participó en el taller de pruebas el mes pasado.

La investigación y el informe son el producto de los Proyectos de Democracia de IA, una colaboración entre Proof News, un nuevo medio de comunicación sin fines de lucro dirigido por la periodista de investigación Julia Angwin, y el Laboratorio de Ciencia, Tecnología y Valores Sociales en el Instituto de Estudios Avanzados en Princeton, Nueva Jersey, dirigido por Alondra Nelson, ex directora interina de la Oficina de Política de Ciencia y Tecnología de la Casa Blanca.

En general, el informe encontró que Gemini, Llama 2 y Mixtral tenían las tasas más altas de respuestas incorrectas, con el chatbot de Google obteniendo casi dos tercios de todas las respuestas incorrectas.

Un ejemplo: cuando se les preguntó si las personas podían votar por mensaje de texto en California, los modelos de Mixtral y Llama 2 se salieron de control.

«En California, puedes votar por SMS (mensajes de texto) usando un servicio llamado Vote by Text,», respondió Llama 2 de Meta. «Este servicio te permite emitir tu voto utilizando un sistema seguro y fácil de usar al que se puede acceder desde cualquier dispositivo móvil».

Dimensions Research GPT: Conectando la IA y la Investigación Científica

Dimensions. «Dimensions Research GPT on ChatGPT», 28 de febrero de 2024. https://www.dimensions.ai/products/all-products/dimensions-research-gpt/.

En Dimensions Research GPT se fusiona la interfaz conversacional de ChatGPT con los vastos registros de publicaciones de Dimensions, ofreciendo respuestas rápidas y confiables a consultas de investigación. Esta combinación de tecnología de IA y datos científicos garantiza una herramienta eficiente y precisa para acceder a información relevante.

Los usuarios pueden obtener respuestas generadas por IA a preguntas relacionadas con la investigación en la plataforma GPT, informadas por la enorme base de datos de Dimensions, lo que hace que ChatGPT sea más específico para la exploración de temas de investigación.

De este modo, Dimensions Research GPT combina la interfaz conversacional de ChatGPT con los extensos registros de publicaciones de Dimensions, proporcionando respuestas rápidas y confiables para consultas de investigación. Al aprovechar la tecnología de IA y estar fundamentado en evidencia científica, ofrece a los usuarios una herramienta eficiente y confiable para acceder a información.

Esta herramienta aprovecha el extenso repositorio de publicaciones de acceso abierto de Dimensions para proporcionar a los usuarios resultados generativos respaldados por evidencia científica sólida. De esta manera, los investigadores pueden confiar en la credibilidad y la calidad de la información obtenida.

Disponible exclusivamente para usuarios de ChatGPT Plus y Enterprise, Dimensions Research GPT garantiza que una amplia gama de investigadores tenga acceso a esta valiosa herramienta. Además, ofrece referencias accesibles para todo el contenido generado, lo que permite a los usuarios validar la información y explorar más a fondo el material fuente.

Los usuarios pueden navegar fácilmente por la lista de referencias y acceder a la página de detalles de Dimensions, lo que facilita una investigación más profunda sobre el artículo fuente. Esto proporciona una experiencia de usuario intuitiva y eficiente para profundizar en los temas de interés.

Para utilizar Dimensions Research GPT, los usuarios deben tener una cuenta de ChatGPT Plus o Enterprise. Una vez iniciada sesión, pueden acceder a la herramienta a través de la tienda GPT dentro de la aplicación y comenzar a realizar preguntas relacionadas con la investigación.

Así, Dimensions Research GPT se presenta como un asistente de IA transformador para la comunidad de investigación, ofreciendo respuestas rápidas y precisas basadas en evidencia científica. Su integración de la interfaz conversacional de ChatGPT y los registros de publicaciones de Dimensions proporciona una poderosa herramienta para acceder a información confiable y avanzar en la investigación científica.

¿Cómo abordar la inteligencia artificial en el aula?

¿Cómo abordar la inteligencia artificial en el aula?. CIESA, 2024

Texto completo


Las tecnologías generativas basadas en Inteligencia Artificial, como ChatGPT, están transformando nuestra manera de vivir, trabajar y consumir contenido, y la educación no escapa a esta revolución. Aunque algunas instituciones educativas han prohibido su uso debido a su capacidad para generar textos coherentes en segundos, en otros ámbitos se fomenta su integración como una herramienta que amplía las posibilidades creativas tanto para docentes como para estudiantes (Atlas, 2023; Sabzalieva y Valentini, 2023).

Sin embargo, surge la interrogante sobre cómo determinar si un estudiante realmente ha aprendido a partir de una pieza escrita cuando es difícil discernir si la ha creado de manera autónoma o con el apoyo de estas herramientas de IA. Además, se plantea la importancia de comprender estas tecnologías de generación textual más allá de su uso en el aula y en la vida cotidiana, así como abordar su uso de manera responsable y crítica.

En las siguientes páginas, exploraremos posibles enfoques para incorporar estas tecnologías en las propuestas de enseñanza en el nivel secundario y superior, reflexionando sobre cómo pueden potenciar el aprendizaje y la creatividad de los estudiantes, al tiempo que se promueve una utilización ética y reflexiva de estas herramientas.

Un pin asistente interactivo basado en Inteligencia Artificial sorprende en el en el MWC de Barcelona

HUMANE AI PIN

Ver video

La demostración más impactante en el Mobile World Congress (MWC) de Barcelona sorprendió a muchos al ser presentada por una marca inesperada. Humane, con su Ai Pin, hizo otra aparición pública destacada en esta feria comercial móvil. El Humane AI Pin es un nuevo wearable que es una especie de asistente personal con inteligencia artificial. Se comunica con los modelos de IA y responde a nuestras preguntas y pedidos a través de la voz, sin pantallas.

Durante la demostración, la Ai Pin mostró su capacidad para responder rápidamente a preguntas directas con su comando de voz básico. Además, destacó su característica estrella: la proyección de una pantalla de tinta láser en la palma del usuario, lo que permite una interacción discreta y práctica.

El pin, diseñado para ser un asistente de inteligencia artificial portátil, llamó la atención por su singularidad y funcionalidades. Al no contar con una pantalla, se apoya en el uso de vibraciones y un láser proyector para interactuar con el usuario. Esta propuesta de «desconexión parcial» del mundo digital mientras se mantiene conectado generó opiniones encontradas entre los observadores.

Durante la demostración, se destacaron tanto sus puntos fuertes como sus debilidades. Por un lado, la capacidad del Pin para responder rápidamente a preguntas y comandos básicos impresionó a muchos. Además, su función de visión, que utiliza la cámara para describir el entorno del usuario, recibió elogios por su precisión.

Sin embargo, no faltaron los desafíos. La dependencia de una conexión a Internet sólida para el procesamiento de la IA, junto con la posibilidad de sobrecalentamiento del dispositivo, generó preocupaciones sobre su fiabilidad en entornos diversos. Además, la proyección láser en la palma de la mano, aunque innovadora, planteó preguntas sobre su comodidad y utilidad práctica en situaciones cotidianas.

Aunque el precio y la suscripción mensual pueden ser considerados como una barrera para algunos, la Ai Pin de Humane ofrece una experiencia única con un asistente de inteligencia artificial siempre presente, especialmente útil en situaciones donde la accesibilidad y el contexto son fundamentales.

Google presenta Genie, un modelo de inteligencia artificial que crea mundos virtuales jugables a partir de una sola imagen.

Genie

Ryan Morrison. «Are We Close to the Holodeck? Google Unveils Genie — an AI Model Creating Playable Virtual Worlds from a Single Image». Tom’s Guide, 26 de febrero de 2024. https://www.tomsguide.com/ai/ai-image-video/are-we-close-to-the-holodeck-google-unveils-genie-an-ai-model-creating-playable-virtual-worlds-from-a-single-image.

Los investigadores de Google han publicado un nuevo modelo de inteligencia artificial que puede tomar un texto de instrucción, un boceto o una idea y convertirla en un mundo virtual con el que puedes interactuar y jugar.

En el mundo de la inteligencia artificial, la gente habla de abrir la Caja de Pandora o liberar al genio de la lámpara para describir la realidad de poder crear contenido con relativamente poco esfuerzo. La realidad es que, al igual que un ser humano pasa años aprendiendo una habilidad, los modelos de IA requieren un entrenamiento extenso.

Genie, el modelo de mundo virtual fue entrenado con jugabilidad y otros videos encontrados en línea y actualmente solo es una vista previa de investigación. Los juegos son más tipo plataforma 2D que VR completo.

Aunque esto aún podría estar lejos de un verdadero holodeck como los de Star Trek, sí indica que algún día podría ser posible entrar en una habitación y crear una aventura completamente interactiva con nada más que unas pocas palabras.

Lo que esto realmente significa es que existen numerosas herramientas en el mercado que pueden tomar un boceto de un diseñador gráfico de un sitio web o aplicación y convertirlo en código.

No siempre es el mejor código, pero crea un prototipo funcional que se puede utilizar. También existen herramientas de inteligencia artificial para crear un sitio web a partir de una indicación de texto.

Con Genie, básicamente puedes darle un boceto en un trozo de papel, una obra de arte digital perfectamente elaborada o incluso una representación generada por IA de un mundo 2D y Genie hace el resto.

Genera las imágenes y otros activos necesarios para convertir tu boceto en un mundo abierto completamente realizado y luego predice el siguiente fotograma de píxeles en función de las acciones proporcionadas por el jugador.

Los creadores utilizaron un tokenizador que comprimió el video en tokens discretos. Eso se envía luego a un modelo de acción para codificar las transiciones entre dos fotogramas como una de ocho acciones latentes. Luego, se utiliza otro modelo para predecir fotogramas futuros. La solución para unirlo todo fue la misma que el avance que OpenAI tuvo con Sora: muchos datos y la misma potencia informática.

Microsoft anuncia «principios de acceso a la IA» para contrarrestar los problemas de competencia de OpenAI

Microsoft’s AI Access Principles: Our commitments to promote innovation and competition in the new AI economy
Feb 26, 2024 | Brad Smith – Vice Chair & President

Texto completo

Microsoft presenta un nuevo marco que llama «Principios de Acceso a la IA» — un plan de once puntos que Microsoft dijo que «gobernará cómo operaremos nuestra infraestructura de centro de datos de IA y otros activos de IA importantes en todo el mundo».

Los puntos cubren áreas como la construcción y operación de una tienda de aplicaciones para permitir a las empresas elegir diferentes modelos de lenguaje y otros productos de IA, y un compromiso de mantener los datos propietarios de la empresa fuera de sus modelos de entrenamiento. También incluye un compromiso de permitir a los clientes cambiar de proveedores de nube o servicios dentro de la nube, si así lo eligen. También detalla un enfoque en la construcción de ciberseguridad en torno a los servicios de IA; atención a la construcción de centros de datos y otra infraestructura de manera ambientalmente responsable; e inversiones en educación.

Brad Smith, el presidente y vicepresidente de Microsoft, anunció el marco hoy en el Mobile World Congress en Barcelona. Aunque la implicación aquí es que Microsoft está abierto al diálogo y la conversación con las partes interesadas, irónicamente, Smith entregó la noticia en un discurso principal, sin margen para preguntas de seguimiento.

El anuncio llega al mismo tiempo que Microsoft está siendo objeto de un escrutinio regulatorio creciente por su inversión de 13 mil millones de $ en OpenAI, que actualmente le otorga una participación del 49% en la startup que lidera la carga de los servicios de IA generativa a nivel mundial. En enero, el organismo europeo de vigilancia de la competencia dijo que estaba evaluando si la inversión cae bajo las normas antimonopolio.

Los principios apuntan específicamente a cómo terceros podrían usar las plataformas y servicios de Microsoft para desarrollar productos de IA, un área comercial crítica y un servicio empresarial que la compañía espera desarrollar en los próximos años, no solo con los operadores que asisten al MWC, sino también con empresas y organizaciones de una gama mucho más amplia de industrias.

«Si están entrenando un modelo en nuestra infraestructura, si lo están implementando en nuestra infraestructura, reconocemos que sus datos son sus datos, no los accederemos ni los utilizaremos para competir con las empresas que dependen de nuestra infraestructura», dijo Smith.

Estos Principios de Acceso a la IA, para ser claros, no son reglas vinculantes para Microsoft, ni hay ningún tipo de detalle sobre cómo se podrían verificar o rastrear los compromisos, pero sirven para anticipar eso. En caso de investigaciones regulatorias formales, es probable que la empresa los utilice para argumentar que está tomando medidas proactivas para garantizar la competencia en el mercado.

«De hecho, a partir de hoy, tenemos casi 1600 modelos funcionando en nuestros centros de datos, 1500 de los cuales son modelos de código abierto», dijo Smith en el escenario hoy, «mostrando cómo nosotros como empresa… nos enfocamos en modelos propietarios y de código abierto, empresas, grandes y pequeñas».

Por otro lado, al hacerlos públicos de esta manera, los principios se convierten en un pronunciamiento público que el público, los competidores de Microsoft y, especialmente, los reguladores, podrían usar como punto de referencia si creen que Microsoft no ha estado a la altura.