Archivo de la etiqueta: Inteligencia artificial

Principios para unas tecnologías de IA generativa responsables, fiables y que protejan la intimidad

Canada, Office of the Privacy Commissioner of. 2023. «Principles for Responsible, Trustworthy and Privacy-Protective Generative AI Technologies». 7 de diciembre de 2023. https://www.priv.gc.ca/en/privacy-topics/technology/artificial-intelligence/gd_principles_ai/.

En el contexto general de los avances continuos en las tecnologías de inteligencia artificial, una versión de la tecnología ha experimentado un desarrollo particularmente rápido, una proliferación de casos de uso y un aumento en la adopción en los últimos tiempos: la inteligencia artificial generativa. La inteligencia artificial generativa es un subconjunto del aprendizaje automático en el que los sistemas se entrenan en conjuntos masivos de información, a menudo incluyendo información personal, para generar contenido como texto, código informático, imágenes, video o audio en respuesta a una solicitud del usuario. Este contenido es probabilístico y puede variar incluso en respuesta a múltiples usos de solicitudes similares.

Las autoridades en múltiples campos en todo el mundo están reconociendo los riesgos potenciales planteados por esta tecnología, como se evidencia en la declaración conjunta de las autoridades de protección de datos y privacidad del G7 en junio de 2023 sobre las tecnologías de inteligencia artificial generativa, la Declaración de los líderes del G7 en noviembre de 2023 que incluyó principios rectores y un código de conducta para organizaciones que desarrollan sistemas de inteligencia artificial avanzados, y la resolución de la Asamblea Global de Privacidad en octubre de 2023 sobre sistemas de inteligencia artificial generativa. El Comisionado de Privacidad de Canadá (OPC) y sus homólogos en Columbia Británica, Quebec y Alberta también tienen una investigación abierta relacionada con un servicio específico de inteligencia artificial generativa. Las autoridades de privacidad de todo el mundo han instado recientemente a las organizaciones a ejercer gran precaución antes de recopilar información personal «accesible públicamente», que aún está sujeta a leyes de protección de datos y privacidad en la mayoría de las jurisdicciones. Esta práctica es común al entrenar sistemas de inteligencia artificial generativa. Las autoridades de privacidad también han estado trabajando con sus homólogos en campos relacionados, como los comisionados de derechos humanos, para pedir fuertes salvaguardias que aseguren que los sistemas de inteligencia artificial sean seguros, protectores de la privacidad, transparentes, responsables y afirmativos de los derechos humanos .

Si bien las herramientas de inteligencia artificial generativa pueden plantear riesgos novedosos para la privacidad y plantear nuevas preguntas e inquietudes sobre la recopilación, uso y divulgación de información personal, no se encuentran fuera de los marcos legislativos actuales. Las organizaciones que desarrollan, proporcionan o utilizan inteligencia artificial generativa tienen la obligación de garantizar que sus actividades cumplan con las leyes y regulaciones de privacidad aplicables en Canadá. Las organizaciones también deben reconocer que, para construir y mantener una sociedad digital en la que la innovación sea socialmente beneficiosa y la dignidad humana esté protegida, el desarrollo y uso de la inteligencia artificial deben ser responsables y confiables.

En este documento, se identifican consideraciones para la aplicación de los principios clave de privacidad a las tecnologías de inteligencia artificial generativa. Reconocemos que la inteligencia artificial generativa es un campo emergente y que nuestra comprensión de ella evolucionará con el tiempo. Los comisionados de privacidad federales, provinciales y territoriales de Canadá continuarán explorando este tema complejo y pueden proporcionar orientación u otros recursos a medida que aprendamos más sobre la tecnología y sus riesgos potenciales, incluso a medida que se completen investigaciones formales relacionadas con la tecnología.

Las obligaciones bajo la legislación de privacidad en Canadá variarán según la naturaleza de la organización (si se encuentra en el sector privado, de la salud o público) y las actividades que realice. Como tal, aunque utilizamos «debería» a lo largo de este documento, muchas de las consideraciones enumeradas serán necesarias para que una organización cumpla con la ley de privacidad aplicable. Las organizaciones son responsables de comprender y cumplir con estas leyes. También señalamos que los principios establecidos a continuación no reflejan exhaustivamente todos los requisitos de cumplimiento bajo las leyes de privacidad y otras leyes y no vinculan a investigaciones o fallos específicos llevados a cabo por los comisionados federales, provinciales o territoriales de privacidad de Canadá, según las circunstancias individuales de cada caso.

El documento tiene como objetivo ayudar a las organizaciones que desarrollan, proporcionan o utilizan inteligencia artificial generativa a aplicar los principales principios de privacidad canadienses. Para este documento, utilizamos la siguiente terminología:

Desarrolladores y Proveedores: Individuos u organizaciones que desarrollan (incluido el entrenamiento) modelos básicos o sistemas de inteligencia artificial generativa, o que ponen dichos servicios en el mercado. En resumen, aquellas organizaciones que determinan cómo opera un sistema de inteligencia artificial generativa, cómo se entrena y prueba inicialmente, y cómo puede utilizarse.

Organizaciones que utilizan inteligencia artificial generativa: Organizaciones (o individuos que actúan en nombre de una organización) que utilizan un sistema de inteligencia artificial generativa como parte de sus actividades. Esto podría incluir usos dirigidos al público (por ejemplo, un chatbot basado en inteligencia artificial generativa para interactuar con clientes) o uso privado (por ejemplo, el uso de inteligencia artificial generativa como parte de un sistema de toma de decisiones). Las organizaciones que ajustan un modelo básico para un propósito específico (como al entrenarlo aún más en un conjunto de datos propio de la organización) están incluidas en esta categoría.

Una organización puede cambiar entre roles o desempeñar múltiples roles al mismo tiempo. Las actividades realizadas (incluida la recopilación, el uso o la divulgación de información personal) por una organización también variarán dentro de cada grupo. Sin embargo, la división en «desarrolladores y proveedores» y «organizaciones que utilizan inteligencia artificial generativa» es una forma útil de examinar la aplicación de los principios de privacidad a múltiples elementos del ecosistema de inteligencia artificial generativa.

Para mayor claridad, estos principios se centran en la legislación y regulación de privacidad, y cómo pueden aplicarse a las organizaciones. Sin embargo, reconocemos que las personas u organizaciones pueden tener más obligaciones, restricciones o responsabilidades según otras leyes, regulaciones o políticas.

Estas son las mayores diferencias entre Google Bard y ChatGPT


Esta es la respuesta de Google a ChatGPT.

Los chatbots de inteligencia artificial son más populares que nunca, y hay varias opciones sólidas disponibles además de ChatGPT de OpenAI. Un competidor especialmente fuerte es Bard AI de Google, que extrae información de Internet y se basa en el último modelo de lenguaje Gemini creado por Google.

¿Qué es Google Bard? Bard es la respuesta de Google a ChatGPT. Es un chatbot de inteligencia artificial diseñado para responder a varias consultas y tareas, ofreciendo el último modelo de lenguaje de inteligencia artificial de Google, Gemini Pro. Al igual que la mayoría de los chatbots, incluido ChatGPT, Bard puede responder a problemas matemáticos, ayudar con la redacción de artículos y documentos, y realizar la mayoría de las tareas que se esperan de un bot de inteligencia artificial generativo.

¿Cómo funciona Bard? Al igual que ChatGPT, Bard funciona con un modelo de lenguaje grande (LLM) y está diseñado para responder con respuestas razonables y similares a las humanas a tus consultas y solicitudes. Inicialmente, Bard utilizaba el modelo de lenguaje PaLM 2 de Google, pero se ha actualizado con Gemini Pro, el modelo de lenguaje más complejo y capaz de Google. Bard se puede acceder desde cualquier dispositivo visitando el sitio web del chatbot, al igual que ChatGPT.

¿Quién puede acceder a Google Bard? Bard está actualmente disponible para el público en general a través de una beta experimental. Google sigue trabajando en el chatbot de inteligencia artificial y espera continuar mejorándolo. Por lo tanto, todas las respuestas, consultas o tareas enviadas a Bard serán revisadas por ingenieros de Google para ayudar al aprendizaje de la inteligencia artificial.

Para comenzar a usar Bard, simplemente visita bard.google.com e inicia sesión.

¿Qué idiomas admite Bard? Bard admite actualmente más de 40 idiomas. Aunque Google no ha indicado si planea agregar más soporte de idiomas al chatbot, un documento de soporte de Google señala que actualmente admite: árabe, bengalí, búlgaro, chino (simplificado/tradicional), croata, checo, danés, holandés, inglés, estonio, farsi, finlandés, francés, alemán, griego, gujarati, hebreo, hindi, húngaro, indonesio, italiano, japonés, kannada, coreano, letón, lituano, malayalam, marathi, noruego, polaco, portugués, rumano, ruso, serbio, eslovaco, esloveno, español, suajili, sueco, tamil, telugu, tailandés, turco, ucraniano, urdu y vietnamita.

¿Qué características ofrece Bard? Al igual que ChatGPT, Bard puede responder a preguntas básicas, ayudar con la programación y resolver ecuaciones matemáticas complejas. Además, Google añadió soporte para búsqueda multimodal en julio, permitiendo a los usuarios ingresar imágenes además de texto en el chatbot. Esto, junto con otras capacidades del chatbot, permite realizar búsquedas de imágenes inversas. Google también puede incluir imágenes en sus respuestas, extraídas de los resultados en línea del gigante de las búsquedas.

¿Está conectado Bard a Internet? Sí, Google Bard está conectado a Internet. El chatbot ha tenido acceso a Internet de manera más amplia que ChatGPT, lo que significa que el modelo se entrena con la información más reciente y actualizada encontrada en la red. Esto es una ventaja sobre ChatGPT, que recién agregó acceso completo a Internet en los últimos meses, pero también introduce la posibilidad de desinformación.

¿Qué tan preciso es Google Bard? Ahora que Bard utiliza Gemini Pro, se espera que sea uno de los chatbots más precisos disponibles en la web. Sin embargo, experiencias pasadas con Bard han mostrado que el bot tiende a alucinar o atribuirse información encontrada a través de búsquedas en Google. Google ha estado trabajando arduamente para solucionar este problema y ha logrado mejorar los resultados y su manejo de manera excepcional en los últimos meses. Sin embargo, como cualquier chatbot, Bard sigue siendo capaz de generar información falsa o plagiada. Por lo tanto, siempre se recomienda verificar cualquier información proporcionada por chatbots como Bard para asegurarse de que sea original y precisa.

¿Bard es gratuito? Bard es actualmente gratuito y Google no ha compartido planes para cobrar por el chatbot por ahora. Sin embargo, anunció una opción avanzada de Bard, que utilizará la versión más potente y capaz de su modelo de lenguaje Gemini, Gemini Ultra. Esa función no está programada para llegar hasta algún momento de 2024, y es probable que Google cobre por ella.

¿Cómo se compara Bard con ChatGPT? Bard es un competidor sólido para ChatGPT, especialmente ahora que Gemini debería brindar resultados más similares a GPT-4 en el chatbot. La interfaz es muy similar, y la funcionalidad ofrecida por ambos chatbots debería manejar la mayoría de las consultas y tareas que les presentes. La falta actual de planes pagos de Google también hace que Bard sea una opción accesible, y obtienes la información más actualizada gracias al acceso a Internet de Bard. Para conectar ChatGPT a Internet en este momento, deberías utilizar Copilot, que utiliza GPT-4 con búsqueda Bing, o suscribirte a ChatGPT Plus. Desafortunadamente, en el momento de escribir esto, las nuevas suscripciones para ChatGPT Plus están cerradas.

Google compartió información sobre cómo Gemini se compara con GPT-4V, una de las últimas versiones de GPT-4, y en realidad logra resultados más precisos en varios campos. Sin embargo, es difícil decir exactamente cuál es mejor, ya que ambos tienen sus fortalezas. En última instancia, se recomienda intentar completar cualquier tarea que desees realizar en ambos y luego ver cuál funciona mejor para tus necesidades.

Google también está trabajando en otros sistemas impulsados por inteligencia artificial, que podría incluir en los sistemas de trabajo de Bard en el futuro. Por ahora, sin embargo, la compañía está manteniendo algunos de sus desarrollos más extremos, como MusicLM, que utiliza inteligencia artificial para generar música, para sí misma.

Meta utilizó libros protegidos por derechos de autor para entrenar inteligencia artificial pese a las advertencias de sus propios abogados, según los autores

Paul, Katie. 2023. «Meta Used Copyrighted Books for AI Training despite Its Own Lawyers’ Warnings, Authors Allege». Reuters, 12 de diciembre de 2023, sec. Technology. https://www.reuters.com/technology/meta-used-copyrighted-books-ai-training-despite-its-own-lawyers-warnings-authors-2023-12-12/.

Los abogados habían advertido a Meta sobre los peligros legales de utilizar miles de libros pirateados para entrenar sus modelos de inteligencia artificial, pero la compañía lo hizo de todos modos, según un nuevo documento presentado en una demanda por infracción de derechos de autor iniciada este verano.

La nueva presentación, realizada el lunes por la noche, consolida dos demandas presentadas contra el propietario de Facebook e Instagram por la comediante Sarah Silverman, el ganador del Premio Pulitzer Michael Chabon y otros autores destacados. Estos alegan que Meta ha utilizado sus obras sin permiso para entrenar su modelo de lenguaje de inteligencia artificial, llamado Llama.

Un juez de California desestimó el mes pasado parte de la demanda de Silverman e indicó que daría a los autores el permiso para modificar sus reclamaciones.

Meta no respondió de inmediato a una solicitud de comentarios sobre las acusaciones.

La nueva demanda, presentada el lunes, incluye registros de chat de un investigador afiliado a Meta discutiendo la obtención del conjunto de datos en un servidor de Discord, una pieza de evidencia potencialmente significativa que indica que Meta sabía que el uso de los libros podría no estar protegido por la ley de derechos de autor de EE. UU.

En los registros de chat citados en la demanda, el investigador Tim Dettmers describe su intercambio con el departamento legal de Meta sobre si el uso de los archivos de libros como datos de entrenamiento sería «legalmente aceptable».

«En Facebook, hay muchas personas interesadas en trabajar con (The Pile), incluyéndome a mí, pero en su forma actual, no podemos usarlo por razones legales», escribió Dettmers en 2021, refiriéndose a un conjunto de datos que Meta ha admitido haber utilizado para entrenar su primera versión de Llama, según la demanda.

Un mes antes, Dettmers escribió que los abogados de Meta le habían dicho que «los datos no se pueden usar ni los modelos se pueden publicar si están entrenados con esos datos», según la demanda.

Aunque Dettmers no describe las preocupaciones de los abogados, sus colegas en el chat identifican a «los libros con derechos de autor activos» como la mayor fuente probable de preocupación. Afirman que el entrenamiento con esos datos debería «encajar dentro del uso legítimo», una doctrina legal en EE. UU. que protege ciertos usos no autorizados de obras con derechos de autor.

Dettmers, estudiante de doctorado en la Universidad de Washington, dijo a Reuters que no podía comentar de inmediato sobre las afirmaciones.

Las empresas tecnológicas han enfrentado una serie de demandas este año de creadores de contenido que los acusan de copiar obras protegidas por derechos de autor para construir modelos de inteligencia artificial generativos que han causado sensación a nivel mundial y han generado una frenética inversión.

Si estas demandas tienen éxito, podrían disminuir la fiebre de la inteligencia artificial generativa, ya que podrían aumentar el costo de construir modelos hambrientos de datos al obligar a las empresas de inteligencia artificial a compensar a artistas, autores y otros creadores de contenido por el uso de sus obras.

Al mismo tiempo, las nuevas normas provisionales en Europa que regulan la inteligencia artificial podrían obligar a las empresas a revelar los datos que utilizan para entrenar sus modelos, exponiéndolas a un mayor riesgo legal.

Meta lanzó la primera versión de su modelo de lenguaje grande Llama en febrero y publicó una lista de conjuntos de datos utilizados para el entrenamiento, incluyendo «la sección de libros Books3 de ThePile». Según la demanda, la persona que ensambló ese conjunto de datos ha dicho en otro lugar que contiene 196,640 libros.

La compañía no reveló datos de entrenamiento para su última versión del modelo, Llama 2, que puso a disposición para uso comercial este verano.

Llama 2 es gratuito para empresas con menos de 700 millones de usuarios activos al mes. Su lanzamiento se percibió en el sector tecnológico como un posible cambio de juego en el mercado de software de inteligencia artificial generativa, amenazando con trastocar la dominación de jugadores como OpenAI y Google, que cobran por el uso de sus modelos.

Guía rápida de la Ley de Inteligencia Artificial (IA) de la Unión Europea

Quick Guide to the EU AI Act

Ver infografía

Texto completo

Original

«La inteligencia artificial ya está cambiando nuestra vida cotidiana, y eso tan solo es el principio. Utilizada de forma sensata y generalizada, la inteligencia artificial promete enormes beneficios para nuestra economía y nuestra sociedad. Por lo tanto, celebro con gran satisfacción el acuerdo político alcanzado hoy por el Parlamento Europeo y el Consejo sobre la Ley de Inteligencia Artificial. La Ley de IA de la UE es el primer marco jurídico global en materia de inteligencia artificial en todo el mundo. Así pues, se trata de un momento histórico. La Ley de IA lleva los valores europeos a una nueva era. Al centrar la regulación en los riesgos identificables, el acuerdo alcanzado hoy fomentará la innovación responsable en Europa. Al velar por la seguridad y los derechos fundamentales de las personas y las empresas, apoyará el desarrollo, la implantación y la aceptación de una inteligencia artificial fiable en la UE. Nuestra Ley de IA contribuirá de manera sustancial a la formulación de normas y principios mundiales sobre una inteligencia artificial centrada en el ser humano.»

Ursula von der Leyen, President of the European Commission – 09/12/2023


La Ley de Inteligencia Artificial de la UE, oficialmente conocida como «Propuesta de Reglamento del Parlamento Europeo y del Consejo por la que se establecen normas armonizadas sobre la inteligencia artificial (Reglamento de Inteligencia Artificial)», es una iniciativa legislativa destinada a regular el desarrollo y uso de tecnologías de inteligencia artificial (IA) dentro de la Unión Europea. Aquí tienes una guía rápida sobre los puntos clave de la Ley de IA de la UE:

1. Ámbito de Aplicación:

  • La Ley de IA se aplica a los proveedores que colocan sistemas de IA en el mercado de la UE o los ponen en servicio, independientemente de si están establecidos dentro o fuera de la UE.

2. Definición de Sistemas de IA:

  • La regulación define los sistemas de IA como software desarrollado con la capacidad de utilizar datos para lograr un propósito que normalmente requeriría inteligencia humana. Cubre una amplia gama de aplicaciones de IA, incluidos modelos de aprendizaje automático y sistemas basados en reglas.

3. Enfoque Basado en el Riesgo:

  • La regulación categoriza los sistemas de IA en cuatro niveles de riesgo: Riesgo Inaceptable, Riesgo Elevado, Riesgo Limitado y Riesgo Mínimo. El nivel de riesgo determina los requisitos y obligaciones regulatorias impuestas a los desarrolladores y usuarios.

4. Sistemas de IA de Alto Riesgo:

  • Los sistemas de IA de alto riesgo incluyen aquellos utilizados en infraestructuras críticas, formación educativa o vocacional, servicios públicos esenciales, aplicación de la ley, control de migración y fronteras, e identificación biométrica. Se aplican requisitos más estrictos a estos sistemas.

5. Requisitos para Sistemas de IA de Alto Riesgo:

  • Para los sistemas de IA de alto riesgo, los desarrolladores deben cumplir con varios requisitos, incluida la calidad de los datos, documentación, transparencia, supervisión humana y robustez. Los análisis de conformidad, con la participación de un tercero, son obligatorios.

6. Transparencia y Explicabilidad:

  • La Ley de IA destaca la importancia de la transparencia y requiere que los sistemas de IA proporcionen a los usuarios información clara y accesible sobre las capacidades y limitaciones del sistema. También se exigen explicaciones para las decisiones tomadas por los sistemas de IA.

7. Gobernanza de Datos:

  • La regulación aborda el uso de datos en sistemas de IA, enfatizando la necesidad de gobernanza de datos. Promueve el uso de conjuntos de datos de entrenamiento de alta calidad, y los desarrolladores deben asegurarse de que los datos utilizados sean relevantes, representativos y libres de sesgos.

8. Prácticas Prohibidas:

  • Algunas prácticas de IA están prohibidas de manera absoluta en la regulación, especialmente aquellas consideradas como representando riesgos inaceptables. Esto incluye la manipulación de individuos a través de técnicas subliminales y la explotación de vulnerabilidades de grupos específicos.

9. Cumplimiento y Sanciones:

  • Las autoridades competentes nacionales supervisarán el cumplimiento de la Ley de IA. El incumplimiento puede resultar en sanciones, multas o suspensión del marketing de un sistema de IA. Las infracciones graves pueden llevar a multas de hasta 30 millones de euros o el 6% de la facturación total anual mundial, lo que sea mayor.

10. Cooperación Internacional:

  • La UE fomenta la cooperación internacional en la regulación de la IA. La Ley de IA de la UE busca establecer un estándar global para la ética y la regulación de la IA, fomentando la colaboración con socios internacionales.

Es importante tener en cuenta que la Ley de IA de la UE es un paso significativo hacia la creación de un marco normativo para las tecnologías de IA, abordando preocupaciones éticas y asegurando el desarrollo y despliegue responsables de sistemas de IA dentro de la Unión Europea.

Libro Blanco: Inteligencia Artificial Generativa en Comunicación científica

Generative AI in Scholarly Communications: Ethical and Practical Guidelines for the Use of Generative AI in the Publication Process. STM, 2023

Texto completo

STM ha publicado un nuevo libro blanco: Generative AI in Scholarly Communications: Directrices éticas y prácticas para el uso de la IA generativa en el proceso de publicación. Como continuación de AI Ethics in Scholarly Communication, que STM publicó en abril de 2021, esta nueva publicación es un recurso para las partes interesadas en la publicación académica y aborda el papel cada vez más importante de las tecnologías de IA Generativa (GenAI).

El documento examina los aspectos éticos, jurídicos y prácticos de GenAI, destacando su potencial para transformar las comunicaciones académicas, y abarca una serie de temas que van desde los derechos de propiedad intelectual hasta los desafíos de mantener la integridad en la era digital. El documento ofrece principios de buenas prácticas y recomendaciones para autores, equipos editoriales, revisores y proveedores, garantizando un enfoque responsable y ético en el uso de las herramientas GenAI.

El nuevo sistema de IA Gemini de Google entenderá tus fotos y videos, no solo texto

Google Gemini Tries Outsmarting ChatGPT With Photo and Video AI. (2023.). CNET. Recuperado 7 de diciembre de 2023, de https://www.cnet.com/tech/computing/google-gemini-tries-outsmarting-chatgpt-with-photo-video-ai/

Google ha comenzado a dotar a su chatbot Bard AI de una comprensión nativa de video, audio y fotos con un nuevo modelo llamado Gemini. Los propietarios de teléfonos Google Pixel 8 serán algunos de los primeros en aprovechar sus nuevas capacidades de inteligencia artificial.

Las primeras versiones de la nueva tecnología llegaron el miércoles a docenas de países a través de la actualización Gemini de Google Bard, pero solo en inglés. Puede proporcionar habilidades de chat basadas en texto que Google afirma mejoran las habilidades de inteligencia artificial en tareas complejas como resumir documentos, razonar y escribir código de programación. El cambio más importante con las capacidades multimedia, como comprender gestos con las manos en un video o descifrar el resultado de un rompecabezas de puntos a puntos dibujado por un niño, llegará «pronto», según Google.

Gemini representa un cambio dramático para la inteligencia artificial. El chat basado en texto es importante, pero los humanos deben procesar información mucho más rica a medida que habitamos nuestro mundo tridimensional y en constante cambio. Y respondemos con habilidades de comunicación complejas, como el habla y las imágenes, no solo palabras escritas. Gemini es un intento de acercarse a nuestra comprensión más completa del mundo.

Gemini viene en tres versiones adaptadas para diferentes niveles de potencia informática, según Google:

  • Gemini Nano funciona en teléfonos móviles, con dos variedades disponibles construidas para diferentes niveles de memoria disponible. Impulsará nuevas funciones en los teléfonos Pixel 8 de Google, como resumir conversaciones en su aplicación Recorder o sugerir respuestas de mensajes en WhatsApp escritos con el teclado Gboard de Google.
  • Gemini Pro, ajustado para respuestas rápidas, se ejecuta en los centros de datos de Google y alimentará una nueva versión de Bard, a partir del miércoles.
  • Gemini Ultra, limitado a un grupo de prueba por ahora, estará disponible en un nuevo chatbot Bard Advanced que se lanzará a principios de 2024. Google se negó a revelar detalles de precios, pero se espera pagar un precio premium por esta capacidad superior.

La nueva versión destaca el vertiginoso ritmo de avance en el nuevo campo de la inteligencia artificial generativa, donde los chatbots crean sus propias respuestas a indicaciones que escribimos en lenguaje claro en lugar de instrucciones de programación arcanas. El principal competidor de Google, OpenAI, tomó la delantera con el lanzamiento de ChatGPT hace un año, pero ya Google se encuentra en su tercera revisión importante de modelos de inteligencia artificial y espera ofrecer esa tecnología a través de productos que utilizan miles de millones de personas, como búsqueda, Chrome, Google Docs y Gmail.

«Durante mucho tiempo quisimos construir una nueva generación de modelos de inteligencia artificial inspirados en la forma en que las personas comprenden e interactúan con el mundo, una inteligencia artificial que se sienta más como un colaborador útil y menos como un software inteligente», dijo Eli Collins, vicepresidente de producto de la división DeepMind de Google. «Gemini nos acerca un paso más a esa visión».

OpenAI también suministra la inteligencia detrás de la tecnología de inteligencia artificial Copilot de Microsoft, incluido el nuevo modelo de inteligencia artificial GPT-4 Turbo que OpenAI lanzó en noviembre. Microsoft, al igual que Google, tiene productos importantes como Office y Windows a los que está agregando funciones de inteligencia artificial.

Gemini es la siguiente generación del modelo de lenguaje grande de Google, una secuela de PaLM y PaLM 2, que han sido la base de Bard hasta ahora. Pero al entrenar a Gemini simultáneamente en texto, código de programación, imágenes, audio y video, puede manejar de manera más eficiente la entrada multimedia que con modelos de inteligencia artificial separados pero interconectados para cada modo de entrada.

Ejemplos de las habilidades de Gemini, según un documento de investigación de Google (PDF), son diversos.

Al mirar una serie de formas que consisten en un triángulo, un cuadrado y un pentágono, puede adivinar correctamente que la siguiente forma en la serie es un hexágono. Al presentar fotos de la luna y una mano sosteniendo una pelota de golf y preguntar por la conexión, señala correctamente que los astronautas del Apolo golpearon dos pelotas de golf en la luna en 1971. Convirtió cuatro gráficos de barras que mostraban técnicas de eliminación de residuos país por país en una tabla etiquetada y señaló un punto de datos atípico, a saber, que Estados Unidos arroja mucho más plástico en el vertedero que otras regiones.

La compañía también mostró a Gemini procesando un problema de física escrito a mano que involucraba un dibujo simple, descubriendo dónde estaba el error de un estudiante y explicando una corrección. Un video de demostración más complejo mostró a Gemini reconociendo un pato azul, títeres de mano, trucos de prestidigitación y otros videos. Sin embargo, ninguna de las demostraciones fue en vivo y no está claro con qué frecuencia Gemini tiene dificultades con tales desafíos.

Los editores responden a los comentarios de la Oficina de Derechos de Autor diciendo que las empresas multimillonarias de inteligencia artificial copian en masa obras sin consentimiento

Publishers Submit Reply Comments to Copyright Office in Artificial Intelligence Proceeding—AAP. (2023, diciembre 6).

Texto completo

Association of American Publishers (AAP) de Estados Unidos presentó los comentarios de respuesta en la investigación de la U.S. Copyright Office de EE. UU. sobre la intersección entre la ley de derechos de autor y la inteligencia artificial (IA) en respuesta a afirmaciones defectuosas e inexactas presentadas por algunas empresas tecnológicas y/o sus inversores en la primera ronda de comentarios, incluidas afirmaciones agotadas de que los derechos de los autores y editores son un obstáculo para la innovación.

AAP presentó una extensa contribución que incluye los siguientes puntos:

  1. Las grandes empresas tecnológicas piden al gobierno «cobertura contra la responsabilidad por su desconsideración calculada de la autoría, ignorando también que los titulares de derechos ya licencian rutinariamente sus obras para todo tipo de usos digitales».
  2. «En lugar de trabajar con los propietarios de derechos de autor, estas empresas buscan apropiarse de la literatura y otras propiedades intelectuales invaluables para su propio beneficio comercial y torcer la ley a su voluntad. El gobierno no debería tener ningún papel en otorgar ventajas comerciales a las empresas de IA a expensas de autores, editores y otros creadores».
  3. «Las empresas que se benefician de la comercialización de esta tecnología deberían estar obligadas no solo a compensar a los titulares de derechos por su ingestión pasada de obras con derechos de autor para entrenar sistemas Gen AI, sino también por su uso continuo y futuro de obras protegidas para entrenar nuevos sistemas Gen AI o ajustar sus productos existentes».
  4. «Los desarrolladores de Gen AI no son ‘start-ups’ que luchan y necesitan un impulso del gobierno. Cuentan entre sus inversores a algunas de las empresas tecnológicas más grandes y rentables del mundo y tienen un valor, en algunos casos, entre 80 y 90 mil millones de dólares. No hay absolutamente ninguna razón de política pública para crear inmunidades legales para tales empresas, que solo enfrentan el requisito razonable de buscar el consentimiento o licencias de los titulares de derechos cuyas obras utilizan para entrenar sus sistemas Gen AI».
  5. «Sería un grave error repetir los errores de política pasados que permitieron a las empresas tecnológicas alcanzar una dominancia de mercado poco saludable, casi de monopolio, hasta el punto de que los gobiernos han luchado por frenar su poder, a pesar de los intentos repetidos de moderar sus tácticas agresivas en el mercado».
  6. «La cuestión de la seguridad nacional es ciertamente motivo de profunda preocupación para todos los ciudadanos estadounidenses, especialmente cuando los actores malintencionados pueden utilizar la IA y los sistemas Gen AI para sembrar desinformación o información falsa que socave nuestras instituciones democráticas y cree otros riesgos para la seguridad nacional. Esta posibilidad señala la necesidad aún mayor de autores y editores que produzcan y difundan contenido de calidad verificado y verificado. Avanzar en la agenda tecnológica y económica de la nación no es un juego de suma cero, y no debería convertirse en una carrera hacia el fondo».
  7. «La transparencia es un requisito esencial. Es de interés público saber qué obras de autor se han ingerido y es una parte esencial de buscar un consentimiento adecuado tener esa información claramente registrada. Este requisito no es oneroso y se presta a una mayor innovación en el campo de las empresas de derechos digitales».
  8. «En ningún caso la Ley de Derechos de Autor permite el acceso no autorizado o la adquisición de obras con derechos de autor. El acceso legal a fuentes autorizadas es importante. No se permite a un ser humano reproducir y descargar ilegalmente 183,000 obras con derechos de autor (el número de títulos infractores estimados en el corpus ‘Books3’) para leer o aprender de ellas».

Plan de Acción de EDUCASE Horizon sobre la Inteligencia Artificial Generativa

2023 EDUCAUSE Horizon Action Plan: Generative AI. EDUCASE, 2023

Texto completo


En 2023, la inteligencia artificial generativa surgió como la tecnología adoptada más rápidamente en la historia. Todos los miembros de la comunidad de educación superior, desde estudiantes hasta administradores, están tratando de determinar qué impacto pueden, tendrán y deberían tener las herramientas de inteligencia artificial generativa en la vida, el aprendizaje y el trabajo. Para complicar aún más las cosas, no hay consenso sobre cómo o incluso si la inteligencia artificial generativa debería desempeñar un papel en el futuro de la educación superior.

Basándose en las tendencias, tecnologías y prácticas descritas en el Informe Horizon 2023 de EDUCAUSE: Edición de Enseñanza y Aprendizaje, el panel de informe elaboró su visión del futuro junto con acciones prácticas que individuos, unidades y departamentos, y grupos de colaboradores pueden llevar a cabo para hacer realidad este futuro.

Cuando se les pidió describir el estado de la inteligencia artificial generativa que les gustaría ver en la educación superior dentro de 10 años, los panelistas construyeron colaborativamente el futuro descrito a continuación.

Los desarrolladores e investigadores de inteligencia artificial generativa han encontrado formas de garantizar que los procesos y resultados sean equitativos, representativos e imparciales. Los desarrolladores priorizan consideraciones éticas como la transparencia algorítmica, la privacidad y seguridad de los datos, la accesibilidad, la equidad y la inclusión. Los usuarios finales tienen control total sobre cómo las instituciones y empresas utilizan sus datos e propiedad intelectual. La formación en inteligencia artificial para estudiantes y profesionales se basa en prácticas éticas. Las herramientas de inteligencia artificial generativa están diseñadas con salvaguardias para garantizar que operen dentro de los objetivos de los desarrolladores.

Los desarrolladores y usuarios finales de la inteligencia artificial generativa construyen conjuntos de datos específicos y basados en referencias para diversos contextos de la educación superior. Los líderes de opinión en la educación superior proporcionan ideas sobre la calidad de los datos. La inteligencia artificial generativa respalda el acceso y la accesibilidad de la tecnología educativa. Se reducen o eliminan los obstáculos estructurales y, posiblemente arbitrarios, para el éxito estudiantil. Por ejemplo, la inteligencia artificial generativa elimina la barrera de la escritura para la demostración de conocimientos. La inteligencia artificial generativa facilita la educación multilingüe al traducir automáticamente la comunicación hablada y escrita a cualquier idioma en tiempo real, permitiendo a los educadores enseñar a estudiantes de todo el mundo y enriquecer las experiencias transculturales.

El desarrollo de herramientas digitales se democratiza con la ayuda de herramientas de inteligencia artificial generativa. Los usuarios finales pueden crear sus propias aplicaciones digitales, y la tecnología no está controlada por la industria. La inteligencia artificial generativa impulsa experiencias de aprendizaje interactivas e inmersivas, como entornos de simulación y realidad virtual, haciendo que los conceptos complejos sean más atractivos y tangibles para los estudiantes.

El personal docente y los estudiantes pueden pensar críticamente sobre las herramientas y resultados de la inteligencia artificial generativa. Pueden discernir usos apropiados para estas herramientas y evaluar productos de inteligencia artificial generativa. Las herramientas de búsqueda impulsadas por la inteligencia artificial generativa proporcionan a los usuarios fuentes creíbles de información, facilitando la recopilación de información y la verificación de hechos. Los docentes cuentan con el desarrollo profesional necesario y el apoyo continuo para implementar herramientas de inteligencia artificial generativa en la enseñanza y el aprendizaje. Los educadores enseñan a los estudiantes a utilizar las herramientas de inteligencia artificial generativa de manera ética, responsable y efectiva.

La inteligencia artificial generativa se utiliza para mejorar las relaciones humanas y completar tareas que los humanos no desean realizar. El tiempo humano se libera para abordar y resolver grandes problemas relacionados con la salud, la economía y otras áreas. En la educación superior, hay más tiempo disponible para centrarse en interacciones significativas entre el personal docente, el personal y los estudiantes. Las herramientas de inteligencia artificial generativa permiten nuevas conexiones entre estudiantes que comparten intereses, y los entornos educativos se centran más en apoyar estas conexiones que en el intercambio de conocimientos, ya que los procesos pedagógicos tradicionales son más eficientes y efectivos.

Las herramientas de inteligencia artificial generativa informan en tiempo real sobre los hallazgos de análisis de aprendizaje. El personal docente y administrativo aprovecha esta información para tomar decisiones informadas por datos, implementar intervenciones específicas y mejorar continuamente los métodos de enseñanza. Las herramientas de análisis de aprendizaje también proporcionan a estudiantes y docentes retroalimentación detallada, específica y constructiva sobre tareas, proyectos y evaluaciones.

Asistentes digitales proporcionan a los estudiantes guías personalizadas y de por vida para el aprendizaje. Impulsados por la inteligencia artificial generativa, los asistentes se construyen con personalidades similares a las de un entrenador o amigo. Las instituciones utilizan estos asistentes para brindar apoyo integral (es decir, educativo y psicosocial) a los estudiantes. Los asistentes integran percepciones de experiencias educativas anteriores y necesidades de aprendizaje individualizadas en curso para abordar las preferencias, fortalezas y desafíos únicos de los estudiantes. Las experiencias de educación superior son una continuación fluida desde la educación secundaria, con un enfoque en el desarrollo continuo de habilidades y la metacognición. Después de graduarse de la educación postsecundaria, los estudiantes siguen conectados a trayectorias de aprendizaje de por vida para obtener certificaciones y habilidades adicionales. Los asistentes también ayudan a los estudiantes a desarrollar pensamiento crítico, innovación y creatividad al presentarles desafíos únicos, como estímulos creativos, ejercicios de escritura y escenarios de resolución de problemas.

¿Quién lidera en IA? Un análisis de la investigación en IA

Cottier, Ben, Tamay Besiroglu, y David Owen. 2023. «Who is leading in AI? An analysis of industry AI research». arXiv. http://arxiv.org/abs/2312.00043.


La investigación en Inteligencia Artificial (IA) está cada vez más impulsada por la industria, siendo crucial comprender las contribuciones de las empresas a este campo. Comparamos las principales empresas de IA en cuanto a publicaciones de investigación, citas, tamaño de ejecuciones de entrenamiento y contribuciones a innovaciones algorítmicas.

El sector privado ha llegado a desempeñar un papel fundamental en la investigación y desarrollo de la inteligencia artificial (IA) (1; 2). Este aumento ha sido impulsado por una explosión en los recursos computacionales para la IA (3), con costos que se han vuelto prohibitivos para que los laboratorios universitarios los mantengan solos. El sector privado también tiene una influencia desproporcionada: los artículos de investigación en IA que involucran a empresas privadas reciben aproximadamente el doble de citas que aquellos que no las incluyen (4). La industria es responsable de casi todas las ejecuciones de entrenamiento más intensivas en cómputo (3), tiene una influencia desproporcionada en los sistemas ampliamente desplegados y, como veremos, desarrolla una gran cantidad de los algoritmos y arquitecturas que sustentan los modelos actuales de vanguardia.

El análisis revela el papel sustancial desempeñado por Google, OpenAI y Meta. Descubrimos que estas tres empresas han sido responsables de algunas de las ejecuciones de entrenamiento más grandes, han desarrollado una gran parte de las innovaciones algorítmicas que sustentan modelos de lenguaje grandes y lideran en varios indicadores de impacto de citas.

En contraste, las principales empresas chinas como Tencent y Baidu tuvieron un impacto menor en muchos de estos indicadores en comparación con sus homólogos estadounidenses. Observamos que muchos laboratorios de la industria están llevando a cabo grandes trabajos de entrenamiento y que las tareas de entrenamiento de recién llegados, como OpenAI y Anthropic, han igualado o superado a las de incumbentes de larga data como Google. Los datos revelan un ecosistema diverso de empresas que dirigen el progreso de la IA, aunque los laboratorios estadounidenses como Google, OpenAI y Meta lideran en métricas críticas.

Amazon presenta Q, un chatbot con inteligencia artificial para empresas

Amazon launches Q, a business chatbot powered by generative artificial intelligence. AP News [en línea], 2023. [consulta: 1 diciembre 2023]. Disponible en: https://apnews.com/article/amazon-chatbot-q-chatgpt-09964d52076b1db7df8cca695423661f.

«La última IA de Amazon, Q, promete redefinir la forma en que las empresas interactúan con AWS. No se trata sólo de responder preguntas; Q se integra con las aplicaciones de empresa y aprende sobre el negocio al dedillo». Adam Selipsky, CEO de AWS, subraya: «Todo se basa en el conocimiento de los sistemas, los repositorios de datos y operaciones». Esta personalización es clave: permite a Q profundizar en las necesidades específicas de cada empresa, desde solucionar problemas de red hasta sugerir configuraciones de AWS adaptadas a las aplicaciones.


Q no es solo un chatbot; es un asistente orientado a la acción. Puede redactar contenido para blogs o comunicados de prensa, y ejecutar acciones a través de plugins, como abrir tickets de servicio. «Realmente creo que esto va a ser transformador», afirma Selipsky. Con sus profundas capacidades de integración, Q está a punto de convertirse en una herramienta indispensable para los usuarios de AWS, agilizando las operaciones y ofreciendo información inteligente y práctica». techcrunch

¿Por qué es importante?

Más allá de la comodidad de la automatización de tareas y la generación de contenidos, el potencial de Q para acelerar significativamente los ciclos de desarrollo es profundo. Imagina reducir el tiempo que se tarda en actualizar el software crítico de toda una empresa de semanas a tan solo días. ¿Qué impacto podría tener esto en la capacidad de la empresa para innovar y mantenerse por delante de la competencia?»