Archivo de la categoría: Tecnologías de la información

ChatGPT en la Educación Superior – Una síntesis de la literatura y una futura agenda de investigación

Bhullar, P.S., Joshi, M. & Chugh, R. ChatGPT in higher education – a synthesis of the literature and a future research agenda. Educ Inf Technol (2024). https://doi.org/10.1007/s10639-024-12723-x

ChatGPT se ha convertido en un tema importante de investigación y exploración, arrojando luz sobre las prácticas de enseñanza y aprendizaje en el ámbito de la educación superior. Este estudio examina los artículos más influyentes, las revistas más importantes y los países productivos en relación con las citas y publicaciones relacionadas con ChatGPT en la educación superior, al tiempo que arroja luz sobre los grupos temáticos y geográficos emergentes dentro de la investigación sobre el papel y los desafíos de ChatGPT en la enseñanza y el aprendizaje en las instituciones de educación superior.

Se seleccionaron cuarenta y siete artículos de investigación de la base de datos Scopus para el análisis bibliométrico. Los hallazgos indican que el uso de ChatGPT en la educación superior, particularmente en cuestiones de integridad académica e investigación, ha sido estudiado ampliamente por académicos de los Estados Unidos, que han producido el mayor volumen de publicaciones, junto con el mayor número de citas. Este estudio descubre cuatro grupos temáticos distintos (integridad académica, entorno de aprendizaje, participación de los estudiantes e investigación académica) y destaca las áreas de enfoque predominantes en la investigación relacionada con ChatGPT en la educación superior, incluidos los exámenes de los estudiantes, la integridad académica, el aprendizaje de los estudiantes y las prácticas de campo. investigación específica, a través de un análisis bibliográfico por países. El plagio es una preocupación importante en el uso de ChatGPT, que puede reducir la capacidad de los estudiantes para producir material imaginativo, inventivo y original. Este estudio ofrece información valiosa sobre el estado actual de ChatGPT en la literatura sobre educación superior, proporcionando una guía esencial para académicos, investigadores y formuladores de políticas.

Un grupo periódicos de EE.UU. demandan a OpenAI por infracción de derechos de autor en el entrenamiento de su IA

Brittain, Blake. «US newspapers sue OpenAI for copyright infringement over AI training.» Reuters, May 1, 2024, 1:55 AM GMT+2, Accessed May 1, 2024. https://www.reuters.com/legal/us-newspapers-sue-openai-copyright-infringement-over-ai-training-2024-04-30/

Un grupo de periódicos, incluyendo el New York Daily News y el Chicago Tribune, demandaron a Microsoft (MSFT.O) y OpenAI en un tribunal federal de Nueva York el martes, acusándolos de utilizar indebidamente el trabajo de los reporteros para entrenar sus sistemas de inteligencia artificial generativa.

Los ocho periódicos, propiedad del fondo de inversión Alden Global Capital’s MediaNews Group, afirmaron en la demanda que las empresas copiaron ilegalmente millones de sus artículos para entrenar productos de inteligencia artificial, incluyendo el Copilot de Microsoft y el ChatGPT de OpenAI.

La queja sigue a demandas similares en curso contra Microsoft y OpenAI, que ha recibido miles de millones de respaldo financiero de Microsoft, presentadas por el New York Times y los medios de comunicación The Intercept, Raw Story y AlterNet.

Un portavoz de OpenAI dijo el martes que la empresa cuida mucho sus productos y el proceso de diseño para apoyar a las organizaciones de noticias. Un portavoz de Microsoft declinó hacer comentarios sobre la demanda.

Los casos de los periódicos son parte de varias posibles demandas emblemáticas presentadas por propietarios de derechos de autor contra empresas tecnológicas por los datos utilizados para entrenar sus sistemas de inteligencia artificial generativa.

Un abogado de las publicaciones de MediaNews, Steven Lieberman, dijo a Reuters que OpenAI debe su éxito arrollador al trabajo de otros. Los demandados saben que tienen que pagar por computadoras, chips y salarios de empleados, pero «creen de alguna manera que pueden salirse con la suya tomando contenido» sin permiso o pago, dijo.

La demanda dijo que los sistemas de Microsoft y OpenAI reproducen el contenido con derechos de autor de los periódicos «verbatim» cuando se les solicita. Afirmó que ChatGPT también «alucina» artículos atribuidos a los periódicos que dañan sus reputaciones, incluyendo un artículo falso del Denver Post que promocionaba fumar como una cura para el asma y una recomendación falsa del Chicago Tribune para un reposa bebés que fue retirado del mercado después de ser vinculado con la muerte de niños.

OpenAI firma un acuerdo estratégico con el diario británico Financial Times que incluye el uso de contenidos

Lomas, Natasha. «OpenAI Inks Strategic Tie-up with UK’s Financial Times, Including Content Use». TechCrunch (blog), 29 de abril de 2024. https://techcrunch.com/2024/04/29/openai-inks-strategic-tie-up-with-uks-financial-times-including-content-use/.

OpenAI, creador del viral chatbot de IA ChatGPT, ha asegurado otro acuerdo de licencia de noticias en Europa, sumando al Financial Times de Londres a una lista creciente de editores a los que paga por acceso a contenido.

El último acuerdo parece ser más cercano que otros recientes acuerdos de OpenAI con editores, como con el gigante alemán Axel Springer o con la AP, Le Monde y Prisa Media en Francia y España, respectivamente, ya que a,bos grupos se refieren al acuerdo como una «asociación estratégica y acuerdo de licencia». Al igual que en los acuerdos de licencia anteriores de OpenAI con editores, los términos financieros del acuerdo no se hacen públicos. Sin embargo, entendemos que es un acuerdo de licencia no exclusivo, y OpenAI no está adquiriendo ningún tipo de participación en el FT Group.

En cuanto a la licencia de contenido, el acuerdo cubre el uso del contenido del FT por parte de OpenAI para entrenar modelos de IA y, cuando sea apropiado, para mostrar respuestas de IA generadas por herramientas como ChatGPT.

El elemento estratégico parece centrarse en el Financial Times aumentando su comprensión de la IA generativa, especialmente como herramienta de descubrimiento de contenido, y en lo que se presenta como una colaboración destinada a desarrollar «nuevos productos y características de IA para los lectores del FT».

«Mediante la asociación, los usuarios de ChatGPT podrán ver resúmenes, citas y enlaces atribuidos seleccionados al periodismo del Financial Times en respuesta a consultas relevantes», dijo el periódico en un comunicado de prensa.

El editor también señaló que se convirtió en cliente del producto Enterprise de ChatGPT de OpenAI a principios de este año. Además, expresó cautela sobre la confiabilidad de las salidas automatizadas y los riesgos potenciales para la confianza del lector.

John Ridding, CEO del Financial Times Group, escribió en el comunicado: «Este es un acuerdo importante en varios aspectos. Reconoce el valor de nuestro galardonado periodismo y nos dará ideas tempranas sobre cómo se presenta el contenido a través de la IA». Añadió: «Aparte de los beneficios para el Financial Times, hay implicaciones más amplias para la industria. Es correcto, por supuesto, que las plataformas de IA paguen a los editores por el uso de su material».

Las grandes modelos de lenguaje (LLMs) como el GPT de OpenAI, que alimenta el chatbot ChatGPT, son conocidos por su capacidad para fabricar información o «alucinar». Esto es lo opuesto al periodismo, donde los periodistas trabajan para verificar que la información que proporcionan sea lo más precisa posible.

Entonces, no es sorprendente que los primeros movimientos de OpenAI hacia la licencia de contenido para el entrenamiento de modelos se hayan centrado en el periodismo. El gigante de la IA puede esperar que esto ayude a resolver el problema de «alucinación».

También hay otro factor motivador importante en juego aquí: la responsabilidad legal en torno al derecho de autor.

El año pasado, el New York Times anunció que estaba demandando a OpenAI, alegando que su contenido con derechos de autor fue utilizado por el gigante de la IA para entrenar modelos sin una licencia.

Para evitar más demandas de los editores de noticias, cuyo contenido probablemente fue tomado de Internet público (o de otra manera recolectado) para alimentar el desarrollo de LLMs, una forma de cerrar el riesgo es pagar a los editores por el uso de su contenido con derechos de autor. Para los editores, esto significa obtener algo de dinero en efectivo de la licencia de contenido.

OpenAI le dijo a TechCrunch que tiene «alrededor de una docena» de acuerdos con editores firmados (o «inminentes»), y que «muchos» más están en marcha.

Las alucinaciones de ChatGPT provocan una queja de privacidad de la UE

«ChatGPT’s Hallucinations Draw EU Privacy Complaint», POLITICO 29 de abril de 2024. https://www.politico.eu/article/chatgpts-hallucinations-get-eu-privacy-complaint/.

El «alucinar» de ChatGPT y la invención de información vulneran las normas de privacidad de la Unión Europea, según una queja presentada por el grupo de privacidad noyb ante la autoridad de protección de datos de Austria. El grupo de privacidad noyb exige que los reguladores inicien una investigación sobre la conjetura salvaje de ChatGPT sobre la fecha de nacimiento de uno de sus activistas.

Noyb, una organización sin fines de lucro con sede en Viena fundada por el activista Max Schrems, afirmó que su queja fue desencadenada por el fracaso de ChatGPT en proporcionar la fecha de nacimiento correcta de Schrems, haciendo una conjetura en su lugar. El chatbot no informa a los usuarios que no tiene los datos correctos para responder a una solicitud.

La fecha de nacimiento de una persona es un dato personal según el GDPR, que establece varios requisitos sobre cómo se debe manejar la información personal.

Noyb afirma que el comportamiento del chatbot viola el Reglamento General de Protección de Datos (GDPR) en cuanto a privacidad, exactitud de la información, así como el derecho a corregir información inexacta. También argumenta que la empresa de inteligencia artificial se negó a corregir o eliminar respuestas incorrectas, y no revelará ninguna información sobre los datos procesados, sus fuentes o destinatarios.

«Está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la ley de la UE, cuando procesan datos sobre individuos», dijo Maartje de Graaf, abogada de protección de datos de noyb.

«Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología debe cumplir con los requisitos legales, no al revés», dijo.

El New York Times informó anteriormente que «los chatbots inventan información al menos el 3 por ciento de las veces, y hasta el 27 por ciento».

POLITICO también preguntó a ChatGPT sobre la fecha de nacimiento de Schrems y obtuvo tres respuestas diferentes: 24 de junio, 17 de septiembre y 17 de octubre. El cumpleaños de Schrems es en realidad el 1 de octubre, según noyb.

Noyb ahora está pidiendo a la autoridad austriaca que investigue a OpenAI para verificar la exactitud de los datos personales que maneja para alimentar sus grandes modelos de lenguaje. También solicitan a la autoridad que garantice que la empresa cumpla con la solicitud del demandante de acceder a sus propios datos personales.

El grupo de privacidad también pide una «multa administrativa efectiva, proporcionada y disuasiva». «Por ahora, OpenAI parece ni siquiera pretender que puede cumplir con el GDPR de la UE», dijo. Violaciones del GDPR de la UE pueden resultar en una multa de hasta el 4 por ciento de los ingresos globales de una empresa.

Noyb dijo que cualquier investigación regulatoria probablemente se manejaría «a través de la cooperación de la UE». La base de OpenAI en la UE está en Irlanda y los reguladores de privacidad irlandeses pueden ser sus supervisores principales.

La autoridad austriaca confirmó que recibió la queja y dijo que evaluará si necesita ser remitida a otra autoridad nacional. OpenAI no estuvo disponible de inmediato para hacer comentarios.

El pionero de la IA está enfrentando presiones de otros reguladores europeos. La autoridad de protección de datos de Italia prohibió temporalmente a ChatGPT el año pasado operar en el país debido a la presunta violación de las normas de la UE para el manejo de datos personales.

La Junta Europea de Protección de Datos (EDPB), que reúne a los reguladores nacionales de privacidad, luego estableció un grupo de trabajo sobre ChatGPT para coordinar los esfuerzos nacionales.

Recomendaciones éticas para la investigación en inteligencia artificial del Comité Español de Ética de la Investigación (CEEI)

Recomendaciones éticas para la investigación en inteligencia artificial. Comité Español de Ética de la Investigación (CEEI), 2024

Descargar

Este informe, elaborado en colaboración con la Oficina Española de Prospectiva Tecnológica, analiza los desafíos éticos que plantea el desarrollo y la aplicación de la inteligencia artificial (IA). El CEEI ofrece una serie de recomendaciones para garantizar que la investigación en IA se lleve a cabo de forma responsable y ética, teniendo en cuenta los posibles riesgos y beneficios para la sociedad.

RESPONSABILIDAD EN EL DESARROLLO Y EL USO DE SISTEMAS AUTÓNOMOS

Este conjunto de desafíos se centra en la capacidad de los sistemas de IA para tomar decisiones de manera automática, siempre bajo supervisión humana, conforme a las Directrices Éticas para una IA Fiable publicadas por la Comisión Europea en 2018 y las de la UNESCO de 2021. Aspectos específicos relacionados con la investigación en IA incluyen:

  1. Salvaguardar los derechos humanos y fundamentales: Los investigadores y las instituciones deben asegurar que los sistemas de IA respeten la dignidad, la autodeterminación y los derechos humanos y democráticos.
  2. Salvaguardar el medioambiente: Los sistemas de IA deben desarrollarse considerando su consumo energético y su impacto ambiental.
  3. Responsabilidad: Los investigadores deben proporcionar orientación sobre las decisiones y acciones de los sistemas de IA y colaborar con sus instituciones y otras partes interesadas.
  4. Inspeccionabilidad y trazabilidad: Es necesario identificar las fuentes de datos utilizadas por el sistema y la forma en que toma decisiones para garantizar su transparencia y justicia.
  5. Divulgación de la investigación: Los investigadores deben contribuir al debate público sobre los riesgos y oportunidades de la IA y presentar un balance equilibrado entre ambos.

CONSECUENCIAS SOCIALES Y RESPONSABILIDAD SOCIAL DE LA INVESTIGACIÓN

La IA tiene un gran potencial para generar cambios en diversas áreas de aplicación. En la investigación, es esencial:

  1. Reconocer la incertidumbre: Asesorar adecuadamente sobre la incertidumbre asociada con la investigación en IA y fomentar la investigación interdisciplinar.
  2. Asegurar una participación amplia: Comunicar los riesgos y oportunidades de manera transparente e involucrar a aquellos que se ven más afectados por las decisiones.
  3. Protección de datos y consideración a los individuos: Seguir los principios fundamentales de la protección de datos y asegurar el consentimiento adecuado en el uso de datos personales.

DATOS

El uso de datos, especialmente de grandes cantidades, plantea desafíos éticos en la investigación en IA. Es esencial:

  1. Asegurar la calidad de los datos: Cuestionar la calidad y relevancia de los datos, facilitar el acceso a fuentes de datos abiertas y garantizar la verificabilidad.
  2. Acceso justo a los datos: Asegurar que la investigación, los datos utilizados y los resultados obtenidos estén disponibles públicamente, evitando la evasión de los requisitos de transparencia.

Impacto económico de la inteligencia artificial generativa

The Economic Impact of Generative AI Andrew McAfee, April 25th, 2024

Texto completo


Un nuevo informe explora el impacto económico de la inteligencia artificial generativa. Hoy, se publicó un informe de Andrew McAfee, sobre los posibles impactos económicos de la inteligencia artificial generativa. Este informe es el resultado de la investigación original de McAfee sobre IA y la economía, trabajando en estrecha colaboración con expertos de Google para enfocarse en cómo el reciente aumento en la IA generativa puede impactar la productividad, los mercados laborales y las habilidades que los trabajadores necesitan para tener éxito en una economía impulsada por la IA.

La IA generativa es una de las pocas tecnologías lo suficientemente poderosas como para acelerar el crecimiento económico general, lo que los economistas llaman una «tecnología de propósito general». Estas innovaciones tienen el potencial de transformar positivamente las economías y las sociedades.

Según una estimación, cerca del 80% de los trabajos en la economía de EE. UU. podrían ver al menos el 10% de sus tareas realizadas el doble de rápido (sin pérdida de calidad) mediante el uso de IA generativa.

Tecnologías de propósito general anteriores como la máquina de vapor y la electrificación han traído sus cambios a lo largo de décadas. Sin embargo, anticipamos que los efectos de la IA generativa se sentirán más rápidamente debido a su capacidad para difundirse rápidamente a través de Internet y su facilidad de uso debido a su interfaz de lenguaje natural.

Esta tecnología ya está ofreciendo grandes ganancias de productividad, que aumentarán y se difundirán a medida que las personas y organizaciones desarrollen innovaciones complementarias que aprovechen las capacidades de la IA generativa. Como resultado, la productividad general mejorará, lo que acelerará el crecimiento económico.

Además del crecimiento más rápido, la IA generativa traerá otros cambios. Reducirá la demanda de algunas habilidades, aumentará la demanda de otras y creará demanda para habilidades completamente nuevas.

Los temores de un desempleo tecnológico a gran escala probablemente estén exagerados. La historia de las tecnologías de propósito general muestra que el crecimiento que traen va acompañado de una fuerte demanda de trabajo.

Sin embargo, esta demanda aumentada a menudo se encuentra en nuevas ocupaciones. Por ejemplo, más del 85% del crecimiento total del empleo en EE. UU. desde 1940 ha ocurrido en ocupaciones completamente nuevas.

Los cambios rápidos que trae la difusión de la IA generativa requerirán esfuerzos de capacitación rápida y efectiva. Estos esfuerzos podrán aprovechar la IA generativa misma, una herramienta con la capacidad única de ayudar a las personas a aprender cómo usarla mejor. Y debido a que la IA generativa acumula conocimiento y lo pone disponible a pedido, es particularmente efectiva para mejorar el rendimiento de los empleados de nivel de entrada, ayudando con la desigualdad salarial.

Tecnologías de propósito general anteriores han resultado en cambios en las empresas y países líderes en diferentes industrias. Creemos que la IA generativa será igualmente poderosa.

Principios Rectores de las Bibliotecas Universitarias y de Investigación para el uso de la Inteligencia Artificial de ARL

Research Libraries Guiding Principles for Artificial Intelligence.” Association of Research Libraries, April 2024

Texto completo


La articulación de un conjunto de principios rectores para la inteligencia artificial (IA) en las bibliotecas de investigación es útil para influir en las políticas y abogar por el desarrollo y despliegue responsables de las tecnologías de IA, promover prácticas éticas y transparentes, y construir confianza entre las partes interesadas, tanto dentro de las bibliotecas de investigación como en el entorno de investigación en general.

La Asociación de Bibliotecas de Investigación (ARL, por sus siglas en inglés) ha publicado un conjunto de «Principios Rectores de las Bibliotecas de Investigación para la Inteligencia Artificial». Las tecnologías de inteligencia artificial (IA), y en particular, la IA generativa, tienen un gran potencial para mejorar el acceso a la información y promover la apertura en los resultados de investigación. Sin embargo, la IA también tiene el potencial de perturbar los paisajes de información y las comunidades que las bibliotecas de investigación apoyan y sirven. La creciente disponibilidad de modelos de IA plantea muchas posibilidades y también suscita varios consideraciones éticas, profesionales y legales.

Articular un conjunto de principios rectores para la IA en las bibliotecas de investigación es útil para influir en las políticas y abogar por el desarrollo y despliegue responsables de las tecnologías de IA, promover prácticas éticas y transparentes, y construir confianza entre las partes interesadas, tanto dentro de las bibliotecas de investigación como en el entorno de investigación en general. Estos principios servirán como un marco fundamental para el uso ético y transparente de la IA, y reflejan los valores que sostienen las bibliotecas de investigación. La ARL se apoyará en estos principios en nuestra defensa política y compromiso.

Desarrollados a través del Comité de Académicos y Academia de la ARL y el Comité de Defensa y Política Pública de la ARL, estos principios han sido creados y refinados después de múltiples reuniones del comité, una sesión de oficina abierta para todos los miembros y un período de comentarios abierto. Durante el período de comentarios abierto solo, recibimos más de 60 comentarios que han sido tenidos en cuenta en el desarrollo de estos principios.

Los principios incluyen:

  1. Las bibliotecas democratizan el acceso a herramientas y tecnología de inteligencia artificial para fomentar la alfabetización digital entre todas las personas.
  2. Las bibliotecas se comprometen a comprender dónde están presentes las distorsiones y sesgos en los modelos y aplicaciones de IA.
  3. Las bibliotecas abogan por la transparencia e integridad de la información.
  4. Las bibliotecas creen en la importancia de la participación humana en los procesos de toma de decisiones críticas relacionadas con la IA.
  5. Las bibliotecas priorizan la seguridad y privacidad de los usuarios en el uso de herramientas y tecnología de IA.
  6. Las bibliotecas consideran que la ley de derechos de autor en Estados Unidos y Canadá es lo suficientemente flexible y robusta como para responder a muchos problemas de derechos de autor que surgen de la intersección de la tecnología y la inteligencia artificial.
  7. Las bibliotecas negocian para preservar el uso académico de la información digital.

La integración de la inteligencia artificial (IA) en el ámbito educativo

Monitor Global de Educación. Ipsos. Sept. 2023

Texto completo

La integración de la inteligencia artificial (IA) en el ámbito educativo está marcando un cambio significativo en los métodos de enseñanza a nivel mundial. De acuerdo con el último Monitor Global de Educación de Ipsos, publicado recientemente, se evidencia una percepción variada sobre la importancia de capacitar a los docentes en el uso de la IA en la enseñanza, según el país.

Los datos revelan que el 65% de los encuestados en 29 países consideran que los maestros deberían recibir formación en cómo emplear la IA en sus estrategias educativas. Este porcentaje varía considerablemente de un lugar a otro. En el caso de Perú, un impresionante 84% de los encuestados considera esencial que los maestros se capaciten en el uso de la IA en sus métodos de enseñanza. Le sigue Sudáfrica de cerca, con un sólido 80%, mientras que México y Chile registran cifras de un 79% y un 78%, respectivamente. Argentina también se destaca, con un 72% de los encuestados valorando la capacitación de los maestros en este ámbito.

Sin embargo, existen diferencias significativas en otras regiones. En España, por ejemplo, el 62% de los encuestados considera esencial esta formación, seguido por India con un 59%. El Reino Unido y Japón muestran un 53% y un 51%, respectivamente, mientras que Estados Unidos y Francia presentan cifras menores, con un 48% y un 43%. Estos resultados reflejan un reconocimiento global de la importancia de formar a los educadores en el uso de la inteligencia artificial en la educación, aunque con matices regionales significativos.

Manifiesto por un marketing responsable en la era de la inteligencia artificial

«A Manifesto For Responsible Marketing In The Age Of AI And Automation | Martech Zone», 24 de abril de 2024. https://martech.zone/responsible-marketing-manifesto/.


En la actualidad, el marketing está cada vez más impulsado por la inteligencia artificial (IA) y la automatización, lo que plantea la necesidad de establecer prácticas responsables en esta área. Aunque existen herramientas para protegerse contra las comunicaciones autónomas y personalizadas, los comerciales irresponsables pueden causar un daño significativo con una inversión mínima, inundando a los clientes potenciales y actuales con mensajes no deseados.

Es fundamental que como profesionales del marketing, acordemos cerrar la brecha entre los clientes potenciales y actuales que desean que las marcas aborden sus necesidades y las empresas que pueden aprovechar y desplegar tecnologías que pueden explotar la tecnología para impulsar ventas cuestionables.

A medida que avanza la tecnología, debemos asegurar que nuestros esfuerzos de marketing prioricen el bienestar e intereses de los consumidores, manteniendo estándares éticos. Este manifiesto esboza los principios fundamentales que deben guiar el marketing responsable en un mundo moldeado por la IA y la automatización.

Transparencia y consentimiento informado: Los profesionales deben ser transparentes sobre sus prácticas de recopilación de datos y obtener el consentimiento informado de los consumidores. Esto incluye comunicar qué datos se están recopilando, cómo se utilizarán y con quién se compartirán. Los consumidores deben tener derecho a optar por no participar en la recopilación de datos y la capacidad de acceder y gestionar su información personal fácilmente.

Privacidad y seguridad de datos: Proteger los datos del consumidor debe ser una prioridad. Se deben implementar sólidas medidas de privacidad y seguridad de datos para salvaguardar la información personal contra accesos no autorizados, violaciones y mal uso. Los profesionales de la publicidad deben adherirse a las mejores prácticas de la industria y cumplir con las regulaciones de protección de datos relevantes, como el Reglamento General de Protección de Datos (GDPR) y la Ley de Privacidad del Consumidor de California (CCPA).

IA y automatización éticas: Asegurar que las tecnologías se desarrollen y desplieguen éticamente es fundamental cuando se utilizan IA y automatización en marketing. Los publicitarios deben ser vigilantes para evitar que los sistemas de IA perpetúen prejuicios, discriminación o manipulación. Los algoritmos de IA deben ser auditados regularmente en busca de imparcialidad y transparencia, y los mercadólogos deben ser responsables de cualquier consecuencia no intencionada resultante de la IA y la automatización.

Respeto a la autonomía del consumidor: Los publicistas deben respetar la autonomía de los consumidores y su derecho a tomar decisiones informadas. La IA y la automatización deben utilizarse para empoderar a los consumidores, no para manipularlos o engañarlos. Los mercadólogos deben evitar el uso de patrones oscuros, costos ocultos u otras tácticas engañosas que socaven la elección y el control del consumidor.

Personalización responsable: Si bien la personalización puede mejorar la experiencia del consumidor, debe hacerse de manera responsable. Los profesionales del marketing deben encontrar un equilibrio entre proporcionar contenido relevante y respetar la privacidad del consumidor. La personalización debe basarse en el consentimiento explícito y no debe usarse para explotar a individuos vulnerables o información personal sensible.

Responsabilidad y supervisión ética: Los publicistas deben ser responsables de sus acciones y del impacto de sus prácticas de marketing en los consumidores y la sociedad en general. Las asociaciones de la industria y los organismos reguladores deben establecer pautas éticas y mecanismos de supervisión para garantizar el cumplimiento de los principios de marketing responsable. Los mercadólogos también deben fomentar una cultura de toma de decisiones éticas dentro de sus organizaciones y proporcionar capacitación sobre prácticas de marketing responsables.

Responsabilidad social: El marketing responsable se extiende más allá de la protección del consumidor y abarca la responsabilidad social, el abastecimiento ético y la sostenibilidad. Los promotores de marca deben utilizar su influencia para promover un cambio social positivo, apoyar a sus comunidades y abordar desafíos globales. Esto incluye alinear las estrategias de marketing con organizaciones que comparten objetivos comunes y abogar por prácticas de consumo y producción responsables.

En conclusión, los profesionales del marketing, tienen el deber de mantener los principios del marketing responsable en la era de la IA y la automatización. Al priorizar la transparencia, la privacidad de los datos, la IA ética, la autonomía del consumidor, la personalización responsable, la responsabilidad y la responsabilidad social, asi es posible construir la confianza del consumidor y contribuir a un futuro más sostenible y equitativo. Esta responsabilidad colectiva es asegurar que el poder de la tecnología se aproveche en beneficio tanto de los consumidores como de la sociedad en su conjunto.

Llama 3 de Meta se ha entrenado con una cantidad récord de datos, lo que podría dar lugar a un replanteamiento de toda la industria de la IA y producir mejores modelos.

Schreiner, Maximilian. «Current LLMs “Undertrained by a Factor of Maybe 100-1000X or More” Says OpenAI Co-Founder». THE DECODER, 24 de abril de 2024. https://the-decoder.com/current-llms-undertrained-by-a-factor-of-maybe-100-1000x-or-more-says-openai-co-founder/.

El reciente lanzamiento del modelo de lenguaje Llama 3 por parte de Meta ha desencadenado una reflexión sobre el estado actual de los modelos de inteligencia artificial (IA). Este nuevo modelo, entrenado con una cantidad récord de datos, ha superado significativamente las capacidades de otros modelos en algunas áreas clave.

Según Meta, el aumento en el rendimiento se debe principalmente al considerable aumento en los datos de entrenamiento y al ajuste fino con 10 millones de ejemplos de alta calidad.

Mientras que ya se sabía que los datos de alta calidad pueden mejorar el rendimiento incluso de modelos de lenguaje más pequeños, la cantidad de datos utilizados para el preentrenamiento es sorprendente. Incluso el modelo de 8 mil millones de parámetros fue entrenado con alrededor de 15 billones de tokens. Esto no solo supera con creces la cantidad de datos utilizados para Llama 2, sino también la cantidad de datos considerada óptima según las leyes de escala de Chinchilla, desarrolladas por DeepMind.

Estas leyes establecen que, para un modelo de 8 mil millones de parámetros, alrededor de 200 mil millones de tokens de entrenamiento se consideran óptimos para utilizar eficientemente la potencia informática. Llama 3 fue entrenado con 75 veces esa cantidad de datos. A pesar de la enorme cantidad de datos de entrenamiento, Meta descubrió que los modelos de «8B y 70B de parámetros continuaron mejorando de manera logarítmica después de entrenarlos con hasta 15T de tokens», según una publicación en el blog de la compañía.

El investigador de IA Andrej Karpathy, miembro fundador de OpenAI y ex jefe de IA de Tesla, señala que esto podría sugerir que la mayoría de los modelos de lenguaje actualmente en uso «están significativamente subentrenados por un factor de tal vez 100-1000 veces o más, muy lejos de su punto de convergencia». Karpathy espera que otras empresas de IA sigan el ejemplo de Meta y lancen modelos más largos y entrenados, pero de menor tamaño.

Aunque aún no está claro hasta dónde se puede aumentar el rendimiento de un modelo de lenguaje a través de entrenamientos más largos antes de que las ganancias sean demasiado pequeñas, Meta ha demostrado que aún no se han alcanzado los límites de lo posible en este campo.