Archivo de la etiqueta: Tecnologías de la información

Uso e impacto de la Inteligencia Artificial en el proceso científico

Foresight: Use and Impact of Artificial Intelligence in the Scientific Process. European Research Council (ERC) , 2023

Texto completo

Este informe analiza cómo los investigadores del Consejo Europeo de Investigación (ERC) están utilizando la inteligencia artificial (IA), así como los posibles usos futuros de la IA en las prácticas científicas y académicas, junto con las oportunidades y riesgos potenciales asociados.

La inteligencia artificial (IA) se ha establecido como una herramienta ampliamente utilizada en diversos campos de investigación, gracias a su variedad de modelos y enfoques que van desde tareas específicas del dominio hasta aplicaciones transversales. Este informe ofrece una visión actual del uso de la IA en el proceso científico según los beneficiarios de subvenciones del Consejo Europeo de Investigación (ERC), así como una perspectiva orientada al futuro sobre posibles desarrollos, oportunidades y riesgos proyectados para 2030.

Una oportunidad futura destacada en la encuesta fue el uso de la IA para el análisis y procesamiento de datos, lo que podría acelerar significativamente aspectos específicos del proceso científico, como la síntesis de literatura, el descubrimiento de patrones y el diseño de experimentos.

Otra dirección clara resaltada fue la necesidad de directrices éticas que regulen el uso de la IA, abarcando áreas como la privacidad y protección de datos, equidad algorítmica y prevención del uso indebido. Esto se acompañó de preocupaciones sobre la falta de transparencia y posibles problemas con sistemas de IA intrusivos, manipuladores o discriminatorios.

Sin embargo, hubo cierto escepticismo respecto al grado en que los sistemas de IA pueden contribuir al descubrimiento científico para 2030, especialmente en escenarios que imaginan a la IA como un agente completamente autónomo. En cambio, la opinión predominante fue que la IA funciona como una herramienta o soporte para los investigadores humanos, enfatizando la colaboración en lugar de la sustitución o amenaza a las carreras científicas.

Las herramientas de IA generativa, especialmente los grandes modelos de lenguaje, recibieron comentarios positivos por su utilidad actual y futura cercana, particularmente en el manejo de tareas repetitivas o laboriosas como revisiones de literatura, generación de contenido (desde presentaciones hasta artículos) y mejora del acceso a documentos en diferentes idiomas. A pesar de ello, persisten preocupaciones sobre la difusión de información falsa o conocimiento científico inexacto, así como amenazas a la integridad de la investigación, notablemente en forma de plagio y representación incorrecta de fuentes.

Asociaciones y colaboraciones público-privadas en el contexto de la tecnología bibliotecaria

«Public-Private Partnerships and Collaborations in the Context of Library Technology (Pilot Study)«, DFFU, LIBER, 2024

Texto completo

La Asociación de Bibliotecas de Investigación Europeas (LIBER) y la Asociación Danesa de Bibliotecas de Investigación (DFFU) han publicado un informe conjunto sobre asociaciones y colaboraciones entre bibliotecas de investigación y proveedores de tecnología bibliotecaria, enfocándose en tecnologías nuevas e innovadoras.

El informe, titulado «Public-Private Partnerships and Collaborations in the Context of Library Technology (Pilot Study)», es resultado de un estudio cualitativo realizado por el Instituto Alexandra en Dinamarca entre octubre de 2023 y febrero de 2024. El estudio buscó responder dos preguntas clave:

  1. ¿Cuáles son las características de las asociaciones y colaboraciones actuales?
  2. ¿Cuál es el impacto de estas asociaciones y colaboraciones en las bibliotecas y sus servicios?

Basado en 10 entrevistas con representantes de bibliotecas de investigación danesas y 5 entrevistas con proveedores de tecnología, el informe describe las características de las colaboraciones actuales en Dinamarca. Los resultados indican una discrepancia general en la percepción de las colaboraciones entre bibliotecas y proveedores de tecnología. Los hallazgos y recomendaciones del estudio reflejan situaciones y desafíos relevantes para el panorama europeo de bibliotecas de investigación, ofreciendo orientación para futuras asociaciones y colaboraciones para los miembros de DFFU y LIBER.

El papel de las bibliotecas en la era de la inteligencia artificial (IA)


Alonso-Arévalo, Julio; Quinde-Cordero, Marlene. El papel de las bibliotecas en la era de la inteligencia artificial (IA). Boletín de la Asociación Andaluza de Bibliotecarios, n. 127, Enero-Junio 2024, pp. 27-37

Texto completo


La integración de la inteligencia artificial (IA) en las bibliotecas marca una evolución hacia “bibliotecas inteligentes”, adaptadas a las necesidades tecnológicas y educativas actuales. Estas instituciones están aprovechando la IA para mejorar la experiencia del usuario, ofreciendo desde recomendaciones personalizadas hasta servicios de búsqueda avanzada y gestión eficiente de datos. Sin embargo, este avance también plantea desafíos, como la privacidad de los datos y la fiabilidad de la información generada por IA. Las bibliotecas están liderando la alfabetización en IA, capacitando a sus usuarios para interactuar de manera responsable con esta tecnología y preparándolos para el mercado laboral digital del futuro. En este contexto, las bibliotecas continúan siendo cruciales como espacios de aprendizaje continuo y acceso equitativo al conocimiento en una sociedad cada vez más influenciada por la IA.

¿Cómo están usando los profesores la IA Generativa en el aula?

Ruediger, Dylan, et al. «Generative AI and Postsecondary Instructional Practices: Findings from a National Survey of Instructors.» Ithaka S+R
. Ithaka S+R. 20 June 2024. Web. 24 June 2024. https://doi.org/10.18665/sr.320892

Para obtener información sobre cómo están evolucionando las prácticas de enseñanza, Ithaka S+R realizó su encuesta trienal a profesores de educación superior, centrándose en la instrucción y con una sección dedicada específicamente a la IA generativa. Hoy publicamos los resultados de la encuesta, con respuestas de 2.654 instructores universitarios de una amplia variedad de disciplinas e instituciones—la mayor encuesta sobre este tema de la que tenemos conocimiento.

El informe proporciona una instantánea de las prácticas de enseñanza dos semestres después de la aparición dramática de la IA generativa, y ofrece evidencia convincente de que los instructores están explorando el uso de la IA generativa en gran número. También destaca la incertidumbre continua sobre cómo usar mejor esta tecnología. Nuestros hallazgos clave son:

  • La mayoría de los instructores tienen al menos un conocimiento superficial de las herramientas de IA generativa. Pero muchos, especialmente los instructores mayores, no confían en sus habilidades para usarlas con fines pedagógicos o en su valor en contextos educativos.
  • Una gran mayoría (72 por ciento) de los instructores ha experimentado con el uso de la IA generativa como herramienta de enseñanza. Sin embargo, aunque los instructores están utilizando la IA generativa de muchas maneras diferentes, ningún caso de uso individual se ha establecido particularmente bien.
  • La mayoría de los instructores desean algún tipo de apoyo institucional para ayudarlos a integrar la IA generativa en sus cursos. Pero solo una minoría busca algún servicio de apoyo específico, lo que probablemente crea un dilema para quienes invierten en proporcionar dichos servicios.
  • Muchos profesores, especialmente en las humanidades, aún prohíben el uso de la IA generativa por parte de los estudiantes.

Guía Ampliada sobre el uso de IA para autores, editores y revisores de Taylor & Francis

Robinson, Mark. «Taylor & Francis Issues Expanded Guidance on AI Application for Authors, Editors and Reviewers». Taylor & Francis Newsroom, 12 de junio de 2024. https://newsroom.taylorandfrancisgroup.com/expanded-guidance-on-ai-application-for-authors-editors-and-reviewers/.

A medida que el uso de inteligencia artificial (IA) generativa en la investigación y la escritura sigue evolucionando, Taylor & Francis ha emitido la última iteración de su política sobre la aplicación de herramientas de IA. La política tiene como objetivo promover el uso ético y transparente de la IA, al mismo tiempo que aborda los riesgos y desafíos que puede presentar para la publicación de investigaciones.

Las herramientas de IA generativa están proporcionando un apoyo positivo a los investigadores en áreas como la generación de ideas, la codificación, la mejora del lenguaje y la difusión de la investigación. Sin embargo, su uso también puede plantear riesgos serios para los trabajos académicos, incluyendo la introducción de inexactitudes, sesgos o falta de atribución, así como comprometer la confidencialidad y los derechos de propiedad intelectual.

Para apoyar la adopción responsable de las oportunidades de la IA y responder a preguntas comunes, Taylor & Francis ha lanzado una nueva política que describe las expectativas para autores, editores y revisores que utilizan herramientas de IA en su trabajo.

La guía para autores se basa en el principio de que ellos siguen siendo responsables de la originalidad, validez e integridad del contenido que envían a los editores. Cubre áreas como la atribución de autoría, el reconocimiento del uso de IA y las actividades para las cuales no se permite el uso de IA.

Se recuerda a los editores y revisores en la política sobre los riesgos que plantea el uso de IA para la precisión, la confidencialidad, los derechos de propiedad y los datos. Con esto en mente, la guía describe varias tareas para las cuales no se deben usar herramientas de IA, con el fin de mantener los estándares de calidad editorial y de revisión por pares.

La política se basa en el estado actual de la IA generativa y la ética de la investigación, y se espera que siga evolucionando a medida que la tecnología y la práctica se desarrollen. Taylor & Francis acoge con satisfacción las nuevas posibilidades ofrecidas por las herramientas de IA y anima a los investigadores a usarlas de manera responsable y de acuerdo con la nueva guía.

Avances y limitaciones de la inteligencia artificial: una mirada más profunda

«.. estos sistemas de inteligencia artificial son lo que podríamos llamar tecnologías culturales, como la escritura, la impresión, las bibliotecas, los motores de búsqueda de Internet o incluso el propio lenguaje. Son nuevas técnicas para transmitir información de un grupo de personas a otro.»

Gopnik, Alison. «What AI Still Doesn’t Know How to Do». Wall Street Journal, 15 de julio de 2022, sec. Life. https://www.wsj.com/articles/what-ai-still-doesnt-know-how-to-do-11657891316.

El artículo del Wall Street Journal «What AI Still Doesn’t Know How to Do» ofrece una visión interesante sobre las limitaciones actuales de la inteligencia artificial (IA), a pesar de los avances significativos en los últimos años. Si bien la IA ha demostrado ser una herramienta poderosa en áreas como el reconocimiento de imágenes, la traducción automática y el análisis de datos, aún existen importantes desafíos que deben abordarse antes de que pueda alcanzar un nivel verdaderamente comparable a la inteligencia humana.

Limitaciones clave de la IA:

Comprensión del lenguaje y las emociones humanas: La IA aún lucha por comprender las complejidades del lenguaje natural, incluyendo el sarcasmo, la ironía y las sutilezas emocionales. Esta dificultad limita su capacidad para interactuar de manera efectiva con los humanos en entornos sociales y para comprender plenamente las intenciones y motivaciones humanas.

Aprendizaje autónomo: La mayoría de los sistemas de IA actuales dependen de grandes cantidades de datos etiquetados para aprender y mejorar su rendimiento. Sin embargo, esta dependencia limita su capacidad para aprender de forma autónoma y adaptarse a nuevas situaciones sin intervención humana. Un verdadero sistema de IA debería poder aprender de forma continua y generalizar sus conocimientos a nuevos escenarios sin necesidad de instrucciones explícitas.

Creatividad genuina: La IA ha demostrado ser capaz de generar contenido creativo, como poemas o composiciones musicales, pero a menudo se limita a imitar estilos y patrones existentes. La creación de contenido verdaderamente original e innovador que refleje la comprensión profunda del mundo y la experiencia humana sigue siendo un desafío para la IA.

Interacción segura y confiable en el mundo real: La implementación de sistemas de IA en el mundo real, como en vehículos autónomos o robots quirúrgicos, requiere un alto nivel de seguridad y confiabilidad. La IA debe ser capaz de tomar decisiones acertadas en situaciones complejas e impredecibles, incluso en presencia de errores o información incompleta.

Conclusión:

A pesar de las limitaciones actuales, la IA sigue siendo una tecnología en rápida evolución con un enorme potencial para transformar diversos aspectos de nuestras vidas. Es importante reconocer las limitaciones de la IA para desarrollar sistemas más responsables y éticos, pero también debemos seguir explorando su potencial para resolver problemas complejos y mejorar nuestra comprensión del mundo que nos rodea.

Recursos adicionales:

  • Christian, Brian. The Alignment Problem: Machine Learning and Human Values. 1st edition. New York, NY: W. W. Norton & Company, 2020.
  • Artificial Intelligence: A Modern Approach
  • Tegmark, Max. Life 3.0: Being Human in the Age of Artificial Intelligence. First Edition. New York: Knopf, 2017.

Normas de Internet

European Commission, Joint Research Centre, Kouliaridis, V., Internet standards – IPv6 standard – An analysis of uptake in the EU – March 2024, Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2760/50109


La adopción del Protocolo de Internet versión 6 (IPv6), la siguiente versión del ampliamente utilizado IPv4, es clave para garantizar la interoperabilidad, escalabilidad, estabilidad y seguridad de Internet. Este informe ofrece una visión general del nivel actual de adopción del protocolo IPv6 en el primer trimestre de 2024 en los Estados miembros de la UE, en comparación con el estado de adopción mundial. El análisis utiliza un conjunto de fuentes de datos disponibles públicamente, así como datos recogidos a partir de nuestras propias mediciones, para estimar la tasa de adopción del IPv6 en dos dimensiones: (a) adopción por el usuario final, es decir, hosts de usuarios finales capaces de utilizar el IPv6 para conectarse a Internet, y (b) adopción por el servidor, es decir, servicios de Internet que pueden funcionar a través del IPv6.

Un Marco para la Alfabetización en Inteligencia Artificial

A Framework for AI Literacy. (2024.). EDUCAUSE Review. Recuperado 3 de junio de 2024, de https://er.educause.edu/articles/2024/6/a-framework-for-ai-literacy

Equipos académicos y tecnológicos en el Barnard College desarrollaron un marco de alfabetización en inteligencia artificial (IA) para proporcionar una base conceptual para la educación en IA y los esfuerzos de programación en contextos institucionales de educación superior.

El Barnard College es una universidad de artes liberales para mujeres y una institución distinguida dentro del amplio ecosistema de la Universidad de Columbia en la ciudad de Nueva York. Varios equipos campus, ágiles pero pequeños, están trabajando para avanzar en las conversaciones sobre temas de inteligencia artificial generativa (IA). Como miembros de los Servicios de Tecnología Académica y Multimedia Instruccional (IMATS) y el Centro de Pedagogía Comprometida (CEP), han desarrollado programas educativos sobre varios temas de IA para la comunidad de Barnard. Durante el último año, han realizado sesiones de laboratorio abiertas para probar diferentes herramientas de IA basadas en texto e imagen, han recibido oradores invitados sobre derechos de autor y uso justo, han facilitado talleres sobre declaraciones de programas de estudios generativos de IA para profesores, han realizado talleres de instrucción (GenAI 101) y han liderado sesiones de educación individualizadas para departamentos de profesores. Este proceso ha sido continuo e iterativo a medida que las herramientas cambian y las necesidades de los miembros de la comunidad del campus evolucionan. También han implementado encuestas internas, evaluaciones y mecanismos de retroalimentación para comprender mejor las necesidades del profesorado y el personal relacionadas con el uso de herramientas de IA generativas.

La necesidad de la Alfabetización en IA El Barnard College ha establecido varios grupos de trabajo y desarrollado tareas internas para discutir preguntas más grandes sobre el impacto de la IA en la institución. Actualmente, no hay un mandato o recomendación para que los profesores adopten o prohíban la IA en sus aulas. Sin embargo, se anima a los profesores a definir y discutir sus expectativas sobre el uso de la IA en sus tareas. (El CEP ha creado muchos recursos para profesores, incluidos árboles de decisiones para guiar la planificación de los profesores, declaraciones de programas de estudios de muestra, tareas que integran IA generativa y otros materiales, para ayudar a guiar la toma de decisiones sobre si y cómo incorporar IA generativa en el aula). Niveles más altos de alfabetización en IA pueden ayudar a los profesores a tomar decisiones informadas sobre el uso de IA en sus cursos y tareas. En cuanto a los servicios de tecnología académica, el equipo de IMATS ha decidido no implementar ni seguir tecnología de vigilancia de IA para monitorear la integridad académica debido al sesgo y la fiabilidad cuestionable de estas herramientas. Sin embargo, el panorama y las políticas correlativas podrían cambiar a medida que evolucionen las tecnologías de IA generativas.

Un Marco para la Alfabetización en IA


Un marco para la alfabetización en IA fue desarrollado por los miembros de IMATS y CEP para guiar el desarrollo y la expansión de la alfabetización en IA entre el profesorado, los estudiantes y el personal del Barnard College. El marco proporciona una estructura para aprender a utilizar la IA, incluyendo explicaciones de conceptos clave y preguntas a considerar al usarla. La estructura piramidal de cuatro partes fue adaptada del trabajo realizado por investigadores en la Universidad de Hong Kong y la Universidad de Ciencia y Tecnología de Hong Kong. El marco tiene como objetivo adaptarse al nivel actual de alfabetización en IA de las personas y se divide en cuatro niveles:

  • Comprender la IA
  • Usar y Aplicar la IA
  • Analizar y Evaluar la IA
  • Crear IA

Es importante tener en cuenta que la IA es un campo amplio con muchos tipos diferentes, y aunque este marco se centra en la IA generativa, puede aplicarse a otras formas de tecnología. Además, no es necesario dominar todos los conceptos de un nivel antes de pasar al siguiente. Por ejemplo, comprender cómo se entrenan los modelos de IA generativa puede ser útil para analizar su impacto en el mercado laboral, pero no es necesario entender todas las complejidades de las redes neuronales para hacerlo.

Nivel 1: Comprender la IA

La base de la pirámide abarca términos y conceptos básicos de IA. La mayor parte de la programación e instrucción en Barnard se ha centrado en los niveles uno y dos (comprender, usar y aplicar IA), ya que esta es una tecnología en rápida evolución y todavía hay mucha falta de familiaridad con ella.

Competencias Clave

  • Ser capaz de definir los términos «inteligencia artificial», «aprendizaje automático», «modelo de lenguaje grande» y «red neuronal»
  • Reconocer los beneficios y limitaciones de las herramientas de IA
  • Identificar y explicar las diferencias entre varios tipos de IA, definidos por sus capacidades y mecanismos computacionales

Conceptos Clave

  • Inteligencia artificial, aprendizaje automático, redes neuronales artificiales, modelos de lenguaje grande y modelos de difusión
  • Inteligencia artificial estrecha, inteligencia artificial general, inteligencia artificial super, máquinas reactivas, memoria limitada, teoría de la mente y autoconciencia
  • Herramientas de IA, como ChatGPT (ver figura 2), Siri, Alexa, Deep Blue y texto predictivo
  • Marcos técnicos relacionados con la IA (modelos de código abierto versus modelos cerrados, APIs y cómo se usan)

Preguntas de Reflexión

  • ¿Qué tipo de IA es esta?
  • ¿Qué tecnologías utiliza esta herramienta de IA?
  • ¿Para qué fue diseñada esta herramienta? ¿Qué tipo de información acepta como entrada y devuelve como respuesta (texto, video, audio, etc.)?
  • ¿Para qué podría ser particularmente útil esta herramienta?
  • ¿Para qué no sería útil?

Nivel 2: Usar y Aplicar la IA

El segundo nivel de fluidez en IA indica que los usuarios pueden utilizar herramientas como ChatGPT para lograr sus objetivos; estos usuarios están familiarizados con las técnicas de ingeniería de solicitudes y saben cómo refinar, iterar y editar colaborativamente con herramientas de IA generativa. La programación diseñada para desarrollar la fluidez en el nivel dos en el Barnard College incluye laboratorios prácticos y la ingeniería colaborativa de solicitudes en tiempo real.

Competencias Clave

  • Utilizar con éxito herramientas de IA generativa para obtener respuestas deseadas
  • Experimentar con técnicas de solicitud e iterar en el lenguaje de la solicitud para mejorar la salida generada por IA
  • Revisar el contenido generado por IA con miras a posibles «alucinaciones», razonamientos incorrectos y sesgos

Conceptos Clave

  • Ingeniería de solicitudes, ventanas de contexto, alucinaciones, sesgos, solicitud sin disparador y solicitud con disparador
  • Técnicas de solicitud para IA generativa basada en texto, como agregar especificidad, usar contexto y detalles, y pedir al modelo que considere pros y contras o evalúe posiciones alternativas
  • Consideraciones de privacidad, confidencialidad y derechos de autor para la información alimentada en las herramientas de solicitud

Preguntas de Reflexión

  • ¿Por qué una solicitud generó una respuesta particular?
  • ¿Cómo se podría ajustar la solicitud para obtener una respuesta diferente?
  • ¿Qué estrategias se pueden utilizar para reducir el sesgo y las alucinaciones?
  • ¿Cómo se puede verificar el sesgo y las alucinaciones en la salida de la IA?

Nivel 3: Analizar y Evaluar la IA

Analizar y evaluar la IA implica una comprensión meta más compleja de la IA generativa. En este nivel, los usuarios deben poder reflexionar críticamente sobre resultados, sesgos, ética y otros temas más allá de la ventana de solicitud. Un ejemplo de programación en este nivel es un evento que contó con la participación de un experto que discutió las actuales preguntas sobre derechos de autor y propiedad intelectual en torno a la IA y los impactos ambientales y climáticos que la IA generativa podría tener. Por supuesto, uno puede participar en conversaciones sobre estas preguntas e ideas sin conocer todas las definiciones de IA. Sin embargo, la familiaridad con los niveles anteriores en la pirámide informa la comprensión básica y el vocabulario del individuo, ayudando a comprender cómo se intersecta la IA con otros campos.

Competencias Clave

Examinar la IA en un contexto más amplio, incorporando conocimientos de la disciplina o intereses de uno Critique herramientas de IA y ofrezca argumentos a favor o en contra de su creación, uso y aplicación Analizar consideraciones éticas en el desarrollo e implementación de IA

Conceptos Clave

Perspectivas críticas sobre la IA (Los siguientes ejemplos no pretenden ser exhaustivos.) Sostenibilidad ambiental Trabajo Privacidad Derechos de autor Sesgo de raza, género, clase y otros Desinformación

Preguntas de Reflexión

¿Qué otras perspectivas o marcos podrían ser útiles para evaluar las implicaciones del uso de herramientas de IA generativa? ¿De dónde podrían venir los sesgos en la IA? ¿De qué manera el uso de herramientas de IA generativa se alinea o diverge de tus valores personales?

Nivel 4: Crear IA

En este nivel de fluidez en IA, los usuarios pueden interactuar con la IA a nivel de creador. Por ejemplo, los usuarios pueden construir sobre APIs abiertas para crear su propio LLM o aprovechar la IA para desarrollar nuevos sistemas. Actualmente, Barnard ofrece menos programación en el nivel cuatro que en los otros tres niveles, pero ha habido talleres en el Centro de Ciencias Computacionales que proporcionan instrucción técnica relacionada con la construcción de modelos de IA y aprendizaje automático. Es importante involucrar a las personas en todos los niveles de fluidez en IA.

Competencias Clave

Sintetizar el aprendizaje para conceptualizar o crear nuevas ideas, tecnologías o estructuras relacionadas con la IA. Alcanzar este nivel de alfabetización podría incluir lo siguiente: Concebir nuevos usos para la IA Construir software que aproveche la tecnología de IA Proponer teorías sobre la IA

Preguntas de Reflexión

¿Qué es único y humano acerca de tus ideas, tecnologías o estructuras? ¿Cómo podrían diferir de lo que podría crear una IA? ¿Qué características específicas de IA otorgan ventajas únicas a las ideas, tecnologías o estructuras?


Conclusion y Próximos Pasos

Si bien este marco de alfabetización en IA no es exhaustivo, proporciona una base conceptual para los esfuerzos de educación y programación en IA, especialmente en contextos institucionales de educación superior. La intención es mantener la neutralidad con respecto al uso de IA, reconociendo que la alfabetización tecnológica puede llevar a la decisión de no usarla. El impacto de la IA en la educación superior probablemente será significativo, afectando las admisiones, la investigación y los planes de estudio. La educación y la alfabetización básica son los primeros pasos para que una comunidad se involucre productivamente con esta tecnología en rápida evolución.

Existen muchos posibles próximos pasos que el Barnard College podría tomar relacionados con la IA generativa, pero específicamente en relación con el marco de alfabetización en IA, los equipos de IMATS y CEP pueden explorar «ascender» en la pirámide de alfabetización en la programación, los recursos y los eventos a medida que crece la conciencia y la alfabetización básica. Actualmente, la mayoría de nuestras ofertas se encuentran en los niveles uno y dos, pero esperamos cambiar nuestro enfoque de programación a los niveles dos y tres. Una encuesta reciente reveló que un número significativo de profesores y estudiantes aún nunca han usado IA generativa y tienen percepciones negativas sobre estas herramientas, por lo que nuestros equipos también están explorando formas de facilitar mejor el compromiso práctico y crítico.

Otro objetivo de la iniciativa de alfabetización en IA es resaltar el aspecto humano de estas tecnologías. Si bien el uso de IA generativa puede sentirse casi como alquimia, convirtiendo el texto simple en oro a través de tecnología de caja negra, está muy construido sobre el conocimiento humano, que tiene sus propios sesgos e inequidades. Usar una lente crítica al interactuar con la IA generativa puede ayudar a los usuarios a identificar sesgos existentes y evitar que los usuarios los agraven.

Enanos sin gigantes: arquitectura descentralizada y servicios de Internet

Musiani, Francesca. Nains sans géants : Architecture décentralisée et services Internet. Presses des Mines, 2015. https://directory.doabooks.org/handle/20.500.12854/85751

La descentralización está en el corazón del origen de internet, cuyo objetivo principal era permitir la comunicación entre máquinas heterogéneas y distantes sin pasar por un único punto central. Hoy en día, la concentración domina, alrededor de macro-actores, estos «gigantes» cuyas inmensas granjas de servidores manejan la mayor parte del tráfico web. Sin embargo, el principio original no ha sido completamente abandonado y, en todos los ámbitos de aplicación, los desarrolladores exploran alternativas descentralizadas. Estos «enanos» ofrecen motores de búsqueda, redes sociales, espacios de almacenamiento que distribuyen recursos y competencias entre los miembros de la red. Este libro explora las formas de organización descentralizadas de internet: muestra cómo una red que distribuye la responsabilidad de su funcionamiento en sus márgenes, organizándose según un modelo no – o débilmente – jerárquico, puede desarrollarse en el internet contemporáneo, tan fuertemente estructurado.

Un dispositivo así plantea cuestiones sobre la organización de los mercados, la eficiencia de las técnicas, la durabilidad de los modelos, así como la protección de la privacidad y los derechos sobre los datos personales. Como señala Geoffrey Bowker en su prefacio, este libro nos lleva a cuestionar la gobernanza de internet, y, para comprender esta cuestión sociotécnica clave de nuestro tiempo, debemos analizar las alternativas al funcionamiento actual. Precisamente eso hace, de manera detallada e informada, Enanos sin gigantes.

¿Cuánto ganan los CEO de las más grandes empresas tecnológicas ‘The Magnificent 7’?»

Mann, Ana Altchek, Jyoti. «The Magnificent 7 Companies Are Worth a Combined $14 Trillion — Here’s How Much Their CEOs Make». Business Insider. Accedido 22 de mayo de 2024. https://www.businessinsider.com/ceo-pay-apple-nvidia-microsoft-alphabet-meta-amazon-tesla-2024-5.

Las siete empresas conocidas como los «The Magnificent 7» —Microsoft, Apple, Nvidia, Alphabet, Amazon, Meta y Tesla— tienen un valor combinado de casi 14 billones de dólares según datos de Business Insider. Sus directores ejecutivos reciben sustanciosas compensaciones económicas.

Dirigir una de estas empresas de tecnología también implica recibir un paquete de compensación bastante sustancioso. Por ejemplo, el CEO* de Apple, Tim Cook, recibió una compensación total de 63.2 millones de dólares el año pasado, mientras que Andy Jassy de Amazon recibió aproximadamente 1.3 millones.

Business Insider examinó la compensación total de estos CEOs el año pasado a través de las declaraciones de proxy más recientes de la SEC.

Aquí te mostramos cuánto ganan, quién recibe más y un desglose de su salario:

Tim Cook, CEO de Apple: Su compensación total ascendió a 63.2 millones de dólares el año pasado, incluyendo salario base, premios de acciones e incentivos no patrimoniales.

Satya Nadella, CEO de Microsoft: Su compensación total fue de 48.5 millones de dólares, que incluye salario, acciones y otros beneficios.

Jensen Huang, CEO de Nvidia: Recibió un paquete de compensación de 34.2 millones de dólares, compuesto por premios en acciones, bonificaciones en efectivo y otros gastos.

Mark Zuckerberg, CEO de Meta: Con un salario base simbólico de 1$, su compensación total en 2023 fue de 24.4 millones de dólares.

Sundar Pichai, CEO de Alphabet: Su compensación en 2023 fue de 8.8 millones de dólares, principalmente por salario y seguridad personal.

Andy Jassy, CEO de Amazon: Su compensación fue de 1.3 millones de dólares., con salario y gastos de seguridad.

Elon Musk, CEO de Tesla: Su compensación en 2023 está en espera después de que un juez rechazara su paquete de remuneración de56 mil millones de dólares. Sin embargo, su riqueza proviene principalmente de su participación en Tesla y otras empresas.

*»CEO» significa «Chief Executive Officer» en inglés, que traducido al español sería «Director Ejecutivo» o «Director General». Es el título de la persona que ocupa el cargo más alto en una organización o empresa y que tiene la máxima autoridad en la toma de decisiones.