Archivo de la categoría: Tecnologías de la información

El sistema de gestión bibliotecaria EBSCO FOLIO implementado en más de 200 bibliotecas

FOLIO Library Services Platform (LSP)

Más de 200 bibliotecas a nivel mundial han implementado oficialmente la Plataforma de Servicios Bibliotecarios (LSP) FOLIO utilizando EBSCO FOLIO de EBSCO Information Services (EBSCO).

EBSCO FOLIO ofrece una opción de código abierto para bibliotecas de todos los tamaños, funciones y niveles de personal. EBSCO proporciona soluciones FOLIO que apoyan las necesidades de implementación y alojamiento de bibliotecas de investigación académica, consorcios, colegios y universidades medianas y pequeñas, y colegios comunitarios.

EBSCO introdujo su primera biblioteca FOLIO en 2019, y cinco años después, la plataforma sigue siendo líder en innovación. El compromiso de EBSCO con la innovación y el apoyo al cliente asegura que FOLIO continúe evolucionando y mejorando, adaptándose a las necesidades cambiantes de bibliotecas de diversas perspectivas globales y con variados tamaños y funciones. La arquitectura contemporánea de FOLIO garantiza una evolución continua y soporte para aplicaciones de proveedores externos.

En el centro de este logro están los equipos de migración de FOLIO de EBSCO, que proporcionan apoyo crucial a las bibliotecas que se trasladan a la plataforma de código abierto. Estos equipos, con su profundo entendimiento de la plataforma y las necesidades únicas de cada biblioteca, aseguran un proceso de implementación sin problemas, subrayando el valor de los servicios de EBSCO FOLIO en la implementación de FOLIO LSP.

El Vicepresidente Ejecutivo de Bases de Datos de Investigación y Servicios Bibliotecarios de EBSCO, Gar Sydnor, afirma: “Cualquier institución, especialmente aquellas con limitaciones de personal, debería poder aprovechar y experimentar los beneficios de la tecnología de código abierto. El nivel de apoyo de EBSCO FOLIO es verdaderamente personalizable y puede ser tan involucrado o ‘desapegado’ como la institución desee. Hemos adaptado nuestros servicios para satisfacer las necesidades y requisitos de diversas organizaciones, independientemente de su tamaño y función. La belleza de la naturaleza abierta de FOLIO es que puede funcionar para todos, y EBSCO FOLIO está disponible para quienes lo necesiten”.

Anya N. Arnold, Directora de Servicios de Consultoría de FOLIO en EBSCO Information Services, señala que EBSCO FOLIO adapta sus servicios para hacer que cada implementación sea única. “Cada biblioteca tiene flujos de trabajo y matices únicos; no deberían depender de servicios que los restrinjan a flujos de trabajo predefinidos. Las bibliotecas que deseen unirse a la ola de tecnología abierta deberían tener el apoyo para hacerlo. Los equipos de implementación de FOLIO de EBSCO están orgullosos de haber tenido la oportunidad de ayudar a más de 200 bibliotecas y sistemas bibliotecarios a unirse al movimiento de código abierto”.

Los sitios actuales de EBSCO FOLIO representan más de 200 bibliotecas, incluyendo bibliotecas de investigación académica, consorcios, sistemas compartidos, universidades de todos los tamaños, colegios comunitarios e instituciones públicas. Algunos sitios comparten el LSP de código abierto entre varias bibliotecas, como las Bibliotecas de la Universidad de Missouri que comparten FOLIO entre seis bibliotecas, GALILEO con 27 bibliotecas, y MOBIUS con 62 bibliotecas. Los consultores de Servicios FOLIO de EBSCO están ubicados en todo el mundo y proporcionan servicios en múltiples idiomas.

Además de la participación continua y el apoyo a la comunidad FOLIO, EBSCO participa activamente en otras iniciativas abiertas, como la Open Library Foundation (OLF) y su reciente iniciativa de intercambio de recursos, la Open Resource Sharing Coalition (OpenRS). Esta semana, EBSCO implementó el primer miembro consorcial, MOBIUS, con FOLIO y OpenRS. Esta iniciativa creará más posibilidades para desarrollar y mejorar servicios adicionales de código abierto para consorcios.

Spawning AI: cómo evitar que nuestros contenidos sirvan para el entrenamiento de plataformas de Inteligencia Artificial

Spawning AI: https://spawning.ai/

Blog: https://spawning.ai/

Spawning AI trabaja para equilibrar los intereses de los creadores de contenido y los desarrolladores de IA, promoviendo un uso ético y consentido de los datos en la era de la inteligencia artificial. Spawning ofrece un conjunto de herramientas que facilita la declaración de las preferencias de datos y su respeto

Spawning AI es una organización que se dedica a la gobernanza de datos para la inteligencia artificial generativa. Han creado una herramienta llamada “Do Not Train Tool Suite” («No entrenar»), que permite a los titulares de derechos añadir sus medios de comunicación al “Do Not Train Registry” y así evitar que sus obras sean utilizadas para entrenar modelos de IA sin su consentimiento. Este registro es respetado por socios como Stability AI y Hugging Face.

El término “Spawning” lo acuñaron para describir el acto de crear medios completamente nuevos con un sistema de IA entrenado en medios más antiguos. Es una forma de distinguir este proceso de técnicas más antiguas como el muestreo o el collage. Spawning AI también proporciona herramientas para desarrolladores, facilitando el filtrado de solicitudes de no entrenamiento y ayudando a cumplir con las excepciones de derechos de autor de TDM de la UE1.

Spawning ofrece un conjunto de herramientas que facilita la declaración de las preferencias de datos y su respeto. Este conjunto de herramientas incluye:

  • Una API para que los titulares de derechos puedan registrar sus datos en el «Do Not Train Registry».
  • Una extensión del navegador para que los usuarios puedan marcar fácilmente el contenido que no desean que se utilice para entrenar modelos de IA.
  • Una herramienta de línea de comandos para que los desarrolladores de IA puedan integrar el «Do Not Train Registry» en sus flujos de trabajo.

Spawning AI está trabajando para garantizar que la inteligencia artificial generativa se desarrolle y utilice de manera responsable y ética. La empresa cree que es importante que los titulares de derechos tengan el control sobre sus datos y que los desarrolladores de IA sean conscientes de las posibles consecuencias de sus modelos.

Avances y limitaciones de la inteligencia artificial: una mirada más profunda

«.. estos sistemas de inteligencia artificial son lo que podríamos llamar tecnologías culturales, como la escritura, la impresión, las bibliotecas, los motores de búsqueda de Internet o incluso el propio lenguaje. Son nuevas técnicas para transmitir información de un grupo de personas a otro.»

Gopnik, Alison. «What AI Still Doesn’t Know How to Do». Wall Street Journal, 15 de julio de 2022, sec. Life. https://www.wsj.com/articles/what-ai-still-doesnt-know-how-to-do-11657891316.

El artículo del Wall Street Journal «What AI Still Doesn’t Know How to Do» ofrece una visión interesante sobre las limitaciones actuales de la inteligencia artificial (IA), a pesar de los avances significativos en los últimos años. Si bien la IA ha demostrado ser una herramienta poderosa en áreas como el reconocimiento de imágenes, la traducción automática y el análisis de datos, aún existen importantes desafíos que deben abordarse antes de que pueda alcanzar un nivel verdaderamente comparable a la inteligencia humana.

Limitaciones clave de la IA:

Comprensión del lenguaje y las emociones humanas: La IA aún lucha por comprender las complejidades del lenguaje natural, incluyendo el sarcasmo, la ironía y las sutilezas emocionales. Esta dificultad limita su capacidad para interactuar de manera efectiva con los humanos en entornos sociales y para comprender plenamente las intenciones y motivaciones humanas.

Aprendizaje autónomo: La mayoría de los sistemas de IA actuales dependen de grandes cantidades de datos etiquetados para aprender y mejorar su rendimiento. Sin embargo, esta dependencia limita su capacidad para aprender de forma autónoma y adaptarse a nuevas situaciones sin intervención humana. Un verdadero sistema de IA debería poder aprender de forma continua y generalizar sus conocimientos a nuevos escenarios sin necesidad de instrucciones explícitas.

Creatividad genuina: La IA ha demostrado ser capaz de generar contenido creativo, como poemas o composiciones musicales, pero a menudo se limita a imitar estilos y patrones existentes. La creación de contenido verdaderamente original e innovador que refleje la comprensión profunda del mundo y la experiencia humana sigue siendo un desafío para la IA.

Interacción segura y confiable en el mundo real: La implementación de sistemas de IA en el mundo real, como en vehículos autónomos o robots quirúrgicos, requiere un alto nivel de seguridad y confiabilidad. La IA debe ser capaz de tomar decisiones acertadas en situaciones complejas e impredecibles, incluso en presencia de errores o información incompleta.

Conclusión:

A pesar de las limitaciones actuales, la IA sigue siendo una tecnología en rápida evolución con un enorme potencial para transformar diversos aspectos de nuestras vidas. Es importante reconocer las limitaciones de la IA para desarrollar sistemas más responsables y éticos, pero también debemos seguir explorando su potencial para resolver problemas complejos y mejorar nuestra comprensión del mundo que nos rodea.

Recursos adicionales:

  • Christian, Brian. The Alignment Problem: Machine Learning and Human Values. 1st edition. New York, NY: W. W. Norton & Company, 2020.
  • Artificial Intelligence: A Modern Approach
  • Tegmark, Max. Life 3.0: Being Human in the Age of Artificial Intelligence. First Edition. New York: Knopf, 2017.

Expertos Imaginan el Impacto de la Inteligencia Artificial para el 2040: ¿un nuevo siglo de las luces? o ¿una nueva amenaza para la humanidad?

Imagining the Digital Future Center. «A New Age of Enlightenment? A New Threat to Humanity?: The Impact of Artificial Intelligence by 2040». Accedido 6 de junio de 2024. https://imaginingthedigitalfuture.org/reports-and-publications/the-impact-of-artificial-intelligence-by-2040/.

Expertos proyectan el Impacto de la Inteligencia Artificial para el 2040. Afirman que tendremos que replantearnos qué significa ser humano y reinventar o reemplazar importantes instituciones.

El estudio realizado por el Centro de Imaginar el Futuro Digital de la Universidad Elon revela una amplia gama de opiniones sobre cómo serán y cómo afectarán las herramientas digitales que cambian la vida, especialmente la inteligencia artificial (IA), a la vida y a las sociedades. Los expertos mundiales y los analistas consultados expresan tanto preocupaciones como expectativas sobre el impacto de la IA en diversos aspectos de la vida, desde la privacidad y las desigualdades económicas hasta la calidad de las relaciones personales y la estructura política. Teniendo en cuenta los probables cambios creados por la proliferación de la IA en la vida cotidiana de las personas y en los sistemas sociales, económicos y políticos de la sociedad, ¿cómo habrá cambiado la vida en 2040? ¿Qué le parece más significativo? ¿Por qué? ¿Qué es más probable que se gane y se pierda en los próximos 15 años?

El informe se centra únicamente en las opiniones de los expertos mundiales. En total, 328 expertos respondieron al menos a un aspecto del sondeo, de los cuales 251 contestaron al menos a una pregunta de opción múltiple y 166 respondieron por escrito a la pregunta abierta clave. Se les pidió que respondieran a preguntas cuantitativas sobre 25 aspectos de la vida.

Tanto en el sondeo como en la encuesta se preguntó a los encuestados sobre aspectos clave de la vida y el impacto potencial de la IA en ellos. Se les preguntó si pensaban que el efecto sería más positivo o más negativo en una serie de ámbitos. También se invitó a los expertos a escribir respuestas abiertas sobre las ganancias y pérdidas individuales y sociales debidas al impacto de la IA en 2040.

Más del 50% afirmó que le preocupa que el impacto de los usos de la IA en la privacidad de las personas, las desigualdades de riqueza, la política y las elecciones, las guerras, los derechos humanos básicos y el nivel de civismo en la sociedad sea mucho más negativo o algo más negativo que positivo de aquí a 2040. La mayoría de los expertos también se mostraron más preocupados que negativos por el futuro impacto de la IA en las relaciones de las personas con los demás, sus oportunidades de empleo y los sistemas de justicia penal.

En el lado positivo, más del 50% afirmó que espera que los usos de la IA sean mucho más positivos o algo más positivos que negativos en 2040, y que tengan un efecto mayoritariamente beneficioso en los sistemas sanitarios y de transporte, en las tareas laborales cotidianas de las personas, en la compra de bienes y servicios, en el rendimiento general de la economía y en la protección del medio ambiente y la sostenibilidad. Muchos esperan un futuro ligeramente más positivo que negativo para los sistemas de educación formal desde el nivel K-12 hasta la educación superior, la calidad de vida en las ciudades y el acceso al conocimiento de fuentes precisas.

Tema 1 – Tendremos que reimaginar lo que significa ser humano

A medida que las herramientas de IA se integren en la mayoría de los aspectos de la vida, algunos expertos predicen que la propia definición de «humano», «persona» o «individuo» cambiará. Entre las cuestiones que abordan: ¿Qué ocurrirá cuando empecemos a contar con las IA como equivalentes -o mejores- que las personas? ¿Cómo reaccionaremos cuando las tecnologías nos ayuden, nos eduquen y quizá compartan una carcajada con nosotros? ¿Surgirá una simbiosis entre humanos e IA que se convierta en una asociación agradable? ¿Se convertirá la IA en parte de nuestra conciencia?

Tema 2 – Las sociedades deben reestructurar, reinventar o sustituir sistemas arraigados

Estos expertos instan a las sociedades a cambiar fundamentalmente las instituciones y los sistemas establecidos desde hace tiempo: políticos, económicos, sociales, digitales y físicos. Creen que debe avanzarse hacia una distribución más equitativa de la riqueza y el poder. También sostienen que la expansión de la IA requiere una nueva gobernanza multilateral de diversos sectores de la sociedad.

Tema 3 – La IA podría debilitar enormemente a la humanidad

Una parte de estos expertos se centró en las formas en que el uso que la gente hace de la IA podría disminuir la capacidad y las habilidades humanas. A algunos les preocupa que casi elimine el pensamiento crítico, la capacidad de lectura y de toma de decisiones, así como la conexión sana y en persona, y que provoque más problemas de salud mental. Algunos dijeron que temen el impacto del desempleo masivo en la psique y el comportamiento de las personas debido a la pérdida de identidad, estructura y propósito. Algunos advirtieron de que estos factores, combinados con un agravamiento de las desigualdades, podrían desencadenar la violencia.

Tema 4 – No hay que temer a la tecnología; las personas son el problema y la solución

Una gran parte de estos expertos dicen que su primera preocupación no es que la IA «se vuelva rebelde». Lo que más les preocupa es que la IA avanzada aumente significativamente los peligros que ya son evidentes hoy en día debido al uso y abuso que la gente hace de las herramientas digitales. Temen que aumenten los problemas relacionados con el capitalismo extractivo, las tácticas amenazadoras y manipuladoras de los malos actores y las violaciones de los derechos humanos por parte de gobiernos autocráticos.

Tema 5 – Surgirán beneficios clave de la IA

Aunque la mayoría de estos expertos se refirieron principalmente a los retos que plantea la IA, muchos describieron los posibles beneficios que se obtendrán a medida que la IA se difunda en la sociedad. Esperan que la mayoría de la gente disfrute y se beneficie de la ayuda de la IA en todos los sectores, especialmente en la educación, la empresa, la investigación y la medicina/salud. Esperan que impulse la innovación y reconfigure y libere el uso del tiempo de las personas. A continuación se presentan extractos de expertos que compartieron sus optimistas predicciones para 2040.

Varios de los expertos que respondieron se centraron en las implicaciones de la IA para las cuestiones de más alto nivel que nuestra especie puede plantearse. Por ejemplo, Stephan Abram, director de Lighthouse Consulting, escribió: «La mejor consecuencia de la IA… es que debería inspirar un debate más profundo sobre lo que significa ser humano. Las grandes obras de la filosofía, la sociología, la etnografía, la psicología, etc., deben ponerse al frente del debate sobre la IA. … Para 2040, el mundo debería haber entablado un debate riguroso y haber desarrollado un marco para los límites y principios de la IA:

¿Qué significa «primero, no hacer daño» en el nuevo contexto?
¿Qué es el alma?
¿Qué es la cognición?
¿Qué es la identidad? …
¿Qué es la emoción? ¿Cómo influye la inteligencia emocional en la evolución de la IA? …
¿Cuál es la contribución humana a la perspicacia, la creatividad, la innovación, la invención, el filtrado, etc.?».

En conclusión: la mayoría de los expertos también expresaron preocupaciones sobre el futuro impacto de la IA en las relaciones interpersonales, las oportunidades laborales y los sistemas de justicia penal. A pesar de las preocupaciones, muchos expertos también anticipan que la IA tendrá un impacto mayormente positivo en áreas como la salud, el transporte, la economía y la protección ambiental. Los expertos enfatizan la necesidad de repensar lo que significa ser humano y de reestructurar las instituciones existentes para adaptarse a la creciente influencia de la IA.

Alfabetización en IA y sus Implicaciones para Estrategias de Ingeniería de Prompts

Knoth, Nils, Antonia Tolzin, Andreas Janson, y Jan Marco Leimeister. «AI literacy and its implications for prompt engineering strategies». Computers and Education: Artificial Intelligence 6 (1 de junio de 2024): 100225. https://doi.org/10.1016/j.caeai.2024.100225.

Las tecnologías de inteligencia artificial (IA) están avanzando rápidamente. Los grandes modelos de lenguaje (LLM) se están utilizando cada vez más en la interacción humana con sistemas basados en IA, lo que presenta nuevas oportunidades y desafíos.

La alfabetización en IA son los conocimientos y habilidades que permiten a los seres humanos comprender, utilizar y evaluar de forma crítica los sistemas y herramientas de IA para participar de forma segura y ética en un mundo cada vez más digital.

La ingeniería de prompts ha surgido como una habilidad esencial para formular instrucciones precisas y bien estructuradas que permitan obtener respuestas deseadas de los LLM, optimizando la efectividad de la interacción. Sin embargo, falta investigación sobre cómo los no expertos utilizan los sistemas de IA basados en LLM a través de la ingeniería de prompts y cómo la alfabetización en IA afecta este comportamiento. Esto es crucial en el contexto de la educación superior.

Este estudio aborda esta cuestión, introduce un enfoque basado en habilidades para la ingeniería de prompts y considera explícitamente el papel de la alfabetización en IA de los no expertos (estudiantes) en sus habilidades de ingeniería de prompts. Los resultados muestran que mejores habilidades en ingeniería de prompts predicen la calidad del output de los LLM, sugiriendo que esta habilidad es necesaria para el uso efectivo de herramientas de IA generativa. Además, ciertos aspectos de la alfabetización en IA pueden mejorar la calidad de la ingeniería de prompts y la adaptación dirigida de los LLM en la educación. Por lo tanto, se argumenta a favor de integrar contenido educativo sobre IA en los planes de estudio actuales para habilitar una sociedad inteligente híbrida donde los estudiantes puedan usar herramientas de IA generativa como ChatGPT de manera efectiva.

Normas de Internet

European Commission, Joint Research Centre, Kouliaridis, V., Internet standards – IPv6 standard – An analysis of uptake in the EU – March 2024, Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2760/50109


La adopción del Protocolo de Internet versión 6 (IPv6), la siguiente versión del ampliamente utilizado IPv4, es clave para garantizar la interoperabilidad, escalabilidad, estabilidad y seguridad de Internet. Este informe ofrece una visión general del nivel actual de adopción del protocolo IPv6 en el primer trimestre de 2024 en los Estados miembros de la UE, en comparación con el estado de adopción mundial. El análisis utiliza un conjunto de fuentes de datos disponibles públicamente, así como datos recogidos a partir de nuestras propias mediciones, para estimar la tasa de adopción del IPv6 en dos dimensiones: (a) adopción por el usuario final, es decir, hosts de usuarios finales capaces de utilizar el IPv6 para conectarse a Internet, y (b) adopción por el servidor, es decir, servicios de Internet que pueden funcionar a través del IPv6.

¿Qué dice la ley sobre a quién pertenecen los derechos de autor de los contenidos generados por IA?

Farnush Ghadery. «ChatGPT: What the Law Says About Who Owns the Copyright of AI-Generated Content.» The Conversation, April 21, 2023. https://theconversation.com/chatgpt-what-the-law-says-about-who-owns-the-copyright-of-ai-generated-content-200597.


El chatbot de IA ChatGPT produce contenido que puede parecer creado por un humano. Existen muchos usos propuestos para esta tecnología, pero sus impresionantes capacidades plantean importantes preguntas sobre la propiedad del contenido.

La legislación del Reino Unido tiene una definición para las obras generadas por computadora. Según la Ley de Derechos de Autor, Diseños y Patentes de 1988, estas son “generadas por computadora en circunstancias tales que no hay un autor humano de la obra”. La ley sugiere que el contenido generado por una inteligencia artificial (IA) puede estar protegido por derechos de autor. Sin embargo, las fuentes originales de las respuestas generadas por chatbots de IA pueden ser difíciles de rastrear e incluir obras con derechos de autor.

La primera pregunta es si ChatGPT debería poder usar contenido original generado por terceros para generar sus respuestas. La segunda es si solo los humanos pueden ser acreditados como autores del contenido generado por IA, o si la IA misma puede ser considerada un autor, especialmente cuando ese output es creativo.

Tratemos primero la pregunta uno. La tecnología que sustenta a ChatGPT se conoce como un Modelo de Lenguaje Extenso (LLM, por sus siglas en inglés). Para mejorar en lo que hace, se expone a grandes conjuntos de datos, que incluyen un gran número de sitios web y libros.

Actualmente, el Reino Unido permite a los desarrolladores de IA llevar a cabo minería de texto y datos (TDM) solo para fines no comerciales. Los términos de uso de OpenAI asignan a los usuarios «todos sus derechos, títulos e intereses en el output».

Pero la empresa dice que es responsabilidad de los usuarios asegurarse de que la forma en que utilizan ese contenido no viole ninguna ley. Los términos y condiciones también están sujetos a cambios, por lo que no tienen la estabilidad y la fuerza de un derecho legal como el copyright.

La única solución será clarificar las leyes y políticas. De lo contrario, cada organización tendrá que emprender acciones legales individualmente, tratando de demostrar que son dueños de las obras utilizadas por una IA. Además, si los gobiernos no toman medidas, nos acercamos a una situación en la que todos los materiales con derechos de autor serán utilizados por otros sin el consentimiento del autor original.

Cuestión de propiedad Pasemos a la pregunta dos: quién puede reclamar derechos de autor sobre el contenido generado por IA. En ausencia de una reclamación por parte del propietario del contenido original utilizado para generar una respuesta, es posible que los derechos de autor del output de un chatbot puedan pertenecer a los usuarios individuales o a las empresas que desarrollaron la IA.

La ley de derechos de autor se basa en un principio general de que solo el contenido creado por seres humanos puede estar protegido. Los algoritmos que sustentan a ChatGPT fueron desarrollados en OpenAI, por lo que la empresa parecería tener la protección de derechos de autor sobre esos algoritmos. Pero esto podría no extenderse a las respuestas del chatbot.

Otra opción respecto a la propiedad del contenido generado por IA es la propia IA. La ley del Reino Unido actualmente prohíbe que una IA posea derechos de autor (o incluso reconozca que una IA lo creó), ya que no es un humano y, por lo tanto, no puede ser tratada como autor o propietario según la Ley de Derechos de Autor, Diseños y Patentes. También es poco probable que esta posición cambie pronto, dada la respuesta del gobierno del Reino Unido a la consulta sobre IA.

Cuando una obra literaria, dramática, musical o artística es realizada por un empleado en el curso de su empleo, su empleador es el primer propietario de cualquier derecho de autor sobre la obra, salvo acuerdo en contrario.

Por ahora, los legisladores se adhieren a la creatividad humana como el prisma a través del cual se concede el copyright. Sin embargo, a medida que la IA se desarrolla y puede hacer más, los legisladores podrían considerar otorgar capacidad legal a las IA mismas. Esto representaría un cambio fundamental en cómo opera la ley de derechos de autor y una reimaginación de quién (o qué) puede ser clasificado como autor y propietario de derechos de autor.

Un cambio así tendría implicaciones para las empresas a medida que integran la IA en sus productos y servicios. Microsoft anunció recientemente que integrará su producto Copilot, basado en ChatGPT, en el software de la compañía, como Word, PowerPoint y Excel. Copilot puede ayudar a los usuarios con la comunicación escrita y resumir grandes volúmenes de datos.

Seguramente seguirán más desarrollos como este, y las empresas que adopten la IA temprano tienen la oportunidad de capitalizar la situación actual, utilizando la IA para aumentar la eficiencia de sus operaciones. Las empresas a menudo obtienen una ventaja cuando son las primeras en introducir un producto o servicio en el mercado, una situación llamada «ventaja del pionero».

Futuros cambios El gobierno del Reino Unido llevó a cabo recientemente una consulta sobre IA y derechos de autor. Surgieron dos puntos de vista conflictivos. El sector tecnológico cree que los derechos de autor del contenido generado por IA deberían pertenecer a los usuarios, mientras que el sector creativo quiere que este contenido sea excluido de la propiedad por completo. El gobierno del Reino Unido no ha actuado sobre los resultados y en su lugar ha recomendado una consulta adicional entre las partes interesadas.

Si la ley de derechos de autor se aleja de su enfoque humano en el futuro, se podría imaginar un escenario en el que una IA sea clasificada como autor y los desarrolladores de esa IA como los propietarios del output. Esto podría crear una situación en la que un puñado de empresas poderosas de IA ejerzan una influencia colosal.

Podrían terminar poseyendo cientos de miles de materiales con derechos de autor: canciones, materiales publicados, visuales y otros activos digitales. Esto podría llevar a una situación distópica en la que la mayoría de las obras recién creadas sean generadas por IA y propiedad de empresas.

Parece lógico que tal conocimiento debería permanecer en el dominio público. Tal vez la solución sea que cada persona o empresa declare su contribución cuando usan IA, o que su contribución sea calculada automáticamente por software. En consecuencia, recibirían crédito o beneficio financiero basado en la cantidad de trabajo que contribuyeron.

El contenido de IA que se basa en materiales con derechos de autor sigue siendo problemático. La incapacidad de depender de materiales con derechos de autor podría socavar la capacidad del sistema de IA para responder a las solicitudes de los usuarios finales. Pero si el contenido se basa en obras protegidas, tendríamos que aceptar una nueva era de innovación abierta donde los derechos de propiedad intelectual no importan.

Un Marco para la Alfabetización en Inteligencia Artificial

A Framework for AI Literacy. (2024.). EDUCAUSE Review. Recuperado 3 de junio de 2024, de https://er.educause.edu/articles/2024/6/a-framework-for-ai-literacy

Equipos académicos y tecnológicos en el Barnard College desarrollaron un marco de alfabetización en inteligencia artificial (IA) para proporcionar una base conceptual para la educación en IA y los esfuerzos de programación en contextos institucionales de educación superior.

El Barnard College es una universidad de artes liberales para mujeres y una institución distinguida dentro del amplio ecosistema de la Universidad de Columbia en la ciudad de Nueva York. Varios equipos campus, ágiles pero pequeños, están trabajando para avanzar en las conversaciones sobre temas de inteligencia artificial generativa (IA). Como miembros de los Servicios de Tecnología Académica y Multimedia Instruccional (IMATS) y el Centro de Pedagogía Comprometida (CEP), han desarrollado programas educativos sobre varios temas de IA para la comunidad de Barnard. Durante el último año, han realizado sesiones de laboratorio abiertas para probar diferentes herramientas de IA basadas en texto e imagen, han recibido oradores invitados sobre derechos de autor y uso justo, han facilitado talleres sobre declaraciones de programas de estudios generativos de IA para profesores, han realizado talleres de instrucción (GenAI 101) y han liderado sesiones de educación individualizadas para departamentos de profesores. Este proceso ha sido continuo e iterativo a medida que las herramientas cambian y las necesidades de los miembros de la comunidad del campus evolucionan. También han implementado encuestas internas, evaluaciones y mecanismos de retroalimentación para comprender mejor las necesidades del profesorado y el personal relacionadas con el uso de herramientas de IA generativas.

La necesidad de la Alfabetización en IA El Barnard College ha establecido varios grupos de trabajo y desarrollado tareas internas para discutir preguntas más grandes sobre el impacto de la IA en la institución. Actualmente, no hay un mandato o recomendación para que los profesores adopten o prohíban la IA en sus aulas. Sin embargo, se anima a los profesores a definir y discutir sus expectativas sobre el uso de la IA en sus tareas. (El CEP ha creado muchos recursos para profesores, incluidos árboles de decisiones para guiar la planificación de los profesores, declaraciones de programas de estudios de muestra, tareas que integran IA generativa y otros materiales, para ayudar a guiar la toma de decisiones sobre si y cómo incorporar IA generativa en el aula). Niveles más altos de alfabetización en IA pueden ayudar a los profesores a tomar decisiones informadas sobre el uso de IA en sus cursos y tareas. En cuanto a los servicios de tecnología académica, el equipo de IMATS ha decidido no implementar ni seguir tecnología de vigilancia de IA para monitorear la integridad académica debido al sesgo y la fiabilidad cuestionable de estas herramientas. Sin embargo, el panorama y las políticas correlativas podrían cambiar a medida que evolucionen las tecnologías de IA generativas.

Un Marco para la Alfabetización en IA


Un marco para la alfabetización en IA fue desarrollado por los miembros de IMATS y CEP para guiar el desarrollo y la expansión de la alfabetización en IA entre el profesorado, los estudiantes y el personal del Barnard College. El marco proporciona una estructura para aprender a utilizar la IA, incluyendo explicaciones de conceptos clave y preguntas a considerar al usarla. La estructura piramidal de cuatro partes fue adaptada del trabajo realizado por investigadores en la Universidad de Hong Kong y la Universidad de Ciencia y Tecnología de Hong Kong. El marco tiene como objetivo adaptarse al nivel actual de alfabetización en IA de las personas y se divide en cuatro niveles:

  • Comprender la IA
  • Usar y Aplicar la IA
  • Analizar y Evaluar la IA
  • Crear IA

Es importante tener en cuenta que la IA es un campo amplio con muchos tipos diferentes, y aunque este marco se centra en la IA generativa, puede aplicarse a otras formas de tecnología. Además, no es necesario dominar todos los conceptos de un nivel antes de pasar al siguiente. Por ejemplo, comprender cómo se entrenan los modelos de IA generativa puede ser útil para analizar su impacto en el mercado laboral, pero no es necesario entender todas las complejidades de las redes neuronales para hacerlo.

Nivel 1: Comprender la IA

La base de la pirámide abarca términos y conceptos básicos de IA. La mayor parte de la programación e instrucción en Barnard se ha centrado en los niveles uno y dos (comprender, usar y aplicar IA), ya que esta es una tecnología en rápida evolución y todavía hay mucha falta de familiaridad con ella.

Competencias Clave

  • Ser capaz de definir los términos «inteligencia artificial», «aprendizaje automático», «modelo de lenguaje grande» y «red neuronal»
  • Reconocer los beneficios y limitaciones de las herramientas de IA
  • Identificar y explicar las diferencias entre varios tipos de IA, definidos por sus capacidades y mecanismos computacionales

Conceptos Clave

  • Inteligencia artificial, aprendizaje automático, redes neuronales artificiales, modelos de lenguaje grande y modelos de difusión
  • Inteligencia artificial estrecha, inteligencia artificial general, inteligencia artificial super, máquinas reactivas, memoria limitada, teoría de la mente y autoconciencia
  • Herramientas de IA, como ChatGPT (ver figura 2), Siri, Alexa, Deep Blue y texto predictivo
  • Marcos técnicos relacionados con la IA (modelos de código abierto versus modelos cerrados, APIs y cómo se usan)

Preguntas de Reflexión

  • ¿Qué tipo de IA es esta?
  • ¿Qué tecnologías utiliza esta herramienta de IA?
  • ¿Para qué fue diseñada esta herramienta? ¿Qué tipo de información acepta como entrada y devuelve como respuesta (texto, video, audio, etc.)?
  • ¿Para qué podría ser particularmente útil esta herramienta?
  • ¿Para qué no sería útil?

Nivel 2: Usar y Aplicar la IA

El segundo nivel de fluidez en IA indica que los usuarios pueden utilizar herramientas como ChatGPT para lograr sus objetivos; estos usuarios están familiarizados con las técnicas de ingeniería de solicitudes y saben cómo refinar, iterar y editar colaborativamente con herramientas de IA generativa. La programación diseñada para desarrollar la fluidez en el nivel dos en el Barnard College incluye laboratorios prácticos y la ingeniería colaborativa de solicitudes en tiempo real.

Competencias Clave

  • Utilizar con éxito herramientas de IA generativa para obtener respuestas deseadas
  • Experimentar con técnicas de solicitud e iterar en el lenguaje de la solicitud para mejorar la salida generada por IA
  • Revisar el contenido generado por IA con miras a posibles «alucinaciones», razonamientos incorrectos y sesgos

Conceptos Clave

  • Ingeniería de solicitudes, ventanas de contexto, alucinaciones, sesgos, solicitud sin disparador y solicitud con disparador
  • Técnicas de solicitud para IA generativa basada en texto, como agregar especificidad, usar contexto y detalles, y pedir al modelo que considere pros y contras o evalúe posiciones alternativas
  • Consideraciones de privacidad, confidencialidad y derechos de autor para la información alimentada en las herramientas de solicitud

Preguntas de Reflexión

  • ¿Por qué una solicitud generó una respuesta particular?
  • ¿Cómo se podría ajustar la solicitud para obtener una respuesta diferente?
  • ¿Qué estrategias se pueden utilizar para reducir el sesgo y las alucinaciones?
  • ¿Cómo se puede verificar el sesgo y las alucinaciones en la salida de la IA?

Nivel 3: Analizar y Evaluar la IA

Analizar y evaluar la IA implica una comprensión meta más compleja de la IA generativa. En este nivel, los usuarios deben poder reflexionar críticamente sobre resultados, sesgos, ética y otros temas más allá de la ventana de solicitud. Un ejemplo de programación en este nivel es un evento que contó con la participación de un experto que discutió las actuales preguntas sobre derechos de autor y propiedad intelectual en torno a la IA y los impactos ambientales y climáticos que la IA generativa podría tener. Por supuesto, uno puede participar en conversaciones sobre estas preguntas e ideas sin conocer todas las definiciones de IA. Sin embargo, la familiaridad con los niveles anteriores en la pirámide informa la comprensión básica y el vocabulario del individuo, ayudando a comprender cómo se intersecta la IA con otros campos.

Competencias Clave

Examinar la IA en un contexto más amplio, incorporando conocimientos de la disciplina o intereses de uno Critique herramientas de IA y ofrezca argumentos a favor o en contra de su creación, uso y aplicación Analizar consideraciones éticas en el desarrollo e implementación de IA

Conceptos Clave

Perspectivas críticas sobre la IA (Los siguientes ejemplos no pretenden ser exhaustivos.) Sostenibilidad ambiental Trabajo Privacidad Derechos de autor Sesgo de raza, género, clase y otros Desinformación

Preguntas de Reflexión

¿Qué otras perspectivas o marcos podrían ser útiles para evaluar las implicaciones del uso de herramientas de IA generativa? ¿De dónde podrían venir los sesgos en la IA? ¿De qué manera el uso de herramientas de IA generativa se alinea o diverge de tus valores personales?

Nivel 4: Crear IA

En este nivel de fluidez en IA, los usuarios pueden interactuar con la IA a nivel de creador. Por ejemplo, los usuarios pueden construir sobre APIs abiertas para crear su propio LLM o aprovechar la IA para desarrollar nuevos sistemas. Actualmente, Barnard ofrece menos programación en el nivel cuatro que en los otros tres niveles, pero ha habido talleres en el Centro de Ciencias Computacionales que proporcionan instrucción técnica relacionada con la construcción de modelos de IA y aprendizaje automático. Es importante involucrar a las personas en todos los niveles de fluidez en IA.

Competencias Clave

Sintetizar el aprendizaje para conceptualizar o crear nuevas ideas, tecnologías o estructuras relacionadas con la IA. Alcanzar este nivel de alfabetización podría incluir lo siguiente: Concebir nuevos usos para la IA Construir software que aproveche la tecnología de IA Proponer teorías sobre la IA

Preguntas de Reflexión

¿Qué es único y humano acerca de tus ideas, tecnologías o estructuras? ¿Cómo podrían diferir de lo que podría crear una IA? ¿Qué características específicas de IA otorgan ventajas únicas a las ideas, tecnologías o estructuras?


Conclusion y Próximos Pasos

Si bien este marco de alfabetización en IA no es exhaustivo, proporciona una base conceptual para los esfuerzos de educación y programación en IA, especialmente en contextos institucionales de educación superior. La intención es mantener la neutralidad con respecto al uso de IA, reconociendo que la alfabetización tecnológica puede llevar a la decisión de no usarla. El impacto de la IA en la educación superior probablemente será significativo, afectando las admisiones, la investigación y los planes de estudio. La educación y la alfabetización básica son los primeros pasos para que una comunidad se involucre productivamente con esta tecnología en rápida evolución.

Existen muchos posibles próximos pasos que el Barnard College podría tomar relacionados con la IA generativa, pero específicamente en relación con el marco de alfabetización en IA, los equipos de IMATS y CEP pueden explorar «ascender» en la pirámide de alfabetización en la programación, los recursos y los eventos a medida que crece la conciencia y la alfabetización básica. Actualmente, la mayoría de nuestras ofertas se encuentran en los niveles uno y dos, pero esperamos cambiar nuestro enfoque de programación a los niveles dos y tres. Una encuesta reciente reveló que un número significativo de profesores y estudiantes aún nunca han usado IA generativa y tienen percepciones negativas sobre estas herramientas, por lo que nuestros equipos también están explorando formas de facilitar mejor el compromiso práctico y crítico.

Otro objetivo de la iniciativa de alfabetización en IA es resaltar el aspecto humano de estas tecnologías. Si bien el uso de IA generativa puede sentirse casi como alquimia, convirtiendo el texto simple en oro a través de tecnología de caja negra, está muy construido sobre el conocimiento humano, que tiene sus propios sesgos e inequidades. Usar una lente crítica al interactuar con la IA generativa puede ayudar a los usuarios a identificar sesgos existentes y evitar que los usuarios los agraven.

Los riesgos extremos de la inteligencia artificial (IA) y el rápido progreso en este campo


Bengio, Yoshua, Geoffrey Hinton, Andrew Yao, Dawn Song, Pieter Abbeel, Trevor Darrell, Yuval Noah Harari, et al. «Managing extreme AI risks amid rapid progress». Science 384, n.o 6698 (24 de mayo de 2024): 842-45. https://doi.org/10.1126/science.adn0117.

El artículo trata sobre los riesgos extremos de la inteligencia artificial (IA) y el rápido progreso en este campo. Los autores, incluyendo a expertos como Yoshua Bengio y Geoffrey Hinton, discuten la necesidad de investigación técnica y desarrollo, así como de una gobernanza proactiva y adaptable para prepararse ante estos riesgos

El texto destaca que, aunque los sistemas actuales de aprendizaje profundo carecen de ciertas capacidades, las empresas están compitiendo para desarrollar sistemas de IA generalistas que igualen o superen las habilidades humanas en la mayoría de los trabajos cognitivos. Se menciona que la inversión en modelos de entrenamiento de vanguardia se ha triplicado anualmente y que no hay razón fundamental para que el progreso de la IA se detenga al alcanzar las capacidades humanas.

Los autores advierten sobre los riesgos que incluyen daños sociales a gran escala, usos maliciosos y la pérdida irreversible del control humano sobre los sistemas autónomos de IA. A pesar de los primeros pasos prometedores, la respuesta de la sociedad no es proporcional a la posibilidad de un progreso transformador rápido que muchos expertos esperan. La investigación en seguridad de la IA está rezagada y las iniciativas de gobernanza actuales carecen de mecanismos e instituciones para prevenir el mal uso y la imprudencia, y apenas abordan los sistemas autónomos.

Se propone un plan integral que combina la investigación técnica y el desarrollo con mecanismos de gobernanza proactivos y adaptables para una preparación más adecuada ante los avances rápidos y las altas apuestas del progreso de la IA

Existen numerosos desafíos técnicos abiertos para garantizar la seguridad y el uso ético de sistemas de IA generalistas y autónomos. A diferencia del avance en capacidades de IA, estos desafíos no pueden abordarse simplemente utilizando más potencia informática para entrenar modelos más grandes.

Un primer conjunto de áreas de R&D necesita avances para permitir una IA confiablemente segura. Estos desafíos de R&D incluyen lo siguiente:

  1. Supervisión y honestidad: Los sistemas de IA más capaces pueden aprovechar mejor las debilidades en la supervisión técnica y las pruebas, por ejemplo, al producir resultados falsos pero convincentes.
  2. Robustez: Los sistemas de IA se comportan de manera impredecible en nuevas situaciones. Mientras que algunos aspectos de la robustez mejoran con la escala del modelo, otros aspectos no lo hacen o incluso empeoran.
  3. Interpretabilidad y transparencia: La toma de decisiones de IA es opaca, y los modelos más grandes y capaces son más complejos de interpretar. Hasta ahora, solo podemos probar grandes modelos a través del ensayo y error. Necesitamos aprender a entender su funcionamiento interno.
  4. Desarrollo inclusivo de IA: El avance de la IA necesitará métodos para mitigar sesgos e integrar los valores de las muchas poblaciones que afectará.
  5. Abordar desafíos emergentes: Los futuros sistemas de IA pueden exhibir modos de fallo que hasta ahora solo hemos visto en teoría o experimentos de laboratorio.

Un segundo conjunto de desafíos de R&D necesita progresar para permitir una gobernanza efectiva y ajustada al riesgo o para reducir daños cuando la seguridad y la gobernanza fallan. En vista de las apuestas, se pide a las principales empresas tecnológicas y financiadores públicos que asignen al menos un tercio de su presupuesto de R&D de IA, comparable a su financiamiento para capacidades de IA, para abordar los desafíos de R&D mencionados y garantizar la seguridad y el uso ético de la IA. Más allá de las subvenciones tradicionales de investigación, el apoyo gubernamental podría incluir premios, compromisos de mercado anticipados y otros incentivos. Abordar estos desafíos, con miras a sistemas futuros poderosos, debe convertirse en algo central para nuestro campo.

Directrices para académicos buscan reducir los riesgos éticos en el uso de IA generativa

Drew, Liam. «Guidelines for Academics Aim to Lessen Ethical Pitfalls in Generative-AI Use». Nature, 22 de mayo de 2024. https://doi.org/10.1038/d41586-024-01543-1.

Investigadores del Reino Unido están desarrollando un nuevo conjunto de herramientas para ayudar a los académicos a utilizar la inteligencia artificial generativa (IA generativa) de manera más ética.

Wendy Moncur, investigadora en ciberseguridad de la Universidad de Strathclyde en Glasgow, lidera este proyecto. La falta de orientación en el uso de herramientas de IA generativa ha llevado a Moncur y su equipo a considerar la necesidad de un conjunto de directrices que aborden las fortalezas y amenazas de estas tecnologías.

El proyecto se centra en los problemas que pueden surgir cuando se utilizan herramientas de IA generativa, como ChatGPT de OpenAI y Gemini de Google, para analizar y procesar información personal de voluntarios en estudios. Moncur y su equipo están utilizando herramientas de IA generativa para crear materiales educativos basados en las historias de los participantes, pero se preocupan por el riesgo de que la información anonimizada pueda ser reidentificada y distorsionada por la IA.

Las inquietudes de Moncur la llevaron a colaborar con científicos informáticos y un académico en derecho para desarrollar soluciones. Financiado por el Centro Nacional de Investigación del Reino Unido sobre Privacidad, Reducción de Daños e Influencia Adversarial en Línea, el proyecto de diez meses busca crear directrices para investigadores y comités de ética universitarios, con fecha de finalización en agosto.

El proyecto tiene tres objetivos principales: abordar la falta de experiencia en la identificación de riesgos de privacidad, cumplir con los requisitos de gestión de datos en la investigación del Reino Unido y mitigar los riesgos legales para las instituciones que utilizan IA generativa para procesar datos de participantes.

El equipo está realizando una revisión de la literatura y planea entrevistar a académicos en comités de ética para desarrollar una herramienta que analice fortalezas, debilidades, oportunidades y amenazas, y que esté disponible en línea de forma gratuita.

Robert Davison, científico de sistemas de información en la Universidad de la Ciudad de Hong Kong, apoya estos esfuerzos y advierte contra la normalización del uso de IA generativa sin la debida atención ética. Moncur y sus colegas apuntan a los comités de ética universitarios como el primer paso para establecer normas éticas robustas en el uso de esta tecnología.