Canciones al sol. Viviendo en la era pop 2023/12/22

Canciones al sol.

Viviendo en la era pop 2023/12/22

ESCUCHAR EL PROGRAMA

Ir a descargar

El sol, fuente de luz y energía, ha inspirado a músicos de todas las épocas y géneros a crear composiciones que celebran su brillo y calor. Desde canciones que nos transportan a días radiantes hasta aquellas que nos hacen contemplar la majestuosidad del atardecer, hoy exploraremos el vasto repertorio de melodías que honran al sol en sus diversas formas.

El terror de un bibliotecario: la Biblioteca Británica pierde sus libros tras un hackeo

Corroto, Paula. 2023. «El terror de un bibliotecario: la Biblioteca Británica pierde sus libros tras un hackeo». elconfidencial.com. 19 de diciembre de 2023. https://www.elconfidencial.com/cultura/2023-12-19/el-terror-de-un-bibliotecario-la-biblioteca-britanica-pierde-sus-libros-fisicos-tras-un-ataque-informatico_3794770/.

El 31 de octubre, la banda de ciberdelincuentes Rhysida llevó a cabo un ataque contra la Biblioteca Nacional Británica (British Library), conocida por importantes instituciones digitales a nivel mundial. Rhysida, previamente responsable de ataques similares, hackeó el sistema de la biblioteca, provocando la caída de la web, la interrupción del acceso a los fondos, la ruptura de la conexión wifi y el robo de hasta 600 GB de datos, incluyendo 490,000 archivos de miembros y personal de la biblioteca. Posteriormente, amenazaron con vender estos datos en la deep web, utilizando técnicas de ransomware.

Un mes y medio después, la web y el acceso digital a los libros permanecen inoperativos. La biblioteca ha informado que el acceso gratuito a su fondo ha quedado suspendido, afectando servicios digitales esenciales, como el catálogo, el sitio web y recursos de aprendizaje en línea, así como servicios de investigación, incluida la colección EThOS con más de 600,000 tesis doctorales.

A pesar de que los responsables aseguraron que no se manipularon datos bancarios ni de tarjetas de crédito, se reveló que entre la información robada se encuentran contratos de trabajo y documentos de identidad. La biblioteca continúa colaborando con la Policía Metropolitana y asesores de ciberseguridad para abordar las consecuencias del ataque.

La catedrática de Literatura Inglesa, Carolyn Dever, destaca en un artículo titulado «How to lose a library» que, más allá de las consecuencias delictivas, el ataque ha tenido un impacto significativo al poner fin al acceso digital a los libros, afectando la misión esencial de proporcionar conocimiento a cualquier persona, que es el propósito fundamental de toda biblioteca.

La revolución de las cintas de casete

Michaud, Jon. 2023. «The Cassette-Tape Revolution». The New Yorker, 16 de noviembre de 2023. https://www.newyorker.com/culture/cultural-comment/the-cassette-tape-revolution.

Este artículo reflexiona sobre el surgimiento y legado del cassette en la historia de la música, destacando su impacto cultural y su evolución a lo largo del tiempo. Comienza con una anécdota personal sobre la elección de una canción para una clase de apreciación musical en la década de 1970 y cómo el cassette emergió como una opción revolucionaria y accesible.

El audiocassette compacto (para darle su nombre completo) fue concebido por Lou Ottens, jefe de desarrollo de productos de la empresa holandesa de electrónica Phillips. Un día, a principios de los sesenta, frustrado tras «juguetear con ese maldito carrete» (como recordaría más tarde un colega), un exasperado Ottens dijo a su equipo de diseño que creara una versión de su cinta de carrete que fuera pequeña y portátil, con los carretes de cinta dentro de un estuche. Quería que cupiera en un bolsillo e imaginaba que lo utilizarían periodistas y amantes de la naturaleza (estos últimos para grabar pájaros y otros sonidos al aire libre). Phillips presentó su nuevo sistema de casetes en 1963 y la respuesta inmediata fue decepcionante. Sin embargo, en poco tiempo empezaron a aparecer imitaciones de su reproductor de casetes compacto en todo el mundo, sobre todo en Japón. A pesar de las críticas de la industria musical y la asociación de «Home Taping is Killing Music», el cassette prosperó y superó en ventas a los LP para 1983. A finales de los sesenta, ochenta y cinco fabricantes producían reproductores de casete, con unas ventas de 2,5 millones de unidades.

De repente, cualquiera con un reproductor de cintas barato podía grabar música, secuenciarla, distribuirla y -quizá lo más poderoso- borrarla y sustituirla por otra cosa. Aunque hoy en día se considera un tótem nostálgico, la cinta de casete fue reveladora y revolucionaria en su época; su poder disruptivo anticipó el cambio tectónico aún mayor que la era digital traería a la música. Aunque eclipsado por formatos posteriores, el cassette ha experimentado un renacimiento en la escena independiente y experimental, con una red de coleccionistas y sellos lanzando nueva música en este formato.

La aparición del casete causó un gran revuelo entre los ejecutivos de las compañías discográficas. Casi todo el que haya comprado vinilos conoce la imagen del casete con una cruz que durante muchos años se imprimió en las fundas de los discos, acompañada de la funesta advertencia: «La grabación doméstica está matando la música»: «Las cintas caseras están matando la música». A ambos lados del Atlántico, la industria discográfica intentó, inútilmente, ilegalizar la duplicación de música en cintas de casete. Otras propuestas incluían un impuesto compensatorio sobre las cintas vírgenes. Un miembro de la National Association of Recording Merchandisers llegó incluso a equiparar los casetes con el consumo recreativo de drogas: «Muy pronto se convierte en un hobby. Y después de convertirse en un hobby, se convierte en un hábito». Ninguna de esas estrategias frenó la popularidad de la cinta de casete. Como observa Masters, la «percepción de que grabar en casa era ilegal o al menos inmoral… consiguió que las cintas parecieran aún más cool y rebeldes».

El cassette democratizó la producción musical, influyó en géneros como el hip-hop y permitió a músicos como Keith Richards y Bruce Springsteen experimentar creativamente. Para otros músicos, las limitaciones del casete se convirtieron en una bendición creativa. A Keith Richards le encantaba el efecto que podía conseguir grabando su guitarra en un reproductor de casetes barato. «Tocando una acústica, sobrecargaba el reproductor de casetes Phillips hasta el punto de la distorsión, de modo que cuando se reproducía, era efectivamente una guitarra eléctrica», escribió en sus memorias, «Life». Sus partes de guitarra en los éxitos de los Rolling Stones «Jumpin’ Jack Flash» y «Street Fighting Man» se grabaron así. «Ese sonido machacón y sucio», reflexionaba Richards, «es inexplicable».

En 1982, Bruce Springsteen utilizó una máquina de cuatro pistas Teac 144 para grabar las canciones acústicas que se convirtieron en el Lp «Nebraska». La Teac fue una de las primeras consolas que permitieron a los músicos realizar grabaciones multipista en una cinta de casete convencional. (Springsteen utilizaba Maxells y mezclaba las grabaciones en un radiocasete Panasonic dañado por el agua). Aunque en un principio pretendía que aquellas cintas de «Nebraska» fueran maquetas para un álbum de estudio, cuando Springsteen se metió en el estudio con su banda, descubrió que no podía reproducir el aura de aquellas grabaciones en casete. «La más mínima alteración realmente lo arruinaba», dijo Springsteen al escritor y músico Warren Zanes. «La naturaleza del equipo increíblemente básico que utilizábamos era simplemente única».

La segunda mitad del artículo explora la escena global del cassette, especialmente en países no occidentales con sistemas de radio y distribución musical controlados por el Estado. El cassette se convirtió en una forma de subvertir la censura y difundir música prohibida. El autor destaca la riqueza y diversidad de la escena del cassette en todo el mundo, evidenciando su papel como un medio de resistencia cultural.

En última instancia, el artículo concluye que el cassette, a pesar de su percepción nostálgica, continúa siendo relevante y apreciado debido a sus limitaciones y imperfecciones, que son valoradas como esenciales para su atractivo duradero.

Desde 2021 se han prohibido casi 6.000 libros en bibliotecas y escuelas de Estados Unidos

«Spineless Shelves: Two Years of Book Banning». 2023. PEN America (blog). 14 de diciembre de 2023. https://pen.org/spineless-shelves/.

PEN America ha publicado un informe titulado «Spineless Shelves» que reflexiona sobre el efecto acumulativo de los últimos dos años de prohibiciones de libros en las escuelas de Estados Unidos. Desde 2021, se han prohibido casi 6.000 libros, y esta cifra no incluye los 444 títulos retirados en un distrito la semana en que se lanzó el informe.

Entre los hallazgos clave se encuentran:

  • Imitación de prohibiciones, donde los títulos que no han sido cuestionados en un distrito pueden ser eliminados porque otro distrito los prohibió.
  • La eliminación de todos los libros de un autor cuando se prohíbe un solo título de su obra.
  • Libros sobre temas desafiantes o identidades marginadas continúan siendo los más prohibidos en las escuelas.
  • Las prohibiciones de libros no solo se han vuelto más comunes, sino que muchas de estas prohibiciones son más completas y permanentes.

No sorprende que Florida y Texas encabecen la lista en cantidad de libros prohibidos. Sin embargo, casi todos los estados, excepto 9, han registrado prohibiciones de libros en escuelas desde 2021.

Los libros para jóvenes adultos lideran las prohibiciones, representando el 58% de los títulos prohibidos, seguidos por libros para adultos (17%), libros de grado medio (12%), libros ilustrados (10%) y libros de capítulos (3%). Esto resalta que la mayoría de los libros dirigidos a la edad escolar son los principales objetivos, a pesar de que los adultos los consideran «inapropiados», «explícitos» o «pornográficos», a pesar de ser para esas edades.

El informe señala una contradicción entre estos datos y la confianza que los padres afirman tener en los bibliotecarios; si el 92% confía en los bibliotecarios para seleccionar materiales apropiados para la edad de los niños, ¿por qué tantas prohibiciones de libros?

OpenAI lanza un documento para guiar el desarrollo seguro de la inteligencia artificial

Preparedness 
Framework
(Beta)

PDF

OpenAI, empresa creadora de ChatGPT, ha lanzado un «marco preparatorio» para guiar el desarrollo seguro de sistemas de inteligencia artificial cada vez más poderosos. El marco, considerado un «documento vivo», tiene como objetivo ayudar a la empresa a «rastrear, evaluar, prever y protegerse contra riesgos catastróficos» que podrían surgir con los avances en la inteligencia artificial.

Esta iniciativa es parte del compromiso voluntario de OpenAI con la Casa Blanca y otros interesados para el desarrollo seguro y transparente de la inteligencia artificial. Según Anton Dahbura, experto en inteligencia artificial y co-director del Instituto de Autonomía Asegurada de la Universidad Johns Hopkins, este marco es un buen «primer paso en un viaje muy largo».

El marco detalla cómo la empresa evaluará sus sistemas emergentes y determinará si es seguro proceder. Incluye la creación de un Grupo Asesor de Seguridad para supervisar la evaluación de riesgos y asesorar a la dirección en decisiones de seguridad. Además, establece niveles de riesgo, como «bajo», «medio», «alto» y «crítico», con varios criterios para evaluar áreas como ciberseguridad, amenazas CBRN (químicas, biológicas, radiológicas, nucleares) y persuasión.

Solo los modelos de inteligencia artificial con una puntuación de mitigación de «medio» o menos pueden ser implementados, y solo aquellos con una puntuación de mitigación de «alto» o menos pueden seguir desarrollándose. OpenAI también se compromete a buscar constantemente «desconocidos-ignorados», explorando categorías actualmente desconocidas de riesgos catastróficos.

El CEO de OpenAI, Sam Altman, ha afirmado que los beneficios superan los riesgos para los sistemas que la empresa ha lanzado al público, pero destaca la necesidad de intervenciones regulatorias gubernamentales para mitigar los riesgos de modelos cada vez más poderosos.

Aunque la administración Biden ha propuesto una «Hoja de Ruta para una Declaración de Derechos de la IA», OpenAI, por ahora, se centra en desarrollar pautas internas, como su nuevo marco. Dahbura elogia la proactividad de OpenAI y destaca que el marco es más detallado y menos genérico que otros documentos aspiracionales de alto nivel en la industria de la inteligencia artificial.

Escritores demandan a OpenAI y Microsoft por supuesto uso no autorizado de libros en inteligencia artificial

Brittain, Blake, y Blake Brittain. 2023. «Pulitzer-Winning Authors Join OpenAI, Microsoft Copyright Lawsuit». Reuters, 21 de diciembre de 2023, sec. Legal. https://www.reuters.com/legal/pulitzer-winning-authors-join-openai-microsoft-copyright-lawsuit-2023-12-20/.

Un grupo de 11 autores de no ficción se ha unido a una demanda en la corte federal de Manhattan que acusa a OpenAI y Microsoft de utilizar indebidamente libros escritos por los autores para entrenar los modelos detrás del popular chatbot ChatGPT de OpenAI y otros programas basados en inteligencia artificial.

Los escritores, incluyendo a los ganadores del Premio Pulitzer Taylor Branch, Stacy Schiff y Kai Bird, argumentan que las compañías infringieron sus derechos de autor al usar sus obras para entrenar los modelos de lenguaje GPT de OpenAI.

Representantes de OpenAI y Microsoft no respondieron de inmediato a las solicitudes de comentarios el miércoles.

El abogado de los escritores, Rohit Nath, afirmó que «los acusados están obteniendo miles de millones de dólares de su uso no autorizado de libros de no ficción, y los autores de estos libros merecen una compensación justa y un trato adecuado por ello».

La demanda, presentada por el escritor y editor de Hollywood Reporter, Julian Sancton, alega que OpenAI «raspó» los trabajos de los autores junto con gran cantidad de otro material con derechos de autor de Internet sin permiso para enseñar a sus modelos GPT a responder a instrucciones de texto humano.

La demanda también afirma que Microsoft ha estado «profundamente involucrado» en el entrenamiento y desarrollo de los modelos y es responsable de la infracción de derechos de autor. Los autores piden daños monetarios no especificados y una orden para que las compañías dejen de infringir sus derechos de autor.

OpenAI y Axel Springer firman un acuerdo que permite que ChatGPT se entrene con datos de la editorial

Knibbs, Kate. s. f. «Journalists Had “No Idea” About OpenAI’s Deal to Use Their Stories». Wired. Accedido 22 de diciembre de 2023. https://www.wired.com/story/openai-axel-springer-news-licensing-deal-whats-in-it-for-writers/.

OpenAI y el conglomerado mediático alemán Axel Springer firmaron la semana pasada un acuerdo de licencia a largo plazo que permite a OpenAI incorporar artículos de los medios de Axel Springer, como Business Insider y Politico, en sus productos, incluido ChatGPT. Aunque el acuerdo se centra en el uso de trabajos periodísticos, los periodistas cuyas historias se compartirán como parte del acuerdo no fueron consultados previamente.

Empleados de Business Insider revelaron que se enteraron del acuerdo de inteligencia artificial al mismo tiempo que se anunció públicamente. PEN Guild, el sindicato estadounidense que representa a alrededor de 280 trabajadores de Politico y E&E News, otra publicación de Axel Springer, afirmó que «no fue consultado ni informado sobre la decisión de que los robots resumieran nuestro trabajo».

Este acuerdo destaca la tendencia emergente de empresas de inteligencia artificial que buscan acuerdos con empresas de medios en lugar de recopilar datos de entrenamiento mediante el rastreo no autorizado de contenido con derechos de autor en Internet. Mientras algunas asociaciones de escritores ven estos acuerdos como una alternativa positiva al rastreo de datos, hay dudas sobre si realmente beneficiarán a los periodistas.

El editor de Techdirt, Mike Masnick, cuestiona la efectividad de estos acuerdos y sugiere que podrían ser estrategias para evitar demandas de las editoras a cambio de cierto acceso a la tecnología. Además, se desconoce cómo afectará financieramente a los periodistas individuales el acuerdo entre OpenAI y Axel Springer.

El acuerdo, que implica que OpenAI pagará a Axel Springer millones de euros, según Bloomberg, plantea preguntas sobre si los periodistas recibirán alguna compensación. Aunque Axel Springer considera que el acuerdo beneficia a los periodistas y a la industria del periodismo, algunos críticos dudan de que el acceso indirecto a la tecnología realmente mejore las condiciones laborales de los periodistas.

En el contexto de la creciente automatización en la industria de los medios, sindicatos y líderes laborales están vigilando de cerca estos acuerdos para proteger los derechos e integridad del trabajo de los periodistas. La cuestión de si estos acuerdos serán beneficiosos a largo plazo y cómo afectarán a la industria de los medios sigue siendo objeto de debate.

Leer un libro, un regalo de los dioses

“Leer un libro es volver a nacer. Es el camino para apropiarnos de un mundo y de una visión del hombre que, a partir de ese momento, entran a formar parte de nuestro ser. Una lectura disfrutada con riqueza y plenitud, es la conquista más plena que puede hacer un hombre en su vida. Hay una condición esencial que hará que este regalo de los dioses sea para siempre. La lectura debe causarnos placer. Un placer que venga de lo más hondo del alma y que ha de quedarse allí intacto y disponible… «

Álvaro Mutis, Premio Cervantes 2001, en su Elogio a la Lectura

Ciencia Abierta

Open science «European IP Helpdesk Bulletin. No. 7, December 2023, – Publications Office of the EU». s. f. Accedido 21 de diciembre de 2023.

Texto completo

La Ciencia Abierta, como enfoque de los procesos científicos centrado en el intercambio rápido y transparente de conocimientos y datos, es desde hace tiempo una prioridad política de la Comisión Europea y ha sido ampliamente promovida. Al hacer accesibles a todos los agentes sociales los resultados y datos generados en proyectos de investigación e innovación, otros investigadores, innovadores y el público en general pueden encontrarlos y reutilizarlos para sus necesidades específicas. De este modo, se fomenta la investigación, se encuentran soluciones novedosas y se afrontan retos complejos.

El uso de la IA generativa por parte de los estudiantes: la amenaza de las alucinaciones

«Students’ Use of Generative AI: The Threat of Hallucinations». 2023. Center for Democracy and Technology (blog). 18 de diciembre de 2023. https://cdt.org/insights/students-use-of-generative-ai-the-threat-of-hallucinations/.


Los sistemas de inteligencia artificial generativa entrenados con grandes cantidades de datos existentes utilizan el aprendizaje automático para producir nuevo contenido (como texto o imágenes) en respuesta a las indicaciones de los usuarios. En educación, la inteligencia artificial generativa se menciona con mayor frecuencia en el contexto de la integridad académica, con profesores expresando temores sobre el fraude en el aula.

Sin embargo, la encuesta a profesores, padres y estudiantes muestra que el 45 por ciento de los estudiantes que dicen haber utilizado inteligencia artificial generativa informan haberlo hecho por razones personales, mientras que solo el 23 por ciento informa haberlo utilizado para la escuela. De aquellos que han utilizado la tecnología por razones personales, muchas de las aplicaciones son de gran importancia: el 29 por ciento la ha utilizado para lidiar con la ansiedad o problemas de salud mental, el 22 por ciento para lidiar con problemas con amigos y el 16 por ciento para lidiar con problemas familiares. Como resultado, incluso en el contexto de uso personal, los sistemas de inteligencia artificial generativa que producen información incorrecta pueden tener consecuencias perjudiciales significativas.

¿Qué son las alucinaciones y por qué ocurren? Por su estilo de escritura y la forma en que proporcionan información, los sistemas de inteligencia artificial generativa pueden parecer fuentes confiables y autorizadas de información. Sin embargo, estos sistemas a menudo producen texto que es factualmente incorrecto. Estos errores factuales se conocen como «alucinaciones». Las alucinaciones son una consecuencia tanto del diseño como de la estructura operativa de los sistemas de inteligencia artificial generativa.

Desde el punto de vista del diseño, los sistemas de inteligencia artificial generativa están construidos con la intención de imitar el texto producido por humanos. Para lograr esto, generalmente se entrenan con enormes conjuntos de datos de texto a partir de los cuales el sistema aprende sobre la estructura de oraciones y párrafos, y luego produce texto que parece tener sentido para los lectores humanos al predecir repetidamente la siguiente palabra más lógica. Este proceso no está diseñado para crear contenido que sea verdadero o correcto, sino que tenga sentido.

Estructuralmente, la mayoría de los sistemas de inteligencia artificial generativa operan «desconectados», lo que significa que no están obteniendo activamente datos de internet para responder a indicaciones. Por lo tanto, están limitados a los datos contenidos en sus conjuntos de datos de entrenamiento. Esto hace que los sistemas de inteligencia artificial generativa sean particularmente poco confiables cuando se trata de eventos actuales que no aparecen en sus conjuntos de datos de entrenamiento.

Los posibles impactos perjudiciales de las alucinaciones en los estudiantes La realidad de las alucinaciones de inteligencia artificial generativa, junto con los altos niveles de uso personal por parte de los estudiantes para asuntos importantes, plantea grandes preocupaciones sobre el acceso a información precisa en momentos de crisis. Por ejemplo, los estudiantes podrían estar haciendo preguntas a ChatGPT (u otra herramienta de inteligencia artificial generativa) sobre cómo lidiar con un problema de salud mental en curso, que podría ser potencialmente una situación de vida o muerte. Dado que la mayoría de los sistemas de inteligencia artificial generativa probablemente utilizados por los estudiantes se entrenan con información recopilada de internet, podrían replicar malentendidos comunes sobre problemas sensibles como desafíos de salud mental, roles de género y orientación sexual.

Además de las alucinaciones tradicionales, que son simplemente información incorrecta, la inteligencia artificial generativa también puede tener impactos emocionales significativos en los estudiantes que utilizan la herramienta por razones personales al replicar prejuicios sociales contra poblaciones marginadas, incluidas cuestiones de raza, género u orientación sexual. Los estudiantes, especialmente durante las etapas vitales de desarrollo de la educación K-12, pueden internalizar estos prejuicios, ya sea contra ellos mismos o contra otros.

Las alucinaciones también son motivo de preocupación significativa cuando los estudiantes utilizan plataformas de inteligencia artificial generativa con fines académicos. La posibilidad de que los estudiantes reciban información inexacta puede ir en contra directa del objetivo de las escuelas de proporcionar información confiable y de calidad a los estudiantes. Los estudiantes que no comprenden las posibilidades de alucinaciones de estas herramientas pueden usarlas de manera ineficaz y perder usos beneficiosos. Sin comprender las limitaciones de la inteligencia artificial generativa, los estudiantes pueden no poder aprovechar de manera efectiva su potencial como herramienta para complementar su aprendizaje y habilidades de pensamiento crítico.

¿Cómo deben abordar las escuelas el problema de las alucinaciones?

Para combatir las posibles consecuencias devastadoras de las alucinaciones de inteligencia artificial generativa tanto en contextos personales como académicos, las escuelas deben:

  • Comprender las limitaciones de la inteligencia artificial generativa y asegurarse de que los maestros estén adecuadamente capacitados. Aunque los beneficios potenciales de estas herramientas para mejorar el aprendizaje pueden ser emocionantes, es imperativo que los funcionarios escolares estén completamente familiarizados con las deficiencias tecnológicas e impartan ese conocimiento a los educadores. Los maestros desempeñan un papel crucial para garantizar que la inteligencia artificial generativa se utilice de manera responsable y apropiada en el aula. Pero para hacerlo, necesitan acceso a recursos y capacitación.
  • Continuar invirtiendo en consejeros y otros apoyos de salud mental. Las escuelas deben tener cuidado de no dirigir a los estudiantes hacia el uso de inteligencia artificial generativa como recurso sobre temas tan sensibles como su salud mental. Los problemas de salud mental en curso requieren empatía y experiencia humanas, por lo que las escuelas no deben adquirir herramientas de inteligencia artificial generativa para reemplazar o incluso triar el cuidado que de otro modo proporcionaría un ser humano. Si las escuelas van a adquirir una herramienta para complementar a los consejeros y apoyos de salud mental ya existentes, deberían hacer referencia a nuestra guía sobre principios de adquisición responsables, ya que incluso como herramienta complementaria, los sistemas de inteligencia artificial generativa pueden causar daño si no se prueban y regulan adecuadamente.
  • Brindar educación a los estudiantes sobre qué es la inteligencia artificial generativa, cómo funciona y por qué ocurren las alucinaciones. Para combatir la exageración no controlada del público en torno a la inteligencia artificial generativa, las escuelas deben dotar a los estudiantes con conocimientos básicos sobre la tecnología, sus capacidades y limitaciones, y cómo puede salir mal tanto en usos académicos como personales.
  • Brindar educación a los estudiantes sobre la alfabetización mediática y las habilidades de investigación. El lanzamiento de ChatGPT en noviembre pasado subrayó la necesidad de que los estudiantes comprendan cómo ser consumidores responsables y efectivos del conocimiento a través de nuevas herramientas tecnológicas. El uso de la inteligencia artificial generativa es cada vez más inevitable de la misma manera que el uso de internet, por lo que es vital que las escuelas proporcionen a los estudiantes capacitación y recursos sobre cómo evaluar la precisión y confiabilidad de la información obtenida a través de ChatGPT y otras plataformas de inteligencia artificial generativa.
  • Asegurarse de que maestros y estudiantes comprendan cuándo es apropiado usar la inteligencia artificial generativa. La inteligencia artificial generativa no está destinada a reemplazar la enseñanza y el aprendizaje tradicionales en ningún caso; no es un reemplazo del conocimiento y no es un terapeuta o consejero efectivo para problemas personales. Sin embargo, puede usarse, por ejemplo, como una herramienta de apoyo para mejorar la escritura o como una herramienta novedosa para la investigación al explorar un nuevo tema. Las escuelas deben proporcionar orientación y capacitación tanto a maestros como a estudiantes sobre cómo hacer un uso efectivo de la inteligencia artificial generativa.