Archivo de la etiqueta: Inteligencia artificial

Guía para el Uso de Inteligencia Artificial Generativa (GenAI) en la Investigación Académica de la Universidad de Cornell

Generative AI in Academic Research: Perspectives and Cultural Norms. (s. f.). Research & Innovation. Recuperado 22 de enero de 2024, de https://research-and-innovation.cornell.edu/generative-ai-in-academic-research/

PDF

Un grupo de trabajo multidisciplinario de profesores y personal de Cornell ha publicado un informe que ofrece perspectivas y pautas prácticas para el uso de la inteligencia artificial generativa (GenAI) en la práctica y difusión de la investigación académica de Cornell.

El informe, publicado el 15 de diciembre, marca el primer paso para establecer un conjunto inicial de perspectivas y normas culturales para los investigadores de Cornell, líderes de equipos de investigación y personal de administración de la investigación. El grupo de trabajo fue liderado por Krystyn Van Vliet, vicepresidenta de investigación e innovación.

A principios del semestre de otoño, Cornell emitió un informe que ofrecía orientación a los profesores para enseñar en la era de ChatGPT y otras tecnologías de GenAI. Y el 5 de enero, Cornell emitió su tercer y último informe relacionado con GenAI, con orientación sobre la inteligencia artificial generativa en la administración; los tres informes se encuentran en el sitio web de AI de IT@Cornell.

El informe de investigación aborda el uso de GenAI en cuatro etapas del proceso de investigación:

  • Concepción y ejecución: incluye la ideación, revisión de literatura, generación de hipótesis y otras partes del proceso de investigación «interno» por parte del individuo y el equipo de investigación, antes de la divulgación pública de ideas o resultados de investigación.
  • Diseminación: incluye la divulgación pública de ideas y resultados de investigación, incluidas publicaciones en revistas revisadas por pares, manuscritos, libros y otras obras creativas.
  • Traducción: incluye la reducción de hallazgos o resultados de investigación a la práctica, que puede adoptar la forma de invenciones patentadas o derechos de autor.
  • Financiamiento y cumplimiento de acuerdos de financiamiento: incluye propuestas que buscan financiamiento para planes de investigación, así como el cumplimiento de las expectativas de patrocinadores o políticas gubernamentales de EE. UU. relevantes para Cornell.

Como señala el informe, además de funciones tan ubicuas como revisión ortográfica y gramatical, la inteligencia artificial ya se utiliza como herramienta en actividades relacionadas con la investigación, como análisis de datos y recuperación de documentos, pero solo para aquellos con experiencia programando. GenAI permitiría que estas herramientas sean accesibles para más personas, incluidos investigadores y personal de apoyo.

«Estas tecnologías en rápida evolución tienen el potencial de provocar cambios transformadores en la investigación académica, pero representan un territorio inexplorado, con grandes oportunidades y riesgos significativos», dijo Natalie Bazarova, profesora de comunicación en la Facultad de Agricultura y Ciencias de la Vida y viceprovost asociada en la Oficina del Vicepresidente de Investigación e Innovación (OVPRI). «En nuestro informe, proporcionamos pautas y salvaguardias para garantizar que la investigación se realice con los más altos niveles de integridad, alentando al mismo tiempo la exploración de estas nuevas herramientas y fronteras de investigación de GenAI».

David Mimno, miembro del grupo de trabajo y profesor asociado de ciencia de la información en la Facultad de Computación e Información de Ann S. Bowers de Cornell, describe su percepción general de la tecnología como «optimista con precaución».

«Mientras hay muchas oportunidades valiosas y útiles, que solo crecerán a medida que las personas descubran nuevas formas de utilizar los sistemas, hay mucha incertidumbre, tecnología que cambia rápidamente y límites fundamentales», dijo. «En este momento, estamos en una zona muy peligrosa donde los sistemas son lo suficientemente buenos como para que las personas confíen en ellos, pero no lo suficientemente buenos como para que deban confiar en ellos».

El grupo de trabajo presenta las posibilidades y los peligros potenciales de la tecnología emergente: «GenAI proporciona al usuario una sensación de poder en su aparente asistencia intelectual a pedido, lo que, como era de esperar, también implica la necesidad de asumir responsabilidades. Los grupos y proyectos de investigación académica a menudo incluyen múltiples usuarios con diferentes etapas de contribución, diferentes grados de experiencia y liderazgo, y diferentes responsabilidades con respecto a la integridad de la investigación y la traducción de los resultados de la investigación al impacto en la sociedad».

El informe incluye una sección de preguntas y respuestas centrada en las mejores prácticas y casos de uso para cada una de las cuatro etapas de investigación que pueden servir como iniciadores de discusión para las comunidades de investigación, así como un resumen de las políticas de publicación comunitarias existentes con respecto al uso de GenAI en investigación por parte de financiadores, revistas, sociedades profesionales y colegas.

OpenAI anuncia una estrategia para prevenir la desinformación electoral utilizando su tecnología de IA, con el objetivo de salvaguardar las elecciones en más de 50 países

OpenAI ha presentado un plan para evitar el uso indebido de sus herramientas de inteligencia artificial en la difusión de desinformación electoral, ya que los votantes de más de 50 países se preparan para emitir sus votos en elecciones nacionales este año.

La startup de inteligencia artificial con sede en San Francisco delineó salvaguardias, que incluyen políticas existentes e iniciativas nuevas, para abordar preocupaciones sobre el posible mal uso de sus potentes herramientas de inteligencia artificial generativa que pueden generar rápidamente texto e imágenes.

Los pasos de OpenAI implican prohibir la creación de chatbots que se hagan pasar por candidatos reales o gobiernos, tergiversar procesos de votación o desalentar el voto. Además, la empresa planea marcar digitalmente las imágenes de inteligencia artificial creadas con su generador de imágenes DALL-E para rastrear su origen. OpenAI también se asociará con la Asociación Nacional de Secretarios de Estado para dirigir a los usuarios a información precisa sobre la logística de votación.

Aunque se considera un paso positivo, el éxito de estas medidas dependerá de su implementación. La empresa reconoce la necesidad de vigilancia y un monitoreo riguroso para abordar los desafíos planteados por la desinformación electoral generada por inteligencia artificial.

.

Los propios investigadores y expertos en inteligencia artificial (IA) están asombrados por la rápida velocidad del desarrollo de la IA

Grace, K., Stewart, H., Sandkühler, J. F., Thomas, S., Weinstein-Raun, B., & Brauner, J. (2024). Thousands of AI Authors on the Future of AI (arXiv:2401.02843). arXiv. https://doi.org/10.48550/arXiv.2401.02843

En la encuesta más grande de su tipo, 2,778 investigadores que habían publicado en las principales conferencias de inteligencia artificial (IA) ofrecieron predicciones sobre el ritmo del progreso de la IA y la naturaleza e impactos de los sistemas de IA avanzados. Las predicciones agregadas indican al menos un 50% de posibilidad de que los sistemas de IA alcancen varios hitos para 2028, incluyendo la construcción autónoma de un sitio de procesamiento de pagos desde cero, la creación de una canción indistinguible de una nueva canción de un músico popular y la descarga y ajuste autónomo de un modelo de lenguaje grande

Un nuevo estudio revela que los propios investigadores en inteligencia artificial (IA) están asombrados por la rápida velocidad del desarrollo de la IA. La encuesta, realizada a 2,778 expertos en IA, indica que la percepción general es que la IA está acelerando su avance de manera sorprendente. Se destaca que, en promedio, las predicciones de los expertos sobre la viabilidad de 32 tareas relacionadas con la IA se adelantaron en 1.0 año entre 2022 y 2023.

Las predicciones más destacadas del estudio muestran cambios drásticos en las expectativas de los encuestados sobre dos conceptos clave: la Inteligencia Artificial de Nivel Avanzado (HLMI, por sus siglas en inglés) y la Automatización Completa del Trabajo (FAOL, por sus siglas en inglés). HLMI experimentó una disminución de 13 años en el tiempo estimado de llegada entre 2022 y 2023, mientras que la predicción para FAOL disminuyó en 48 años durante el mismo período.

Aunque la encuesta revela una división entre los «aceleracionistas» y los «pesimistas» de la IA, los datos sugieren que los primeros superan en número a los últimos. Los encuestados que desean que la IA se desarrolle «mucho más rápido» constituyen el 15.6%, mientras que los que desean que se desarrolle «mucho más lento» son el grupo más pequeño, representando el 4.8%. El grupo más grande prefiere que la IA se desarrolle «un poco más lento» (29.9%), seguido por «a la velocidad actual» (26.9%) y «un poco más rápido» (22.8%).

Aunque se señala la limitación de que los encuestados solo tienen experiencia en IA y no necesariamente en pronósticos, el estudio proporciona una visión interesante sobre las creencias subjetivas de los expertos en IA, indicando una tendencia hacia una adopción más rápida de la tecnología.

OpenAI no se entrenará con datos del New York Times tras la demanda interpuesta por el periódico a ChatGPT

News, B. (2024, enero 16). OpenAI Doesn’t Want to Train on New York Times Data After Lawsuit, Altman Says—BNN Bloomberg. BNN. https://www.bnnbloomberg.ca/openai-doesn-t-want-to-train-on-new-york-times-data-after-lawsuit-altman-says-1.2022691

Sam Altman, CEO de OpenAI, ha declarado que la inteligencia artificial no necesita grandes cantidades de datos de entrenamiento de editoriales como The New York Times, en respuesta a las acusaciones de que su startup está utilizando material con derechos de autor. Altman señaló que la creencia de que se requieren todos los datos de entrenamiento y que estos son muy valiosos no es generalmente cierta, y afirmó que no desean entrenar con los datos del New York Times.

OpenAI está en medio de una importante iniciativa para asegurar acceso a contenidos de noticias después de ser demandada por el Times y Microsoft, su mayor inversor, por supuestamente causar miles de millones de dólares en daños por violación de derechos de autor. Las asociaciones con editoriales son cruciales para el futuro de OpenAI, ya que equilibra la necesidad de datos precisos y oportunos con la atención pública sobre la procedencia de esos datos.

La compañía está en conversaciones con varios editores, incluyendo CNN, Fox Corp. y Time, para obtener licencias de contenido noticioso. Altman destacó que su objetivo es proporcionar información de diferentes fuentes cuando los usuarios lo soliciten y mencionó que algunos editores desean asociarse con ellos, mientras que otros no.

Antes de la demanda, OpenAI y el Times estuvieron en contacto desde abril para negociar una licencia, pero no lograron llegar a un acuerdo. La empresa también enfrenta demandas colectivas de escritores, como Sarah Silverman, George R.R. Martin y Michael Chabon.

A pesar de las tensiones con algunos editores, OpenAI ha alcanzado acuerdos con la Associated Press para acceder a sus archivos y firmó un acuerdo de tres años en diciembre con Axel Springer SE para utilizar el contenido de la compañía mediática alemana por una suma no revelada.

Altman concluyó que gran parte de la investigación de OpenAI se centra en aprender más a partir de cantidades más pequeñas de datos de alta calidad.

El papel de la inteligencia artificial en la edición.

People plus machines: the role of artificial intelligence in publishing.  Frontier Economics. Publishers Association,2020. 65 p. Disponible en: https://www.publishers.org.uk/wp-content/uploads/2020/10/People-plus-machines-The-role-of-Artificial-Intelligence-in-Publishing_FINAL.pdf

El gobierno del Reino Unido ha colocado un fuerte énfasis e inversión pública en la Estrategia Industrial, destacando a la Inteligencia Artificial (IA) como impulsora de la innovación empresarial y el crecimiento futuro de la productividad. La Asociación de Editores (Publishers Association) ha solicitado a Frontier Economics que realice una evaluación fundamentada en evidencia sobre el papel de la IA en el sector editorial.

Este informe es el primer análisis sistemático de la inteligencia artificial (IA) en la industria editorial del Reino Unido. Basándonos en entrevistas del sector, estudios de caso y una encuesta a toda la industria, desarrollamos una taxonomía de casos de uso de la IA en la edición, junto con evidencia sobre los comportamientos y actitudes de los editores en relación con la inversión en inteligencia artificial.

  • La inteligencia artificial (IA) se está aplicando en toda la cadena de valor por parte de algunos editores académicos, de educación y consumidores para obtener beneficios tanto para sus organizaciones (como una mejor protección de propiedad intelectual, descubrimiento de contenido, predicción de mercado y otras perspicacias estratégicas) como para sus clientes (al realizar tareas de búsqueda y resumen rutinarias y generar nuevas ideas, la IA está liberando a investigadores, autores, maestros y consumidores para enfocarse en tareas de valor añadido o creativas).
  • En general, la mayoría de los editores, independientemente de su tamaño y sector, consideran que la IA será importante en los próximos cinco años. De los editores que encuestamos que ya están invirtiendo en IA, la mayoría ha obtenido beneficios, y todos esperan hacerlo en los próximos años.
  • La inversión en IA en el sector acaba de comenzar. Los editores más grandes están liderando el impulso. La mayoría de las inversiones comenzaron en los últimos tres años. Los editores utilizan pequeños equipos internos de investigación en IA y colaboran con startups de tecnología AI e investigadores universitarios. Para aumentar los niveles de inversión en IA de los editores y lograr mayores beneficios para los consumidores, el sector debe superar varios obstáculos de inversión, incluida la falta de habilidades técnicas en IA y la conciencia general de los beneficios de la IA, las dificultades para implementar soluciones de IA con las infraestructuras de TI existentes y en flujos de trabajo aislados, la importancia de la certeza legal con respecto a la ley de propiedad intelectual (PI) del Reino Unido y, para los editores más pequeños, los significativos costos iniciales de inversión asociados con la investigación e implementación de IA.
  • Recomendamos que la industria y el gobierno en el Reino Unido trabajen juntos para aumentar la conciencia sobre cuestiones clave de inversión en IA, fomentar la participación e identificar soluciones políticas y otras para abordarlas. Las áreas clave de políticas incluyen: garantizar la certeza legal con respecto a la ley de PI del Reino Unido; fomentar la colaboración entre editores, pymes enfocadas en la IA y la academia; y ayudar a las pymes editoras a acceder a financiamiento y habilidades en IA.

Aplicación de la IA Generativa: recomendaciones y consideraciones para las escuelas públicas

Generative AI Implementation: Recommendations and Considerations
for PK-13 Public Schools
. North Carolina: North Carolina Dept. of Public Instruction, 2024

Texto completo


Estas recomendaciones y consideraciones para la implementación de inteligencia artificial generativa han sido creadas como una forma de compartir información y recursos para orientar la implementación responsable de herramientas de inteligencia artificial generativa y guiar la alfabetización en inteligencia artificial en las Escuelas Públicas de Carolina del Norte. Ten en cuenta que, dado que la inteligencia artificial generativa es una tecnología emergente y está cambiando rápidamente, al igual que las leyes y normativas que la rigen, este es un documento en constante actualización que se modificará según sea necesario para reflejar los cambios que ocurran en este entorno tan dinámico. La última actualización aparecerá en la parte inferior de cada página para tu referencia.

Estas pautas han sido organizadas en torno a las cinco áreas de enfoque del Plan de Aprendizaje Digital de Carolina del Norte, que guía la enseñanza y el aprendizaje digital en las escuelas públicas de Carolina del Norte. El Plan de Aprendizaje Digital fomenta el uso seguro de tecnología innovadora para preparar a los estudiantes para el futuro escolar y laboral, mejorar los resultados estudiantiles y respaldar el uso adecuado de la tecnología para avanzar en el aprendizaje.

Este documento está estructurado en torno a las cinco áreas de enfoque del Plan de Aprendizaje Digital de Carolina del Norte, como se muestra en este gráfico. La Oficina de Enseñanza y Aprendizaje Digital, ubicada dentro del Departamento de Instrucción Pública de Carolina del Norte (NCDPI), apoya a los educadores en el uso seguro de la inteligencia artificial generativa para mejorar el aprendizaje estudiantil. Si necesitas ayuda para implementar la inteligencia artificial generativa en tu distrito o escuela, por favor comunícate con tu Consultor Regional de Enseñanza y Aprendizaje Digital o con el Catalizador de Aprendizaje Innovador.

Elsevier anuncia el lanzamiento de Scopus AI

Scopus AI 

Elsevier, líder mundial en información científica y análisis de datos, lanza hoy Scopus AI, un producto de inteligencia artificial generativa para ayudar a los investigadores e instituciones de investigación a obtener resúmenes rápidos y precisos y perspectivas de investigación que apoyen la colaboración y el impacto social. Scopus AI se basa en el contenido de confianza de Scopus de más de 27.000 revistas académicas, de más de 7.000 editores de todo el mundo, con más de 1.800 millones de citas, e incluye más de 17 millones de perfiles de autores. El contenido de Scopus es examinado por un consejo independiente de científicos y bibliotecarios de renombre mundial que representan a las principales disciplinas científicas.

Desde el lanzamiento alfa en agosto de 2023, miles de investigadores de todo el mundo han probado Scopus AI. Sus comentarios han reforzado el hecho de que, a medida que evoluciona la IA generativa, los investigadores quieren investigaciones fiables y citadas que sean relevantes y altamente personalizadas para sus necesidades.

Elisenda Aguilera, investigadora de la Universidad Pompeu Fabra (España), ha participado en las pruebas de IA de Scopus y ha elaborado un preprint sobre lo que ha aprendido…

«La interfaz de Scopus AI es intuitiva y fácil de usar, permite al investigador obtener una visión general de un problema, así como identificar autores y enfoques, en una sesión de búsqueda más ágil que la convencional. Es una herramienta valiosa para revisiones bibliográficas, construcción de marcos teóricos y verificación de relaciones entre variables, entre otras aplicaciones realmente imposibles de delimitar.»

Elisenda Aguilera

Scopus AI ya está disponible en todo el mundo para los clientes de Scopus.

Fuente: Launch of Scopus AI to Help Researchers Navigate the World of Research. (2024). Www.Elsevier.Com. Recuperado 17 de enero de 2024, de https://www.elsevier.com/about/press-releases/launch-of-scopus-ai-to-help-researchers-navigate-the-world-of-research

Errores jurídicos preocupantes y generalizados en los tres modelos populares de IA

«Hallucinating Law: Legal Mistakes with Large Language Models Are Pervasive». 2024. 11 de enero de 2024. https://hai.stanford.edu/news/hallucinating-law-legal-mistakes-large-language-models-are-pervasive.

El estudio «Disturbing & pervasive errors among three popular models on a wide range of legal tasks» (GPT 3.5, Llama 2, and PaLM 2) revela lo siguiente

  • «las tasas de alucinación oscilan entre el 69% y el 88% en respuesta a consultas jurídicas específicas para los modelos lingüísticos más avanzados»
  • «el rendimiento se deteriora cuando se trata de tareas más complejas que requieren una comprensión matizada de las cuestiones jurídicas o la interpretación de textos jurídicos»
  • «jurisprudencia de tribunales inferiores… sujeta a alucinaciones más frecuentes que la jurisprudencia de tribunales superiores
  • «susceptibilidad del modelo a lo que llamamos «sesgo contrafáctico», es decir, la tendencia a asumir que una premisa fáctica en una consulta es cierta, aunque sea rotundamente errónea»

Las falsas reescrituras de libros generadas por IA inundan Amazon

Knibbs, Kate. 2024 «Scammy AI-Generated Book Rewrites Are Flooding Amazon». Wired. Accedido 15 de enero de 2024. https://www.wired.com/story/scammy-ai-generated-books-flooding-amazon/.

Los reescritos de libros generados por IA que parecen ser fraudulentos están inundando Amazon. Los autores siguen descubriendo lo que parecen ser imitaciones generadas por IA y resúmenes de sus libros en Amazon. Hay poco que puedan hacer para frenar las copias fraudulentas.


La proliferación de reescrituras de libros generadas por inteligencia artificial que parecen fraudulentas está afectando significativamente a Amazon, y los autores siguen descubriendo lo que aparentan ser imitaciones y resúmenes generados por IA de sus libros en la plataforma. Este problema ha afectado a la investigadora de IA Melanie Mitchell y a otros profesionales, generando preocupaciones en la comunidad literaria. Aunque Amazon actuó retirando la imitación del libro de Mitchell, la presencia persistente de resúmenes de baja calidad generados por IA sigue siendo un desafío.

Mitchell notó que, al buscar su libro en Amazon, no solo encontraba su obra, sino también otro libro electrónico con el mismo título, publicado en septiembre pasado. Este tenía solo 45 páginas y reproducía las ideas de Mitchell en un lenguaje entrecortado y torpe. El autor listado, «Shumaila Majid», carecía de biografía, foto y presencia en internet, pero al hacer clic en ese nombre, aparecían numerosos libros similares resumiendo títulos recién publicados.

Este fenómeno afecta a diversos autores, entre ellos la pionera en ciencias de la computación Fei-Fei Li, cuyo nuevo libro tiene más de una docena de reescrituras aparentemente generadas por IA. Aunque algunos de estos resúmenes se presentan como tales, a menudo no aportan un valor significativo para los lectores. A diferencia del libro de Mitchell, los resúmenes de Li se anuncian como tales. Uno, titulado abiertamente «Resumen y Análisis de The Worlds I See», tiene una descripción del producto que comienza así: «¡DESCARGO DE RESPONSABILIDAD! ESTO NO ES UN LIBRO DE FEI-FEI LI, NI ESTÁ AFILIADO A ELLOS. ES UNA PUBLICACIÓN INDEPENDIENTE QUE RESUME EL LIBRO DE FEI-FEI LI EN DETALLES. ES UN RESUMEN». Defender analizó una muestra del libro de Resumen y Análisis y también encontró que probablemente fue generado por IA.

La aparición de resúmenes generados por IA ha aumentado significativamente, a pesar de que en septiembre de 2023, Amazon limitó a los autores a cargar un máximo de tres libros al día en su tienda. La escritora Sarah Stankorb es una de las afectadas. Este verano, publicó «Disobedient Women: How a Small Group of Faithful Women Exposed Abuse, Brought Down Powerful Pastors, and Ignited an Evangelical Reckoning». Los resúmenes aparecieron en Amazon en cuestión de días. Uno, que sospecha que se basó en una copia avanzada comúnmente distribuida a revisores, apareció el día antes de que saliera su libro.

Los resúmenes generados por IA vendidos como libros electrónicos han estado «aumentando dramáticamente en número», según Jane Friedman, experta en la industria editorial, quien también fue blanco de un esquema de libros generados por IA diferente. «Es común en este momento que un autor de no ficción celebre el lanzamiento de su libro y luego, en pocos días, descubra uno de estos resúmenes a la venta».

Este problema se agrava debido a las limitadas acciones de Amazon para abordar la situación. Aunque la compañía retiró la imitación del libro de Mitchell, no ha anunciado planes para monitorear proactivamente esta ola de resúmenes. La falta de medidas efectivas actualmente permite que los creadores de estos resúmenes continúen subiéndolos a la plataforma. Stankorb describe la situación como una nueva realidad y la resignación de la industria editorial ante este persistente problema.

IA para todo: Las tecnologías revolucionarias para 2024

IA para todo: 10 tecnologías revolucionarias para 2024

«AI for Everything: 10 Breakthrough Technologies 2024». s. f. MIT Technology Review. Accedido 12 de enero de 2024.

Ver original


Herramientas de IA generativa como ChatGPT han alcanzado una adopción masiva en un tiempo récord y han cambiado el rumbo de toda una industria.

Cada año, los reporteros y editores de MIT Technology Review buscan tecnologías prometedoras con el potencial de tener un impacto real en el mundo. Considerando avances en todos los campos, desde biotecnología e inteligencia artificial hasta computación, robótica y tecnología climática. Estas son las diez que creemos que son más relevantes en este momento.

Aquí tienes cinco de las 10 Tecnologías Innovadoras de 2024.

  • Vivimos ahora en la era de la inteligencia artificial. Cientos de millones de personas han interactuado directamente con herramientas generativas como ChatGPT, que producen texto, imágenes, videos y más a partir de indicaciones. Su popularidad ha remodelado la industria tecnológica, convirtiendo a OpenAI en un nombre familiar y llevando a Google, Meta y Microsoft a invertir fuertemente en la tecnología.
  • Nuevos tratamientos basados en CRISPR* han estado en desarrollo durante años. En las últimas semanas de 2023, uno de Vertex se convirtió en el primero en recibir aprobación regulatoria tanto en el Reino Unido como en EE. UU. por su capacidad para curar la enfermedad de células falciformes, una condición potencialmente mortal. No será el último.
  • Las supercomputadoras más rápidas del mundo ahora pueden realizar más de un exaflop de cálculos (un 1 seguido de 18 ceros). Nuevas máquinas que pueden procesar datos científicos a estas velocidades permitirán a los científicos realizar simulaciones más sofisticadas del clima, fisión nuclear, turbulencias y más.
  • No te dejes engañar por el nombre. Las bombas de calor son electrodomésticos eléctricos que pueden enfriar y calentar edificios, y su adopción generalizada podría reducir sustancialmente las emisiones. Las ventas han aumentado en todo el mundo; en EE. UU., han superado a los hornos de gas por primera vez. Nuevos tipos que funcionan a temperaturas más altas podrían ayudar a descarbonizar la industria.
  • Elon Musk compró el sitio ahora conocido como X en 2022, y prácticamente nada ha sido igual desde entonces. Despidió a la mayoría del personal y prescindió de la moderación de contenido, ahuyentando a anunciantes y usuarios por igual. Ahora, a medida que alternativas como Bluesky, Threads y otros ganan terreno, la plaza central ha dado paso a salas privadas.

* CRISPR es una familia de secuencias de ADN encontradas en los genomas de organismos procariotas como bacterias y arqueas. Estas secuencias se derivan de fragmentos de ADN de bacteriófagos que previamente habían infectado al procariota. Se utilizan para detectar y destruir el ADN de bacteriófagos similares durante infecciones posteriores.