Archivo de la categoría: Noticias

Google Scholar celebra 20 años desde su lanzamiento

«20 Things You Didn’t Know about Google Scholar». 2024. Google. 18 de noviembre de 2024. https://blog.google/outreach-initiatives/education/google-scholar-20-years/.

Google Scholar, la herramienta de búsqueda académica de Google, celebra 20 años desde su lanzamiento el 17 de noviembre de 2004. Desde entonces, se ha convertido en una plataforma esencial para investigadores, estudiantes y académicos, facilitando el acceso a artículos científicos, tesis, libros y otros recursos académicos en una amplia variedad de disciplinas. Este aniversario no solo celebra su longevidad, sino también su impacto significativo en la forma en que se realiza y se comparte la investigación académica en todo el mundo.

El origen de Google Scholar se remonta al deseo de Google de organizar la información del mundo y hacerla accesible para todos. Scholar se diseñó específicamente para satisfacer las necesidades de la comunidad académica, permitiendo a los usuarios buscar literatura científica de manera sencilla y eficiente. Desde su lanzamiento, su objetivo ha sido democratizar el acceso al conocimiento, facilitando que estudiantes y académicos, independientemente de su ubicación geográfica o recursos económicos, puedan acceder a investigaciones de calidad.

Una de las innovaciones más importantes de Google Scholar es su capacidad para ofrecer citas automáticas en diferentes formatos, como APA, MLA o Chicago, lo que simplifica enormemente el trabajo de los investigadores. También incluye herramientas como el índice h y el índice i10, que permiten medir el impacto de un investigador basado en las citas que reciben sus trabajos, lo que ha cambiado significativamente cómo se evalúa la influencia académica. Además, Google Scholar proporciona enlaces a versiones de texto completo de los documentos, cuando están disponibles, y a veces incluye acceso a copias gratuitas alojadas en repositorios institucionales o páginas personales de los autores.

Desde su creación, la base de datos de Google Scholar ha crecido de manera exponencial. Inicialmente, incluía principalmente artículos de revistas científicas, pero con el tiempo ha ampliado su alcance para abarcar capítulos de libros, actas de congresos, patentes y otros documentos académicos. Este crecimiento se ha logrado gracias a la colaboración con editoriales, universidades y bibliotecas, que trabajan con Google para indexar sus contenidos y mejorar su visibilidad en línea.

Google Scholar ha tenido un impacto profundo en la forma en que se realiza la investigación académica. En regiones con menos recursos, donde las suscripciones a revistas científicas suelen ser prohibitivamente caras, ofreciendo una alternativa accesible, permitiendo que investigadores y estudiantes accedan a información clave. Esto ha contribuido a nivelar el campo de juego en la producción y el acceso al conocimiento, algo especialmente relevante en países en desarrollo.

A pesar de sus logros, Google Scholar también enfrenta críticas y desafíos. Algunos expertos han señalado problemas en la calidad de los resultados indexados, como la inclusión de trabajos de baja calidad o predatorios. Además, su modelo de indexación no siempre es completamente transparente, lo que ha generado debates sobre su funcionamiento. Sin embargo, estos retos también destacan la necesidad de seguir innovando en el ámbito de las herramientas académicas digitales.

Con dos décadas de servicio, Google Scholar sigue siendo una herramienta vital para la comunidad académica. Su impacto ha trascendido fronteras y disciplinas, haciendo que la búsqueda y el acceso al conocimiento sean más rápidos, efectivos y democráticos. Este aniversario es un recordatorio de cómo las tecnologías digitales pueden transformar la investigación y la educación, y promete que Google Scholar continuará desempeñando un papel clave en el futuro del conocimiento global.

HarperCollins confirma que tiene un acuerdo para vender las obras de sus autores a una empresa de IA

Cole ·, Samantha. 2024. «HarperCollins Confirms It Has a Deal to Sell Authors’ Work to AI Company». 404 Media. 18 de noviembre de 2024. https://www.404media.co/harpercollins-ai-deal/.

HarperCollins, una de las editoriales más grandes del mundo, ha confirmado un acuerdo con una empresa de tecnología de inteligencia artificial (IA) para permitir el uso limitado de ciertos títulos de no ficción de su catálogo para entrenar modelos de IA. La participación de los autores en este acuerdo es opcional; ellos pueden decidir si aceptan o rechazan la propuesta.

Según un portavoz de HarperCollins, este convenio busca mejorar la calidad y el rendimiento de los modelos de IA y cuenta con restricciones claras para respetar los derechos de los autores. La editorial enfatiza que su objetivo es proteger el valor inherente de las obras de sus autores y garantizar el flujo compartido de ingresos y regalías. Además, destaca su larga tradición de innovación y exploración de nuevos modelos de negocio.

El acuerdo contempla el pago de 2.500$ por título a los autores que opten por participar, una cantidad que no es negociable. Este ofrecimiento ha generado debate, especialmente en relación con el uso de materiales protegidos por derechos de autor en el entrenamiento de modelos de IA.

Daniel Kibblesmith, autor del libro infantil Santa’s Husband, compartió en la red social Bluesky un correo de su agente que describe la propuesta de HarperCollins. En el mensaje, su agente menciona las controversias alrededor del uso de materiales con derechos de autor para entrenar IA, destacando que muchas empresas lo hacen sin reconocer ni compensar a los creadores originales. También se alude al temor de que estos modelos puedan hacer obsoletos a los autores en el futuro.

Kibblesmith criticó la decisión de HarperCollins, calificándola como una búsqueda desesperada de ganancias a corto plazo. Señaló que este desarrollo podría dividir el mercado en dos tipos de lectores: aquellos que buscan una conexión humana auténtica a través de los libros y aquellos que prefieren contenido personalizado y generado por IA, diseñado para evitar cualquier desafío intelectual.

El uso de obras protegidas por derechos de autor para entrenar IA ha sido un tema polémico. Numerosas empresas han sido acusadas de aprovecharse de materiales sin compensar a sus creadores. Este acuerdo de HarperCollins es una de las primeras instancias donde una gran editorial propone explícitamente un trato transparente y compensatorio, aunque limitado, para el uso de este tipo de contenido.

En general, el tema pone de relieve las tensiones entre la innovación tecnológica y la preservación del valor del trabajo creativo humano, planteando preguntas sobre el futuro de los derechos de autor y la sostenibilidad de las profesiones creativas en la era de la IA.

The New York Times exige a Perplexity cesar el uso no autorizado de su contenido para IA

Davis, Wes. «The New York Times Warns AI Search Engine Perplexity to Stop Using Its Content». The Verge, 15 de octubre de 2024. https://www.theverge.com/2024/10/15/24270774/new-york-times-cease-and-desist-letter-perplexity-ai-search-engine.

New York Times ha enviado una carta de cesación y desista a la empresa emergente de motores de búsqueda Perplexity, exigiendo que dejen de utilizar su contenido, según informó The Wall Street Journal el 15 de octubre de 2024.

La demanda se produce en el contexto de una disputa legal más amplia, ya que el Times está demandando a OpenAI y Microsoft por presuntamente usar su contenido sin permiso para entrenar sus modelos de inteligencia artificial. En este caso, el periódico acusa a Perplexity de haber estado utilizando su contenido sin autorización, algo que también había sido señalado previamente por otras empresas como Forbes y Condé Nast.

La carta enviada por el Times, de acuerdo con The Wall Street Journal, incluye el siguiente pasaje:

«Perplexity y sus socios comerciales se han enriquecido injustamente al utilizar, sin autorización, el periodismo expresivo, cuidadosamente redactado, investigado y editado del Times sin licencia.»

El New York Times tiene una política clara que prohíbe el uso de su contenido para entrenar modelos de inteligencia artificial. En este sentido, han bloqueado explícitamente varios rastreadores de IA, incluido el de Perplexity, mediante el archivo robots.txt, que indica a los motores de búsqueda qué URLs pueden indexar.

Por su parte, Perplexity ha respondido a las acusaciones a través de un comunicado de su portavoz, Sara Platnick, en el que afirman no estar «robando» contenido para el entrenamiento de modelos de IA. En cambio, defiende que se dedica a «indexar páginas web y mostrar contenido factual» como citas para informar las respuestas a las preguntas de los usuarios. Además, Perplexity sostiene que «ninguna organización posee los derechos de autor sobre los hechos», argumentando que este principio permite un ecosistema de información abierto y libre, lo que también beneficia a los medios de comunicación al poder informar sobre temas previamente cubiertos por otros.

En respuesta a la carta de cesación, Perplexity tiene plazo hasta el 30 de octubre de 2024 para presentar su respuesta. La empresa, sin embargo, ha intentado suavizar la situación, enfatizando su interés en colaborar con los editores de contenido. Aravind Srinivas, CEO de Perplexity, expresó NYT que la compañía «no tiene interés en ser el antagonista de nadie» y que está dispuesta a trabajar con todos los editores, incluido el New York Times.

Este conflicto ocurre en medio de las crecientes tensiones sobre el uso de contenido protegido por derechos de autor por parte de modelos de IA. Durante el verano, Perplexity ya había sido acusada de plagio, lo que la llevó a cerrar acuerdos con varios editores, ofreciendo ingresos por publicidad y suscripciones gratuitas a socios como Fortune, Time, y The Texas Tribune. Sin embargo, la disputa con el New York Times pone de manifiesto el creciente choque entre las empresas tecnológicas emergentes y los medios de comunicación tradicionales en cuanto al uso y la compensación por su contenido digital.

Cómo la Inteligencia Artificial Generativa (Gen AI) ya está impactando el mercado laboral

Ozge Demirci, Jonas Hannane and Xinrong Zhu Research: How Gen AI Is Already Impacting the Labor Market. Harvard Business Publishing:, 2024

Texto original

El artículo aborda cómo las herramientas de inteligencia artificial generativa (Gen AI), como ChatGPT y las herramientas de generación de imágenes como DALL-E 2, Midjourney y Stable Diffusion, están transformando el mercado laboral, especialmente en plataformas de freelancing. Los investigadores analizan cómo estas tecnologías afectan la demanda de trabajo, la competencia entre trabajadores humanos y máquinas, y la evolución de las habilidades requeridas en diversos sectores laborales.

El estudio se centra en el impacto de estas tecnologías en el mercado de freelancing, utilizando datos de 1.388.711 publicaciones de trabajo en plataformas como Upwork y Fiverr entre julio de 2021 y julio de 2023. Se clasificaron las publicaciones en tres tipos de trabajos: aquellos manuales, los propensos a la automatización y los relacionados con la creación de imágenes. El análisis se enfoca en cómo la introducción de herramientas de IA generativa ha afectado la demanda de estos tipos de trabajos.

Los hallazgos del estudio revelan que la adopción de ChatGPT y las herramientas de generación de imágenes ha causado una disminución significativa en la demanda de trabajos propensos a la automatización. En particular, los trabajos relacionados con la escritura y el desarrollo de software fueron los más afectados, con una disminución del 30.37% en la cantidad de publicaciones. Asimismo, las tareas de diseño gráfico y modelado 3D experimentaron una reducción en la demanda de 17.01% durante el primer año tras la introducción de herramientas como DALL-E 2.

Además de la disminución de la demanda, se observó un aumento en la competencia entre los trabajadores humanos. Para los trabajos automatizables, el número de propuestas enviadas por freelancer por cada trabajo publicado aumentó un 8.57%, lo que indica una intensificación de la competencia en un mercado que se ve inundado tanto por freelancers como por IA. Esto ha generado un entorno donde los empleadores tienen más opciones, lo que pone a los trabajadores humanos en competencia directa con las máquinas.

Otro hallazgo importante fue el aumento de la complejidad de los trabajos. Los trabajos que sobrevivieron a la automatización ahora requieren habilidades más especializadas. Por ejemplo, los trabajos relacionados con la escritura y el desarrollo de software que sobrevivieron a la automatización tuvieron un aumento del 2.18% en su complejidad. Además, los salarios para estos trabajos aumentaron en un 5.71%, lo que refleja un cambio hacia trabajos más complejos que requieren un mayor nivel de habilidad y conocimiento en la integración de la IA.

El estudio también destaca el aumento de la demanda de habilidades relacionadas con la IA. Se observó un incremento significativo en las publicaciones que mencionaban explícitamente herramientas como ChatGPT, reflejando el creciente interés de las empresas por contratar trabajadores que puedan integrar la IA en sus procesos. Esto sugiere que, si bien algunas tareas son reemplazadas por la IA, otras requieren una integración más avanzada de estas tecnologías, lo que abre nuevas oportunidades para los trabajadores que se especialicen en estas áreas.

Finalmente, el artículo señala una brecha de género en el uso de tecnologías como ChatGPT. Las mujeres, en particular, eran menos propensas a utilizar ChatGPT en comparación con los hombres, lo que resalta una disparidad en la adopción de la IA en los mismos roles. Este hallazgo subraya la necesidad de implementar programas de capacitación inclusiva para abordar esta desigualdad y asegurar que todos los trabajadores tengan las mismas oportunidades para adaptarse a los cambios tecnológicos.

En conclusión, la inteligencia artificial generativa está transformando el mercado laboral al automatizar ciertas tareas, pero también al crear nuevos roles que requieren habilidades especializadas. Las empresas que adopten estrategias de capacitación en IA y fomenten una cultura de adaptabilidad tendrán mayores oportunidades de prosperar en este nuevo entorno. La clave será complementar las capacidades humanas con la IA, en lugar de reemplazarlas por completo, para maximizar la eficiencia sin perder creatividad ni supervisión humana.

El valor de la biblioteca se incrementa en la era de la IA

Tanzi, Nick. «The Library’s Value Is Increased in the Age of AI». The Digital Librarian, 7 de noviembre de 2024. https://the-digital-librarian.com/2024/11/07/the-librarys-value-is-increased-in-the-age-of-ai/.

El artículo de Nick Tanzi titulado The Library’s Value is Increased in the Age of AI discute cómo las bibliotecas, lejos de perder valor frente al auge de la inteligencia artificial (IA), ven ampliada su relevancia debido a tres pilares fundamentales: privacidad, exactitud e humanidad.

El valor de las bibliotecas en la era de la inteligencia artificial (IA) ha aumentado considerablemente debido a su capacidad para adaptarse a nuevas tecnologías, como ya lo ha demostrado en el pasado con la llegada de la web, Google, los eReaders y otras innovaciones. En este contexto, las bibliotecas siguen desempeñando un papel fundamental, especialmente en áreas donde la IA presenta nuevos desafíos. Temas como la privacidad, la precisión de la información, la humanidad en un mundo cada vez más tecnológico y la necesidad de encontrar un equilibrio entre la tecnología y las personas son ahora más relevantes que nunca.

En la era de la IA, la privacidad se convierte en un bien valioso. Las tecnologías emergentes tienden a recolectar datos personales de los usuarios para alimentar sus modelos, lo que ha suscitado preocupaciones sobre la explotación de la información personal. En contraste, las bibliotecas defienden firmemente la privacidad de sus usuarios, garantizando que no se compartan datos personales sin consentimiento explícito. La ALA (American Library Association) establece que las bibliotecas deben proteger la privacidad, un principio que resulta especialmente relevante dado el creciente uso de IA. Las bibliotecas, por lo tanto, deben adoptar políticas claras para el uso de herramientas de IA que no comprometan la privacidad de los usuarios, educar sobre cómo gestionar la huella digital y asegurarse de que los proveedores de servicios de IA respeten estos valores.

En un mundo saturado de contenido generado por IA, como imágenes manipuladas, deepfakes y «alucinaciones» de IA, la capacidad de discernir información precisa y objetiva es crucial. Las bibliotecas se posicionan como guardianes de la información confiable, ofreciendo acceso a colecciones de libros, bases de datos y otros recursos verificados. Sin embargo, como señala Luke Swarthout, optar por excluir la IA del internet es cada vez más inviable. Las bibliotecas deben enseñar a sus usuarios a identificar contenidos generados por IA, a evaluar la fiabilidad de estas fuentes y a utilizar la IA de manera crítica. En este sentido, las bibliotecas se convierten en centros esenciales para la alfabetización mediática y la alfabetización en IA.

La tecnología, y en especial la IA, puede deshumanizar las interacciones, como lo evidencian los sistemas automatizados de atención al cliente y los chatbots. Las bibliotecas, en cambio, se distinguen por su enfoque en la humanidad: son instituciones locales, profundamente conectadas con sus comunidades. Su personalización del servicio se basa en el contacto humano, y no en la recolección de grandes volúmenes de datos. Las bibliotecas ofrecen un espacio para la interacción social, lo que es cada vez más importante en una era de creciente aislamiento social.

En definitiva, las bibliotecas enfrentan el reto de integrar las tecnologías emergentes como la IA sin comprometer los principios fundamentales que las definen: privacidad, exactitud y humanidad. A medida que la IA se vuelve omnipresente, es crucial que las bibliotecas mantengan su identidad y su relevancia, ofreciendo servicios que respeten estos valores mientras navegan por los cambios tecnológicos.

Fundamentalmente se ubraya que las bibliotecas, lejos de ser obsoletas en la era digital, desempeñan un papel más relevante que nunca, actuando como baluartes de privacidad, fuentes de información precisa y centros de interacción humana en un mundo cada vez más automatizado.

Anthropic advierte de la catástrofe de la IA si los gobiernos no regulan en 18 meses

Anthropic. «The Case for Targeted RegulationAnthropic, 31 de octubre de 2024. https://www.anthropic.com/news/the-case-for-targeted-regulation.

La regulación de la IA es esencial para balancear los beneficios y los riesgos. Si bien es un desafío complejo, es crucial implementarla pronto para evitar consecuencias negativas y asegurar el progreso en áreas clave como la ciencia y la medicina.

Los sistemas de inteligencia artificial (IA) están avanzando rápidamente, ofreciendo enormes beneficios potenciales en áreas como la ciencia, la medicina y la economía. Sin embargo, también presentan riesgos significativos, como el uso indebido en ciberseguridad o biotecnología, y la posibilidad de comportamientos autónomos y destructivos de los propios sistemas. Ante estos riesgos, se urge a los gobiernos a implementar políticas de IA en los próximos 18 meses, ya que el margen para prevenir estos riesgos está cerrándose rápidamente.

Una regulación bien diseñada y específica puede permitir que se aprovechen los beneficios de la IA, mitigando al mismo tiempo sus peligros. Sin embargo, si se retrasan las acciones, el resultado podría ser una regulación ineficaz que limite el progreso sin evitar los riesgos. Se propone una regulación dirigida que se enfoque en tres principios clave:

  1. Urgencia: La IA ha avanzado significativamente en el último año, con mejoras notables en tareas de codificación, razonamiento y matemáticas, lo que aumenta tanto las aplicaciones positivas como las posibilidades de uso indebido, especialmente en áreas como la ciberseguridad y la biotecnología.
  2. Política de Escalamiento Responsable (RSP): En Anthropic, la empresa responsable del artículo, se ha implementado una política llamada «Escalamiento Responsable», que ajusta las medidas de seguridad y mitigación de riesgos en función de los niveles de capacidad de los modelos de IA. Esta política se adapta de forma continua según el desarrollo de los modelos y su potencial de generar riesgos catastróficos.
  3. Elementos clave para la regulación de la IA:
    • Transparencia: Las empresas deben ser obligadas a publicar sus políticas de seguridad y las evaluaciones de riesgo de cada nueva generación de modelos de IA.
    • Incentivos para mejores prácticas de seguridad: La regulación debe fomentar que las empresas desarrollen políticas efectivas que prevengan riesgos graves.
    • Simplicidad y enfoque: La regulación debe ser precisa y evitar cargas innecesarias o reglas complicadas que puedan obstaculizar el progreso.

Se destaca la necesidad urgente de que los gobiernos y la industria trabajen juntos para desarrollar un marco regulatorio efectivo, que no solo reduzca los riesgos catastróficos de la IA, sino que también permita a la industria seguir innovando. Esto debe lograrse de manera flexible, considerando el rápido avance de la tecnología y adaptando las políticas a las mejores prácticas emergentes.

Aumento del 200 % en la censura de libros en escuelas públicas de EE.UU

«Banned in the USA: Beyond the Shelves». 2024. PEN America. 1 de noviembre de 2024. https://pen.org/report/beyond-the-shelves/.


Durante el año escolar 2023-2024 se registró un número récord de censura de libros en escuelas públicas de EE. UU., con más de 10,000 instancias de prohibición que afectaron a más de 4,000 títulos únicos. Este año, un mayor porcentaje de libros fue retirado por completo de las bibliotecas escolares. Florida e Iowa lideraron las prohibiciones, con más de 4.500 y 3.600 casos respectivamente.

PEN America, la organización que defiende la libertad de expresión, reportó que las prohibiciones de libros en escuelas públicas de EE. UU. han alcanzado niveles alarmantes durante el año escolar 2023-2024. Con un total de 10.046 instancias de censura en todo el país, el número representa un incremento del 200 % respecto al ciclo anterior.

Desde que comenzó la crisis de censura en 2021, se han contabilizado casi 16.000 casos de prohibición de libros en distritos escolares. Este fenómeno, impulsado principalmente por individuos y grupos con puntos de vista conservadores extremos, afecta especialmente a obras que exploran temas como raza, sexualidad e identidad de género, así como temas de salud mental y experiencias difíciles que los jóvenes enfrentan en la realidad.

El informe de PEN America, Banned in the USA: Beyond the Shelves, resalta que el 43 % de los libros prohibidos durante el último año fueron retirados por completo del acceso escolar, sin posibilidad de revisión ni acceso con restricciones. Esto supone un aumento notable respecto a años anteriores, cuando solo el 27 % de los libros censurados se eliminaban completamente. Los estados de Florida e Iowa se posicionan como líderes en estas prohibiciones, con 4.500 y 3.600 libros censurados respectivamente debido a leyes estatales que limitan el acceso a ciertos contenidos en las escuelas. Juntos, ambos estados representan más de 8.200 instancias de censura.

Entre los libros más censurados están títulos reconocidos como Nineteen Minutes de Jodi Picoult, una novela que aborda temas como la violencia escolar y que fue censurada en al menos 50 distritos escolares. Otros títulos frecuentemente prohibidos incluyen Looking for Alaska de John Green, The Perks of Being a Wallflower de Stephen Chbosky, Sold de Patricia McCormick y Thirteen Reasons Why de Jay Asher. Autores como Ellen Hopkins, Sarah J. Maas y Stephen King también han visto múltiples de sus obras censuradas; por ejemplo, 74 títulos de Stephen King y 22 de Maas fueron prohibidos en diferentes distritos escolares.

Jodi Picoult expresó su preocupación por esta censura, argumentando que su libro Nineteen Minutes, lejos de ser dañino, ha ayudado a muchos jóvenes a comprender sus sentimientos y desafíos. La autora señaló que la censura está privando a los estudiantes de herramientas esenciales para enfrentar un mundo cada vez más complejo y dividido. Las prohibiciones, dijo, «no están ayudando a los niños, sino que los están perjudicando».

Además de las prohibiciones directas, PEN America identifica una creciente «censura suave» en el sistema educativo. Esto incluye la cancelación de visitas de autores, la suspensión de ferias de libros y el cierre temporal de bibliotecas escolares para revisar sus colecciones. Este tipo de censura es más difícil de rastrear, ya que los libros son eliminados discretamente o los maestros y bibliotecarios se ven intimidados para evitar ciertos títulos. Esta situación ha creado un ambiente de autocensura en el que muchos educadores evitan introducir contenidos controvertidos, limitando así las oportunidades de los estudiantes para desarrollar habilidades de pensamiento crítico, empatía y comprensión cultural.

PEN America ha estado documentando el aumento de la censura en la educación pública de EE. UU. desde 2021 y continúa denunciando cómo estas restricciones afectan el derecho de los jóvenes a leer y aprender sin barreras. Según el informe, en el ciclo 2023-2024, 4,231 títulos únicos fueron censurados, impactando a 2,662 autores, 195 ilustradores y 31 traductores. Las prohibiciones han tenido un impacto desproporcionado en títulos que incluyen personajes LGBTQ+, personajes de color y temas relacionados con la sexualidad, lo cual refleja un sesgo en las políticas de censura.

Este aumento en las prohibiciones y en la censura general en las escuelas de EE. UU. es un síntoma de una creciente batalla cultural en torno al contenido educativo y el derecho de los estudiantes a acceder a una amplia variedad de perspectivas. Según PEN America, este ambiente restrictivo amenaza con limitar la capacidad de las próximas generaciones para entender y enfrentar los desafíos de la sociedad moderna.

TikTok publicará libros físicos a través de su empresa editorial 8th Note Press.

«TikTok’s Innovative New Idea: Printing Books on Paper», A. O. L. 26 de octubre de 2024. https://www.aol.com/tiktoks-innovative-idea-printing-books-135910213.html.

TikTok, a plataforma conocida por su comunidad de amantes de los libros llamada «BookTok», está dando un paso innovador al incursionar en la publicación de libros físicos a través de su empresa editorial, 8th Note Press. Tras el éxito rotundo de BookTok, que ha impulsado notablemente las ventas de libros, ByteDance, la empresa matriz de TikTok, ha decidido colaborar con Zando, una editorial independiente, para lanzar una línea de novelas impresas a partir de 2025.

Esta nueva estrategia de publicación se centrará en géneros populares en TikTok, como el romance y la ficción juvenil. Jacob Bronstein, director editorial y de marketing de 8th Note Press, expresó su entusiasmo por la colaboración, destacando que permitirá ampliar su alcance y ofrecer libros en diversos formatos. Zando también enfatiza su compromiso de presentar voces diversas que resuenen con los lectores de las generaciones millennial y Z.

El fenómeno de BookTok ha catapultado a la fama tanto a autores noveles como consagrados, como es el caso de Colleen Hoover, cuya novela «It Ends with Us» experimentó un incremento del 650% en ventas después de volverse viral en TikTok. Ahora, TikTok busca anticiparse a las tendencias en línea para publicar libros en respuesta a los intereses de sus usuarios.

8th Note Press planea publicar entre 10 y 15 libros al año, reflejando las experiencias diversas de su audiencia juvenil. Autores emergentes, como Sanibel, están emocionados por esta nueva oportunidad y reconocen el carácter innovador de la editorial, que se encuentra en una etapa de crecimiento.

Informe de IFLA sobre la conectividad a Internet y la Inclusión Digital Global

IFLA. «The New Offline Internet Consortium Report Outlines a New Gold Standard for Internet Connectivity». Accedido 18 de octubre de 2024.

Texto completo

El nuevo informe del Consorcio de Internet Offline de la Federación Internacional de Asociaciones e Instituciones Bibliotecarias (IFLA) propone un «nuevo estándar de oro para la conectividad a Internet». A diferencia de los enfoques convencionales que dividen a las personas en las que tienen o no acceso a Internet, el concepto de «Internet offline» plantea un enfoque intermedio. Este sugiere soluciones innovadoras de hardware, software, contenido local y habilidades digitales que permiten acceso significativo a contenido digital sin requerir una conexión permanente a Internet.

El informe resalta la necesidad de entender cómo incluso el acceso indirecto al web mundial puede ayudar a enfrentar problemas como la pobreza, la censura y la falta de infraestructura. Propone redefinir el acceso a la información, promover contenido local y explorar cómo integrar estrategias de Internet offline en políticas de inclusión digital. Esto busca lograr un acceso equitativo a la información a nivel global, abordando la exclusión digital y promoviendo un acceso universal.

¿Se deben citar los chatbots de Inteligencia Artificial en un trabajo de investigación?

Antunes Nogueira, L.; Rein, Jan Ove. «Guest Post – The Case For Not Citing Chatbots As Information Sources (Part I) and (Part II)». The Scholarly Kitchen, 20 de junio de 2024. https://scholarlykitchen.sspnet.org/2024/06/19/chatbots-to-cite-or-not-to-cite-part-1/

Este artículo invita a reflexionar sobre las implicaciones éticas y prácticas del uso de IA generativa en la producción académica y la necesidad de normas más claras para su uso y citación.

Se revisan las políticas de 17 editores y organizaciones académicas, encontrando un consenso general sobre que los chatbots no cumplen los requisitos para ser considerados autores, ya que no pueden asumir la responsabilidad por los textos generados. Sin embargo, no existe una postura clara sobre si deben ser citados como fuentes.

Algunos, como International Committee of Medical Journal Editors (ICMJE) y Elsevier, son tajantes en su recomendación de no citarlos, mientras que la American Psychological Association (APA) ha ofrecido directrices sobre cómo citar chatbots como herramientas, sin admitirlos como fuentes de información.

El problema radica en que los textos generados por chatbots, aunque coherentes, no son rastreables ni verificables, lo que lleva a muchos a cuestionar su validez como fuentes. El caso de la retracción de un artículo por el uso de citas incorrectas generadas por ChatGPT ejemplifica los riesgos involucrados.

Citar es una norma sociocultural y ética en la academia, y sus razones incluyen:

  • Atribuir crédito a las ideas ajenas.
  • Proveer evidencia para respaldar un argumento.
  • Situar el trabajo dentro de un debate académico.
  • Facilitar que otros verifiquen las fuentes de información.

El uso de chatbots introduce un nuevo desafío, ya que sus respuestas, aunque parecen coherentes, no representan fuentes verificables de información, sino productos generados probabilísticamente por algoritmos.

El debate sobre si los chatbots deben ser citados como fuentes se divide en dos posturas:

  1. Pro-citación: Se argumenta que si el contenido no es propio, debe citarse para evitar el plagio, lo que implicaría tratar al chatbot como una fuente.
  2. Anti-citación: Quienes se oponen a citarlos como fuentes destacan que los textos generados por IA no pueden ser rastreados ni verificados, lo que los hace inadecuados para ser tratados como fuentes. Sugieren que los chatbots deben considerarse como herramientas, similares a otras usadas en la investigación, y que su uso debe ser explicado en las secciones metodológicas del trabajo.

Los autores concluyen que la irrupción de los chatbots obliga a reconsiderar las prácticas de citación y a discernir entre herramientas de asistencia y fuentes de información verificables.

Se proponen varias razones para no citar chatbots. Primero, citar chatbots entraría en conflicto con las políticas académicas, ya que citar a estos sistemas podría legitimar a las empresas detrás de la tecnología como autores, lo que comprometería la responsabilidad intelectual. Además, citar chatbots podría contaminar el ecosistema informativo al difundir datos generados por IA, lo que erosionaría la calidad de los modelos de lenguaje y promovería la desinformación.

Otro punto relevante es que los chatbots no fueron diseñados como máquinas de verdad. Su funcionamiento se basa en cálculos probabilísticos de secuencias de palabras, no en la verificación de hechos. Por ello, los resultados que generan pueden incluir falsedades (hallucinations). Sin embargo, los chatbots podrían ser útiles en tareas de extracción de información, siempre que se basen en bases de datos confiables.

El texto también plantea que crear reglas que obliguen a citar a los chatbots sería impráctico y enviaría un mensaje erróneo, ya que las herramientas actuales no pueden detectar de manera confiable el uso de textos generados por IA. Además, legitimar la práctica de citar chatbots como fuentes podría llevar al mal uso de estas herramientas, lo que resultaría contraproducente para la academia. En lugar de ello, se propone una inversión en alfabetización en IA y un enfoque normativo flexible, basado en normas socioculturales que evolucionen con el tiempo y que establezcan prácticas adecuadas para el uso de estas herramientas.

En conclusión, se sugiere que las instituciones académicas deben adoptar una postura clara que desincentive la citación de chatbots como fuentes de información, y que promueva su uso adecuado como herramientas de apoyo en el proceso de investigación. Las instituciones académicas, junto con editoriales y revistas, tienen el poder de guiar la normalización de las prácticas sobre la divulgación del uso de IA, lo cual sería crucial para mantener la integridad del ecosistema informativo.