Archivo de la etiqueta: Inteligencia artificial

SLMs: Modelos de lenguaje de IA pequeños, eficientes y especializados

Kumar, Ajay; Thomas H. Davenport; y Randy Bean. “The Case for Using Small Language Models.” Harvard Business Review, 8 de septiembre de 2025. https://hbr.org/2025/09/the-case-for-using-small-language-models?ab=HP-hero-latest-2

Los SLMs (Small Language Models) son modelos de IA más pequeños y eficientes que los LLMs, capaces de procesar lenguaje natural con menos recursos.
Destacan por su rapidez, bajo consumo y fácil implementación en dispositivos locales

Un SLM (Small Language Model, o modelo de lenguaje pequeño) es un modelo de inteligencia artificial entrenado para procesar y generar lenguaje natural, pero con muchos menos parámetros y recursos que los grandes modelos de lenguaje (LLMs, como GPT-4 o Gemini).

Hasta ahora, la revolución de la IA se ha definido por el tamaño: cuanto más grande es el modelo, más ambiciosas las expectativas. No obstante, se está produciendo un giro notable: los modelos de lenguaje pequeños (SLMs, por sus siglas en inglés), podrían convertirse en la columna vertebral de la próxima generación de empresas inteligentes. Esta tendencia sugiere que el futuro podría favorecer el enfoque de “más pequeño = más inteligente”.

La rapidez, eficiencia y rentabilidad de los SLMs son factores clave que los hacen atractivos frente a los grandes modelos de lenguaje (LLMs). Además, su diseño compacto facilita su implementación en dispositivos periféricos, lo que permite una toma de decisiones en tiempo real sin depender de la nube. Estas características los hacen ideales para aplicaciones como vehículos autónomos, asistentes de voz y tecnología portátil.

Los SLMs también consumen menos energía y requieren menos recursos, lo que los convierte en una alternativa sostenible y más accesible para su adopción masiva. Por otro lado, la posibilidad de afinarlos para dominios específicos mejora su precisión y reduce las respuestas irrelevantes, algo especialmente útil en sectores como salud, finanzas y agricultura.

Otro punto destacado es que los SLMs ofrecen mayor control, privacidad y transparencia, lo que favorece el procesamiento seguro de datos y el cumplimiento normativo. Su integración en infraestructuras existentes es sencilla, lo que permite un desarrollo ágil y la creación rápida de prototipos sin necesidad de realizar cambios de infraestructura significativos.

¿Es realmente posible detectar con precisión el contenido generado por inteligencia artificial?

Edwards, Benj. “Why AI Detectors Think the US Constitution Was Written by AI.” Ars Technica, 14 de julio de 2023.

Los expertos en inteligencia artificial de la UMD, Soheil Feizi y Furong Huang, comparten sus últimas investigaciones sobre los grandes modelos lingüísticos como ChatGPT, las posibles implicaciones de su uso y lo que nos depara el futuro.

Los detectores actuales se han convertido en herramientas populares en entornos educativos y profesionales, pero la evidencia muestra que su fiabilidad es muy limitada. En muchos casos, un texto auténticamente humano puede ser clasificado como artificial, mientras que uno generado por IA puede pasar inadvertido. Este margen de error refleja que los algoritmos todavía no cuentan con mecanismos suficientemente sólidos para distinguir entre los matices del lenguaje humano y los patrones que produce una máquina.

Una de las principales dificultades radica en que los detectores suelen basarse en métricas lingüísticas como la “perplejidad”, que miden la complejidad o previsibilidad de un texto. Sin embargo, la escritura humana no siempre responde a un mismo patrón: puede ser sencilla o repetitiva, como ocurre en exámenes, informes técnicos o incluso documentos históricos. Este es el motivo por el que se han dado casos llamativos, como el de la Constitución de Estados Unidos, que fue identificada erróneamente como un texto creado por inteligencia artificial. Este tipo de fallos no solo muestran las limitaciones técnicas, sino también los riesgos de utilizar estas herramientas como árbitros definitivos de la autenticidad textual.

El artículo también menciona que las estrategias de detección basadas en marcas de agua digitales, que se presentan como una alternativa, tampoco están libres de problemas. Aunque permiten incrustar señales invisibles en los textos generados por IA para poder rastrearlos, estas señales pueden ser eliminadas o modificadas mediante técnicas de reescritura o edición, lo que vuelve a poner en entredicho la seguridad del sistema. Así, tanto los detectores tradicionales como las técnicas más recientes pueden ser engañados con relativa facilidad.

A pesar de estas limitaciones, hay un horizonte de mejora. Investigadores apuntan que la fiabilidad de los detectores podría aumentar si se entrenan con más datos de referencia de escritura humana y si, en lugar de analizar frases o fragmentos cortos, se valoran textos completos en los que se puedan identificar patrones más amplios. De este modo, aunque hoy la detección de IA se perciba como una tarea frágil y llena de falsos positivos, aún existe la posibilidad de desarrollar métodos más precisos y robustos que permitan distinguir con mayor seguridad entre lo humano y lo artificial.

La cultura en la era de la inteligencia artificial: ¿creación humana o producción algorítmica?

Rothman, Joshua. “A.I. Is Coming for Culture.The New Yorker, August 25, 2025. https://www.newyorker.com/magazine/2025/09/01/ai-is-coming-for-culture

Joshua Rothman abre reflexionando sobre cómo, en la era de los smartphones, nuestra rutina cotidiana está profundamente marcada por el algoritmo

Estamos acostumbrados a que los algoritmos guíen nuestras elecciones. Sin embargo, cuando las máquinas pueden generar sin esfuerzo el contenido que consumimos, ¿qué queda para la imaginación humana?

El ensayo reflexiona sobre cómo la inteligencia artificial está transformando la producción cultural. Comienza con la idea de que nuestra vida diaria ya está profundamente mediada por algoritmos que moldean lo que leemos, vemos y escuchamos. A este ritmo, la IA no solo multiplicará la cantidad de contenidos disponibles —música, vídeos, textos o imágenes—, sino que dará lugar a nuevas formas de creación todavía imprevisibles.

Sin embargo, las limitaciones de estas obras generadas por máquinas: carecen de individualidad, intención y agencia artística, pues se basan en patrones preexistentes. Aun así, para muchos creadores la IA representa una oportunidad, ya que reduce costes, facilita la experimentación y permite realizar proyectos antes inalcanzables.

También se plantea un escenario futuro en el que los contenidos culturales no sean productos fijos, sino experiencias creadas en tiempo real para cada usuario, diseñadas para provocar una reacción inmediata. Esto transformaría radicalmente la forma en que concebimos el arte y el entretenimiento.

El texto concluye con una advertencia: si todo lo que consumimos procede de máquinas, corremos el riesgo de diluir la creatividad humana. Pero, paradójicamente, esta situación podría reforzar nuestro aprecio por lo genuinamente humano en la cultura, frente a la avalancha de producciones artificiales.

Evaluación de la eficacia de las herramientas de detección de contenido generado por IA

Elkhatat, Ahmed M., Khaled Elsaid y Saeed Almeer. «Evaluating the efficacy of AI content detection tools in differentiating between human and AI-generated text.» International Journal for Educational Integrity 19, artículo 17 (2023). https://doi.org/10.1007/s40979-023-00140-5.

Se evalúa la eficacia de diversas herramientas de detección de contenido generado por inteligencia artificial (IA), como OpenAI, Writer, Copyleaks, GPTZero y CrossPlag, para diferenciar entre textos escritos por humanos y generados por IA.

Para la investigación, se generaron 15 párrafos con el modelo ChatGPT 3.5, 15 con el modelo 4 y 5 respuestas de control escritas por humanos, todas sobre el tema de torres de enfriamiento en procesos de ingeniería. Las herramientas evaluadas incluyeron OpenAI, Writer, Copyleaks, GPTZero y CrossPlag.

Los resultados indicaron que las herramientas de detección fueron más precisas al identificar contenido generado por GPT-3.5 que por GPT-4. Sin embargo, al aplicarlas a las respuestas de control escritas por humanos, las herramientas mostraron inconsistencias, produciendo falsos positivos y clasificaciones inciertas. Estos hallazgos subrayan la necesidad de desarrollar y perfeccionar las herramientas de detección de contenido generado por IA, ya que el contenido generado por IA se vuelve más sofisticado y difícil de distinguir del texto escrito por humanos.

Aunque las herramientas de detección de IA ofrecen una funcionalidad valiosa, su fiabilidad y precisión actuales son limitadas. Es crucial abordar estos desafíos para garantizar una evaluación justa y precisa en diversos contextos académicos y profesionales.

Capacidades de generación de texto de las principales herramientas de inteligencia artificial

Las capacidades de generación de texto de las principales herramientas de inteligencia artificial varían significativamente de un modelo a otro, y esto determina no solo la longitud de las respuestas que pueden ofrecer, sino también su utilidad en diferentes contextos.

En el caso de GitHub Copilot, su límite de 2.048 tokens (aproximadamente entre 1.000 y 1.500 palabras) responde a su orientación hacia la asistencia en programación. Copilot no está diseñado para elaborar ensayos largos o análisis extensos, sino para generar fragmentos de código, explicaciones puntuales y apoyo inmediato a desarrolladores. Su límite reducido refleja la necesidad de respuestas rápidas, concisas y contextualizadas en un entorno de trabajo técnico.

Por otro lado, ChatGPT en su versión GPT-3.5 ya dobla esa capacidad, llegando a los 4.096 tokens, lo que equivale a entre 1.500 y 3.000 palabras. Este salto le permite manejar conversaciones más fluidas, mantener cierta coherencia en textos largos y elaborar respuestas con un mayor nivel de detalle. Sin embargo, al tratarse de una versión intermedia, todavía presenta dificultades cuando se le pide que mantenga un hilo narrativo o argumentativo muy prolongado.

La mejora con ChatGPT (GPT-4) es significativa: su límite de 8.192 tokens le otorga la posibilidad de trabajar con entre 3.000 y 6.000 palabras, lo que ya le permite redactar documentos académicos completos, informes extensos o incluso capítulos de libros. Esta capacidad no solo se traduce en mayor volumen de texto, sino en una mejor gestión del contexto, lo que evita repeticiones y aporta coherencia a producciones largas.

En la misma línea, Claude (Anthropic) se sitúa en un rango muy competitivo, con unos 9.000 tokens (aproximadamente 3.500 a 6.500 palabras). Aunque la diferencia con GPT-4 en números absolutos no parece tan grande, su arquitectura está pensada para procesar instrucciones complejas y sostener interacciones prolongadas, lo que lo convierte en una herramienta atractiva para quienes necesitan trabajar con grandes volúmenes de información en una sola sesión.

El caso de Gemini (Google DeepMind) es particularmente interesante porque ofrece una gran flexibilidad: sus modelos abarcan desde 8.192 hasta 32.768 tokens, lo que equivale a textos de entre 3.000 y 12.000–25.000 palabras. Esto lo sitúa como uno de los modelos más potentes en cuanto a capacidad de entrada y salida de información, lo cual es clave en tareas de investigación avanzada, redacción de informes técnicos de gran extensión o síntesis de múltiples fuentes documentales.

Finalmente, Perplexity AI, aunque no tiene un límite fijo, se mueve en torno a las 6.000 palabras, situándose en un rango intermedio. Su particularidad no está tanto en la longitud como en su integración con la búsqueda web, lo que le da una ventaja en la actualización de la información frente a modelos cerrados.

Dominios de conciencia sobre la IA en la educación: un marco integral para su integración ética y pedagógica

Dilkes, Dani, y Centre for Teaching and Learning. Domain of AI-Awareness for Education. London, Ontario: Western University, Instructional Technology Resource Centre (ITRC), 2025. eCampusOntario Pressbooks. https://ecampusontario.pressbooks.pub/aihighereducation

El libro Domain of AI-Awareness for Education, desarrollado por Dani Dilkes y el Centre for Teaching and Learning, propone un marco comprensivo para guiar la integración de la inteligencia artificial generativa (IA) en entornos educativos. Organizado en siete dominios fundamentales, ofrece una mirada multidimensional que abarca desde conocimientos técnicos hasta consideraciones éticas, emocionales y pedagógicas —e incluso cómo estos se entrelazan con valores y contextos sociopolíticos más amplios.

  1. Conocimiento (Knowledge): Esta sección introduce los principios básicos de la IA generativa, como qué es y cómo funcionan los modelos de lenguaje (LLMs), además de reflexionar sobre su presencia en el entorno educativo.
  2. Ética (Ethics): Explora temas críticos como la privacidad, propiedad intelectual, accesibilidad, impacto ambiental, sesgos y desinformación. Propone reflexiones profundas sobre las implicaciones éticas que emergen al emplear IA en contextos educativos.
  3. Afecto (Affect): Se centra en la inteligencia emocional y cómo las respuestas emocionales hacia la IA influyen en nuestra disposición a utilizarla, particularmente en entornos docentes y de aprendizaje.
  4. Habilidades (Skill): Aborda técnicas concretas como la ingeniería de prompts (prompt engineering) y la evaluación crítica de los resultados generados por IA. Aquí se busca fortalecer la competencia práctica para un uso consciente y eficaz.
  5. Valores (Values): Incluye la reflexión sobre los valores individuales y profesionales, la integridad académica y cómo dichos valores informan la práctica docente. Destaca también la importancia de redactar declaraciones en los sílabos que clarifiquen las políticas de IA de manera alineada con valores institucionales.
  6. Pedagogía (Pedagogy): Revisa cómo la IA puede integrarse en los procesos de enseñanza y aprendizaje: desde su impacto en los resultados de aprendizaje y diseño de evaluaciones, hasta niveles de integración de IA y su uso como herramienta de andamiaje (scaffolding).
  7. Interconexión (Interconnectedness): Aunque no siempre se detalla por separado en los capítulos, este dominio aborda cómo la IA se inserta en sistemas más amplios, considerando relaciones sociales, políticas y estructurales.

Finalmente, el recurso es dinámico: se actualiza periódicamente para adaptarse a la evolución de la IA generativa y refinar este marco de concienciación

BookAI.chat: herramienta de inteligencia artificial que permite a los usuarios interactuar con libros a través de una interfaz de chat

https://www.bookai.chat/

BookAI.chat es una herramienta de inteligencia artificial que permite a los usuarios interactuar con libros a través de una interfaz de chat. Solo necesitas proporcionar el título y el autor del libro, y la IA se encarga del resto, generando respuestas basadas en el contenido del libro. Esta plataforma utiliza modelos avanzados de lenguaje como GPT-3 y GPT-4 para ofrecer una experiencia de lectura interactiva y personalizada.

Características principales:

  • Interacción con cualquier libro: Puedes agregar nuevos libros a tu biblioteca proporcionando su título y autor, sin necesidad de leerlos previamente.
  • Multilingüe: Soporta más de 30 idiomas, lo que permite interactuar con los libros en tu lengua materna o en el idioma que estás aprendiendo.
  • Basado en IA avanzada: Utiliza los modelos de lenguaje GPT-3 y GPT-4 para generar respuestas coherentes y contextuales basadas en el contenido del libro.
  • Acceso gratuito: La plataforma ofrece acceso gratuito, permitiendo a los usuarios explorar y conversar con una amplia variedad de libros sin costo alguno.

Esta herramienta es ideal para cualquier persona interesada en profundizar en el contenido de un libro sin necesidad de leerlo completamente. Sin embargo, es importante tener en cuenta que, aunque la IA puede proporcionar información útil y respuestas detalladas, la interpretación y el análisis crítico del texto siguen siendo esenciales para una comprensión profunda.

La mayoría de las personas usan IA regularmente en el trabajo, pero casi la mitad admite hacerlo de manera inapropiada

«Major Survey Finds Most People Use AI Regularly at Work, but Almost Half Admit to Doing So InappropriatelyThe Conversation, 25 de agosto de 2025. https://theconversation.com/major-survey-finds-most-people-use-ai-regularly-at-work-but-almost-half-admit-to-doing-so-inappropriately-255405

Un estudio de la Universidad de Tecnología de Queensland revela que la mayoría de los empleados usa IA regularmente en el trabajo, pero casi la mitad admite hacerlo de manera inapropiada. Muchos desconocen las limitaciones de estas herramientas, lo que puede generar contenido inexacto o conflictos de responsabilidad. Los expertos recomiendan formación, políticas claras y cultura de responsabilidad digital para un uso ético y eficaz de la IA.

Un reciente estudio realizado por la Universidad de Tecnología de Queensland analiza cómo los empleados utilizan la inteligencia artificial (IA) en su entorno laboral y revela hallazgos preocupantes. La encuesta, que incluyó a más de 1.000 trabajadores de diferentes sectores, muestra que la mayoría de ellos emplea herramientas de IA, como ChatGPT, de manera regular para redactar correos electrónicos, informes, presentaciones y otro tipo de documentación profesional. Este fenómeno refleja la rápida adopción de la IA generativa en tareas cotidianas, pero también evidencia un uso que no siempre sigue buenas prácticas ni criterios éticos claros

A pesar de su popularidad, casi la mitad de los encuestados admite utilizar la IA de manera inapropiada. Muchos no comprenden completamente cómo funcionan estas herramientas ni sus limitaciones, lo que puede derivar en la producción de contenido inexacto, sesgado o incluso plagio involuntario. Además, el estudio señala que alrededor del 30 % de los participantes ha delegado en la IA tareas que originalmente correspondían a otros colegas, generando conflictos de responsabilidad y cuestionamientos éticos en el lugar de trabajo. Los investigadores enfatizan que estas prácticas pueden afectar tanto la productividad como la confianza dentro de los equipos.

El estudio también identifica diferencias significativas según la edad y el nivel educativo de los empleados. Los trabajadores más jóvenes tienden a adoptar la IA con mayor frecuencia, pero son también los que más reportan un uso inapropiado. Por otro lado, aquellos con formación técnica tienden a utilizar estas herramientas con mayor comprensión de sus riesgos, reduciendo la probabilidad de errores o mal uso. Esto sugiere la importancia de la formación y la alfabetización digital como factores clave para un uso responsable de la IA en el trabajo.

Los expertos consultados recomiendan que las organizaciones implementen políticas claras sobre el uso de la IA, incluyendo guías de buenas prácticas, límites en la delegación de tareas y procedimientos de verificación de contenido. También se sugiere fomentar una cultura de transparencia y responsabilidad digital, asegurando que los empleados comprendan que el uso inadecuado puede tener consecuencias legales, éticas y de reputación. El objetivo es equilibrar la eficiencia que la IA ofrece con la integridad y confiabilidad del trabajo realizado.

Aunque la inteligencia artificial se ha convertido en una herramienta cotidiana en el entorno laboral, su adopción rápida sin capacitación ni supervisión adecuada puede generar riesgos importantes. La clave está en la educación digital, la claridad en las políticas internas y la cultura de responsabilidad, para que la IA mejore la productividad sin comprometer la ética, la precisión o la confianza en los equipos de trabajo.

El programa PISA integrará alfabetización mediática e inteligencia artificial (IA) en 2029

Organisation for Economic Co-operation and Development (OECD). “PISA 2029 Media & Artificial Intelligence Literacy (MAIL).” OECD, consultado April 2025. https://www.oecd.org/en/about/projects/pisa-2029-media-and-artificial-intelligence-literacy.html

Según se indica, la nueva edición pondrá en el centro del análisis y evaluación escolar competencias como el pensamiento crítico, la conciencia algorítmica y la capacidad de evaluar críticamente los medios, reflejando la necesidad de preparar a los estudiantes para un entorno digital cada vez más complejo.

El programa PISA, desarrollado por la Organización para la Cooperación y el Desarrollo Económicos (OCDE), es reconocido por evaluar las habilidades de estudiantes de 15 años en lectura, matemáticas y ciencias en contextos del mundo real. La edición de 2029 incluye un nuevo dominio innovador: la alfabetización mediática y en inteligencia artificial, conocida como MAIL (Media & Artificial Intelligence Literacy), que amplía significativamente el alcance tradicional de la evaluación. El dominio MAIL busca evaluar si los estudiantes han tenido oportunidades de aprender a participar de modo proactivo y crítico en un mundo mediado por herramientas digitales y de inteligencia artificial.

La evaluación MAIL se diseñará como un entorno simulado—incluyendo redes sociales, internet y herramientas generativas de IA—que permitirá evaluar de forma realista competencias relacionadas con el análisis de credibilidad del contenido digital, el uso ético de la IA y la colaboración en entornos digitales.

La edición de 2029 planteará una agenda educativa más adaptativa e integral, centrada en la alfabetización mediática (comprensión crítica de contenido digital y medios) y en la alfabetización sobre IA, lo que incluye entender cómo funcionan los algoritmos, cómo influyen en la sociedad y cómo interactuar con las herramientas digitales de manera ética e informada.

Este cambio significativo en PISA orienta a las escuelas y responsables de políticas educativas hacia una actualización de los currículos. Es esencial que las instituciones incluyan en sus programas de estudios contenidos específicos sobre IA y medios digitales, y que desarrollen metodologías que evalúen estas competencias emergentes. De este modo, no solo se adaptan a los cambios en las herramientas de evaluación internacional, sino que contribuyen a formar estudiantes más preparados para un mundo donde la tecnología digital y algorítmica es omnipresente.

Informe OBS: eLearning 2024: tendencias emergentes e impacto de la inteligencia artificial en la educación superior

Espino, Erika. OBS Report: eLearning 2024 – Emerging Trends and the Impact of Artificial Intelligence in Higher Education, OBS Business School, 29 October 2024.

Texto completo

El uso de IA en e-learning es cada vez más evidente: se emplea en la supervisión de evaluaciones online, servicios bibliotecarios, procesos de admisión y en el análisis del comportamiento estudiantil mediante reconocimiento emocional, predicción de rendimiento y detección temprana de abandono. Por otra parte, la IA generativa está transformando los métodos de evaluación y permitiendo verificar la autenticidad del trabajo de los estudiantes.

Pese al reconocimiento del valor de la IA tanto por estudiantes como por profesores, el estudio detecta una alfabetización digital insuficiente en ambos grupos. Este déficit dificulta el uso efectivo de las plataformas digitales. Además, se observa una disminución en el pensamiento crítico y creativo, lo cual refuerza la necesidad de promover la integridad académica y la autonomía intelectual.

Los estudiantes de educación superior utilizan habitualmente plataformas como Blackboard, Moodle, Canvas y Google Classroom durante su formación online. La mayoría de ellos valora positivamente su primera experiencia en e-learning y lo recomienda. Asimismo, los estudiantes complementan su aprendizaje con herramientas de IA como ChatGPT, traductores y asistentes virtuales, vislumbrando un gran potencial para estas tecnologías en la creación de contenidos educativos.

a gamificación se destaca como una estrategia clave para modernizar el aprendizaje online, incentivando la motivación y la competencia saludable. Se fomenta además la interacción mediante discusiones sincrónicas y asincrónicas, resolución de estudios de caso y evaluación entre pares, todo ello acompañado de espacios colaborativos como documentos compartidos y salas de trabajo grupales, fundamentales para desarrollar habilidades de comunicación y trabajo en equipo. No obstante, uno de los grandes retos persiste en diseñar programas que promuevan una mayor interacción entre estudiantes y docentes, algo que depende tanto del involucramiento del profesorado como de la iniciativa y disciplina de los alumnos.

Un desafío crítico que afecta tanto a estudiantes como a docentes es la protección de la privacidad de los datos y la seguridad de la información, materia en la que aún se está avanzando activamente.