Archivo de la etiqueta: Tecnologías de la inforación

Diferencias entre Inteligencia Artificial, Aprendizaje Automático, Aprendizaje Profundo e Inteligencia Artificial Generativa

La Inteligencia Artificial (IA), el Aprendizaje Automático (Machine Learning), el Aprendizaje Profundo (Deep Learning) y la Inteligencia Artificial Generativa son conceptos relacionados pero distintos en el campo de la tecnología y la ciencia de datos. Aquí tienes una descripción de cada uno de ellos:

Inteligencia Artificial (IA) La IA se refiere a la creación de sistemas o programas informáticos capaces de realizar tareas que normalmente requieren de inteligencia humana y que imitan el comportamiento humano al utilizar máquinas para aprender y ejecutar tareas sin instrucciones explícitas sobre qué producir como resultado.

Aprendizaje Automático (Machine Learning) El Aprendizaje Automático es una rama de la IA que se centra en desarrollar algoritmos y modelos que permiten a las máquinas aprender de los datos y mejorar su rendimiento sin ser programadas explícitamente. Estos modelos toman datos, como por ejemplo las condiciones climáticas, y los ajustan a un algoritmo para realizar predicciones, como cuánto dinero puede generar una tienda en un día determinado.

Aprendizaje Profundo (Deep Learning) El Aprendizaje Profundo es una subárea del Aprendizaje Automático que se basa en redes neuronales artificiales con múltiples capas. Estas redes neuronales profundas son capaces de aprender representaciones jerárquicas y complejas de los datos de entrada, para ello utilizan capas de algoritmos en forma de redes neuronales artificiales para ofrecer resultados en casos de uso más complejos.

Inteligencia Artificial Generativa (Generative AI) son un subconjunto de los modelos de aprendizaje profundo que pueden generar nuevo contenido basado en datos de entrenamiento. Estos modelos utilizan técnicas de Aprendizaje Profundo para crear nuevos ejemplos que se asemejan a los datos de entrenamiento. Pueden generar imágenes, música, texto u otros tipos de contenido. La Inteligencia Artificial Generativa se utiliza en aplicaciones como la creación de arte generativo, la síntesis de voz y la generación de texto automático.

En conclusión, la IA busca replicar la inteligencia humana, el Aprendizaje Automático se basa en algoritmos para aprender de los datos, el Aprendizaje Profundo utiliza redes neuronales profundas para extraer representaciones complejas, y la Inteligencia Artificial Generativa se enfoca en la generación de contenido nuevo y original. Estas áreas se complementan entre sí y tienen aplicaciones en diversos campos de la tecnología y la investigación.

Directrices para la formulación de políticas y planes maestros de TIC en educación

Miao, Fengchun.. et. al. Directrices para la formulación de políticas y planes maestros de TIC en educación. Unesco, 2023

Texto completo

Los países de todo el mundo llevan décadas aprovechando las tecnologías de la información y la comunicación (TIC) para impulsar la educación. Estas iniciativas son conducidas por instituciones públicas y cuentan con la participación de empresas tecnológicas comerciales, lo que ha dado lugar a paradojas tales como el aumento de las desigualdades digitales y el acceso desigual a oportunidades de aprendizaje digital de alta calidad. La crisis de COVID-19 exacerbó aún más esta tendencia: al menos un tercio de los estudiantes de todo el mundo no contaba con acceso a la educación a distancia durante el punto álgido de la crisis de COVID-19 en 2020.

Esta publicación ofrece orientación a las personas a cargo de formular políticas para que, al adoptar la tecnología, los derechos humanos, la inclusión, la equidad y la igualdad de género estén en el centro de las soluciones, y las innovaciones sean consideradas como un bien común. Con base en estos principios, la publicación presenta una visión del potencial de las tecnologías, centrada en el ser humano, desde las tecnologías de bajo ancho de banda hasta las emergentes, como la Inteligencia Artificial y la Web 3.0 o ‘metaverso’. Aboga por políticas nacionales que protejan el bienestar digital de docentes y estudiantes, reduzcan y neutralicen la huella de emisión digital y eviten el ‘tecnosolucionismo’.

Esta publicación propone marcos de planeamiento de políticas y una guía iterativa para examinar la preparación digital de los sistemas educativos locales, evaluar las necesidades de estudiantes y docentes, y planificar programas nacionales de TIC en educación con los recursos necesarios. Posteriormente, profundiza en ejemplos de planes maestros nacionales sobre el uso de las TIC en diferentes modalidades de educación.

Uno de los «padres» de la IA afirma que la preocupación por que esta tecnología pueda suponer una amenaza para la humanidad es «ridícula».

Yann LeCun, quien formó parte de un equipo ganador del Premio Turing en 2018 por sus avances en el aprendizaje automático, respondió a las afirmaciones de otros expertos, como Sam Altman, sobre los crecientes temores de que la IA se esté desarrollando demasiado rápido. LeCun afirmó que la preocupación de que la IA pueda representar una amenaza para la humanidad es «absurdamente ridícula».

Un experto en inteligencia artificial ha declarado que las preocupaciones de que la tecnología represente una amenaza para la humanidad son «absurdamente ridículas». LeCun, conocido como el «goodfather» de la inteligencia artificial, formó parte del equipo de tres personas, junto a Yoshua Bengio y Geoffrey Hinton, que recibió el Premio Turing en 2018 por sus avances en el aprendizaje automático. Actualmente, ocupa el cargo de científico jefe de IA en Meta.

Yann LeCun afirmó: «¿Tomará el control la inteligencia artificial del mundo? No, es una proyección de la naturaleza humana sobre las máquinas». Durante el evento, LeCun afirmó que «no hay duda» de que en el futuro las computadoras serán más inteligentes que los humanos, pero señaló que aún faltan años o incluso décadas para que eso suceda, según informó la BBC. También dijo que sería un error mantener la investigación sobre IA «bajo llave». La IA será cada vez más fiable y segura, y que las preocupaciones sobre la IA eran exageradas.

La reciente proliferación de inteligencia artificial generativa, que incluye chatbots como ChatGPT y Bing, y generadores de imágenes como DALL-E y Midjourney, ha generado un acalorado debate entre expertos sobre si se está desarrollando demasiado rápido. Las preocupaciones incluyen la capacidad de la IA para desarrollar sesgos y «alucinaciones», así como su papel en la difusión de desinformación e imágenes falsas.

Algunos líderes tecnológicos, científicos e influyentes empresarios han pedido una regulación global más cercana de la IA y un mayor enfoque en la ética. El colaborador de LeCun, Bengio, Elon Musk y el cofundador de Apple, Steve Wozniak, se encontraban entre los firmantes de una carta abierta a principios de este año que pedían una pausa de seis meses en el desarrollo de la IA avanzada.

Varios expertos en IA también firmaron una declaración del Centro para la Seguridad de la IA el mes pasado, que afirmaba que «mitigar el riesgo de extinción causado por la IA debería ser una prioridad global junto con otros riesgos a escala societal como las pandemias y la guerra nuclear».

Según una encuesta realizada a los principales CEO por el Instituto de Liderazgo Ejecutivo de Yale, informada por CNN, el 34% de los encuestados afirmaron que la IA podría «destruir a la humanidad» en 10 años, y el 8% dijo que incluso podría ocurrir en cinco años. El 58% dijo que no creía que la posible catástrofe de la IA estuviera exagerada.

Sin embargo, algunas figuras con influencia en el mundo tecnológico han elogiado los numerosos casos de uso de la IA y han advertido contra la introducción de una moratoria en su desarrollo. Bill Gates, por ejemplo, dijo que aunque existen preocupaciones comprensibles sobre la IA, esta podría tener efectos positivos importantes en la atención médica, la educación y la lucha contra la crisis climática. Marc Andreessen advirtió contra el «pánico moral generalizado sobre la IA» y afirmó que las personas tienen una «obligación moral» de fomentar su desarrollo.

Qué es y que significa «alucinación» cuando utilizamos ChatGPT

En el contexto de la IA generativa, «alucinar» se refiere a la capacidad del modelo para generar información que puede parecer precisa y coherente, pero que en realidad no se basa en hechos reales o conocimiento verificable. Cuando un modelo de lenguaje como ChatGPT «alucina», está generando contenido que puede parecer posible, pero que no está respaldado por evidencia o información verificada.

ChatGPT es un generador de texto. No «sabe» nada y no garantiza que lo que dice sea correcto. De hecho, muchas de las cosas que proporciona son erróneas. Es importante tener en cuenta que ChatGPT, como modelo de lenguaje, aunque ha sido entrenado con una amplia variedad de datos y puede generar respuestas coherentes y contextualmente relevantes, pero no tiene acceso directo a información verificable ni a conocimiento específico más allá de lo que ha sido previamente entrenado. Por lo tanto, la información proporcionada por ChatGPT debe ser evaluada críticamente y verificada con otras fuentes confiables. Es importante tener en cuenta que la precisión de las respuestas generadas por un modelo de lenguaje depende de la calidad y la veracidad de los datos con los que fue entrenado.

Los desarrolladores de IA adoptaron el término «alucinaciones» de la psicología humana de manera intencional. Las alucinaciones en los seres humanos son percepciones de cosas que no existen realmente en el entorno circundante. De manera similar, en el contexto de la IA, se produce una alucinación cuando el modelo generativo de IA produce resultados que difieren de lo que se consideraría normal o esperado. Se dice que alucina cuando el modelo genera información que puede parecer plausible pero que no está respaldada por hechos verificables. Esto puede deberse a la forma en que el modelo asocia conceptos y genera respuestas a partir de los datos con los que fue entrenado. Por ejemplo, cuando se le presiona sobre la búsqueda de determinada bibliografía, la herramienta puede proporcionarnos libros o artículos que nunca fueron escritos, pero que podrían haber sido escritos por un autor determinado. Esta desviación puede llevar a la generación de información incorrecta, incoherente o fantasiosa.

Los expertos insisten en que estas herramientas son tan buenas como sus datos subyacentes, que sabemos que a veces pueden ser datos erróneos, sesgados y incluso diseñados para engañar. Por consiguiente, aunque el resultado generado por un modelo sea gramaticalmente correcto y suene sensato, puede contener información falsa, o información «inventada» por el modelo. De ahí viene el concepto de “Alucinación”. Las alucinaciones se producen porque, aunque los modelos se entrenan con enormes cantidades de datos textuales, no son capaces de entender el mundo de forma humana ni de verificar la veracidad de la información como harían las personas.

Si bien se han implementado medidas para mejorar la precisión y la coherencia de las respuestas generadas por ChatGPT, todavía es posible que ocasionalmente produzca información incorrecta o inexacta. Como un proceso en desarrollo continuo, OpenAI sigue trabajando en mejorar sus modelos y mitigar estos problemas.

Pero es muy importante que los usuarios sean críticos y verifiquen la información proporcionada buscando información adicional de fuentes confiables y contrastar los datos para obtener una imagen precisa. Ya que no se puede determinar la veracidad de un hecho generado por la IA basándose únicamente en el aspecto del texto o en la apariencia de veracidad que pueda tener. Los modelos de lenguaje como ChatGPT están diseñados para generar respuestas coherentes y contextualmente relevantes, lo que puede hacer que la información parezca verosímil y correcta. Sin embargo, la generación de texto se basa en patrones y datos previos en lugar de tener acceso directo a información verificable o conocimiento actualizado.

Experiencias innovadoras en ambientes de aprendizaje híbridos y virtuales

Experiencias innovadoras en ambientes de aprendizaje híbridos y virtuales. Coordinación. Coordinación, María Esther Avelar Álvarez, Claudia Islas Torres, Claudia Cintya Peña. Estrada. Barcelona: Octaedro, 2023.

Texto completo

Los integrantes de la Red de Investigadores y Docentes de México, Andorra y España (RIDMAE), de conformidad con sus actividades académicas, acordaron desarrollar una serie de ensayos en los que se reúnen experiencias y reflexiones de docentes y directivos de universidades de distintas partes del mundo que integran dicha red, respecto del proceso de enseñanza-aprendizaje durante la crisis sanitaria derivada de la covid-19 en 2020, en la cual se utilizó como medida emergente la educación en línea para continuar con el servicio educativo.

En esta obra se comparten aprendizajes de lo vivido en el proceso educativo durante la pandemia, a partir de los cuales docentes y autoridades educativas analizan y replantean su quehacer en distintos niveles y dimensiones, para transitar desde las formas clásicas de enseñar hacia modalidades híbridas o virtuales. Se reconoce la necesidad de revisar los modelos pedagógicos en relación con las modalidades educativas y los requisitos necesarios para pasar de un modelo presencial a un modelo híbrido o totalmente en línea.

La RIDMAE tiene la firme convicción del valor de compartir con libre acceso los trabajos de sus integrantes, con el fin de enriquecer la discusión y el análisis y de difundir las buenas prácticas para el fortalecimiento de la educación en sus distintas modalidades.

El aula del futuro

Peña-Acuña, Beatriz (coord.). El aula del futuro. Barcelona: Octaedro, 2023.

Texto completo

El contenido de este volumen presenta y describe qué es el aula del futuro a los agentes pertenecientes a la educación (profesorado, docentes en formación inicial, profesionales de la educación, padres, etc.). De modo que muestra, de forma amena y en un lenguaje asequible, el modelo teórico-tecnológico de los espacios de aprendizaje de forma aplicada. Asimismo, quedan enmarcados dentro de este tipo de espacio inteligente las metodologías docentes activas, los recursos tecnológicos y las experiencias educativas y percepciones del profesorado tanto en la universidad como en colegios en los que se ha implantado.