Archivo de la categoría: Tecnologías de la información

Uso y percepción de la inteligencia Artificial en la universidad

AI. White PaperAI Perceptions at the University of Baltimore. University of Baltimore, 2024

Texto completo

La Universidad de Baltimore, encuestó a su cuerpo docente, personal y estudiantes sobre la IA generativa en el otoño de 2023. Sus hallazgos ofrecen una perspectiva única sobre los efectos e implicaciones de la IA generativa en una universidad pública centrada en estudiantes de posgrado

El libro blanco, elaborado por el equipo de IA de la UBalt, profundiza en las percepciones de la Inteligencia Artificial (IA) y la IA generativa dentro de la comunidad de la UBalt, con el objetivo de descubrir las opiniones sobre el papel de la IA y sus implicaciones en la educación. En colaboración con Ithaka S+R, la universidad adaptó encuestas establecidas de la literatura sobre IA a las necesidades de su comunidad académica, incorporando preguntas cuantitativas y cualitativas para una comprensión global. La encuesta, que se distribuyó a profesores, empleados y estudiantes durante dos meses, pretendía ofrecer una imagen holística de las percepciones de la IA en toda la institución. El análisis de las respuestas a través de estadísticas descriptivas e inferenciales, junto con el análisis cualitativo, reveló valiosas ideas para los debates informados y la toma de decisiones sobre la IA en la educación.

Un hallazgo clave fue la discrepancia en la familiaridad con las herramientas de IA entre el profesorado y los estudiantes. Contrariamente a las percepciones influidas por los medios de comunicación, el profesorado mostró una mayor familiaridad con herramientas de IA como ChatGPT y GoogleBard, mientras que los estudiantes estaban más familiarizados con herramientas como Grammarly, lo que indica un menor compromiso con las herramientas de IA entre los estudiantes. Desde el punto de vista ético, el profesorado y el personal expresaron una gran preocupación por el hecho de que las herramientas de IA faciliten la deshonestidad académica, mientras que los estudiantes mostraron opiniones divididas, lo que sugiere una brecha generacional o experiencial en la percepción ética.

En cuanto a la aceptabilidad de las herramientas de IA, los estudiantes y el profesorado diferían notablemente. Aunque ambos grupos estaban moderadamente de acuerdo en utilizar herramientas de IA como ChatGPT, los estudiantes mostraron una mayor aprobación de los recursos en línea, los grupos de estudio y los servicios de tutoría, lo que podría reflejar diferentes niveles de comodidad con las herramientas digitales en entornos académicos. Los estudiantes consideraron que las herramientas de IA, especialmente ChatGPT, son beneficiosas para el aprendizaje personalizado y la gamificación, lo que refleja una visión más optimista sobre el potencial de la IA para revolucionar las experiencias de aprendizaje. Por el contrario, el profesorado se mostró más cauto, indicando un enfoque prudente de la integración de la IA en la educación.

Cualitativamente, la encuesta reveló diversas perspectivas sobre el papel de la IA en el mundo académico, reconociendo su potencial transformador en la personalización del aprendizaje y el aumento de la investigación, junto con la preocupación por la disminución de las habilidades de pensamiento crítico y los riesgos de deshonestidad académica. Estas percepciones subrayan la importancia de la integración de la alfabetización en IA en los planes de estudio y la promoción del uso responsable de la IA.

En conclusión, estos hallazgos guían al equipo de IA de UBalt en la remodelación de la narrativa en torno a la IA generativa en el mundo académico, centrándose en el desarrollo de la alfabetización en IA, el uso ético y las medidas para prevenir el mal uso. Este enfoque proactivo pretende integrar la IA de forma responsable en la educación, mejorando las experiencias de aprendizaje y respetando al mismo tiempo las normas éticas. Al comprender y abordar estas percepciones, la Universidad de Baltimore se posiciona como líder en innovación educativa impulsada por la IA, preparando a su comunidad para un futuro en el que la IA desempeñe un papel fundamental en la educación.

Ideas clave:

  • Discrepancia en la familiaridad con herramientas de IA: El estudio revela que los profesores muestran una mayor familiaridad con herramientas avanzadas de IA en comparación con los estudiantes, desafiando la percepción común.
  • Percepción de la utilidad de la IA en el aprendizaje: Los estudiantes consideran que las herramientas de IA son vitales para mejorar su aprendizaje, ya que hacen que el contenido educativo sea más accesible y comprensible, y pueden impulsar su competencia y autonomía.
  • Desafíos en la integración de la IA: Se señalan preocupaciones sobre cómo la excesiva dependencia de la IA puede erosionar las habilidades de pensamiento crítico, aunque algunos creen que puede mejorarlas. Además, se destacan preocupaciones éticas, como la deshonestidad académica y la autoría de contenido original.
  • Diferencias entre estudiantes y profesores: Los estudiantes muestran una mayor apertura hacia el uso de la IA en el aula en comparación con los profesores, quienes adoptan un enfoque más cauteloso y moderado.
  • Oportunidades de la IA en la educación: A pesar de los desafíos y preocupaciones éticas, se reconocen las oportunidades que ofrece la IA en la educación, como mejorar la escritura académica, nivelar el campo de juego para ciertos grupos de estudiantes y personalizar el aprendizaje.
  • Necesidad de un enfoque equilibrado: Se enfatiza la importancia de abordar de manera equilibrada la integración de la IA en la educación, considerando tanto sus beneficios potenciales como sus implicaciones éticas, y escuchando las perspectivas tanto de profesores como de estudiantes.

Herramienta de mapeo de empleos con Inteligencia Artificial para seguir la creación de empleos en IA

UMD-LinkUp AI Maps

UMD-LinkUp, una colaboración entre la Escuela de Negocios Robert H. Smith de la Universidad de Maryland, LinkUp Job Market Data y Outrigger Group, lanzó UMD-LinkUp AI Maps, la primera herramienta del mundo para mapear la creación de empleos que requieren habilidades en inteligencia artificial.

AI Maps utiliza datos de empleo de LinkUp para visualizar la expansión de empleos en IA en todo el país, permitiendo a los usuarios seguir la creación de empleos en IA mensualmente, clasificar los estados por su participación en esos empleos y realizar un análisis detallado por sectores económicos, áreas metropolitanas y condados. Además, permite determinar la Intensidad de IA de una región: la relación entre sus empleos en IA y todas las demás publicaciones.

Para mejorar la precisión, UMD-LinkUp AI Maps utiliza un modelo de lenguaje grande (LLM) afinado en lugar de enfoques basados en palabras clave, lo que resulta en una precisión superior al 90% en comparación con las verificaciones manuales. Anil K. Gupta, co-líder del proyecto, destaca el uso de LLM altamente especializados para filtrar empleos en IA de manera precisa y oportuna.

Un análisis inicial de hallazgos está disponible en el documento blanco «From West to the Rest», que revela un aumento en los empleos en IA a pesar de una disminución en los empleos de TICs en general. El informe identifica regiones con una alta participación de empleos en IA, como la región de Washington, D.C., debido a la adopción de nuevas tecnologías por parte de agencias federales y contratistas de defensa y aeroespaciales.

Perplexity: un motor de búsqueda construido con tecnologías IA modernas

Perplexity

El motor de búsqueda de Perplexity está construido completamente desde cero utilizando inteligencia artificial, mostrando lo que se puede lograr con las tecnologías de IA modernas. El autor destaca las capacidades del motor de búsqueda de Perplexity y cómo les ha proporcionado resultados de búsqueda relevantes y precisos.


Este innovador motor de búsqueda, impulsado por una inteligencia artificial de última generación, va más allá de los listados tradicionales. Ofrece respuestas completas, contextualizadas y en lenguaje natural. Se presenta como un buscador conversacional, una herramienta que proporciona respuestas precisas a preguntas complejas utilizando modelos de lenguaje avanzados. Su capacidad para ofrecer respuestas está limitada por las capacidades de la inteligencia artificial y los resultados de las búsquedas.

Perplexity AI fue fundado en 2022 por Andy Konwinski, Aravind Srinivas, Denis Yarats y Johnny Ho. Los cuatro fundadores se conocieron mientras trabajaban en Google AI, donde estaban involucrados en el desarrollo de modelos de lenguaje grandes. Estaban frustrados por la falta de una buena manera de acceder y utilizar el conocimiento contenido en estos modelos, por lo que decidieron iniciar su propia empresa para abordar este problema.

El nombre «Perplexity» fue elegido porque refleja el objetivo de la empresa de proporcionar a los usuarios respuestas precisas e informativas a sus preguntas, incluso si esas preguntas son complejas o desafiantes. La misión de la empresa es «democratizar el acceso al conocimiento» facilitando que cualquiera pueda aprender y explorar nuevos temas. Perplexity AI también está desarrollando varias otras funciones, como la capacidad de generar código, escribir tablas y resolver problemas matemáticos.

En comparación con ChatGPT, Perplexity AI tiene acceso a internet en tiempo real para ofrecer respuestas actualizadas. Además, mientras que ChatGPT puede ofrecer respuestas que pueden no ser verificables, Perplexity AI proporciona las fuentes de donde ha obtenido la información, permitiendo a los usuarios verificarla por sí mismos. Ambos modelos destacan por su capacidad para contextualizar la información, lo que permite mantener conversaciones fluidas. Por ejemplo, Perplexity AI puede entender la secuencia de preguntas y respuestas relacionadas.

Comparado con Google, Perplexity AI ofrece una diferencia significativa al comprender la pregunta y elaborar una respuesta coherente utilizando fuentes relevantes, en lugar de simplemente devolver resultados basados en SEO. En resumen, Perplexity AI combina la capacidad de conversación de ChatGPT con la profundidad y precisión de búsqueda de Google.

Guía para el Uso de Inteligencia Artificial Generativa (GenAI) en la Investigación Académica de la Universidad de Cornell

Generative AI in Academic Research: Perspectives and Cultural Norms. (s. f.). Research & Innovation. Recuperado 22 de enero de 2024, de https://research-and-innovation.cornell.edu/generative-ai-in-academic-research/

PDF

Un grupo de trabajo multidisciplinario de profesores y personal de Cornell ha publicado un informe que ofrece perspectivas y pautas prácticas para el uso de la inteligencia artificial generativa (GenAI) en la práctica y difusión de la investigación académica de Cornell.

El informe, publicado el 15 de diciembre, marca el primer paso para establecer un conjunto inicial de perspectivas y normas culturales para los investigadores de Cornell, líderes de equipos de investigación y personal de administración de la investigación. El grupo de trabajo fue liderado por Krystyn Van Vliet, vicepresidenta de investigación e innovación.

A principios del semestre de otoño, Cornell emitió un informe que ofrecía orientación a los profesores para enseñar en la era de ChatGPT y otras tecnologías de GenAI. Y el 5 de enero, Cornell emitió su tercer y último informe relacionado con GenAI, con orientación sobre la inteligencia artificial generativa en la administración; los tres informes se encuentran en el sitio web de AI de IT@Cornell.

El informe de investigación aborda el uso de GenAI en cuatro etapas del proceso de investigación:

  • Concepción y ejecución: incluye la ideación, revisión de literatura, generación de hipótesis y otras partes del proceso de investigación «interno» por parte del individuo y el equipo de investigación, antes de la divulgación pública de ideas o resultados de investigación.
  • Diseminación: incluye la divulgación pública de ideas y resultados de investigación, incluidas publicaciones en revistas revisadas por pares, manuscritos, libros y otras obras creativas.
  • Traducción: incluye la reducción de hallazgos o resultados de investigación a la práctica, que puede adoptar la forma de invenciones patentadas o derechos de autor.
  • Financiamiento y cumplimiento de acuerdos de financiamiento: incluye propuestas que buscan financiamiento para planes de investigación, así como el cumplimiento de las expectativas de patrocinadores o políticas gubernamentales de EE. UU. relevantes para Cornell.

Como señala el informe, además de funciones tan ubicuas como revisión ortográfica y gramatical, la inteligencia artificial ya se utiliza como herramienta en actividades relacionadas con la investigación, como análisis de datos y recuperación de documentos, pero solo para aquellos con experiencia programando. GenAI permitiría que estas herramientas sean accesibles para más personas, incluidos investigadores y personal de apoyo.

«Estas tecnologías en rápida evolución tienen el potencial de provocar cambios transformadores en la investigación académica, pero representan un territorio inexplorado, con grandes oportunidades y riesgos significativos», dijo Natalie Bazarova, profesora de comunicación en la Facultad de Agricultura y Ciencias de la Vida y viceprovost asociada en la Oficina del Vicepresidente de Investigación e Innovación (OVPRI). «En nuestro informe, proporcionamos pautas y salvaguardias para garantizar que la investigación se realice con los más altos niveles de integridad, alentando al mismo tiempo la exploración de estas nuevas herramientas y fronteras de investigación de GenAI».

David Mimno, miembro del grupo de trabajo y profesor asociado de ciencia de la información en la Facultad de Computación e Información de Ann S. Bowers de Cornell, describe su percepción general de la tecnología como «optimista con precaución».

«Mientras hay muchas oportunidades valiosas y útiles, que solo crecerán a medida que las personas descubran nuevas formas de utilizar los sistemas, hay mucha incertidumbre, tecnología que cambia rápidamente y límites fundamentales», dijo. «En este momento, estamos en una zona muy peligrosa donde los sistemas son lo suficientemente buenos como para que las personas confíen en ellos, pero no lo suficientemente buenos como para que deban confiar en ellos».

El grupo de trabajo presenta las posibilidades y los peligros potenciales de la tecnología emergente: «GenAI proporciona al usuario una sensación de poder en su aparente asistencia intelectual a pedido, lo que, como era de esperar, también implica la necesidad de asumir responsabilidades. Los grupos y proyectos de investigación académica a menudo incluyen múltiples usuarios con diferentes etapas de contribución, diferentes grados de experiencia y liderazgo, y diferentes responsabilidades con respecto a la integridad de la investigación y la traducción de los resultados de la investigación al impacto en la sociedad».

El informe incluye una sección de preguntas y respuestas centrada en las mejores prácticas y casos de uso para cada una de las cuatro etapas de investigación que pueden servir como iniciadores de discusión para las comunidades de investigación, así como un resumen de las políticas de publicación comunitarias existentes con respecto al uso de GenAI en investigación por parte de financiadores, revistas, sociedades profesionales y colegas.

OpenAI anuncia una estrategia para prevenir la desinformación electoral utilizando su tecnología de IA, con el objetivo de salvaguardar las elecciones en más de 50 países

OpenAI ha presentado un plan para evitar el uso indebido de sus herramientas de inteligencia artificial en la difusión de desinformación electoral, ya que los votantes de más de 50 países se preparan para emitir sus votos en elecciones nacionales este año.

La startup de inteligencia artificial con sede en San Francisco delineó salvaguardias, que incluyen políticas existentes e iniciativas nuevas, para abordar preocupaciones sobre el posible mal uso de sus potentes herramientas de inteligencia artificial generativa que pueden generar rápidamente texto e imágenes.

Los pasos de OpenAI implican prohibir la creación de chatbots que se hagan pasar por candidatos reales o gobiernos, tergiversar procesos de votación o desalentar el voto. Además, la empresa planea marcar digitalmente las imágenes de inteligencia artificial creadas con su generador de imágenes DALL-E para rastrear su origen. OpenAI también se asociará con la Asociación Nacional de Secretarios de Estado para dirigir a los usuarios a información precisa sobre la logística de votación.

Aunque se considera un paso positivo, el éxito de estas medidas dependerá de su implementación. La empresa reconoce la necesidad de vigilancia y un monitoreo riguroso para abordar los desafíos planteados por la desinformación electoral generada por inteligencia artificial.

.

OpenAI no se entrenará con datos del New York Times tras la demanda interpuesta por el periódico a ChatGPT

News, B. (2024, enero 16). OpenAI Doesn’t Want to Train on New York Times Data After Lawsuit, Altman Says—BNN Bloomberg. BNN. https://www.bnnbloomberg.ca/openai-doesn-t-want-to-train-on-new-york-times-data-after-lawsuit-altman-says-1.2022691

Sam Altman, CEO de OpenAI, ha declarado que la inteligencia artificial no necesita grandes cantidades de datos de entrenamiento de editoriales como The New York Times, en respuesta a las acusaciones de que su startup está utilizando material con derechos de autor. Altman señaló que la creencia de que se requieren todos los datos de entrenamiento y que estos son muy valiosos no es generalmente cierta, y afirmó que no desean entrenar con los datos del New York Times.

OpenAI está en medio de una importante iniciativa para asegurar acceso a contenidos de noticias después de ser demandada por el Times y Microsoft, su mayor inversor, por supuestamente causar miles de millones de dólares en daños por violación de derechos de autor. Las asociaciones con editoriales son cruciales para el futuro de OpenAI, ya que equilibra la necesidad de datos precisos y oportunos con la atención pública sobre la procedencia de esos datos.

La compañía está en conversaciones con varios editores, incluyendo CNN, Fox Corp. y Time, para obtener licencias de contenido noticioso. Altman destacó que su objetivo es proporcionar información de diferentes fuentes cuando los usuarios lo soliciten y mencionó que algunos editores desean asociarse con ellos, mientras que otros no.

Antes de la demanda, OpenAI y el Times estuvieron en contacto desde abril para negociar una licencia, pero no lograron llegar a un acuerdo. La empresa también enfrenta demandas colectivas de escritores, como Sarah Silverman, George R.R. Martin y Michael Chabon.

A pesar de las tensiones con algunos editores, OpenAI ha alcanzado acuerdos con la Associated Press para acceder a sus archivos y firmó un acuerdo de tres años en diciembre con Axel Springer SE para utilizar el contenido de la compañía mediática alemana por una suma no revelada.

Altman concluyó que gran parte de la investigación de OpenAI se centra en aprender más a partir de cantidades más pequeñas de datos de alta calidad.

El papel de la inteligencia artificial en la edición.

People plus machines: the role of artificial intelligence in publishing.  Frontier Economics. Publishers Association,2020. 65 p. Disponible en: https://www.publishers.org.uk/wp-content/uploads/2020/10/People-plus-machines-The-role-of-Artificial-Intelligence-in-Publishing_FINAL.pdf

El gobierno del Reino Unido ha colocado un fuerte énfasis e inversión pública en la Estrategia Industrial, destacando a la Inteligencia Artificial (IA) como impulsora de la innovación empresarial y el crecimiento futuro de la productividad. La Asociación de Editores (Publishers Association) ha solicitado a Frontier Economics que realice una evaluación fundamentada en evidencia sobre el papel de la IA en el sector editorial.

Este informe es el primer análisis sistemático de la inteligencia artificial (IA) en la industria editorial del Reino Unido. Basándonos en entrevistas del sector, estudios de caso y una encuesta a toda la industria, desarrollamos una taxonomía de casos de uso de la IA en la edición, junto con evidencia sobre los comportamientos y actitudes de los editores en relación con la inversión en inteligencia artificial.

  • La inteligencia artificial (IA) se está aplicando en toda la cadena de valor por parte de algunos editores académicos, de educación y consumidores para obtener beneficios tanto para sus organizaciones (como una mejor protección de propiedad intelectual, descubrimiento de contenido, predicción de mercado y otras perspicacias estratégicas) como para sus clientes (al realizar tareas de búsqueda y resumen rutinarias y generar nuevas ideas, la IA está liberando a investigadores, autores, maestros y consumidores para enfocarse en tareas de valor añadido o creativas).
  • En general, la mayoría de los editores, independientemente de su tamaño y sector, consideran que la IA será importante en los próximos cinco años. De los editores que encuestamos que ya están invirtiendo en IA, la mayoría ha obtenido beneficios, y todos esperan hacerlo en los próximos años.
  • La inversión en IA en el sector acaba de comenzar. Los editores más grandes están liderando el impulso. La mayoría de las inversiones comenzaron en los últimos tres años. Los editores utilizan pequeños equipos internos de investigación en IA y colaboran con startups de tecnología AI e investigadores universitarios. Para aumentar los niveles de inversión en IA de los editores y lograr mayores beneficios para los consumidores, el sector debe superar varios obstáculos de inversión, incluida la falta de habilidades técnicas en IA y la conciencia general de los beneficios de la IA, las dificultades para implementar soluciones de IA con las infraestructuras de TI existentes y en flujos de trabajo aislados, la importancia de la certeza legal con respecto a la ley de propiedad intelectual (PI) del Reino Unido y, para los editores más pequeños, los significativos costos iniciales de inversión asociados con la investigación e implementación de IA.
  • Recomendamos que la industria y el gobierno en el Reino Unido trabajen juntos para aumentar la conciencia sobre cuestiones clave de inversión en IA, fomentar la participación e identificar soluciones políticas y otras para abordarlas. Las áreas clave de políticas incluyen: garantizar la certeza legal con respecto a la ley de PI del Reino Unido; fomentar la colaboración entre editores, pymes enfocadas en la IA y la academia; y ayudar a las pymes editoras a acceder a financiamiento y habilidades en IA.

Aplicación de la IA Generativa: recomendaciones y consideraciones para las escuelas públicas

Generative AI Implementation: Recommendations and Considerations
for PK-13 Public Schools
. North Carolina: North Carolina Dept. of Public Instruction, 2024

Texto completo


Estas recomendaciones y consideraciones para la implementación de inteligencia artificial generativa han sido creadas como una forma de compartir información y recursos para orientar la implementación responsable de herramientas de inteligencia artificial generativa y guiar la alfabetización en inteligencia artificial en las Escuelas Públicas de Carolina del Norte. Ten en cuenta que, dado que la inteligencia artificial generativa es una tecnología emergente y está cambiando rápidamente, al igual que las leyes y normativas que la rigen, este es un documento en constante actualización que se modificará según sea necesario para reflejar los cambios que ocurran en este entorno tan dinámico. La última actualización aparecerá en la parte inferior de cada página para tu referencia.

Estas pautas han sido organizadas en torno a las cinco áreas de enfoque del Plan de Aprendizaje Digital de Carolina del Norte, que guía la enseñanza y el aprendizaje digital en las escuelas públicas de Carolina del Norte. El Plan de Aprendizaje Digital fomenta el uso seguro de tecnología innovadora para preparar a los estudiantes para el futuro escolar y laboral, mejorar los resultados estudiantiles y respaldar el uso adecuado de la tecnología para avanzar en el aprendizaje.

Este documento está estructurado en torno a las cinco áreas de enfoque del Plan de Aprendizaje Digital de Carolina del Norte, como se muestra en este gráfico. La Oficina de Enseñanza y Aprendizaje Digital, ubicada dentro del Departamento de Instrucción Pública de Carolina del Norte (NCDPI), apoya a los educadores en el uso seguro de la inteligencia artificial generativa para mejorar el aprendizaje estudiantil. Si necesitas ayuda para implementar la inteligencia artificial generativa en tu distrito o escuela, por favor comunícate con tu Consultor Regional de Enseñanza y Aprendizaje Digital o con el Catalizador de Aprendizaje Innovador.

Elsevier anuncia el lanzamiento de Scopus AI

Scopus AI 

Elsevier, líder mundial en información científica y análisis de datos, lanza hoy Scopus AI, un producto de inteligencia artificial generativa para ayudar a los investigadores e instituciones de investigación a obtener resúmenes rápidos y precisos y perspectivas de investigación que apoyen la colaboración y el impacto social. Scopus AI se basa en el contenido de confianza de Scopus de más de 27.000 revistas académicas, de más de 7.000 editores de todo el mundo, con más de 1.800 millones de citas, e incluye más de 17 millones de perfiles de autores. El contenido de Scopus es examinado por un consejo independiente de científicos y bibliotecarios de renombre mundial que representan a las principales disciplinas científicas.

Desde el lanzamiento alfa en agosto de 2023, miles de investigadores de todo el mundo han probado Scopus AI. Sus comentarios han reforzado el hecho de que, a medida que evoluciona la IA generativa, los investigadores quieren investigaciones fiables y citadas que sean relevantes y altamente personalizadas para sus necesidades.

Elisenda Aguilera, investigadora de la Universidad Pompeu Fabra (España), ha participado en las pruebas de IA de Scopus y ha elaborado un preprint sobre lo que ha aprendido…

«La interfaz de Scopus AI es intuitiva y fácil de usar, permite al investigador obtener una visión general de un problema, así como identificar autores y enfoques, en una sesión de búsqueda más ágil que la convencional. Es una herramienta valiosa para revisiones bibliográficas, construcción de marcos teóricos y verificación de relaciones entre variables, entre otras aplicaciones realmente imposibles de delimitar.»

Elisenda Aguilera

Scopus AI ya está disponible en todo el mundo para los clientes de Scopus.

Fuente: Launch of Scopus AI to Help Researchers Navigate the World of Research. (2024). Www.Elsevier.Com. Recuperado 17 de enero de 2024, de https://www.elsevier.com/about/press-releases/launch-of-scopus-ai-to-help-researchers-navigate-the-world-of-research

Errores jurídicos preocupantes y generalizados en los tres modelos populares de IA

«Hallucinating Law: Legal Mistakes with Large Language Models Are Pervasive». 2024. 11 de enero de 2024. https://hai.stanford.edu/news/hallucinating-law-legal-mistakes-large-language-models-are-pervasive.

El estudio «Disturbing & pervasive errors among three popular models on a wide range of legal tasks» (GPT 3.5, Llama 2, and PaLM 2) revela lo siguiente

  • «las tasas de alucinación oscilan entre el 69% y el 88% en respuesta a consultas jurídicas específicas para los modelos lingüísticos más avanzados»
  • «el rendimiento se deteriora cuando se trata de tareas más complejas que requieren una comprensión matizada de las cuestiones jurídicas o la interpretación de textos jurídicos»
  • «jurisprudencia de tribunales inferiores… sujeta a alucinaciones más frecuentes que la jurisprudencia de tribunales superiores
  • «susceptibilidad del modelo a lo que llamamos «sesgo contrafáctico», es decir, la tendencia a asumir que una premisa fáctica en una consulta es cierta, aunque sea rotundamente errónea»