
Yann LeCun, quien formó parte de un equipo ganador del Premio Turing en 2018 por sus avances en el aprendizaje automático, respondió a las afirmaciones de otros expertos, como Sam Altman, sobre los crecientes temores de que la IA se esté desarrollando demasiado rápido. LeCun afirmó que la preocupación de que la IA pueda representar una amenaza para la humanidad es «absurdamente ridícula».
Un experto en inteligencia artificial ha declarado que las preocupaciones de que la tecnología represente una amenaza para la humanidad son «absurdamente ridículas». LeCun, conocido como el «goodfather» de la inteligencia artificial, formó parte del equipo de tres personas, junto a Yoshua Bengio y Geoffrey Hinton, que recibió el Premio Turing en 2018 por sus avances en el aprendizaje automático. Actualmente, ocupa el cargo de científico jefe de IA en Meta.
Yann LeCun afirmó: «¿Tomará el control la inteligencia artificial del mundo? No, es una proyección de la naturaleza humana sobre las máquinas». Durante el evento, LeCun afirmó que «no hay duda» de que en el futuro las computadoras serán más inteligentes que los humanos, pero señaló que aún faltan años o incluso décadas para que eso suceda, según informó la BBC. También dijo que sería un error mantener la investigación sobre IA «bajo llave». La IA será cada vez más fiable y segura, y que las preocupaciones sobre la IA eran exageradas.
La reciente proliferación de inteligencia artificial generativa, que incluye chatbots como ChatGPT y Bing, y generadores de imágenes como DALL-E y Midjourney, ha generado un acalorado debate entre expertos sobre si se está desarrollando demasiado rápido. Las preocupaciones incluyen la capacidad de la IA para desarrollar sesgos y «alucinaciones», así como su papel en la difusión de desinformación e imágenes falsas.
Algunos líderes tecnológicos, científicos e influyentes empresarios han pedido una regulación global más cercana de la IA y un mayor enfoque en la ética. El colaborador de LeCun, Bengio, Elon Musk y el cofundador de Apple, Steve Wozniak, se encontraban entre los firmantes de una carta abierta a principios de este año que pedían una pausa de seis meses en el desarrollo de la IA avanzada.
Varios expertos en IA también firmaron una declaración del Centro para la Seguridad de la IA el mes pasado, que afirmaba que «mitigar el riesgo de extinción causado por la IA debería ser una prioridad global junto con otros riesgos a escala societal como las pandemias y la guerra nuclear».
Según una encuesta realizada a los principales CEO por el Instituto de Liderazgo Ejecutivo de Yale, informada por CNN, el 34% de los encuestados afirmaron que la IA podría «destruir a la humanidad» en 10 años, y el 8% dijo que incluso podría ocurrir en cinco años. El 58% dijo que no creía que la posible catástrofe de la IA estuviera exagerada.
Sin embargo, algunas figuras con influencia en el mundo tecnológico han elogiado los numerosos casos de uso de la IA y han advertido contra la introducción de una moratoria en su desarrollo. Bill Gates, por ejemplo, dijo que aunque existen preocupaciones comprensibles sobre la IA, esta podría tener efectos positivos importantes en la atención médica, la educación y la lucha contra la crisis climática. Marc Andreessen advirtió contra el «pánico moral generalizado sobre la IA» y afirmó que las personas tienen una «obligación moral» de fomentar su desarrollo.