
Google’s Rush to Win in AI Led to Ethical Lapses, Employees Say. (2023, abril 19). Bloomberg.Com. https://www.bloomberg.com/news/features/2023-04-19/google-bard-ai-chatbot-raises-ethical-concerns-from-employees
La prisa de Google por competir en IA está provocando lagunas éticas, según sus empleados El gigante de las búsquedas está haciendo concesiones en materia de desinformación y otros perjuicios para ponerse a la altura de ChatGPT
A medida que se aceleran los avances en inteligencia artificial, surgen nuevas preocupaciones sobre sus efectos sociales. Los grandes modelos lingüísticos, las tecnologías en las que se basan ChatGPT y Bard, ingieren enormes volúmenes de texto digital de artículos de noticias, publicaciones en redes sociales y otras fuentes de Internet, y luego utilizan ese material escrito para entrenar software que predice y genera contenido por sí mismo cuando se le da una indicación o consulta. Esto significa que, por su propia naturaleza, los productos corren el riesgo de regurgitar discursos ofensivos, dañinos o inexactos.
Poco antes de que Google presentara Bard, su chatbot de IA, al público en marzo, pidió a los empleados que probaran la herramienta.
La conclusión de un trabajador: Bard era «un mentiroso patológico», según las capturas de pantalla de la discusión interna. Otro lo calificó de «descojonante». Un empleado escribió que cuando le pedían sugerencias sobre cómo aterrizar un avión, Bard solía dar consejos que provocarían un accidente; otro dijo que daba respuestas sobre submarinismo «que probablemente provocarían lesiones graves o la muerte».
En febrero, un empleado planteó sus problemas en un grupo de mensajes interno: «Bard es peor que inútil: por favor, no lo lancen». La nota fue vista por casi 7.000 personas, muchas de las cuales coincidían en que las respuestas de la herramienta de IA eran contradictorias o incluso manifiestamente erróneas en simples consultas sobre hechos.
Google lanzó Bard de todos modos. El confiable gigante de las búsquedas en Internet está proporcionando información de baja calidad en una carrera para mantenerse al día con la competencia, mientras da menos prioridad a sus compromisos éticos, según 18 trabajadores actuales y anteriores de la compañía y documentación interna revisada por Bloomberg. La empresa, propiedad de Alphabet Inc, se había comprometido en 2021 a duplicar su equipo de estudio de la ética de la inteligencia artificial y a dedicar más recursos a evaluar los posibles daños de la tecnología. Pero el debut en noviembre de 2022 del popular chatbot de su rival OpenAI hizo que Google se apresurara a integrar la IA generativa en todos sus productos más importantes en cuestión de meses.
Se trata de un ritmo de desarrollo notablemente más rápido para esta tecnología, que podría tener profundas repercusiones sociales. El grupo de trabajo sobre ética que Google se comprometió a reforzar está ahora desprovisto de poder y desmoralizado, según los trabajadores actuales y antiguos. A los miembros del personal responsables de la seguridad y las implicaciones éticas de los nuevos productos se les ha dicho que no se metan en medio ni intenten acabar con ninguna de las herramientas de IA generativa en desarrollo, afirmaron.
Google pretende revitalizar su negocio de búsquedas en torno a esta tecnología de vanguardia, que podría introducir la IA generativa en millones de teléfonos y hogares de todo el mundo, idealmente antes de que OpenAI, con el respaldo de Microsoft Corp, se le adelante.
Google afirmó que la IA responsable sigue siendo una de las principales prioridades de la empresa. «Seguimos invirtiendo en los equipos que trabajan en la aplicación de nuestros principios de IA a nuestra tecnología», declaró Brian Gabriel, portavoz de la empresa. El equipo que trabaja en la IA responsable se deshizo de al menos tres miembros en una ronda de despidos en enero en la empresa, incluido el jefe de gestión y programas. Los recortes afectaron a unos 12.000 trabajadores de Google y su empresa matriz.
Google, que a lo largo de los años ha encabezado gran parte de la investigación en la que se basan los avances actuales de la IA, aún no había integrado en sus productos una versión de la IA generativa adaptada al consumidor cuando se lanzó ChatGPT. Según los empleados, la empresa se mostraba cautelosa ante su potencia y las consideraciones éticas que conllevaría la integración de la tecnología en los motores de búsqueda y otros productos estrella.
En diciembre, los altos directivos decretaron un «código rojo» competitivo y cambiaron su actitud ante el riesgo. Los directivos de Google decidieron que mientras denominaran «experimentos» a los nuevos productos, el público podría perdonar sus deficiencias, según los empleados. Aun así, necesitaba que sus equipos de ética se pusieran de acuerdo. Silicon Valley en su conjunto sigue luchando por conciliar las presiones competitivas con la seguridad.