
Knight, Will. «Get Ready to Meet the ChatGPT Clones». Wired. Accedido 15 de marzo de 2023. https://www.wired.com/story/get-ready-to-meet-the-chatgpt-clones/.
Puede que CHATGPT sea el algoritmo más famoso y potencialmente valioso del momento, pero las técnicas de inteligencia artificial empleadas por OpenAI para dotarlo de inteligencia no son únicas ni secretas. Los proyectos de la competencia y los clones de código abierto pronto pondrán a disposición de cualquiera bots del estilo de ChatGPT para que los copie y reutilice, lo que hará cada vez más complicado controlar todos los efectos adversos de esta tecnología IA.
Stability AI, una startup que ya ha desarrollado y puesto en código abierto una avanzada tecnología de generación de imágenes, está trabajando en un competidor abierto de ChatGPT. «Estamos a unos meses del lanzamiento», afirma Emad Mostaque, CEO de Stability. Otras empresas de la competencia, como Anthropic, Cohere y AI21, trabajan en chatbots propios similares al de OpenAI.
La inminente avalancha de sofisticados chatbots hará que la tecnología sea más abundante y visible para los consumidores, así como más accesible para las empresas, desarrolladores e investigadores de IA. Eso podría acelerar la carrera por ganar dinero con herramientas de IA que generan imágenes, código y texto.
Empresas consolidadas como Microsoft y Slack están incorporando ChatGPT a sus productos, y muchas startups se apresuran a construir sobre una nueva API ChatGPT para desarrolladores. Pero la mayor disponibilidad de la tecnología también puede complicar los esfuerzos para predecir y mitigar los riesgos que conlleva.
La seductora capacidad de ChatGPT para ofrecer respuestas convincentes a una amplia gama de preguntas también hace que a veces invente hechos o adopte personajes problemáticos. Puede ayudar en tareas maliciosas como la producción de código malicioso o campañas de spam y desinformación.
Por ello, algunos investigadores han pedido que se frene el despliegue de sistemas similares a ChatGPT mientras se evalúan los riesgos. «No hay necesidad de detener la investigación, pero sin duda podríamos regular el despliegue generalizado», afirma Gary Marcus, un experto en IA que ha tratado de llamar la atención sobre riesgos como la desinformación generada por la IA. «Podríamos, por ejemplo, pedir estudios sobre 100.000 personas antes de lanzar estas tecnologías a 100 millones de personas».
Una mayor disponibilidad de sistemas del estilo de ChatGPT y la publicación de versiones de código abierto dificultarían la limitación de la investigación o una implantación más amplia. Y la competencia entre empresas grandes y pequeñas para adoptar o igualar ChatGPT sugiere pocas ganas de frenar, sino que más bien parece incentivar la proliferación de la tecnología.