OpenAI advirtió a Microsoft que si integraba ChatGPT en Bing empezaría a alucinar: todos sabemos cómo terminó

Microsoft integró en Bing el modelo de inteligencia artificial GPT-4, a pesar de las advertencias de la OpenAI de que realizara lentamente el proceso para evitar "respuestas inexactas e impredecibles" que se estuvieron difundiendo ampliamente en internet.

De acuerdo con The Wall Street Journal, OpenAI advirtió a Microsoft sobre los riesgos negativos que había al lanzar un chatbot que usara el nuevo modelo demasiado pronto. El resultado fue que Bing recibió la mejora de modelo, empezando a generar respuestas extrañas e impredecibles, llegando al punto de insultar a usuarios y generar teorías de conspiración.

Para solucionarlo, Microsoft tuvo que "arreglar" a Bing, lo que acabó con su personalidad original, volviéndose menos atractivo para una gran cantidad de usuarios, y requiriendo una gran cantidad de tiempo para ajustarlo hasta que pudiera tener una conversación relativamente larga con los usuarios sin generar contenido no deseado, aunque en ocasiones todavía es posible descubrir algunos de sus errores.

El lanzamiento de Bing con GPT-4 y las advertencias de OpenAI

En el reporte de WSJ las tensiones entre ambas compañías, que colaboran en muchos sentidos pero también compiten en otros, se generaron principalmente con el lanzamiento de ChatGPT en otoño, y Bing con IA meses después.

Según personas familiarizadas con el asunto, OpenAI reveló a Microsoft con algunas semanas de anticipación sobre que planeaban empezar pruebas públicas de su chatbot, mientras los de Redmond aún trabajan en integrar la tecnología en su motor de búsqueda.

Esto derivó en que algunos empleados de Microsoft se preocuparan porque ChatGPT les robara el protagonismo, aunque otros argumentaron que Bing podía beneficiarse de cómo el público usaba a la IA de OpenAI.

De forma adicional, la compañía de Sam Altman comentó a Microsoft que fuera haciendo lentamente la integración de la IA con Bing, pues había muchos riesgos de lanzar el chatbot basado en la versión "inédita" de GPT-4, que no había recibido más capacitación, por lo que tardaría tiempo minimizar las posibilidades de errores, según personas familiarizadas con el asunto.

Imagen: D koi en Unsplash

Aún con la advertencia, Microsoft siguió adelante con el lanzamiento del chatbot, lo que derivó en una gran cantidad de respuestas incorrectas e interacciones "preocupantes", ante lo que la compañía no tuvo más remedio que establecer restricciones para controlar a la IA.

Otros "conflictos" entre las dos empresas

Este no ha sido el único roce entre OpenAI y Microsoft según WSJ.

El medio documenta que Microsoft ha disminuido el gasto para desarrollar su propia IA y que OpenAI no permite a los empleados de Microsoft acceder al funcionamiento interno de su tecnología, como su código y los pesos establecidos para su entrenamiento, además de que muchas veces los equipos de ventas de ambas compañías buscan a los mismos clientes.

Por ejemplo, algunas empresas dijeron a WSJ que las dos compañías les han ofrecido el mismo acceso a productos como ChatGPT, un día desde OpenAI, y más tarde como parte de sus servicios en la nube de Azure.

Además, ya que OpenAI puede decidir sus asociaciones, también ha estado trabajando en productos que compiten contra los de Microsoft. Este es el caso de Salesforce, que ofrece un producto llamado Einstein GPT que entre sus funciones puede generar correos de marketing, una capacidad que también tiene la integración de Bing en Microsoft.

Ver todos los comentarios en https://www.xataka.com.mx

VER 2 Comentarios

Portada de Xataka México