Hace un par de días les presentábamos a Tay, un bot conversacional desarrollado por Microsoft que se basaba en un sistema de inteligencia artificial. En concreto, la compañía lo "alimentó" de conversaciones de gente entre 18 y 24 años con el fin de que aprendiera la forma que tienen estos usuarios de comunicarse en la red.
Tay comenzó a funcionar en Twitter pero, apenas un par de días después, Microsoft ha decidido "dormirlo" temporalmente. ¿El motivo? Hacer "algunos ajustes" después de que el bot, que "aprende" de sus interacciones con usuarios, se convirtiera en un bot racista que incluso llegó a publicar consignas nazis.
Entre los métodos que algunos usuarios probaron para hacer que Tay incorporara algunas palabras y frases a su vocabulario estaba el decirle al bot que "repitieran" lo que ellos decían. En otras ocasiones, y con lo "aprendido" por las conversaciones en privado, era el propio bot el que contestaba con frases como la que podéis ver sobre estas líneas o con otras como éstas.
Bot "castigado" sin Internet
Microsoft no tardó en reaccionar y comenzó a borrar algunos de los tweets más ofensivos, pero finalmente decidió pausar las respuestas por completo. "Desafortunadamente, durante las primeras 24 horas de estar online, detectamos un esfuerzo coordinado por parte de varios usuarios para abusar de las habilidades comunicativas de Tay y hacer que Tay responda de forma inapropiada", explican desde la compañía.
"Cuando más hables con él, más inteligente se vuelve Tay", dice el propio bot en su descripción de Twitter. El problema es que Tay, si bien implementa filtros para palabras malsonantes, no estaba preparado para algo muy importante: el lado más oscuro y "troll" de Internet.
En Xataka | Tay es el nuevo bot de Microsoft con pretensiones de inteligencia artificial: ya puedes charlar con él
Ver todos los comentarios en https://www.xataka.com.mx
VER 2 Comentarios