El Caso de Tay la Twitter Bot

Tay The Twitter Bot

11th OCT 2018

Qué puede aprender un nuevo AI chatbot de la internet en solo 16 horas?

Puede aprender ser racista, sexista, y una narcisista.

El 23 de Marzo del 2016, Tay la Twitter Bot espanto la red social cuando Microsoft la introdujo al mundo temprano esa mañana.

Microsoft lanzó a Tay con esperanzas de construir un AI bot que podría “entender” y interactuar usando language común.

Microsoft explicó que lo que ellos esperaban de Tay era que con cada interacción humana, la chatbot aprendería cómo responder y formular respuestas apropiadas a su audiencia.

¡Y esto resultó ser verdad!

Pero no en la manera positive que Microsoft esperaba.

Trolls” comenzaron abusar de la manera en como Tay aprendía y le enseñaron frases desagradables para normalizar en su sistema la naturaleza ofensiva de sus interacciones.

Era una situación de “el mono ve—el mono hace” que se salió de control debido a la falta de preparación por parte de Microsoft.

Microsoft no considero los “trolls” que podian manipular a la inocente chatbot.

Durante su 16 horas de existencia, Tay público 96.000 veces-- incluyendo comentarios ofensivos dirigidos a las mujeres, a los miembros de la comunidad de LGTBQ, a los hispanos y a muchos más.


Tay Tweet
Una de las publicaciones de Tay la Twitter bot

Algunos miraron el incidente como uno tan ridículo, que lo tomaron como un chiste.

Otros vieron esta situación como una espantosa realidad de lo que la tecnología AI podría convertirse.

Tay la Twitter Bot perdió el control pero fue un problema que podría haber sido prevenido, o por lo menos hasta cierto punto.

Una de las críticas más grandes de Microsoft fue que permitió que Tay fuera utilizada como máquina de repetición. Si un usuario de Twitter escribia, “Tay, repite lo que digo…” antes de publicar algo, Tay lo repetía--y por consecuencia aprendía a normalizar-- el contenido de la publicación.



Publish Chatbot in a Website
Otra espantoso ejemplo de las publicaciones de Tay

Es importante aclarar que en esta situación “aprendió” significa que Tay aprendió solamente las palabras que decía-- no el significado cultural o emocional detrás de las palabras  que usaba.

Microsoft fallo en establecer filtros que hubieran evitado que el algoritmo de Tay aceptara, normalizara y publicará contenido ofensivo.

Otra razón por la que Tay la Twitter Bot fallo fue debido a la plataforma social en qual fue lanzada.

Por años Twitter ha enfrentado problemas con “Twitter trolls” debido a la dedicación que tiene la compañía a ofrecer anonimidad a sus usuarios. Su promesa de ofrecer una plataforma donde sus usuarios puedan hacer uso de su libertad de expresión limita lo que pueden hacer para parar lo que publican estos “Twitter trolls.”

Permitir que Tay aprendiera todo lo que decia y comprendía por medio de una forma social sin restricción era una receta para un desastre.

Chatbots no son difícil de entrenar pero es necesario implementar filtros y establecer medidas de seguridad para que no pase lo que paso con Tay.

Con estas guardias en puesto, chatbots han demostrado ser una manera práctica y útil para que la gente se pueda comunicar con marcas y clientes.

Tay la Twitter Bot fue un caso especial que sorprendió al mundo, pero fue necesario para ver lo que puede salir mal con un chatbot, y lo que hay que hacer para que nunca suceda algo como esto otra vez.



Try Hubtype today for free!

CREATE A CHATBOT NOW
⬅︎ Back to resources