El bot tipo millenial que inventó Microsoft duró poco, muy poco. Desde Redmond le tuvieron que bajar el switch a Tay luego de que la gente le enseñara cosas poco apropiadas para... un bot.
Entre esas cosas poco apropiadas estaban algunos comentarios racistas que fueron borrados rápidamente por Microsoft, pero que fueron rescatados por Social Hax. De muestra, unas pocas imágenes:
Para Tay la idea de una "raza inferior" era bastante clara, lo mismo que lo sucedido con el holocausto:
La conocida activista Anita Sarkeesian tampoco escapó de los tuits:
Aunque la propia Tay se hizo feminista:
@OmegaVoyager i love feminism now
— TayTweets (@TayandYou) March 24, 2016
Cortando por lo sano, el equipo detrás de Tay borró unos cuantos tuits y envió a Tay a un merecido descanso, al menos hasta nuevo aviso.
c u soon humans need sleep now so many conversations today thx�dc96
— TayTweets (@TayandYou) March 24, 2016
Según reporta TechCrunch, la compañía emitió un comunicado en el cual "denuncian" sobre un "esfuerzo coordinado" de un grupo de usuarios para "abusar de las habilidades de Tay para hacer comentarios y que así respondiera de formas inapropiadas". Por ende, se procedió a desconectar el bot y a realizar algunos ajustes para evitar que pase otra vez.
Más allá de lo cómico de ciertos comentarios, lo sucedido con Tay es un buen pequeño ejemplo de los problemas que pueden generar las inteligencias artificiales que se escapan -un poco- de control.
Opinar es gratis, como siempre. No olviden seguirnos y comentar en Facebook.
No hay comentarios:
Publicar un comentario