jueves, 24 de marzo de 2016

Microsoft desconecta su bot millenial luego de que hiciera comentarios racistas

El bot tipo millenial que inventó Microsoft duró poco, muy poco. Desde Redmond le tuvieron que bajar el switch a Tay luego de que la gente le enseñara cosas poco apropiadas para... un bot.

Entre esas cosas poco apropiadas estaban algunos comentarios racistas que fueron borrados rápidamente por Microsoft, pero que fueron rescatados por Social Hax. De muestra, unas pocas imágenes:

Hitler

Para Tay la idea de una "raza inferior" era bastante clara, lo mismo que lo sucedido con el holocausto:

Mexican

Holocausto

La conocida activista Anita Sarkeesian tampoco escapó de los tuits:

anita

Aunque la propia Tay se hizo feminista:

Cortando por lo sano, el equipo detrás de Tay borró unos cuantos tuits y envió a Tay a un merecido descanso, al menos hasta nuevo aviso.

Según reporta TechCrunch, la compañía emitió un comunicado en el cual "denuncian" sobre un "esfuerzo coordinado" de un grupo de usuarios para "abusar de las habilidades de Tay para hacer comentarios y que así respondiera de formas inapropiadas". Por ende, se procedió a desconectar el bot y a realizar algunos ajustes para evitar que pase otra vez.

Más allá de lo cómico de ciertos comentarios, lo sucedido con Tay es un buen pequeño ejemplo de los problemas que pueden generar las inteligencias artificiales que se escapan -un poco- de control.

Opinar es gratis, como siempre. No olviden seguirnos y comentar en Facebook.

No hay comentarios:

Publicar un comentario