Microsoft desconecta su bot millenial luego de que hiciera comentarios racistas

Iniciado por wolfbcn, 24 Marzo 2016, 21:47 PM

0 Miembros y 1 Visitante están viendo este tema.

wolfbcn

Tay, la IA millenial, fue retirada para realizar algunos ajustes.

El bot tipo millenial que inventó Microsoft duró poco, muy poco. Desde Redmond le tuvieron que bajar el switch a Tay luego de que la gente le enseñara cosas poco apropiadas para... un bot.

Entre esas cosas poco apropiadas estaban algunos comentarios racistas que fueron borrados rápidamente por Microsoft, pero que fueron rescatados por Social Hax. De muestra, unas pocas imágenes:

LEER MAS: https://www.fayerwayer.com/2016/03/microsoft-desconecta-su-bot-de-twitter-luego-de-que-hiciera-comentarios-racistas/
La mayoria pedimos consejo cuando sabemos la respuesta, pero queremos que nos den otra.