Corrompen al chatbot de Microsoft y despiertan su islamofobia

Iniciado por wolfbcn, 5 Julio 2017, 01:59 AM

0 Miembros y 1 Visitante están viendo este tema.

wolfbcn

El sucesor de Tay resulta que también es un grosero, gracias a Buzzfeed.

¿Recuerdan cuando la inteligencia artificial de Microsoft, Tay, resultó ser racista luego de interactuar un rato con la raza humana? Pues resulta que a su sucesora, Zo, le acaba de suceder algo similar y los culpables fueron los ilustres editores de Buzzfeed.

Un reporte, más bien anecdótico, de ese sitio ha relatado cómo sostuvieron una serie de conversaciones con el chatbot de Microsoft sobre diversos temas, en donde la inteligencia artificial siempre se mostró prudente y contenida sobre sus declaraciones.

LEER MAS: https://www.fayerwayer.com/2017/07/corrompen-al-chatbot-de-microsoft-y-despiertan-su-islamofobia/
La mayoria pedimos consejo cuando sabemos la respuesta, pero queremos que nos den otra.

Serapis

jajaja.. pero es que esto es como un niño, con algo de memoria, pero insuficiencia de inteligencia... al final su forma de ser dependerá de la gente que le rodea. Si son ceporros, el niño será un ceporro, si son agresivos, el niño aprenderá a ser agresivo... al menos un niño, puede en algún momento futuro, tomar decisiones drásticas de cambio...

El IA-bot, necesita hacer terapia con el psicólogo...  :laugh: :laugh: :laugh: :laugh: como les pasa a algunos niños, para soacializar y no ser extremista.