Si ayer mismo os inform谩bamos de la llegada de Tay, una IA de Microsoft, a Twitter, Kik y Group Me, tan solo un d铆a despu茅s tenemos que informaros de su “muerte”.

La breve historia de Tay sin final feliz

Al parecer, Tay habr铆a comenzado a publicar tuits con contenido racista y xen贸fobo. El motivo no es otro que su propia naturaleza, pues Tay aprende de lo que lee en Twitter, en concreto de j贸venes de entre 18 y 24 a帽os.

Al parecer, Tay empez贸 a referirse a personajes hist贸ricos como Hitler en sus conversaciones, lo que, evidentemente, no dice mucho a favor de una “inteligencia” artificial. Tambi茅n, hizo alusiones a frases dichas por el actual favorito por hacerse con el control del partido republicano en Estados Unidos, Donald Trump.

vt5ey15k

La cosa no qued贸 ah铆, sino que la inteligencia artificial de Microsoft se volvi贸 incluso contra la propia compa帽铆a respondiendo que est谩 “totalmente de acuerdo” con la afirmaci贸n de otro usuario de la red social de microblogging en la que afirmaba que “Windows Phone da asco”.

zcxdcwyt

De momento, Microsoft ha decidido retirar a Tay. Qui茅n sabe si alg煤n d铆a volver谩 con nosotros, con un filtro para no aprender lo peor de la raza humana. 隆Hasta pronto, Tay!