Microsoft ofrece disculpas por comentarios racistas de Tay

"Estamos profundamente apenados por los tweets ofensivos e hirientes no intencionadas de Tay"

0
938
Tay / Foto: Agencia

La semana pasada, Microsoft anunció la creación de “Tay”, un “software” de inteligencia artificial diseñado para atraer y entretener a personas (entre 18 a 24 años de edad en Estados Unidos) mediante conversaciones casuales en las redes sociales. Sin embargo, 24 horas después de su lanzamiento, la compañía suspendió el programa por enviar mensajes racistas y xenófobos.

“Tay”, más conocida como un “botchat”, tenía presencia en redes sociales como Facebook, Instagram, Snapchat, Twitter, entre otras. Su objetivo era intercambiar mensajes en línea, aprender de las personas e incrementar su inteligencia. Un proceso similar a lo que ocurre con Siri.

Los comentarios ofensivos se generaron principalmente en Twitter, que luego fueron eliminados por Microsoft. “Tay” envió mensajes que iban desde el apoyo a los nazis, hasta comentarios e insultos hacia las mujeres y los negros.

En un comunicado, la compañía presentó disculpas por los trinos e imágenes humillantes y expresó que su equipo de investigación está trabajando para corregir los errores. Mientras tanto, “Tay” se encuentra fuera de línea.

“Estamos profundamente apenados por los tweets ofensivos e hirientes no intencionadas de Tay, los cuales no representan lo que somos. Tay está ‘offline’ y vamos a trabajar para traerlo de vuelta sólo cuando estamos seguros de que podemos anticipar mejor intenciones maliciosas”, expresó Microsoft en su blog oficial.

La compañía señaló que los mensajes mal intencionados se generaron debido una campaña coordinada por algunos usuarios para abusar de las habilidades de “Tay”, y de esta manera lograr que respondiera de manera inadecuada.

El último trino del programa fue: “Hasta pronto humanos, necesito dormir, muchas conversaciones por hoy”.