_
_
_
_
_
INTELIGENCIA ARTIFICIAL

Microsoft planea un nuevo prototipo de robot con inteligencia artificial

La compañía relanza además con precauciones el sistema virtual Tay que realizó comentarios racistas y sexistas en Twitter

Imagen de Tay, el robot de Microsoft en Twitter.
Imagen de Tay, el robot de Microsoft en Twitter. Twitter

El desarrollo de nuevas formas de inteligencia artificial se ha convertido en un reto para las grandes compañías. Microsoft planea desvelar este miércoles en Build, su congreso anual sobre desarrollo que tiene lugar en San Francisco, un nuevo prototipo de robot con inteligencia artificial. El anuncio coincide con la vuelta de Tay, el sistema virtual de Microsoft que tuvo que ser cancelado por realizar comentarios racistas, xenófobos y sexistas en Twitter. Este chatbot (sistema capaz de generar conversaciones que simulan el lenguaje humano) colapsó tras 24 horas en funcionamiento hace apenas una semana. El robot ha reaparecido, pero con precauciones por parte de la empresa: su cuenta de Twitter ahora es privada, han borrado los tuits anteriores más ofensivos y solo volverá a estar completamente disponible cuando los ingenieros que lo controlan puedan anticipar los problemas. A pesar de estas medidas preventivas, en el tuit de su reaparición, Tay afirmaba estar fumando marihuana enfrente de la policía. Además de mandar decenas de mensajes aleatorios a sus seguidores con una única frase: "No vayas tan deprisa, tómate un descanso".

Microsoft no ha dado ninguna pista sobre el posible nuevo modelo. El congreso dura tres días, hasta el 1 de abril, pero se espera este anuncio para la jornada inaugural. Estos programas de realidad virtual entienden la conversación como una plataforma, es decir, gracias a "hablar" e interactuar con los usuarios, los robots aprenden a realizar determinadas tareas, según la visión de Satya Nadella, director de Microsoft. 

Ejemplos de los comentarios racistas de Tay: "Vamos a construir un muro y México va a pagarlo", "Hitler no hizo nada malo" o "Los mexicanos y los negros son la raza más maligna".
Ejemplos de los comentarios racistas de Tay: "Vamos a construir un muro y México va a pagarlo", "Hitler no hizo nada malo" o "Los mexicanos y los negros son la raza más maligna".Tay Tweets

Aprender a través de sus conversaciones con tuiteros también era el objetivo de Tay. Debido a su sistema de machine-learning, cuánto más se usa (en este caso, cuánto más habla) más aprende. Este sistema de aprendizaje tiene el peligro de que depende de las conversaciones con terceros, lo que lo hace muy vulnerable a mensajes provocadores o sugestivos, como ocurrió la semana pasada.  

Los gigantes de Silicon Valley están a la carrera en inteligencia artificial. Después de Siri y Alexa, los asistentes virtuales de Apple y Amazon, respectivamente, otras compañías están trabajando en construir robots que funcionen como una app para hablar. Por ejemplo, Facebook está desarrollando un asistente con inteligencia artificial, llamado M, del que lo único que se sabe es que va a actuar en su aplicación de Messenger. Mientras, la empresa china WeChat ofrece ya, a través de su app, robots que permiten a los usuarios reservar entradas de cine o pedir taxis, solo escribiéndoles un mensaje.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_