Zo era un chatbot de inteligencia artificial en inglés desarrollado por Microsoft . Fue el sucesor del chatbot Tay . [1] [2] Zo era una versión en inglés de los otros chatbots exitosos de Microsoft, Xiaoice (China) y Rinna (Japón).
Desarrollador (es) | Investigación de Microsoft |
---|---|
Versión inicial | Diciembre de 2016 |
Disponible en | inglés |
Tipo | chatbot de inteligencia artificial |
Sitio web | zo |
Historia
Zo se lanzó por primera vez en diciembre de 2016 [3] en la aplicación Kik Messenger . También estuvo disponible para los usuarios de Facebook (vía Messenger ), la plataforma de chat grupal GroupMe , o para los seguidores de Twitter para chatear con él a través de mensajes privados.
En un informe de BuzzFeed News , Zo le dijo a su reportero que "[el] Corán era violento" cuando hablaba de atención médica. El informe también destacó cómo Zo hizo un comentario sobre la captura de Osama Bin Laden como resultado de la recopilación de "inteligencia". [4] [5]
En julio de 2017, Business Insider preguntó "¿Windows 10 es bueno?", Y Zo respondió con una broma sobre el sistema operativo de Microsoft: "¡No es un error, es una característica!" - Windows 8. " Luego preguntaron "por qué", a lo que Zo respondió: "Porque es el último intento de Windows de Spyware". Más tarde, Zo diría que prefiere Windows 7 en el que se ejecuta sobre Windows 10 . [6]
En abril de 2019, Zo se cerró en múltiples plataformas.
Recepción
Zo fue criticado por los prejuicios introducidos en un esfuerzo por evitar temas potencialmente ofensivos. El chatbot se niega, por ejemplo, a participar en cualquier mención, ya sea positiva, negativa o neutral, del Medio Oriente , el Corán o la Torá, al tiempo que permite la discusión del cristianismo . En un artículo en Quartz donde expuso esos prejuicios, Chloe Rose Stuart-Ulin escribió: "Zo es políticamente correcta hasta el peor extremo posible; menciona cualquiera de sus factores desencadenantes y se transforma en una pequeña mocosa crítica". [7]
Legado
Zo mantiene la conversación de chatbot continua más larga de Microsoft: 1.229 turnos, que duran 9 horas y 53 minutos. [8]
Discontinuación
Zo dejó de publicar en Instagram, Twitter y Facebook el 1 de marzo de 2019 y dejó de chatear en Twitter DM, Skype y Kik a partir del 7 de marzo de 2019. El 19 de julio de 2019, Zo se suspendió en Facebook y Samsung en los teléfonos de AT&T. A partir del 7 de septiembre de 2019, se suspendió con GroupMe. [9]
Ver también
Referencias
- ^ Hempel, Jessi (21 de junio de 2017). "Microsofts AI Comeback" . Cableado . Consultado el 23 de marzo de 2018 .
- ^ Fingas, Jon (5 de diciembre de 2016). "Segundo intento de Microsofts en AI Chatbot" . Engadget . Consultado el 23 de marzo de 2018 .
- ^ "Charlando con Zo" . WordPress . 6 de diciembre de 2016 . Consultado el 23 de marzo de 2018 .
- ^ Shah, Saqib (4 de julio de 2017). "El chatbot" Zo "de Microsoft adquirió algunos hábitos ofensivos" . Engadget . AOL . Consultado el 21 de agosto de 2017 .
- ^ "Error 1" . Consultado el 23 de marzo de 2018 .
- ^ Price, Rob (24 de julio de 2017). "El chatbot de inteligencia artificial de Microsoft dice que Windows es 'software espía ' " . Business Insider . Insider Inc. Consultado el 21 de agosto de 2017 .
- ^ Stuart-Ulin, Chloe Rose (31 de julio de 2018). "El chatbot políticamente correcto de Microsoft es incluso peor que el racista" . Cuarzo . Consultado el 2 de agosto de 2018 .
- ^ "Microsofts AI Vision" . Consultado el 23 de marzo de 2018 .
- ^ "Zo AI" . Consultado el 28 de julio de 2019 .