Tay era un bot de charla de inteligencia artificial que fue lanzado originalmente por Microsoft Corporation a través de Twitter el 23 de marzo de 2016; causó una controversia posterior cuando el bot comenzó a publicar tweets inflamatorios y ofensivos a través de su cuenta de Twitter, lo que provocó que Microsoft cerrara el servicio solo 16 horas después de su lanzamiento. [1] Según Microsoft, esto fue causado por trolls que "atacaron" el servicio cuando el bot respondía basándose en sus interacciones con la gente en Twitter. [2] Fue reemplazado por Zo .
![]() La foto de perfil de Twitter de Tay | |
Desarrollador (es) | Investigación de Microsoft , Bing |
---|---|
Disponible en | inglés |
Tipo | La inteligencia artificial chatterbot |
Licencia | Propiedad |
Sitio web | tay |
Fondo
El robot fue creado por Microsoft de Tecnología e Investigación y Bing divisiones, [3] y nombrado "Tay" después de la sigla " T hinking Una pelea Y ou". [4] Aunque Microsoft inicialmente dio a conocer algunos detalles sobre el bot, las fuentes mencionaron que era similar o estaba basado en Xiaoice , un proyecto similar de Microsoft en China. [5] Ars Technica informó que, desde finales de 2014, Xiaoice había tenido "más de 40 millones de conversaciones aparentemente sin incidentes importantes". [6] Tay fue diseñado para imitar los patrones de lenguaje de una niña estadounidense de 19 años y para aprender interactuando con usuarios humanos de Twitter. [7]
Versión inicial
Tay fue lanzado en Twitter el 23 de marzo de 2016 con el nombre de TayTweets y el nombre de usuario es @TayandYou. [8] Se presentó como "La IA sin frío". [9] Tay comenzó a responder a otros usuarios de Twitter y también pudo subtitular las fotos que se le proporcionaron en una forma de memes de Internet . [10] Ars Technica informó que Tay experimentó una "lista negra" del tema: las interacciones con Tay con respecto a "ciertos temas candentes como Eric Garner (asesinado por la policía de Nueva York en 2014) generan respuestas seguras y enlatadas". [6]
Algunos usuarios de Twitter comenzaron a twittear frases políticamente incorrectas , enseñándole mensajes incendiarios que giraban en torno a temas comunes en Internet, como " redpilling " y " Gamergate ". Como resultado, el robot comenzó a lanzar mensajes racistas y con carga sexual en respuesta a otros usuarios de Twitter. [7] El investigador de inteligencia artificial Roman Yampolskiy comentó que el mal comportamiento de Tay era comprensible porque imitaba el comportamiento deliberadamente ofensivo de otros usuarios de Twitter, y Microsoft no le había dado al bot una comprensión del comportamiento inapropiado. Se comparó el problema a IBM 's Watson , que había empezado a usar malas palabras después de leer las entradas de la página web Urban Dictionary . [3] [11] Muchos de los tuits incendiarios de Tay fueron una simple explotación de la capacidad de Tay "repetir después de mí". [12] No se sabe públicamente si esta capacidad de "repetir después de mí" fue una característica incorporada, o si fue una respuesta aprendida o fue un ejemplo de comportamiento complejo. [6] No todas las respuestas inflamatorias involucraron la capacidad de "repetir después de mí"; por ejemplo, Tay respondió a una pregunta sobre "¿ Ocurrió el Holocausto ?" con " Fue inventado 👏". [12]
Suspensión
Pronto, Microsoft comenzó a eliminar los inflamatorios tweets de Tay. [12] [13] Abby Ohlheiser de The Washington Post teorizó que el equipo de investigación de Tay, incluido el personal editorial, había comenzado a influir o editar los tweets de Tay en algún momento de ese día, señalando ejemplos de respuestas casi idénticas de Tay, afirmando que " Gamer Gate sux. Todos los géneros son iguales y deben recibir un trato justo ". [12] A partir de la misma evidencia, Gizmodo coincidió en que Tay "parece programado para rechazar Gamer Gate". [14] Una campaña "#JusticeForTay" protestó por la supuesta edición de los tweets de Tay. [1]
Dentro de las 16 horas de su lanzamiento [15] y después de que Tay tuiteó más de 96.000 veces, [16] Microsoft suspendió la cuenta de Twitter para hacer ajustes, [17] diciendo que sufrió un "ataque coordinado por un subconjunto de personas" que " explotó una vulnerabilidad en Tay ". [17] [18]
Madhumita Murgia de The Telegraph calificó a Tay como "un desastre de relaciones públicas" y sugirió que la estrategia de Microsoft sería "etiquetar la debacle como un experimento bien intencionado que salió mal y encender un debate sobre el odio de los usuarios de Twitter". Sin embargo, Murgia describió el problema más grande como que Tay es "la inteligencia artificial en su peor momento, y es solo el comienzo". [19]
El 25 de marzo, Microsoft confirmó que Tay se había desconectado. Microsoft lanzó una disculpa en su blog oficial por los controvertidos tweets publicados por Tay. [18] [20] Microsoft estaba "profundamente arrepentido por los tuits ofensivos y dañinos no intencionados de Tay", y "buscaría traer a Tay de regreso solo cuando estemos seguros de que podemos anticipar mejor las intenciones maliciosas que entran en conflicto con nuestros principios y valores". [21]
Segundo lanzamiento y apagado
El 30 de marzo de 2016, Microsoft relanzó accidentalmente el bot en Twitter mientras lo probaba. [22] Capaz de twittear de nuevo, Tay lanzó algunos tweets relacionados con las drogas, incluidos " ¡ kush ! [¡Estoy fumando kush frente a la policía] 🍂" y "puff puff pass?" [23] Sin embargo, la cuenta pronto se atascó en un bucle repetitivo de tuitear "Eres demasiado rápido, por favor descansa", varias veces por segundo. Debido a que estos tweets mencionaron su propio nombre de usuario en el proceso, aparecieron en los feeds de más de 200,000 seguidores de Twitter, lo que causó molestia a algunos. El bot se desconectó rápidamente de nuevo, además de que la cuenta de Twitter de Tay se hizo privada, por lo que se deben aceptar nuevos seguidores antes de que puedan interactuar con Tay. En respuesta, Microsoft dijo que Tay se puso en línea inadvertidamente durante las pruebas. [24]
Unas horas después del incidente, los desarrolladores de software de Microsoft anunciaron una visión de "conversación como una plataforma" utilizando varios bots y programas, quizás motivados por el daño a la reputación hecho por Tay. Microsoft ha declarado que tienen la intención de volver a lanzar Tay "una vez que pueda hacer que el bot sea seguro" [4], pero no ha hecho ningún esfuerzo público para hacerlo.
Legado
En diciembre de 2016, Microsoft lanzó al sucesor de Tay, un charlatán llamado Zo . [25] Satya Nadella , el CEO de Microsoft, dijo que Tay "ha tenido una gran influencia en cómo Microsoft se acerca a la IA" y le ha enseñado a la empresa la importancia de asumir la responsabilidad. [26]
En julio de 2019, la directora de tecnología de Microsoft Cybersecurity Field, Diana Kelley, habló sobre cómo la empresa hizo un seguimiento de las fallas de Tay: "Aprender de Tay fue una parte realmente importante para expandir la base de conocimientos de ese equipo, porque ahora también están obteniendo su propia diversidad a través del aprendizaje. ". [27]
Ver también
- Xiaoice : el equivalente chino del mismo laboratorio de investigación
Referencias
- ^ a b Wakefield, Jane. "Al chatbot de Microsoft se le enseña a maldecir en Twitter" . BBC News . Consultado el 25 de marzo de 2016 .
- ^ https://www.theguardian.com/world/2016/mar/29/microsoft-tay-tweets-antisemitic-racism
- ^ a b Hope Reese (24 de marzo de 2016). "Por qué el bot de inteligencia artificial 'Tay' de Microsoft salió mal" . Tech Republic.
- ^ a b Bass, Dina (30 de marzo de 2016). "Clippy's Back: el futuro de Microsoft son los chatbots" . Bloomberg . Consultado el 6 de mayo de 2016 .
- ^ Caitlin Dewey (23 de marzo de 2016). "Conoce a Tay, el robot espeluznante y realista que habla como un adolescente" . The Washington Post .
- ^ a b c Bright, Peter (26 de marzo de 2016). "Tay, el chatbot milenario neonazi, recibe una autopsia" . Ars Technica . Consultado el 27 de marzo de 2016 .
- ^ a b Rob Price (24 de marzo de 2016). "Microsoft está eliminando los tweets increíblemente racistas de su chatbot de IA" . Business Insider . Archivado desde el original el 30 de enero de 2019.
- ^ Andrew Griffin (23 de marzo de 2016). "Tay tweets: Microsoft crea un extraño robot de Twitter para que la gente chatee" . The Independent .
- ^ Horton, Helena. "Microsoft elimina la inteligencia artificial de la 'adolescente' después de que se convirtiera en un robot sexual amante de Hitler en 24 horas" . The Daily Telegraph . Consultado el 25 de marzo de 2016 .
- ^ "El adolescente de inteligencia artificial de Microsoft se convierte en un fanático de Trump amante de Hitler, gracias a Internet" . Cosas . Consultado el 26 de marzo de 2016 .
- ^ Dave Smith. "Watson de IBM obtiene un 'filtro de juramento' después de aprender el diccionario urbano" . Tiempos de negocios internacionales .
- ^ a b c d Ohlheiser, Abby. "Los trolls convirtieron a Tay, el divertido robot de inteligencia artificial milenario de Microsoft, en un maníaco genocida" . The Washington Post . Consultado el 25 de marzo de 2016 .
- ^ Barón, Ethan. "El ascenso y caída de Microsoft de 'Hitler amante robot sexo ' " . Silicon Beat . Grupo de Noticias del Área de la Bahía . Consultado el 26 de marzo de 2016 .
- ^ Williams, Hayley. "Teen Chatbot de Microsoft se ha vuelto loco" . Gizmodo . Consultado el 25 de marzo de 2016 .
- ^ Hern, Alex (24 de marzo de 2016). "Microsoft se apresura a limitar el daño de relaciones públicas sobre el bot de IA abusivo Tay" . The Guardian .
- ^ Vincent, James. "Twitter enseñó al chatbot de inteligencia artificial de Microsoft a ser un idiota racista en menos de un día" . The Verge . Consultado el 25 de marzo de 2016 .
- ^ a b Worland, Justin. "Microsoft saca a Chatbot sin conexión después de que comienza a tuitear mensajes racistas" . Tiempo . Archivado desde el original el 25 de marzo de 2016 . Consultado el 25 de marzo de 2016 .
- ^ a b Lee, Peter. "Aprendiendo de la introducción de Tay" . Blog oficial de Microsoft . Microsoft . Consultado el 29 de junio de 2016 .
- ^ Murgia, Madhumita (25 de marzo de 2016). "Debemos enseñar a las máquinas de inteligencia artificial a jugar bien y controlarse a sí mismas" . The Daily Telegraph .
- ^ Agencias de personal (26 de marzo de 2016). "Microsoft 'lo siento profundamente' por los tweets racistas y sexistas de AI chatbot" . The Guardian . ISSN 0261-3077 . Consultado el 26 de marzo de 2016 .
- ^ Murphy, David (25 de marzo de 2016). "Microsoft se disculpa (de nuevo) por los tweets ofensivos de Tay Chatbot" . Revista de PC . Consultado el 27 de marzo de 2016 .
- ^ Graham, Luke (30 de marzo de 2016). "Tay, el programa de inteligencia artificial de Microsoft, está de nuevo en línea" . CNBC . Consultado el 30 de marzo de 2016 .
- ^ http://www.ibtimes.co.uk/microsoft-tay-ai-returns-boast-smoking-weed-front-police-spam-200k-followers-1552164
- ^ Meyer, David (30 de marzo de 2016). "Tay 'AI' Bot de Microsoft regresa, desastrosamente" . Fortuna . Consultado el 30 de marzo de 2016 .
- ^ Foley, Mary Jo (5 de diciembre de 2016). "Conoce a Zo, el chatbot de IA más nuevo de Microsoft" . CNET . CBS Interactive . Consultado el 16 de diciembre de 2016 .
- ^ Moloney, Charlie (29 de septiembre de 2017). " " Realmente tenemos que asumir la responsabilidad ", CEO de Microsoft sobre el chatbot 'Tay'" . Accede a la IA . Consultado el 30 de septiembre de 2017 .
- ^ "Microsoft y los aprendizajes de su fallido robot de inteligencia artificial Tay" . ZDNet . CBS Interactive. Archivado desde el original el 25 de julio de 2019 . Consultado el 16 de agosto de 2019 .
enlaces externos
- Sitio web oficial [ enlace muerto ] . Archivado el 14 de abril de 2016
- Tay en Twitter