Google Brain es un equipo de investigación de inteligencia artificial de aprendizaje profundo bajo el paraguas de Google AI , una división de investigación de Google dedicada a la inteligencia artificial. Formada en 2011, Google Brain combina la investigación de aprendizaje automático de composición abierta con sistemas de información y recursos informáticos a gran escala. [1] El equipo ha creado herramientas como TensorFlow , que permiten que el público utilice redes neuronales, con múltiples proyectos internos de investigación de IA. [2] El equipo tiene como objetivo crear oportunidades de investigación en el aprendizaje automático y el procesamiento del lenguaje natural. [2]
Google Brain | |
---|---|
¿Comercial? | sí |
Tipo de proyecto | Inteligencia artificial y aprendizaje automático |
Localización | Mountain View , California |
Sitio web | ai |
Historia
El proyecto llamado "Google Brain" comenzó en 2011 como una colaboración de investigación a tiempo parcial entre el miembro de Google Jeff Dean , el investigador de Google Greg Corrado y el profesor de la Universidad de Stanford Andrew Ng . [3] Ng había estado interesado en utilizar técnicas de aprendizaje profundo para resolver el problema de la inteligencia artificial desde 2006, y en 2011 comenzó a colaborar con Dean y Corrado para construir un sistema de software de aprendizaje profundo a gran escala, DistBelief , [4] además de Infraestructura de computación en la nube de Google. Google Brain comenzó como un proyecto de Google X y tuvo tanto éxito que se graduó nuevamente en Google: Astro Teller ha dicho que Google Brain pagó el costo total de Google X. [5]
En junio de 2012, el New York Times informó que un grupo de 16.000 procesadores en 1.000 computadoras dedicadas a imitar algunos aspectos de la actividad del cerebro humano se había entrenado con éxito para reconocer a un gato basándose en 10 millones de imágenes digitales tomadas de videos de YouTube . [3] La historia también fue cubierta por National Public Radio . [6]
En marzo de 2013, Google contrató a Geoffrey Hinton , un investigador líder en el campo del aprendizaje profundo, y adquirió la empresa DNNResearch Inc. dirigida por Hinton. Hinton dijo que dividiría su tiempo futuro entre su investigación universitaria y su trabajo en Google. [7]
Equipo y ubicación
Google Brain fue establecido inicialmente por el miembro de Google Jeff Dean y el profesor visitante de Stanford Andrew Ng . En 2014, el equipo incluía a Jeff Dean, Quoc Le, Ilya Sutskever, Alex Krizhevsky, Samy Bengio y Vincent Vanhoucke. En 2017, los miembros del equipo incluyen a Anelia Angelova, Samy Bengio, Greg Corrado, George Dahl, Michael Isard, Anjuli Kannan, Hugo Larochelle, Chris Olah, Salih Edneer, Vincent Vanhoucke, Vijay Vasudevan y Fernanda Viegas . [8] Chris Lattner , quien creó el lenguaje de programación Swift de Apple y luego dirigió el equipo de autonomía de Tesla durante seis meses, se unió al equipo de Google Brain en agosto de 2017. [9] Lattner dejó el equipo en enero de 2020 y se unió a SiFive . [10]
En 2021, Google Brain está dirigido por Jeff Dean , Geoffrey Hinton y Zoubin Ghahramani . Otros miembros incluyen a Katherine Heller, Pi-Chuan Chang, Ian Simon, Jean-Philippe Vert, Nevena Lazic, Anelia Angelova, Lukasz Kaiser, Carrie Jun Cai, Eric Breck, Ruoming Pang, Carlos Riquelme, David Ha. [8] Samy Bengio dejó el equipo en abril de 2021 [11] con Zoubin Ghahramani asumiendo sus responsabilidades.
Google Research incluye Google Brain y tiene su sede en Mountain View, California . También cuenta con grupos satélites en Accra , Ámsterdam , Atlanta , Pekín , Berlín , Cambridge (Massachusetts) , Israel , Los Ángeles , Londres , Montreal , Múnich , Nueva York , París , Pittsburgh , Princeton , San Francisco , Seattle , Tokio , Toronto. y Zurich . [12]
Proyectos
Sistema de cifrado diseñado por inteligencia artificial
En octubre de 2016, Google Brain diseñó un experimento para determinar que las redes neuronales son capaces de aprender un cifrado simétrico seguro . [13] En este experimento, se crearon tres redes neuronales: Alice, Bob y Eve. [14] Siguiendo la idea de una red generativa adversaria (GAN), el objetivo del experimento era que Alice enviara un mensaje cifrado a Bob que Bob podía descifrar, pero la adversaria, Eve, no. [14] Alice y Bob mantuvieron una ventaja sobre Eve, en el sentido de que compartían una clave utilizada para el cifrado y el descifrado. [13] Al hacerlo, Google Brain demostró la capacidad de las redes neuronales para aprender cifrado seguro. [13]
Mejora de la imagen
En febrero de 2017, Google Brain determinó un método probabilístico para convertir imágenes con una resolución de 8x8 a una resolución de 32x32. [15] [16] El método se basó en un modelo probabilístico ya existente llamado pixelCNN para generar traducciones de píxeles. [17] [18]
El software propuesto utiliza dos redes neuronales para hacer aproximaciones para la composición de píxeles de las imágenes traducidas. [16] [19] La primera red, conocida como "red de acondicionamiento", reduce el tamaño de las imágenes de alta resolución a 8x8 e intenta crear asignaciones de la imagen original de 8x8 a estas de mayor resolución. [16] La otra red, conocida como la "red anterior", utiliza las asignaciones de la red anterior para agregar más detalles a la imagen original. [16] La imagen traducida resultante no es la misma imagen en mayor resolución, sino una estimación de resolución de 32x32 basada en otras imágenes de alta resolución existentes. [16] Los resultados de Google Brain indican la posibilidad de que las redes neuronales mejoren las imágenes. [20]
Traductor de google
El equipo de Google Brain contribuyó al proyecto Google Translate empleando un nuevo sistema de aprendizaje profundo que combina redes neuronales artificiales con vastas bases de datos de textos multilingües. [21] En septiembre de 2016, se lanzó Google Neural Machine Translation (GNMT), un marco de aprendizaje de un extremo a otro, capaz de aprender de una gran cantidad de ejemplos. [21] Anteriormente, el enfoque de traducción automática basada en frases (PBMT) de Google Translate analizaba estadísticamente palabra por palabra y trataba de hacer coincidir las palabras correspondientes en otros idiomas sin tener en cuenta las frases circundantes en la oración. [22] Pero en lugar de elegir un reemplazo para cada palabra individual en el idioma deseado, GNMT evalúa los segmentos de palabras en el contexto del resto de la oración para elegir reemplazos más precisos. [2] En comparación con los modelos PBMT más antiguos, el modelo GNMT obtuvo una mejora del 24% en la similitud con la traducción humana, con una reducción del 60% en los errores. [2] [21] El GMNT también ha mostrado una mejora significativa para traducciones notoriamente difíciles, como el chino al inglés. [21]
Si bien la introducción del GMNT ha aumentado la calidad de las traducciones de Google Translate para los idiomas piloto, fue muy difícil crear tales mejoras para todos sus 103 idiomas. Al abordar este problema, el equipo de Google Brain pudo desarrollar un sistema GNMT multilingüe, que amplió el anterior al permitir traducciones entre varios idiomas. Además, permite las traducciones Zero-Shot, que son traducciones entre dos idiomas que el sistema nunca antes había visto explícitamente. [23] Google anunció que Google Translate ahora también puede traducir sin transcribir, usando redes neuronales. Esto significa que es posible traducir el habla en un idioma directamente a texto en otro idioma, sin primero transcribirlo a texto. Según los investigadores de Google Brain, este paso intermedio se puede evitar utilizando redes neuronales. Para que el sistema aprendiera esto, lo expusieron a muchas horas de audio en español junto con el texto en inglés correspondiente. Las diferentes capas de redes neuronales, replicando el cerebro humano, pudieron vincular las partes correspondientes y posteriormente manipular la forma de onda de audio hasta que se transformó en texto en inglés. [24] Otro inconveniente del modelo GMNT es que hace que el tiempo de traducción aumente exponencialmente con el número de palabras en la oración. [2] Esto hizo que el equipo de Google Brain agregara 2000 procesadores más para garantizar que el nuevo proceso de traducción fuera rápido y confiable. [22]
Robótica
Con el objetivo de mejorar los algoritmos tradicionales de control de robótica donde las nuevas habilidades de un robot deben programarse a mano, los investigadores de robótica de Google Brain están desarrollando técnicas de aprendizaje automático para permitir que los robots aprendan nuevas habilidades por sí mismos. [25] También intentan desarrollar formas de compartir información entre robots para que los robots puedan aprender unos de otros durante su proceso de aprendizaje, también conocido como robótica en la nube . [26] Como resultado, Google lanzó Google Cloud Robotics Platform para desarrolladores en 2019, un esfuerzo por combinar robótica, IA y la nube para permitir una automatización robótica eficiente a través de robots colaborativos conectados a la nube. [26]
La investigación en robótica en Google Brain se ha centrado principalmente en mejorar y aplicar algoritmos de aprendizaje profundo para permitir que los robots completen tareas aprendiendo de la experiencia, la simulación, las demostraciones humanas y / o las representaciones visuales. [27] [28] [29] [30] Por ejemplo, los investigadores de Google Brain demostraron que los robots pueden aprender a recoger y arrojar objetos rígidos en cajas seleccionadas al experimentar en un entorno sin estar preprogramados para hacerlo. [27] En otra investigación, los investigadores entrenaron a robots para aprender comportamientos como verter líquido de una taza; Los robots aprendieron de videos de demostraciones humanas grabados desde múltiples puntos de vista. [29]
Los investigadores de Google Brain han colaborado con otras empresas e instituciones académicas en la investigación de la robótica. En 2016, el equipo de Google Brain colaboró con investigadores de X en una investigación sobre el aprendizaje de la coordinación mano-ojo para agarre robótico. [31] Su método permitió el control de un robot en tiempo real para agarrar objetos nuevos con autocorrección. [31] En 2020, investigadores de Google Brain, Intel AI Lab y UC Berkeley crearon un modelo de inteligencia artificial para que los robots aprendan tareas relacionadas con la cirugía, como suturar a partir del entrenamiento con videos de cirugía. [30]
Reconocimiento interactivo del hablante con aprendizaje por refuerzo
En 2020, Google Brain Team y la Universidad de Lille presentaron un modelo para el reconocimiento automático de oradores al que llamaron Reconocimiento interactivo de oradores. El módulo ISR reconoce a un hablante de una lista determinada de hablantes solo solicitando algunas palabras específicas del usuario. [32] El modelo se puede modificar para elegir segmentos de voz en el contexto del entrenamiento de texto a voz. [32] También puede evitar que los generadores de voz maliciosos protejan los datos. [32]
TensorFlow
Según un equipo de la Universidad Estatal de Valdosta, TensorFlow es una biblioteca de software de código abierto impulsada por Google Brain que permite a cualquier persona utilizar el aprendizaje automático al proporcionar las herramientas para entrenar la propia red neuronal. [2] La herramienta ha sido utilizada por agricultores para reducir la cantidad de trabajo manual requerido para clasificar su rendimiento, entrenándola con un conjunto de datos de imágenes clasificadas por humanos. [2]
Magenta
Magenta es un proyecto que utiliza Google Brain para crear nueva información en forma de arte y música en lugar de clasificar y ordenar los datos existentes. [2] TensorFlow se actualizó con un conjunto de herramientas para que los usuarios guíen la red neuronal para crear imágenes y música. [2] Sin embargo, el equipo de la Universidad Estatal de Valdosta descubrió que la IA lucha por replicar perfectamente la intención humana en el arte, similar a los problemas que enfrenta la traducción. [2]
Aplicaciones médicas
Las capacidades de clasificación de imágenes de Google Brain se han utilizado para ayudar a detectar ciertas afecciones médicas mediante la búsqueda de patrones que los médicos humanos pueden no notar para proporcionar y un diagnóstico más temprano. [2] Durante el cribado del cáncer de mama, se descubrió que este método tiene una cuarta parte de la tasa de falsos positivos de los patólogos humanos, que requieren más tiempo para revisar cada foto y no pueden concentrarse por completo en esta tarea. [2] Debido al entrenamiento muy específico de la red neuronal para una sola tarea, no puede identificar otras aflicciones presentes en una foto que un humano podría detectar fácilmente. [2]
Otros productos de Google
La tecnología de los proyectos de Google Brain se utiliza actualmente en varios otros productos de Google, como el sistema de reconocimiento de voz del sistema operativo Android , la búsqueda de fotos para Google Photos, la respuesta inteligente en Gmail y las recomendaciones de video en YouTube. [33] [34] [35]
Recepción
Google Brain ha recibido cobertura en Wired Magazine , [36] [37] [38] National Public Radio , [6] y Big Think . [39] Estos artículos contienen entrevistas con miembros clave del equipo Ray Kurzweil y Andrew Ng, y se centran en explicaciones de los objetivos y aplicaciones del proyecto. [36] [6] [39]
Controversia
En diciembre de 2020, el especialista en ética en inteligencia artificial Timnit Gebru dejó Google. [40] Si bien se discute la naturaleza exacta de su renuncia o su despido, la causa de la partida fue su negativa a retractarse de un artículo titulado "Sobre los peligros de los loros estocásticos: ¿Pueden los modelos lingüísticos ser demasiado grandes?" [40] Este documento exploró los riesgos potenciales del crecimiento de la inteligencia artificial como Google Brain, incluido el impacto ambiental, los sesgos en los datos de entrenamiento y la capacidad de engañar al público. [40] [41] La solicitud de retractación del artículo fue realizada por Megan Kacholia, vicepresidenta de Google Brain. [42] En abril de 2021, casi 7000 empleados actuales o anteriores de Google y simpatizantes de la industria firmaron una carta abierta acusando a Google de "censura de la investigación" y condenando el trato de Gebru en la empresa. [43]
En febrero de 2021, Google despidió a uno de los líderes del equipo de ética de inteligencia artificial de la empresa, Margaret Mitchell. [42] La declaración de la empresa alegaba que Mitchell había violado la política de la empresa al utilizar herramientas automatizadas para encontrar apoyo para Gebru. [42] En el mismo mes, los ingenieros fuera del equipo de ética comenzaron a renunciar, citando el despido "injusto" de Gebru como la razón. [44] En abril de 2021, el cofundador de Google Brain, Samy Bengio, anunció su renuncia a la empresa. [11] A pesar de ser el mánager de Gebru, Bengio no fue notificada antes de su despido, y él publicó en línea su apoyo tanto a ella como a Mitchell. [11] Si bien el anuncio de Bengio se centró en el crecimiento personal como su razón para irse, fuentes anónimas indicaron a Reuters que la confusión dentro del equipo de ética de IA influyó en sus consideraciones. [11]
Ver también
- Inteligencia artificial
- Aprendizaje profundo
- Glosario de inteligencia artificial
- Laboratorio de Inteligencia Artificial Cuántica : dirigido por Google en colaboración con la NASA y la Asociación de Investigación Espacial de Universidades
- Noogénesis
- TensorFlow
- Timnit Gebru
- Samy Bengio
Referencias
- ^ "¿Qué es Google Brain?" . GeeksforGeeks . 2020-02-06 . Consultado el 9 de abril de 2021 .
- ^ a b c d e f g h yo j k l m Helms, Mallory; Ault, Shaun V .; Mao, Guifen; Wang, Jin (9 de marzo de 2018). "Una descripción general de Google Brain y sus aplicaciones" . Actas de la Conferencia Internacional sobre Big Data y Educación de 2018 . ICBDE '18. Honolulu, HI, EE. UU.: Asociación de Maquinaria de Computación: 72–75. doi : 10.1145 / 3206157.3206175 . ISBN 978-1-4503-6358-7. S2CID 44107806 .
- ^ a b Markoff, John (25 de junio de 2012). "¿Cuántas computadoras para identificar un gato? 16.000" . The New York Times . Consultado el 11 de febrero de 2014 .
- ^ Jeffrey Dean; et al. (Diciembre 2012). "Redes profundas distribuidas a gran escala" (PDF) . Consultado el 25 de octubre de 2015 .
- ^ Conor Dougherty (16 de febrero de 2015). "Astro Teller, 'Capitán de Moonshots' de Google, sobre la obtención de beneficios en Google X" . Consultado el 25 de octubre de 2015 .
- ^ a b c "Una red masiva de Google aprende a identificar: gatos" . Radio Pública Nacional . 26 de junio de 2012 . Consultado el 11 de febrero de 2014 .
- ^ “Puesta en marcha de redes neuronales U of T adquirida por Google” (Nota de prensa). Toronto, ON. 12 de marzo de 2013 . Consultado el 13 de marzo de 2013 .
- ^ a b "Brain Team - Investigación de Google" . Investigación de Google . Consultado el 8 de abril de 2021 .
- ^ Etherington, Darrell (14 de agosto de 2017). "El creador de Swift, Chris Lattner, se une a Google Brain después del período del piloto automático de Tesla" . TechCrunch . Consultado el 11 de octubre de 2017 .
- ^ "Chris Lattner, ex ingeniero de Google y Tesla, dirigirá el equipo de ingeniería de la plataforma SiFive" . www.businesswire.com . 2020-01-27 . Consultado el 9 de abril de 2021 .
- ^ a b c d Dave, Jeffrey Dastin, Paresh (7 de abril de 2021). "Bengio, científico de Google AI, dimite tras los despidos de sus colegas: correo electrónico" . Reuters . Consultado el 8 de abril de 2021 .
- ^ "Construir para todos: Carreras en Google" . careers.google.com . Consultado el 8 de abril de 2021 .
- ^ a b c Zhu, Y .; Vargas, DV; Sakurai, K. (noviembre de 2018). "Criptografía neuronal basada en la topología de redes neuronales en evolución" . 2018 Sexto Simposio Internacional de Talleres de Computación y Redes (CANDARW) : 472–478. doi : 10.1109 / CANDARW.2018.00091 . ISBN 978-1-5386-9184-7. S2CID 57192497 .
- ^ a b Abadi, Martín; Andersen, David G. (2016). "Aprender a proteger las comunicaciones con criptografía neuronal adversaria". arXiv : 1610.06918 . Código bibliográfico : 2016arXiv161006918A . Cite journal requiere
|journal=
( ayuda ) - ^ Dahl, Ryan; Norouzi, Mohammad; Shlens, Jonathon (2017). "Pixel Recursive Super Resolution". arXiv : 1702.00783 . Código Bib : 2017arXiv170200783D . Cite journal requiere
|journal=
( ayuda ) - ^ a b c d e "La tecnología de imágenes de superresolución de Google Brain hace que" zoom, realce "sea real . arstechnica.co.uk . 2017-02-07 . Consultado el 15 de mayo de 2017 .
- ^ Bulat, Adrian; Yang, Jing; Tzimiropoulos, Georgios (2018), "To Learn Image Super-Resolution, Use a GAN to Learn How to Do Image Degradation First" , Computer Vision - ECCV 2018 , Cham: Springer International Publishing, págs. 187–202, arXiv : 1807.11458 , doi : 10.1007 / 978-3-030-01231-1_12 , ISBN 978-3-030-01230-4, S2CID 51882734 , consultado el 9 de abril de 2021
- ^ Oord, Aaron Van; Kalchbrenner, Nal; Kavukcuoglu, Koray (11 de junio de 2016). "Redes neuronales recurrentes de píxeles" . Congreso Internacional de Machine Learning . PMLR: 1747–1756. arXiv : 1601.06759 .
- ^ "Google usa IA para enfocar imágenes de baja resolución" . engadget.com . Consultado el 15 de mayo de 2017 .
- ^ "Google acaba de hacer de 'ampliar y mejorar' una realidad, un poco" . cnet.com . Consultado el 15 de mayo de 2017 .
- ^ a b c d Castelvecchi, Davide (2016). "El aprendizaje profundo impulsa la herramienta de traducción de Google" . Nature News . doi : 10.1038 / nature.2016.20696 . S2CID 64308242 .
- ^ a b Lewis-Kraus, Gideon (14 de diciembre de 2016). "El gran despertar de la IA" . The New York Times . ISSN 0362-4331 . Consultado el 8 de abril de 2021 .
- ^ Johnson, Melvin; Schuster, Mike; Le, Quoc V .; Krikun, Maxim; Wu, Yonghui; Chen, Zhifeng; Thorat, Nikhil; Viégas, Fernanda; Wattenberg, Martin; Corrado, Greg; Hughes, Macduff (1 de octubre de 2017). "Sistema de traducción automática neuronal multilingüe de Google: habilitación de la traducción Zero-Shot" . Transacciones de la Asociación de Lingüística Computacional . 5 : 339–351. doi : 10.1162 / tacl_a_00065 . ISSN 2307-387X .
- ^ Reynolds, Matt. "Google utiliza redes neuronales para traducir sin transcribir" . Nuevo científico . Consultado el 15 de mayo de 2017 .
- ^ Metz, Cade; Dawson, Brian; Tala, Meg (26/03/2019). "Dentro del programa de robótica reiniciada de Google" . The New York Times . ISSN 0362-4331 . Consultado el 8 de abril de 2021 .
- ^ a b "Google Cloud Robotics Platform llegará a los desarrolladores en 2019" . El informe del robot . 2018-10-24 . Consultado el 8 de abril de 2021 .
- ^ a b Zeng, A .; Song, S .; Lee, J .; Rodríguez, A .; Funkhouser, T. (agosto de 2020). "TossingBot: aprender a lanzar objetos arbitrarios con física residual" . Transacciones IEEE sobre robótica . 36 (4): 1307-1319. doi : 10.1109 / TRO.2020.2988642 . ISSN 1941-0468 .
- ^ Gu, S .; Holly, E .; Lillicrap, T .; Levine, S. (mayo de 2017). "Aprendizaje por refuerzo profundo para la manipulación robótica con actualizaciones asincrónicas fuera de la política" . 2017 Conferencia Internacional IEEE sobre Robótica y Automatización (ICRA) : 3389–3396. arXiv : 1610.00633 . doi : 10.1109 / ICRA.2017.7989385 . ISBN 978-1-5090-4633-1. S2CID 18389147 .
- ^ a b Sermanet, P .; Lynch, C .; Chebotar, Y .; Hsu, J .; Jang, E .; Schaal, S .; Levine, S .; Brain, G. (mayo de 2018). "Redes de contraste de tiempo: aprendizaje auto-supervisado de vídeo" . Conferencia internacional de IEEE 2018 sobre robótica y automatización (ICRA) : 1134-1141. arXiv : 1704.06888 . doi : 10.1109 / ICRA.2018.8462891 . ISBN 978-1-5386-3081-5. S2CID 3997350 .
- ^ a b Tanwani, AK; Sermanet, P .; Yan, A .; Anand, R .; Phielipp, M .; Goldberg, K. (mayo de 2020). "Motion2Vec: representación semi-supervisada aprendizaje de videos quirúrgicos" . Conferencia internacional de IEEE 2020 sobre robótica y automatización (ICRA) : 2174–2181. arXiv : 2006.00545 . doi : 10.1109 / ICRA40945.2020.9197324 . ISBN 978-1-7281-7395-5. S2CID 219176734 .
- ^ a b Levine, Sergey; Pastor, Peter; Krizhevsky, Alex; Ibarz, Julián; Quillen, Deirdre (1 de abril de 2018). "Aprendizaje de la coordinación mano-ojo para agarre robótico con aprendizaje profundo y recopilación de datos a gran escala" . La Revista Internacional de Investigación en Robótica . 37 (4–5): 421–436. doi : 10.1177 / 0278364917710318 . ISSN 0278-3649 .
- ^ a b c Seurin, Mathieu; Strub, Florian; Preux, Philippe; Pietquin, Olivier (25 de octubre de 2020). "Una máquina de pocas palabras: reconocimiento interactivo del hablante con aprendizaje por refuerzo" . Interspeech 2020 . ISCA: ISCA: 4323–4327. arXiv : 2008.03127 . doi : 10.21437 / interspeech.2020-2892 . S2CID 221083446 .
- ^ "Cómo Google reformuló Android con la ayuda de tu cerebro" . Cableado . ISSN 1059-1028 . Consultado el 8 de abril de 2021 .
- ^ "Fuentes abiertas de Google, la tecnología de aprendizaje automático detrás de la búsqueda de fotos de Google, respuesta inteligente y más" . TechCrunch . Consultado el 8 de abril de 2021 .
- ^ "Este es el plan de Google para salvar YouTube" . Tiempo . 18 de mayo de 2015.
- ^ a b Levy, Steven (25 de abril de 2013). "Cómo Ray Kurzweil ayudará a Google a hacer el mejor cerebro de IA" . Cableado . Consultado el 11 de febrero de 2014 .
- ^ Wohlsen, Marcus (27 de enero de 2014). "Gran plan de Google para hacer que su cerebro sea irrelevante" . Cableado . Consultado el 11 de febrero de 2014 .
- ^ Hernandez, Daniela (7 de mayo de 2013). "El hombre detrás del cerebro de Google: Andrew Ng y la búsqueda de la nueva IA" . Cableado . Consultado el 11 de febrero de 2014 .
- ^ a b "Ray Kurzweil y los cerebros detrás del cerebro de Google" . Piensa en grande . 8 de diciembre de 2013 . Consultado el 11 de febrero de 2014 .
- ^ a b c "Leímos el documento que obligó a Timnit Gebru a salir de Google. Esto es lo que dice" . Revisión de tecnología del MIT . Consultado el 8 de abril de 2021 .
- ^ Bender, Emily M .; Gebru, Timnit; McMillan-Major, Angelina; Shmitchell, Shmargaret (3 de marzo de 2021). "Sobre los peligros de los loros estocásticos: ¿Pueden los modelos de lenguaje ser demasiado grandes? 🦜" . Actas de la Conferencia ACM de 2021 sobre equidad, rendición de cuentas y transparencia . Evento virtual de Canadá: ACM: 610–623. doi : 10.1145 / 3442188.3445922 . ISBN 978-1-4503-8309-7.
- ^ a b c Schiffer, Zoe (19 de febrero de 2021). "Google despide a un segundo investigador de ética de IA después de una investigación interna" . The Verge . Consultado el 8 de abril de 2021 .
- ^ Cambio, Google Walkout For Real (15/12/2020). "De pie con el Dr. Timnit Gebru - #ISupportTimnit #BelieveBlackWomen" . Medio . Consultado el 8 de abril de 2021 .
- ^ Dave, Jeffrey Dastin, Paresh (4 de febrero de 2021). "Dos ingenieros de Google dimiten por el despido del investigador de ética de IA Timnit Gebru" . Reuters . Consultado el 8 de abril de 2021 .