David A. McAllester (nacido el 30 de mayo de 1956) es un científico informático estadounidense que es profesor y ex director académico en el Instituto Tecnológico de Toyota en Chicago. Recibió su BS, MS y Ph.D. grados del Instituto de Tecnología de Massachusetts en 1978, 1979 y 1987 respectivamente. Su doctorado fue supervisado por Gerald Sussman . Estuvo en la facultad de la Universidad de Cornell durante el año académico 1987-1988 y en la facultad del MIT de 1988 a 1995. Fue miembro del personal técnico de AT&T Labs-Research de 1995 a 2002. Ha sido miembro del Asociación Estadounidense de Inteligencia Artificial desde 1997. [3] Ha escrito más de 100 publicaciones arbitradas.
David A. McAllester | |
---|---|
Nació | Estados Unidos | 30 de mayo de 1956
alma mater | MIT |
Conocido por | Inteligencia artificial |
Premios | Premio AAAI Classic Paper (2010) [1] Premio a la Prueba del Tiempo de la Conferencia Internacional sobre Programación Lógica (2014) [2] |
Carrera científica | |
Campos | Ciencias de la Computación , Inteligencia Artificial , Aprendizaje Automático |
Instituciones | Instituto Tecnológico Toyota en Chicago |
Asesor de doctorado | Gerald Sussman |
Las áreas de investigación de McAllester incluyen la teoría del aprendizaje automático, la teoría de los lenguajes de programación, el razonamiento automatizado, la planificación de la IA, los juegos de computadora (ajedrez informático) y la lingüística computacional. Un artículo de 1991 sobre planificación de la IA [4] resultó ser uno de los artículos más influyentes de la década en esa área. [5] Un artículo de 1993 sobre algoritmos de juegos de ordenador [6] influyó en el diseño de los algoritmos utilizados en el sistema de ajedrez Deep Blue que derrotó a Garry Kasparov . [7] Un artículo de 1998 sobre la teoría del aprendizaje automático [8] introdujo los teoremas bayesianos de PAC que combinan métodos bayesianos y no bayesianos. Sus planes para la investigación futura se centran en la integración de la semántica en los enfoques estadísticos de la lingüística computacional.
Opiniones sobre inteligencia artificial
McAllester ha expresado su preocupación sobre los peligros potenciales de la inteligencia artificial , escribiendo en un artículo para el Pittsburgh Tribune-Review que es inevitable que las máquinas inteligentes totalmente automatizadas puedan diseñar y construir versiones más inteligentes y mejores de sí mismas, un evento conocido como el singularidad . La singularidad permitiría a las máquinas volverse infinitamente inteligentes y plantearía un "escenario increíblemente peligroso". McAllester estima una probabilidad del 10 por ciento de que la singularidad ocurra dentro de los 25 años y una probabilidad del 90 por ciento de que ocurra dentro de los 75 años. [9] Apareció en el Panel Presidencial de AAAI sobre Futuros de IA a Largo Plazo en 2009 :, [10] y considera que los peligros de la IA superinteligente vale la pena tomarlos en serio:
Me incomoda decir que estamos seguros en un noventa y nueve por ciento de que estaremos a salvo durante cincuenta años ... Eso me parece una arrogancia. [11]
Más tarde fue descrito como discutiendo la singularidad en el panel en términos de dos hitos importantes en inteligencia artificial:
1) Sentimiento operativo: Podemos conversar fácilmente con las computadoras. 2) La reacción en cadena de la IA: una computadora que arranca se ajusta a sí misma para ser mejor. Repetir. [12]
McAllester también ha escrito sobre inteligencia artificial amigable en su blog. Él dice que antes de que las máquinas sean capaces de programarse a sí mismas (potencialmente conduciendo a la singularidad), debería haber un período en el que sean moderadamente inteligentes en el que debería ser posible probar dándoles un propósito o misión que debería hacerlas seguras para los humanos. :
Personalmente, creo que es probable que dentro de una década los agentes sean capaces de entablar una conversación convincente sobre los eventos cotidianos que son el tema de las conversaciones no técnicas de la cena. Creo que esto sucederá mucho antes de que las máquinas puedan programarse por sí mismas, lo que conducirá a una explosión de inteligencia. Las primeras etapas de la inteligencia artificial general (AGI) estarán seguras. Sin embargo, las primeras etapas de AGI proporcionarán un excelente banco de pruebas para la misión de servicio u otros enfoques de la IA amiga ... Si se acerca una era de AGI segura (no demasiado inteligente), tendremos tiempo para pensar más en ello más adelante. eras más peligrosas. [13]
Referencias
- ^ "Premio de papel clásico AAAI" . AAAI . 2016 . Consultado el 19 de agosto de 2016 .
- ^ "El artículo de Pascal resiste la prueba del tiempo" . Universidad Nacional de Australia . 23 de abril de 2014 . Consultado el 19 de agosto de 2016 .
- ^ "Biografía de David McAllester" . Instituto Tecnológico de Toyota en Chicago . Consultado el 19 de agosto de 2016 .
- ^ McAllester, David; Rosenblitt, David (diciembre de 1991). "Planificación sistemática no lineal" (PDF) . Actas AAAI-91 . AAAI : 634–639 . Consultado el 19 de agosto de 2016 .
- ^ "Citas de Google Académico" . Google Scholar . 2016 . Consultado el 19 de agosto de 2016 .
- ^ McAllester, David; Yuret, Deniz (20 de octubre de 1993). "Búsqueda de conspiración alfa-beta". Sequía. CiteSeerX 10.1.1.44.6969 . Cite journal requiere
|journal=
( ayuda ) - ^ Campbell, Murray S .; Joseph Hoane, Jr., A .; Hsu, Feng-hsiung (1999). "Métodos de control de búsqueda en Deep Blue" (PDF) . Informe técnico AAAI SS-99-07 . AAAI : 19-23. Archivado desde el original (PDF) el 14 de septiembre de 2016 . Consultado el 16 de agosto de 2016 .
Hasta donde sabemos, la idea de separar el cálculo de profundidad en blanco y negro fue sugerida por primera vez por David McAllester. Un artículo posterior (McAllester y Yuret 1993) derivó un algoritmo, ABC, de la teoría de la conspiración (McAllester 1988).
- ^ McAllester, David (1998). "Algunos teoremas PAC-Bayesianos" . Actas de la undécima conferencia anual sobre teoría del aprendizaje computacional - COLT '98 . Actas de la undécima conferencia anual sobre teoría del aprendizaje computacional . Colt '98. Asociación de Maquinaria de Computación . págs. 230–234. CiteSeerX 10.1.1.21.1745 . doi : 10.1145 / 279943.279989 . ISBN 978-1581130577. Consultado el 19 de agosto de 2016 .
- ^ Cronin, Mike (2 de noviembre de 2009). "El informe de los futuristas revisa los peligros de los robots inteligentes" . Pittsburgh Tribune-Review . Consultado el 20 de agosto de 2016 .
- ^ "Reunión de Asilomar sobre futuros de IA a largo plazo" . Investigación de Microsoft . 2009 . Consultado el 20 de agosto de 2016 .
- ^ Khatchadourian, Raffi (23 de noviembre de 2015). "La invención del día del juicio final: ¿nos traerá la inteligencia artificial la utopía o la destrucción?" . The New Yorker . Consultado el 23 de agosto de 2016 .
- ^ Fortnow, Lance (31 de julio de 2009). "La Singularidad" . Complejidad computacional . Consultado el 20 de agosto de 2016 .
- ^ McAllester, David (10 de agosto de 2014). "IA amistosa y la misión del sirviente" . Pensamientos de la máquina . WordPress . Consultado el 20 de agosto de 2016 .
enlaces externos
- Página académica de David McAllester en TTIC .
- Machine Thoughts , blog personal de David McAllester.
- David Allen McAllester en el Proyecto de Genealogía de Matemáticas .