Charla: Riesgo existencial de la inteligencia artificial general


Agregué este artículo a algunos WikiProjects, pero quienes tengan más conocimientos que yo sobre este tema deben verificar su relevancia. -  Jeraphine Gryphon  ( charla ) 16:34, 19 de mayo de 2015 (UTC)

Esta sección de críticas parece más un ataque inflamado: debe revisarse para reflejar las críticas constructivas que mejoran la calidad del artículo. - Comentario anterior sin firmar agregado por 101.178.240.119 ( conversación ) 23:44, 4 de febrero de 2016 (UTC)

Es evidente que el artículo carece de una sección de críticas y, como tal, está lejos de ser neutral. Aquí están algunas:

Este artículo se lee como un artículo en un sitio de noticias con un marco de Terminator como encabezado. Podría necesitar una gran cantidad de trabajo. Soy un forastero y puede que tenga tiempo para arreglarlo, pero aquí hay algunas frutas que están al alcance de la mano. - Comentario anterior sin firmar agregado por 67.170.238.88 ( charla ) 09:20, 9 de octubre de 2015 (UTC)

Dado que temas como la IA superinteligente apenas están comenzando a irrumpir en la corriente principal de la informática y no hay un consenso científico claro sobre el tema, la cobertura de Wikipedia del tema debería evitar meticulosamente los riesgos de la investigación original y la síntesis original. La mejor manera de hacer esto es confiar en fuentes terciarias acreditadas que cubran este tema, dependiendo de su organización y encuadre. Por el momento, creo que la mejor referencia para este propósito es http://www.givewell.org/labs/causes/ai-risk , que se centra en el tema relevante y utiliza el término "IA avanzada".

Aunque AGI es obviamente relevante, la generalidad de los algoritmos de IA puede no ser la característica sobresaliente para todos los escenarios de riesgo existencial: un sistema que carece de generalidad (por ejemplo, no puede entender la psicología humana) aún podría plantear los problemas Bostrom / Omohundro / Russell / etc. hablar sobre si tenía una inteligencia limitada excepcionalmente buena en el dominio correcto, como la ingeniería de software (para la superación personal recursiva) o la bioingeniería (para sintetizar patógenos). - Silencio ( conversación ) 21:51, 10 de noviembre de 2015 (UTC)