La IA explicable ( XAI ) es la inteligencia artificial (IA) en la que los humanos pueden entender los resultados de la solución. Contrasta con el concepto de " caja negra " en el aprendizaje automático, donde incluso sus diseñadores no pueden explicar por qué una IA llegó a una decisión específica. [1] XAI puede ser una implementación del derecho social a la explicación . [2] XAI es relevante incluso si no existe ningún derecho legal o requisito reglamentario; por ejemplo, XAI puede mejorar la experiencia del usuariode un producto o servicio ayudando a los usuarios finales a confiar en que la IA está tomando buenas decisiones. De esta forma, el objetivo de XAI es explicar qué se ha hecho, qué se hace ahora mismo, qué se hará a continuación y desvelar la información en la que se basan las acciones. [3] Estas características permiten (i) confirmar el conocimiento existente (ii) cuestionar el conocimiento existente y (iii) generar nuevos supuestos. [4]
Los algoritmos utilizados en la IA se pueden diferenciar en algoritmos de aprendizaje automático (ML) de caja blanca y caja negra. Los modelos de caja blanca son modelos de aprendizaje automático que proporcionan resultados comprensibles para los expertos en el dominio. Los modelos de caja negra, por otro lado, son extremadamente difíciles de explicar y difícilmente pueden ser entendidos incluso por expertos en el dominio. [5] Se considera que los algoritmos XAI siguen los tres principios transparencia, interpretabilidad y explicabilidad. La transparencia se da "si los procesos que extraen los parámetros del modelo de los datos de entrenamiento y generan etiquetas a partir de los datos de prueba pueden ser descritos y motivados por el diseñador del enfoque". [6] Interpretabilidad [7] describe la posibilidad de comprender el modelo ML y presentar la base subyacente para la toma de decisiones de una manera que sea comprensible para los humanos. [8] La explicabilidad es un concepto que se reconoce como importante, pero aún no se dispone de una definición conjunta. [6] Se sugiere que la explicabilidad en ML puede considerarse como “la colección de características del dominio interpretable, que han contribuido para que un ejemplo dado produzca una decisión (por ejemplo, clasificación o regresión)”. [9] Si los algoritmos cumplen con estos requisitos, proporcionan una base para justificar decisiones, rastrearlas y, por lo tanto, verificarlas, mejorar los algoritmos y explorar nuevos hechos. [10]
A veces también es posible lograr un resultado con alta precisión con un algoritmo ML de caja blanca que es interpretable en sí mismo. [11] Esto es especialmente importante en dominios como medicina, defensa, finanzas y derecho, donde es crucial comprender las decisiones y generar confianza en los algoritmos. [3]
Los sistemas de inteligencia artificial optimizan el comportamiento para satisfacer un sistema de objetivos matemáticamente especificado elegido por los diseñadores del sistema, como el comando "maximizar la precisión de evaluar qué tan positivas son las reseñas de películas en el conjunto de datos de prueba". La IA puede aprender reglas generales útiles del conjunto de pruebas, como "las reseñas que contienen la palabra 'horrible' probablemente sean negativas". Sin embargo, también puede aprender reglas inapropiadas, como "las reseñas que contienen ' Daniel Day-Lewis ' suelen ser positivas"; tales reglas pueden ser indeseables si se considera probable que no se generalicen fuera del conjunto de prueba, o si las personas consideran que la regla es "engañosa" o "injusta". Un humano puede auditar las reglas en un XAI para tener una idea de la probabilidad de que el sistema se generalice a datos futuros del mundo real fuera del conjunto de prueba. [12]
Metas
La cooperación entre agentes , en este caso algoritmos y humanos, depende de la confianza. Si los humanos van a aceptar prescripciones algorítmicas, deben confiar en ellas. La incompletitud en la formalización de los criterios de confianza es una barrera para los enfoques de optimización sencillos. Por esa razón, la interpretabilidad y la explicabilidad se postulan como metas intermedias para verificar otros criterios. [13]
Los sistemas de IA a veces aprenden trucos indeseables que hacen un trabajo óptimo al satisfacer objetivos explícitos preprogramados en los datos de entrenamiento, pero que no reflejan los complicados deseos implícitos de los diseñadores de sistemas humanos. Por ejemplo, un sistema de 2017 encargado del reconocimiento de imágenes aprendió a "hacer trampa" buscando una etiqueta de derechos de autor que estuviera asociada con las imágenes de caballos, en lugar de aprender a saber si un caballo estaba realmente representado. [1] En otro sistema de 2017, una IA de aprendizaje supervisada encargada de agarrar elementos en un mundo virtual aprendió a hacer trampa colocando su manipulador entre el objeto y el espectador de tal manera que parecía estar agarrando el objeto falsamente. [14] [15]
Un proyecto de transparencia, el programa DARPA XAI, tiene como objetivo producir modelos de "caja de cristal" que se puedan explicar a un "humano en el circuito", sin sacrificar en gran medida el rendimiento de la IA. Los usuarios humanos deben poder comprender la cognición de la IA (tanto en tiempo real como después del hecho), y deben poder determinar cuándo confiar en la IA y cuándo se debe desconfiar de la IA. [16] [17] Otras aplicaciones de XAI son la extracción de conocimientos de modelos de caja negra y comparaciones de modelos. [18] El término "caja de cristal" también se ha utilizado para los sistemas que monitorean las entradas y salidas de un sistema, con el propósito de verificar la adherencia del sistema a los valores éticos y socio-legales y, por lo tanto, producir explicaciones basadas en valores. [19] Además, el mismo término se ha utilizado para nombrar a un asistente de voz que produce declaraciones contrafácticas como explicaciones. [20]
Historia y métodos
Durante las décadas de 1970 a 1990, se exploraron sistemas de razonamiento simbólico, como MYCIN , [21] GUIDON, [22] SOPHIE, [23] y PROTOS [24] [25] , que podrían representar, razonar y explicar su razonamiento para el diagnóstico. , instructivos o de aprendizaje automático (aprendizaje basado en explicaciones). MYCIN, desarrollado a principios de la década de 1970 como un prototipo de investigación para el diagnóstico de infecciones por bacteriemia del torrente sanguíneo, podría explicar [26] cuál de sus reglas codificadas a mano contribuyó a un diagnóstico en un caso específico. La investigación en sistemas de tutoría inteligente desarrolló sistemas como SOPHIE que podrían actuar como un 'experto articulado', explicando la estrategia de resolución de problemas a un nivel que el estudiante podría entender, para que supieran qué acción tomar a continuación. Por ejemplo, SOPHIE podría explicar el razonamiento cualitativo detrás de su solución de problemas electrónicos, aunque en última instancia se basó en el simulador de circuito SPICE . De manera similar, GUIDON agregó reglas de tutoría para complementar las reglas de nivel de dominio de MYCIN para que pudiera explicar la estrategia para el diagnóstico médico. Los enfoques simbólicos del aprendizaje automático, especialmente los que se basan en el aprendizaje basado en explicaciones, como PROTOS, se basaron explícitamente en representaciones de explicaciones, tanto para explicar sus acciones como para adquirir nuevos conocimientos.
Desde la década de 1980 hasta principios de la de 1990, se desarrollaron sistemas de mantenimiento de la verdad (TMS) para ampliar las capacidades de los sistemas de inferencia de razonamiento causal, basados en reglas y basados en lógica. [27] : 360–362 Un TMS actúa para rastrear explícitamente líneas alternas de razonamiento, justificaciones de conclusiones y líneas de razonamiento que conducen a contradicciones, permitiendo que el razonamiento futuro evite estos callejones sin salida. Para proporcionar una explicación, trazan el razonamiento desde las conclusiones hasta los supuestos a través de operaciones de reglas o inferencias lógicas, lo que permite que se generen explicaciones a partir de los trazos del razonamiento. Como ejemplo, considere un solucionador de problemas basado en reglas con solo algunas reglas sobre Sócrates que concluye que ha muerto por veneno:
Con sólo trazar la estructura de dependencia, el solucionador de problemas puede construir la siguiente explicación: "Sócrates murió porque era mortal y bebió veneno, y todos los mortales mueren cuando beben veneno. Sócrates era mortal porque era un hombre y todos los hombres son mortales. Sócrates bebió veneno porque tenía creencias disidentes, el gobierno era conservador y los que tienen creencias disidentes conservadoras bajo gobiernos conservadores deben beber veneno ". [28] : 164–165
En la década de 1990, los investigadores también comenzaron a estudiar si es posible extraer de manera significativa las reglas no codificadas a mano generadas por redes neuronales entrenadas opacas. [29] Los investigadores en sistemas de expertos clínicos que crean apoyo a las decisiones impulsadas por redes neuronales para los médicos han buscado desarrollar explicaciones dinámicas que permitan que estas tecnologías sean más confiables y confiables en la práctica. [2] En la década de 2010, las preocupaciones del público sobre los prejuicios raciales y de otro tipo en el uso de la inteligencia artificial para las decisiones de imposición de penas y los hallazgos de solvencia pueden haber llevado a una mayor demanda de inteligencia artificial transparente. [1] Como resultado, muchos académicos y organizaciones están desarrollando herramientas para ayudar a detectar sesgos en sus sistemas. [30]
Marvin Minsky y col. planteó la cuestión de que la IA puede funcionar como una forma de vigilancia, con los sesgos inherentes a la vigilancia, sugiriendo HI (Inteligencia Humanística) como una forma de crear una IA "humana en el circuito" más justa y equilibrada. [31]
Las modernas técnicas de IA complejas, como el aprendizaje profundo y los algoritmos genéticos, son naturalmente opacas. [32] Para abordar este problema, se han desarrollado muchos métodos nuevos para hacer que los nuevos modelos sean más explicables e interpretables. [33] [34] [35] [36] [37] Esto incluye muchos métodos, como la propagación de relevancia por capas (LRP), una técnica para determinar qué características en un vector de entrada particular contribuyen más fuertemente a la salida de una red neuronal. [38] [39] [40] Se han desarrollado otras técnicas para explicar una predicción particular realizada por un modelo de caja negra (no lineal), un objetivo denominado "interpretabilidad local". [41] [42] [43] [44] [45] [46] Cabe señalar que la mera transposición de los conceptos de interpretabilidad local a un contexto remoto (donde el modelo de caja negra se ejecuta en un tercero) se encuentra actualmente bajo escrutinio. [47] [48]
Además, se ha trabajado en árboles de decisión, conjuntos de árboles y redes bayesianas, que son más transparentes a la inspección. [49] [50] En 2018 se estableció una conferencia interdisciplinaria llamada FAT * (Equidad, Responsabilidad y Transparencia) para estudiar la transparencia y la explicabilidad en el contexto de los sistemas socio-técnicos, muchos de los cuales incluyen inteligencia artificial. [51] [52] [53]
Algunas técnicas permiten visualizar las entradas a las que responden las neuronas individuales con más fuerza. Varios grupos han descubierto que las neuronas se pueden agregar en circuitos que realizan funciones comprensibles para los humanos, algunas de las cuales surgen de manera confiable a través de diferentes redes entrenadas de forma independiente. [54] [55]
En un nivel superior, existen varias técnicas para extraer representaciones comprimidas de las características de las entradas dadas, que luego pueden analizarse mediante técnicas de agrupamiento estándar. Alternativamente, las redes pueden ser capacitadas para producir explicaciones lingüísticas de su comportamiento, que luego son directamente interpretables por humanos. [56] El comportamiento del modelo también se puede explicar con referencia a los datos de entrenamiento, por ejemplo, evaluando qué entradas de entrenamiento influyeron más en un comportamiento determinado. [57]
Regulación
A medida que los reguladores, los organismos oficiales y los usuarios en general lleguen a depender de los sistemas dinámicos basados en inteligencia artificial, se requerirá una responsabilidad más clara para los procesos de toma de decisiones para garantizar la confianza y la transparencia. La evidencia de que este requisito está ganando más impulso se puede ver con el lanzamiento de la primera conferencia global dedicada exclusivamente a esta disciplina emergente, la Conferencia Internacional Conjunta sobre Inteligencia Artificial: Taller sobre Inteligencia Artificial Explicable (XAI). [58]
La Unión Europea introdujo un derecho a la explicación en el derecho general de protección de datos (GDPR) como un intento de abordar los problemas potenciales derivados de la creciente importancia de los algoritmos. La implementación de la regulación comenzó en 2018. Sin embargo, el derecho a explicación en GDPR cubre solo el aspecto local de interpretabilidad. En los Estados Unidos, las compañías de seguros deben poder explicar sus decisiones sobre tarifas y cobertura. [59]
Sectores
XAI se ha investigado en muchos sectores, que incluyen:
- Diseño de antena ( antena evolucionada ) [60]
- Comercio algorítmico ( comercio de alta frecuencia ) [61]
- Diagnósticos médicos [62] [63] [64] [65] [66]
- Vehículos autónomos [67] [68]
- Análisis de texto [69]
- Justicia penal [64]
Referencias
- ^ a b c Sample, Ian (5 de noviembre de 2017). "La computadora dice que no: por qué hacer que las IA sean justas, responsables y transparentes es crucial" . The Guardian . Consultado el 30 de enero de 2018 .
- ^ a b Edwards, Lilian; Veale, Michael (2017). "¿Esclavo del algoritmo? ¿Por qué un 'derecho a una explicación' probablemente no es el remedio que está buscando". Revisión de la ley y la tecnología de Duke . 16 : 18. SSRN 2972855 .
- ^ a b Gunning, D .; Stefik, M .; Choi, J .; Miller, T .; Stumpf, S .; Yang, G.-Z. (18 de diciembre de 2019). "Inteligencia artificial explicable por XAI" . Ciencia Robótica . 4 (37): eaay7120. doi : 10.1126 / scirobotics.aay7120 . ISSN 2470-9476 .
- ^ Rieg, Thilo; Frick, Janek; Baumgartl, Hermann; Buettner, Ricardo (17 de diciembre de 2020). "Demostración del potencial de los enfoques de aprendizaje automático de caja blanca para obtener conocimientos de los electrocardiogramas de enfermedades cardiovasculares" . PLOS ONE . 15 (12): e0243615. doi : 10.1371 / journal.pone.0243615 . ISSN 1932-6203 . PMC 7746264 . PMID 33332440 .
- ^ Loyola-González, O. (2019). "Black-Box vs. White-Box: comprender sus ventajas y debilidades desde un punto de vista práctico" . Acceso IEEE . 7 : 154096–154113. doi : 10.1109 / ACCESS.2019.2949286 . ISSN 2169-3536 .
- ^ a b Roscher, R .; Bohn, B .; Duarte, MF; Garcke, J. (2020). "Aprendizaje automático explicable para descubrimientos y conocimientos científicos" . Acceso IEEE . 8 : 42200–42216. doi : 10.1109 / ACCESS.2020.2976199 . ISSN 2169-3536 .
- ^ Lipton, Zachary C. (junio de 2018). "Los mitos de la interpretabilidad del modelo: en el aprendizaje automático, el concepto de interpretabilidad es importante y escurridizo" . Cola . 16 (3): 31–57. doi : 10.1145 / 3236386.3241340 . ISSN 1542-7730 .
- ^ "Inteligencia Artificial Explicable (XAI): conceptos, taxonomías, oportunidades y desafíos hacia una IA responsable" . DeepAI . 2019-10-22 . Consultado el 13 de enero de 2021 .
- ^ Montavon, Grégoire; Samek, Wojciech; Müller, Klaus-Robert (1 de febrero de 2018). "Métodos para interpretar y comprender redes neuronales profundas" . Procesamiento de señales digitales . 73 : 1-15. doi : 10.1016 / j.dsp.2017.10.011 . ISSN 1051-2004 .
- ^ Adadi, A .; Berrada, M. (2018). "Mirando dentro de la caja negra: una encuesta sobre la inteligencia artificial explicable (XAI)" . Acceso IEEE . 6 : 52138–52160. doi : 10.1109 / ACCESS.2018.2870052 . ISSN 2169-3536 .
- ^ Rudin, Cynthia (2019). "Deje de explicar los modelos de aprendizaje automático de caja negra para decisiones de alto riesgo y use modelos interpretables en su lugar" . Inteligencia de la máquina de la naturaleza . 1 (5): 206–215. arXiv : 1811.10154 . doi : 10.1038 / s42256-019-0048-x . ISSN 2522-5839 .
- ^ "Cómo los detectives de IA están abriendo la caja negra del aprendizaje profundo" . Ciencia . El 5 de julio de 2017 . Consultado el 30 de enero de 2018 ..
- ^ Dosilovic, Filip; Brcic, Mario; Hlupic, Nikica (25 de mayo de 2018). "Inteligencia artificial explicable: una encuesta" (PDF) . MIPRO 2018 - Actas de la 41a Convención Internacional . MIPRO 2018. Opatija, Croacia. págs. 210–215. doi : 10.23919 / MIPRO.2018.8400040 .
- ^ "DeepMind tiene pruebas simples que podrían prevenir el Apocalipsis de IA de Elon Musk" . Bloomberg.com . 11 de diciembre de 2017 . Consultado el 30 de enero de 2018 .
- ^ "Aprendiendo de las preferencias humanas" . Blog de OpenAI . 13 de junio de 2017 . Consultado el 30 de enero de 2018 .
- ^ "Inteligencia Artificial Explicable (XAI)" . DARPA . DARPA . Consultado el 17 de julio de 2017 .
- ^ Holzinger, Andreas; Plass, Markus; Holzinger, Katharina; Crisan, Gloria Cerasela; Pintea, Camelia-M .; Palade, Vasile (3 de agosto de 2017). "Un enfoque de aprendizaje automático interactivo de caja de vidrio para resolver problemas NP-difíciles con el humano en el circuito". arXiv : 1708.01104 [ cs.AI ].
- ^ Biecek, Przemyslaw (23 de junio de 2018). "DALEX: explicadores para modelos predictivos complejos". Revista de investigación sobre aprendizaje automático . 19 : 1–5. arXiv : 1806.08915 . Código bibliográfico : 2018arXiv180608915B .
- ^ Aler Tubella, Andrea; Theodorou, Andreas; Dignum, Frank; Dignum, Virginia (2019). Gobernanza mediante Glass-Box: Implementación de límites morales transparentes para el comportamiento de la IA . California: Conferencias conjuntas internacionales sobre la Organización de Inteligencia Artificial. doi : 10.24963 / ijcai.2019 / 802 . ISBN 978-0-9992411-4-1.
- ^ Sokol, Kacper; Flach, Peter (2018). "Glass-Box: explicando las decisiones de la IA con declaraciones contrafactuales a través de la conversación con un asistente virtual habilitado por voz". Actas de la XXVII Conferencia Conjunta Internacional sobre Inteligencia Artificial . págs. 5868–5870. doi : 10.24963 / ijcai.2018 / 865 . ISBN 9780999241127.
- ^ Fagan, LM; Shortliffe, EH; Buchanan, BG (1980). "Toma de decisiones médicas por computadora: de MYCIN a VM". Automedica . 3 (2): 97–108.
- ^ Clancey, William (1987). Tutoría basada en conocimientos: el programa GUIDON . Cambridge, Massachusetts: The MIT Press.
- ^ Brown, John S .; Burton, RR; De Kleer, Johan (1982). "Técnicas pedagógicas, del lenguaje natural y de la ingeniería del conocimiento en SOPHIE I, II y III". Sistemas de tutoría inteligente . Prensa académica. ISBN 0-12-648680-8.
- ^ Bareiss, Ray; Porter, Bruce; Weir, Craig; Holte, Robert (1990). "Protos: un aprendiz de aprendizaje basado en ejemplos". Aprendizaje automático . 3 . Morgan Kaufmann Publishers Inc. págs. 112-139. ISBN 1-55860-119-8.
- ^ Bareiss, Ray. Adquisición de conocimientos basada en ejemplos: un enfoque unificado para la representación, clasificación y aprendizaje de conceptos . Perspectivas en Inteligencia Artificial.
- ^ Van Lent, M .; Fisher, W .; Mancuso, M. (julio de 2004). "Un sistema de inteligencia artificial explicable para el comportamiento táctico de unidades pequeñas". Actas de la Conferencia Nacional de Inteligencia Artificial . San José, CA: AAAI Press. págs. 900–907. ISBN 0262511835.
- ^ Russell, Stuart; Norvig, Peter (2003). Inteligencia artificial: un enfoque moderno . Serie de Prentice Hall en Inteligencia Artificial (Segunda ed.). Upper Saddle River, Nueva Jersey: Prentice Hall, Pearson Education. ISBN 0-13-790395-2.
- ^ Forbus, Kenneth; De Kleer, Johan (1993). Construyendo solucionadores de problemas . Cambridge, Massachusetts: The MIT Press. ISBN 0-262-06157-0.
- ^ Cosquillas, AB; Andrews, R .; Golea, M .; Diederich, J. (noviembre de 1998). "La verdad saldrá a la luz: direcciones y desafíos para extraer el conocimiento incrustado en redes neuronales artificiales entrenadas". Transacciones IEEE en redes neuronales . 9 (6): 1057–1068. doi : 10.1109 / 72.728352 . ISSN 1045-9227 . PMID 18255792 .
- ^ "Accenture presenta una herramienta para ayudar a las empresas a garantizar que su IA sea justa" . Bloomberg.com . Junio de 2018 . Consultado el 5 de agosto de 2018 .
- ^ Minsky, et al., "La sociedad de vigilancia inteligente" IEEE ISTAS2013, páginas 13-17.
- ^ Mukherjee, Siddhartha (27 de marzo de 2017). "AI versus MD" The New Yorker . Consultado el 30 de enero de 2018 .
- ^ Csiszár, Orsolya; Csiszár, Gábor; Dombi, József (8 de julio de 2020). "Redes neuronales interpretables basadas en lógica de valores continuos y operadores de decisión multicriterio" . Sistemas basados en el conocimiento . 199 : 105972. doi : 10.1016 / j.knosys.2020.105972 . ISSN 0950-7051 .
- ^ Lipton, Zachary C. (10 de junio de 2016). "Los mitos de la interpretabilidad del modelo". arXiv : 1606.03490 [ cs.LG ].
- ^ Murdoch, W. James; Singh, Chandan; Kumbier, Karl; Abbasi-Asl, Reza; Yu, Bin (14 de enero de 2019). "Aprendizaje automático interpretable: definiciones, métodos y aplicaciones" . Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 116 (44): 22071–22080. arXiv : 1901.04592 . Código bibliográfico : 2019arXiv190104592M . doi : 10.1073 / pnas.1900654116 . PMC 6825274 . PMID 31619572 .
- ^ Doshi-Vélez, Finale; Kim, estado (27 de febrero de 2017). "Hacia una ciencia rigurosa del aprendizaje automático interpretable". arXiv : 1702.08608 [ stat.ML ].
- ^ Abdollahi, Behnoush y Olfa Nasraoui. (2016). "Máquinas de Boltzmann restringidas explicables para filtrado colaborativo". arXiv : 1606.07129 [ stat.ML ].CS1 maint: varios nombres: lista de autores ( enlace )
- ^ Shiebler, Dan (16 de abril de 2017). "Comprensión de las redes neuronales con la propagación por relevancia en capas y la serie Deep Taylor" . Dan Shiebler . Consultado el 3 de noviembre de 2017 .
- ^ Bach, Sebastián; Binder, Alexander; Montavon, Grégoire; Klauschen, Frederick; Müller, Klaus-Robert; Samek, Wojciech (10 de julio de 2015). Suárez, Oscar Deniz (ed.). "Sobre las explicaciones de píxeles para decisiones de clasificador no lineal por propagación de relevancia de capas" . PLOS ONE . 10 (7): e0130140. Código bibliográfico : 2015PLoSO..1030140B . doi : 10.1371 / journal.pone.0130140 . ISSN 1932-6203 . PMC 4498753 . PMID 26161953 .
- ^ Sample, Ian (5 de noviembre de 2017). "La computadora dice que no: por qué hacer que las IA sean justas, responsables y transparentes es crucial" . The Guardian . Consultado el 5 de agosto de 2018 .
- ^ Martens, David; Rector, Foster (2014). "Explicación de las clasificaciones de documentos basadas en datos" (PDF) . MIS Quarterly . 38 : 73–99. doi : 10.25300 / MISQ / 2014 / 38.1.04 .
- ^ " " ¿Por qué debería confiar en usted? "| Actas de la 22ª Conferencia Internacional ACM SIGKDD sobre descubrimiento de conocimiento y minería de datos". doi : 10.1145 / 2939672.2939778 . S2CID 13029170 . Cite journal requiere
|journal=
( ayuda ) - ^ Lundberg, Scott M; Lee, Su-In (2017), Guyon, I .; Luxburg, UV; Bengio, S .; Wallach, H. (eds.), "A Unified Approach to Interpreting Model Predictions" (PDF) , Advances in Neural Information Processing Systems 30 , Curran Associates, Inc., págs. 4765–4774, arXiv : 1705.07874 , Bibcode : 2017arXiv170507874L , recuperado 2020-03-13
- ^ Carter, Brandon; Mueller, Jonas; Jain, Siddhartha; Gifford, David (11 de abril de 2019). "¿Qué te hizo hacer esto? Entender las decisiones de caja negra con suficientes subconjuntos de entrada" . La 22ª Conferencia Internacional sobre Inteligencia Artificial y Estadística : 567–576.
- ^ Shrikumar, Avanti; Greenside, Peyton; Kundaje, Anshul (17 de julio de 2017). "Aprendizaje de características importantes mediante la propagación de diferencias de activación" . Conferencia internacional sobre aprendizaje automático : 3145–3153.
- ^ "Atribución axiomática para redes profundas | Actas de la 34ª Conferencia Internacional sobre Aprendizaje Automático - Volumen 70" . dl.acm.org . Consultado el 13 de marzo de 2020 .
- ^ Aivodji, Ulrich; Arai, Hiromi; Fortineau, Olivier; Gambs, Sébastien; Hara, Satoshi; Tapp, Alain (24 de mayo de 2019). "Fairwashing: el riesgo de racionalización" . Congreso Internacional de Machine Learning . PMLR: 161-170.
- ^ Le Merrer, Erwan; Trédan, Gilles (septiembre de 2020). "La explicabilidad remota se enfrenta al problema del gorila" . Inteligencia de la máquina de la naturaleza . 2 (9): 529–539. arXiv : 1910.01432 . doi : 10.1038 / s42256-020-0216-z . ISSN 2522-5839 .
- ^ Bostrom, N. y Yudkowsky, E. (2014). La ética de la inteligencia artificial . El Manual de Cambridge de Inteligencia Artificial, 316-334.
- ^ Vidal, Thibaut; Schiffer, Maximilian (2020). "Conjuntos de árboles nacidos de nuevo" . Congreso Internacional de Machine Learning . PMLR. 119 : 9743–9753.
- ^ dice, Charlotte Lancaster (4 de octubre de 2018). "Qué es la Inteligencia Artificial | Explicación de la Inteligencia Artificial" . Edureka . Consultado el 14 de septiembre de 2020 .
- ^ "Conferencia FAT *" .
- ^ "Los programas de computadora reconocen a los hombres blancos mejor que a las mujeres negras" . The Economist . 2018 . Consultado el 5 de agosto de 2018 .
- ^ Olah, Chris; Cammarata, Nick; Schubert, Ludwig; Goh, Gabriel; Petrov, Michael; Carter, Shan (10 de marzo de 2020). "Acercar: una introducción a los circuitos" . Destilar . 5 (3): e00024.001. doi : 10.23915 / destilado.00024.001 . ISSN 2476-0757 .
- ^ Li, Yixuan; Yosinski, Jason; Clune, Jeff; Lipson, Hod; Hopcroft, John (8 de diciembre de 2015). "Aprendizaje convergente: ¿Las diferentes redes neuronales aprenden las mismas representaciones?" . Extracción de características: preguntas y desafíos modernos . PMLR: 196–212.
- ^ Hendricks, Lisa Anne; Akata, Zeynep; Rohrbach, Marcus; Donahue, Jeff; Schiele, Bernt; Darrell, Trevor (2016). "Generando Explicaciones Visuales" . Visión por computadora - ECCV 2016 . Apuntes de conferencias en Ciencias de la Computación. Springer International Publishing. 9908 : 3–19. arXiv : 1603.08507 . doi : 10.1007 / 978-3-319-46493-0_1 . ISBN 978-3-319-46492-3.
- ^ Koh, Pang Wei; Liang, Percy (17 de julio de 2017). "Comprensión de las predicciones de caja negra a través de funciones de influencia" . Congreso Internacional de Machine Learning . PMLR: 1885–1894.
- ^ "Taller IJCAI 2017 sobre Inteligencia Artificial Explicable (XAI)" (PDF) . Earthlink . IJCAI . Consultado el 17 de julio de 2017 .
- ^ Kahn, Jeremy (12 de diciembre de 2018). "La inteligencia artificial tiene algo que explicar" . Bloomberg Businessweek . Consultado el 17 de diciembre de 2018 .
- ^ "El software 'Evolutionary' de la NASA diseña automáticamente la antena" . NASA . NASA . Consultado el 17 de julio de 2017 .
- ^ "La caída repentina: el impacto del comercio de alta frecuencia en un mercado electrónico" (PDF) . CFTC . CFTC . Consultado el 17 de julio de 2017 .
- ^ Weng, Stephen F; Representantes, Jenna; Kai, Joe; Garibaldi, Jonathan M; Qureshi, Nadeem (2017). "¿Puede el aprendizaje automático mejorar la predicción del riesgo cardiovascular utilizando datos clínicos de rutina?" . PLOS ONE . 12 (4): e0174944. Código Bib : 2017PLoSO..1274944W . doi : 10.1371 / journal.pone.0174944 . PMC 5380334 . PMID 28376093 .
- ^ Holzinger, Andreas; Biemann, Chris; Pattichis, Constantinos S .; Kell, Douglas B. (28 de diciembre de 2017). "¿Qué necesitamos para construir sistemas de IA explicables para el dominio médico?". arXiv : 1712.09923 [ cs.AI ].
- ^ a b Lakkaraju, Himabindu; Rudin, Cynthia. "Aprendizaje de regímenes de tratamiento rentables e interpretables" (PDF) . Congreso Internacional de Inteligencia Artificial y Estadística (AISTATS) . 2017 .
- ^ Tosun, Akif. "IA explicable (xAI) para patología anatómica" . Avances en Patología Anatómica . Julio de 2020 - Volumen 27 - Número 4 - p 241-250.
- ^ https://www.spintellx.com/
- ^ "Tesla dice que 'no tiene forma de saber' si se utilizó el piloto automático en un accidente fatal en China" . Guardián . 2016-09-14 . Consultado el 17 de julio de 2017 .
- ^ Abrams, Rachel; Kurtz, Annalyn (julio de 2016). "Joshua Brown, que murió en un accidente de conducción autónoma, probó los límites de su Tesla" . New York Times . Consultado el 17 de julio de 2017 .
- ^ Qureshi, M. Atif; Greene, Derek (4 de junio de 2018). "EVE: técnica de incrustación basada en vectores explicables utilizando Wikipedia". Revista de sistemas de información inteligentes . 53 : 137-165. arXiv : 1702.06891 . doi : 10.1007 / s10844-018-0511-x . ISSN 0925-9902 . S2CID 10656055 .
enlaces externos
- "AI Explicabilidad 360" .
- "Qué es el Explicable-Ai y por qué es importante" .
- "La inteligencia artificial explicable es la próxima gran cosa en contabilidad y finanzas" .
- "Conferencia FAT * sobre equidad, rendición de cuentas y transparencia" .
- "Taller FATML sobre equidad, rendición de cuentas y transparencia en el aprendizaje automático" .
- " ' Inteligencia artificial explicable': abrir la caja negra de la IA" . Computerworld . 2017-11-02 . Consultado el 2 de noviembre de 2017 .
- Park, Dong Huk; Hendricks, Lisa Anne; Akata, Zeynep; Schiele, Bernt; Darrell, Trevor; Rohrbach, Marcus (14 de diciembre de 2016). "Explicaciones atentas: justificar decisiones y señalar la evidencia". arXiv : 1612.04757 [ cs.CV ].
- "IA explicable: hacer que las máquinas sean comprensibles para los humanos" . IA explicable: hacer máquinas comprensibles para los humanos . Consultado el 2 de noviembre de 2017 .
- "Aprendizaje profundo de extremo a extremo para automóviles autónomos" . Paralelo a todos . 2016-08-17 . Consultado el 2 de noviembre de 2017 .
- "Explicando cómo el aprendizaje profundo de un extremo a otro dirige un coche autónomo" . Paralelo a todos . 2017-05-23 . Consultado el 2 de noviembre de 2017 .
- Knight, Will (14 de marzo de 2017). "DARPA está financiando proyectos que intentarán abrir las cajas negras de la IA" . Revisión de tecnología del MIT . Consultado el 2 de noviembre de 2017 .
- Álvarez-Melis, David; Jaakkola, Tommi S. (6 de julio de 2017). "Un marco causal para explicar las predicciones de modelos de secuencia a secuencia de caja negra". arXiv : 1707.01943 [ cs.LG ].
- "La similitud rompe el código de la IA explicable" . simMachines . 2017-10-12 . Consultado el 2 de febrero de 2018 .
- Bojarski, Mariusz; Yeres, Philip; Choromanska, Anna; Choromanski, Krzysztof; Firner, Bernhard; Jackel, Lawrence; Muller, Urs (25 de abril de 2017). "Explicando cómo una red neuronal profunda entrenada con aprendizaje de extremo a extremo dirige un automóvil". arXiv : 1704.07911 [ cs.CV ].
- "¿Cuáles son los métodos para interpretar el resultado de los métodos de aprendizaje automático?" . IntelligenceReborn . 2020-12-30 . Consultado el 30 de diciembre de 2020 .