El aprendizaje profundo en imágenes fotoacústicas combina la modalidad de imágenes híbridas de imágenes fotoacústicas (PA) con el campo en rápida evolución del aprendizaje profundo . La imagen fotoacústica se basa en el efecto fotoacústico, en el que la absorción óptica provoca un aumento de temperatura, lo que provoca un aumento posterior de la presión a través de la expansión termoelástica. [1] Este aumento de presión se propaga a través del tejido y se detecta mediante transductores ultrasónicos. Debido a la proporcionalidad entre la absorción óptica, el aumento de temperatura y el aumento de presión, la señal de onda de presión de ultrasonido se puede utilizar para cuantificar la deposición de energía óptica original dentro del tejido. [2]
La imagen fotoacústica tiene aplicaciones de aprendizaje profundo tanto en tomografía computarizada fotoacústica (PACT) como en microscopía fotoacústica (PAM). PACT utiliza excitación óptica de campo amplio y una serie de transductores de ultrasonido desenfocados. [1] De manera similar a otros métodos de tomografía computarizada , la muestra se obtiene en múltiples ángulos de visión, que luego se utilizan para realizar un algoritmo de reconstrucción inversa basado en la geometría de detección (generalmente a través de retroproyección universal, [3] retardo y suma modificados, [4] o inversión de tiempo [5] [6] ) para provocar la distribución de presión inicial dentro del tejido. PAM, por otro lado, utiliza detección de ultrasonido enfocada combinada con excitación óptica débilmente enfocada (resolución acústica PAM o AR-PAM) o excitación óptica fuertemente enfocada (resolución óptica PAM u OR-PAM). [7] Por lo general, PAM captura imágenes punto por punto a través de un patrón de escaneo de trama mecánico. En cada punto escaneado, el tiempo de vuelo acústico proporciona una resolución axial mientras que el enfoque acústico produce una resolución lateral. [1]
Aplicaciones del aprendizaje profundo en PACT
Una de las primeras aplicaciones del aprendizaje profundo en PACT fue la de Reiter et al. [8] en el que se entrenó una red neuronal profunda para aprender las respuestas de impulso espacial y localizar fuentes puntuales fotoacústicas. Los errores medios de ubicación de los puntos axiales y laterales resultantes en 2412 de sus imágenes de prueba seleccionadas al azar fueron de 0,28 mm y 0,37 mm, respectivamente. Después de esta implementación inicial, las aplicaciones del aprendizaje profundo en PACT se han ramificado principalmente en la eliminación de artefactos de reflejos acústicos, [9] muestreo escaso, [10] [11] [12] vista limitada, [13] [14] [15 ] y ancho de banda limitado. [16] [14] [17] [18] También ha habido algunos trabajos recientes en PACT hacia el uso del aprendizaje profundo para la localización de frente de onda. [19] Ha habido redes basadas en la fusión de información de dos reconstrucciones diferentes para mejorar la reconstrucción utilizando redes basadas en la fusión de aprendizaje profundo. [20]
Uso del aprendizaje profundo para localizar fuentes puntuales fotoacústicas
Las técnicas tradicionales de formación de haces fotoacústicos modelaron la propagación de ondas fotoacústicas utilizando la geometría de la matriz de detectores y el tiempo de vuelo para tener en cuenta las diferencias en el tiempo de llegada de la señal de PA. Sin embargo, esta técnica no tuvo en cuenta las señales acústicas reverberantes causadas por la reflexión acústica, lo que resultó en artefactos de reflexión acústica que corrompen la verdadera información de ubicación de la fuente puntual fotoacústica. En Reiter et al. , [8] se usó una red neuronal convolucional (similar a una arquitectura de estilo VGG-16 [21] simple ) que tomaba datos fotoacústicos formados previamente como entrada y generaba un resultado de clasificación que especificaba la ubicación de la fuente puntual 2-D.
Eliminación de artefactos de reflexión acústica (en presencia de múltiples fuentes y ruido de canal)
Sobre la base del trabajo de Reiter et al. , [8] Allman et al. [9] utilizó una arquitectura VGG-16 [21] completa para localizar fuentes puntuales y eliminar artefactos de reflexión dentro de los datos del canal fotoacústico sin procesar (en presencia de múltiples fuentes y ruido de canal). Esta utilización del aprendizaje profundo se entrenó en datos simulados producidos en la biblioteca de ondas k de MATLAB , y luego reafirmó sus resultados en datos experimentales.
Reconstrucción PACT mal planteada
En PACT, se realiza una reconstrucción tomográfica, en la que las proyecciones de múltiples ángulos sólidos se combinan para formar una imagen. Cuando los métodos de reconstrucción, como la retroproyección filtrada o la inversión de tiempo, son problemas inversos mal planteados [22] debido al muestreo bajo el requisito de muestreo de Nyquist-Shannon o con un ancho de banda / vista limitado, la reconstrucción resultante contiene artefactos de imagen. Tradicionalmente, estos artefactos se eliminaron con métodos iterativos lentos como la minimización de la variación total , pero el advenimiento de los enfoques de aprendizaje profundo ha abierto una nueva vía que utiliza el conocimiento a priori del entrenamiento de la red para eliminar los artefactos. En los métodos de aprendizaje profundo que buscan eliminar estos artefactos de muestreo escaso, ancho de banda limitado y vista limitada, el flujo de trabajo típico implica primero realizar la técnica de reconstrucción mal planteada para transformar los datos formados previamente en haz en una representación 2-D de la distribución de presión inicial que contiene artefactos. Luego, se entrena una red neuronal convolucional (CNN) para eliminar los artefactos, con el fin de producir una representación libre de artefactos de la distribución de presión inicial de verdad del suelo .
Uso del aprendizaje profundo para eliminar artefactos de muestreo dispersos
Cuando la densidad de los ángulos de visión tomográfica uniformes está por debajo de lo prescrito por el teorema de muestreo de Nyquist-Shannon, se dice que el sistema de imágenes está realizando un muestreo escaso. El muestreo escaso suele ocurrir como una forma de mantener bajos los costos de producción y mejorar la velocidad de adquisición de imágenes. [10] Las arquitecturas de red típicas que se utilizan para eliminar estos artefactos de muestreo dispersos son U-net [10] [12] y U-net totalmente denso (FD). [11] Ambas arquitecturas contienen una fase de compresión y descompresión. La fase de compresión aprende a comprimir la imagen a una representación latente que carece de artefactos de imagen y otros detalles. [23] La fase de descompresión luego se combina con la información transmitida por las conexiones residuales para volver a agregar los detalles de la imagen sin agregar los detalles asociados con los artefactos. [23] FD U-net modifica la arquitectura original de U-net al incluir bloques densos que permiten que las capas utilicen la información aprendida por capas anteriores dentro del bloque denso. [11] Se propuso otra técnica utilizando una arquitectura simple basada en CNN para eliminar artefactos y mejorar la reconstrucción de imágenes de ondas k. [17]
Eliminar artefactos de vista limitada con aprendizaje profundo
Cuando no se captura una región de ángulos sólidos parciales, generalmente debido a limitaciones geométricas, se dice que la adquisición de la imagen tiene una vista limitada. [24] Como ilustran los experimentos de Davoudi et al. , [12] Las corrupciones de vista limitada se pueden observar directamente como información faltante en el dominio de frecuencia de la imagen reconstruida. La vista limitada, similar al muestreo disperso, hace que el algoritmo de reconstrucción inicial esté mal planteado. Antes del aprendizaje profundo, el problema de la vista limitada se abordó con hardware complejo, como deflectores acústicos [25] y conjuntos de transductores en forma de anillo completos, [12] [26] , así como soluciones como detección comprimida, [27] [28] [29] [30] [31] factor ponderado, [32] y retroproyección filtrada iterativa. [33] [34] El resultado de esta reconstrucción mal planteada son los artefactos de imagen que pueden ser eliminados por las CNN. Los algoritmos de aprendizaje profundo utilizados para eliminar artefactos de vista limitada incluyen U-net [12] [15] y FD U-net, [35] así como redes generativas adversarias (GAN) [14] y versiones volumétricas de U-net. [13] Una implementación de GAN notable mejoró sobre U-net al usar U-net como generador y VGG como discriminador, con la métrica de Wasserstein y la penalización por gradiente para estabilizar el entrenamiento (WGAN-GP). [14]
Eliminación de artefactos de ancho de banda limitado con redes neuronales profundas
El problema del ancho de banda limitado se produce como resultado del ancho de banda de frecuencia de detección limitado de la matriz de transductores de ultrasonido. Esta matriz de transductores actúa como un filtro de paso de banda en el dominio de la frecuencia, atenuando las frecuencias altas y bajas dentro de la señal fotoacústica. [15] [16] Este ancho de banda limitado puede causar artefactos y limitar la resolución axial del sistema de imágenes. [14] Las principales arquitecturas de redes neuronales profundas utilizadas para eliminar los artefactos de ancho de banda limitado han sido WGAN-GP [14] y U-net modificado. [15] [16] El método típico para eliminar artefactos y eliminar el ruido de las reconstrucciones de ancho de banda limitado antes del aprendizaje profundo era el filtrado de Wiener, que ayuda a expandir el espectro de frecuencia de la señal de PA. [14] La principal ventaja del método de aprendizaje profundo sobre el filtrado de Wiener es que el filtrado de Wiener requiere una alta relación señal-ruido (SNR) inicial , que no siempre es posible, mientras que el modelo de aprendizaje profundo no tiene tal restricción. [14]
Fusión de información para mejorar imágenes fotoacústicas con redes neuronales profundas
La información complementaria se utiliza utilizando arquitecturas basadas en fusión para mejorar la reconstrucción de la imagen fotoacústica. [20] Dado que las diferentes reconstrucciones promueven diferentes características en la salida y, por lo tanto, la calidad y las características de la imagen varían si se utiliza una técnica de reconstrucción diferente. [20] Se propuso una nueva arquitectura basada en la fusión para combinar el resultado de dos reconstrucciones diferentes y ofrecer una mejor calidad de imagen en comparación con cualquiera de esas reconstrucciones. Incluye el peso compartido y la fusión de características para lograr la mejora deseada en la calidad de la imagen de salida. [20]
Aplicaciones del aprendizaje profundo en PAM
La microscopía fotoacústica se diferencia de otras formas de tomografía fotoacústica en que utiliza la detección de ultrasonido enfocado para adquirir imágenes píxel por píxel. Las imágenes PAM se adquieren como datos volumétricos resueltos en el tiempo que normalmente se asignan a una proyección 2-D mediante una transformación de Hilbert y una proyección de amplitud máxima (MAP). [1] La primera aplicación de aprendizaje profundo a PAM tomó la forma de un algoritmo de corrección de movimiento. [36] Este procedimiento se planteó para corregir los artefactos PAM que ocurren cuando un modelo in vivo se mueve durante el escaneo. Este movimiento crea la apariencia de discontinuidades de vasos.
Aprendizaje profundo para eliminar artefactos de movimiento en PAM
Los dos tipos de artefactos de movimiento principales abordados por el aprendizaje profundo en PAM son los desplazamientos en las direcciones vertical e inclinada. Chen y col. [36] utilizó una red neuronal convolucional simple de tres capas, con cada capa representada por una matriz de peso y un vector de sesgo, para eliminar los artefactos de movimiento PAM. Dos de las capas convolucionales contienen funciones de activación RELU, mientras que la última no tiene función de activación. [36] Con esta arquitectura, se probaron tamaños de kernel de 3 × 3, 4 × 4 y 5 × 5, y el tamaño de kernel más grande de 5 × 5 arrojó los mejores resultados. [36] Después del entrenamiento, el rendimiento del modelo de corrección de movimiento fue probado y funcionó bien tanto en simulación como en datos in vivo . [36]
Ver también
- Imágenes fotoacústicas
- Microscopía fotoacústica
- Efecto fotoacústico
Referencias
- ↑ a b c d Wang, Lihong V. (29 de agosto de 2009). "Microscopía fotoacústica multiescala y tomografía computarizada" . Nature Photonics . 3 (9): 503–509. Código Bibliográfico : 2009NaPho ... 3..503W . doi : 10.1038 / nphoton.2009.157 . ISSN 1749-4885 . PMC 2802217 . PMID 20161535 .
- ^ Barba, Paul (6 de agosto de 2011). "Imagen fotoacústica biomédica" . Enfoque de interfaz . 1 (4): 602–631. doi : 10.1098 / rsfs.2011.0028 . ISSN 2042-8898 . PMC 3262268 . PMID 22866233 .
- ^ Xu, Minghua; Wang, Lihong V. (19 de enero de 2005). "Algoritmo de retroproyección universal para tomografía computarizada fotoacústica". Revisión E física . 71 (1): 016706. Código Bibliográfico : 2005PhRvE..71a6706X . doi : 10.1103 / PhysRevE.71.016706 . hdl : 1969.1 / 180492 . PMID 15697763 .
- ^ Kalva, Sandeep Kumar; Pramanik, Manojit (agosto de 2016). "Validación experimental de la mejora de la resolución tangencial en tomografía fotoacústica utilizando algoritmo de reconstrucción de retardo y suma modificado" . Revista de Óptica Biomédica . 21 (8): 086011. Bibcode : 2016JBO .... 21h6011K . doi : 10.1117 / 1.JBO.21.8.086011 . ISSN 1083-3668 . PMID 27548773 .
- ^ Bossy, Emmanuel; Daoudi, Khalid; Boccara, Albert-Claude; Tanter, Mickael; Aubry, Jean-François; Montaldo, Gabriel; Fink, Mathias (30 de octubre de 2006). "Inversión temporal de ondas fotoacústicas" (PDF) . Letras de Física Aplicada . 89 (18): 184108. Código Bibliográfico : 2006ApPhL..89r4108B . doi : 10.1063 / 1.2382732 . ISSN 0003-6951 .
- ^ Treeby, Bradley E; Zhang, Edward Z; Cox, BT (24 de septiembre de 2010). "Tomografía fotoacústica en medios acústicos absorbentes mediante inversión de tiempo". Problemas inversos . 26 (11): 115003. Código Bibliográfico : 2010InvPr..26k5003T . doi : 10.1088 / 0266-5611 / 26/11/115003 . ISSN 0266-5611 .
- ^ Wang, Lihong V .; Yao, Junjie (28 de julio de 2016). "Una guía práctica de la tomografía fotoacústica en las ciencias de la vida" . Métodos de la naturaleza . 13 (8): 627–638. doi : 10.1038 / nmeth.3925 . ISSN 1548-7091 . PMC 4980387 . PMID 27467726 .
- ^ a b c Reiter, Austin; Bell, Muyinatu A Lediju (3 de marzo de 2017). Oraevsky, Alejandro A; Wang, Lihong V (eds.). "Un enfoque de aprendizaje automático para identificar ubicaciones de fuentes puntuales en datos fotoacústicos". Photons Plus Ultrasound: Imaging and Sensing 2017 . Sociedad Internacional de Óptica y Fotónica. 10064 : 100643J. Código bibliográfico : 2017SPIE10064E..3JR . doi : 10.1117 / 12.2255098 . S2CID 35030143 .
- ^ a b Allman, Derek; Reiter, Austin; Bell, Muyinatu A. Lediju (junio de 2018). "Eliminación de artefactos de reflexión y detección de fuente fotoacústica habilitada por aprendizaje profundo" . Transacciones IEEE sobre imágenes médicas . 37 (6): 1464–1477. doi : 10.1109 / TMI.2018.2829662 . ISSN 1558-254X . PMC 6075868 . PMID 29870374 .
- ^ a b c Antholzer, Stephan; Haltmeier, Markus; Schwab, Johannes (3 de julio de 2019). "Aprendizaje profundo para tomografía fotoacústica a partir de datos escasos" . Problemas inversos en ciencia e ingeniería . 27 (7): 987–1005. doi : 10.1080 / 17415977.2018.1518444 . ISSN 1741-5977 . PMC 6474723 . PMID 31057659 .
- ^ a b c Guan, Steven; Khan, Amir A .; Sikdar, Siddhartha; Chitnis, Parag V. (febrero de 2020). "UNet completamente denso para la eliminación de artefactos de tomografía fotoacústica escasa 2-D". IEEE Journal of Biomedical and Health Informatics . 24 (2): 568–576. arXiv : 1808.10848 . doi : 10.1109 / jbhi.2019.2912935 . ISSN 2168-2194 . PMID 31021809 .
- ^ a b c d e Davoudi, Neda; Deán-Ben, Xosé Luís; Razansky, Daniel (16 de septiembre de 2019). "Tomografía optoacústica de aprendizaje profundo con datos escasos". Inteligencia de la máquina de la naturaleza . 1 (10): 453–460. doi : 10.1038 / s42256-019-0095-3 . ISSN 2522-5839 . S2CID 202640890 .
- ^ a b Hauptmann, Andreas; Lucka, Felix; Betcke, Marta; Huynh, Nam; Adler, Jonas; Cox, Ben; Barba, Paul; Ourselin, Sebastien; Arridge, Simon (junio de 2018). "Aprendizaje basado en modelos para tomografía fotoacústica 3D acelerada y de vista limitada" . Transacciones IEEE sobre imágenes médicas . 37 (6): 1382-1393. doi : 10.1109 / TMI.2018.2820382 . ISSN 1558-254X . PMID 29870367 . S2CID 4321879 .
- ^ a b c d e f g h Vu, Tri; Li, Mucong; Humayun, Hannah; Zhou, Yuan; Yao, Junjie (25 de marzo de 2020). "Artículo principal: una red generativa adversaria para la eliminación de artefactos en tomografía computarizada fotoacústica con un transductor de matriz lineal" . Biología y Medicina Experimental . 245 (7): 597–605. doi : 10.1177 / 1535370220914285 . ISSN 1535-3702 . PMC 7153213 . PMID 32208974 .
- ^ a b c d Waibel, Dominik; Gröhl, Janek; Isensee, Fabián; Kirchner, Thomas; Maier-Hein, Klaus; Maier-Hein, Lena (19 de febrero de 2018). Wang, Lihong V; Oraevsky, Alexander A (eds.). "Reconstrucción de la presión inicial a partir de imágenes fotoacústicas de visión limitada mediante aprendizaje profundo". Photons Plus Ultrasound: Imaging and Sensing 2018 . Sociedad Internacional de Óptica y Fotónica. 10494 : 104942S. Código Bib : 2018SPIE10494E..2SW . doi : 10.1117 / 12.2288353 . ISBN 9781510614734. S2CID 57745829 .
- ^ a b c Awasthi, Navchetan (28 de febrero de 2020). "Sinogram basado en red neuronal profunda súper resolución y mejora de ancho de banda para tomografía fotoacústica de datos limitados". Publicado en: Transacciones IEEE sobre Ultrasonidos, Ferroeléctricos y Control de Frecuencia . 67 (12): 2660–2673. doi : 10.1109 / TUFFC.2020.2977210 . PMID 32142429 .
- ^ a b Awasthi, Navchetan; Pardasani, Rohit; Sandeep Kumar Kalva; Pramanik, Manojit; Yalavarthy, Phaneendra K. (2020). "Sinogram superresolución y eliminación de ruido de red neuronal convolucional (SRCN) para tomografía fotoacústica de datos limitados". arXiv : 2001.06434 [ eess.IV ].
- ^ Gutta, Sreedevi; Kadimesetty, Venkata Suryanarayana; Kalva, Sandeep Kumar; Pramanik, Manojit; Ganapatía, Sriram; Yalavarthy, Phaneendra K. (2 de noviembre de 2017). "Mejora de ancho de banda basada en redes neuronales profundas de datos fotoacústicos" . Revista de Óptica Biomédica . 22 (11): 116001. Código bibliográfico : 2017JBO .... 22k6001G . doi : 10.1117 / 1.jbo.22.11.116001 . ISSN 1083-3668 . PMID 29098811 .
- ^ Johnstonbaugh, Kerrick; Agrawal, Sumit; Durairaj, Deepit Abhishek; Fadden, Christopher; Dangi, Ajay; Karri, Sri Phani Krishna; Kothapalli, Sri-Rajasekhar (2020). "Un enfoque de aprendizaje profundo para la localización de frente de onda fotoacústica en medio de tejido profundo". Transacciones IEEE sobre ultrasonidos, ferroeléctricos y control de frecuencia . 67 (12): 2649–2659. doi : 10.1109 / tuffc.2020.2964698 . ISSN 0885-3010 . PMC 7769001. PMID 31944951 .
- ^ a b c d Awasthi, Navchetan (3 de abril de 2019). "PA-Fuse: enfoque supervisado profundo para la fusión de imágenes fotoacústicas con distintas características de reconstrucción" . Publicado en: Biomedical Optics Express . 10 (5): 2227–2243. doi : 10.1364 / BOE.10.002227 . PMC 6524595 . PMID 31149371 .
- ^ a b Simonyan, Karen; Zisserman, Andrew (10 de abril de 2015). "Redes convolucionales muy profundas para el reconocimiento de imágenes a gran escala". arXiv : 1409.1556 [ cs.CV ].
- ^ Agranovsky, Mark; Kuchment, Peter (28 de agosto de 2007). "Singularidad de reconstrucción y procedimiento de inversión para tomografía termoacústica y fotoacústica con velocidad de sonido variable". Problemas inversos . 23 (5): 2089–2102. arXiv : 0706.0598 . Código Bibliográfico : 2007InvPr..23.2089A . doi : 10.1088 / 0266-5611 / 23/5/016 . ISSN 0266-5611 . S2CID 17810059 .
- ^ a b Ronneberger, Olaf; Fischer, Philipp; Brox, Thomas (2015), "U-Net: Convolutional Networks for Biomedical Image Segmentation", Lecture Notes in Computer Science , Springer International Publishing, págs. 234–241, arXiv : 1505.04597 , Bibcode : 2015arXiv150504597R , doi : 10.1007 / 978- 3-319-24574-4_28 , ISBN 978-3-319-24573-7, S2CID 3719281
- ^ Xu, Yuan; Wang, Lihong V .; Ambartsoumian, Gaik; Kuchment, Peter (11 de marzo de 2004). "Reconstrucciones en tomografía termoacústica de visión limitada" (PDF) . Física Médica . 31 (4): 724–733. Código bibliográfico : 2004MedPh..31..724X . doi : 10.1118 / 1.1644531 . ISSN 0094-2405 . PMID 15124989 .
- ^ Huang, Bin; Xia, Jun; Maslov, Konstantin; Wang, Lihong V. (27 de noviembre de 2013). "Mejora de la tomografía fotoacústica de visión limitada con reflector acústico" . Revista de Óptica Biomédica . 18 (11): 110505. Código Bibliográfico : 2013JBO .... 18k0505H . doi : 10.1117 / 1.jbo.18.11.110505 . ISSN 1083-3668 . PMC 3818029 . PMID 24285421 .
- ^ Xia, Jun; Chatni, Muhammad R .; Maslov, Konstantin; Guo, Zijian; Wang, Kun; Anastasio, Mark; Wang, Lihong V. (2012). "Tomografía computarizada fotoacústica confocal en forma de anillo de cuerpo entero de pequeños animales in vivo" . Revista de Óptica Biomédica . 17 (5): 050506. Código Bibliográfico : 2012JBO .... 17e0506X . doi : 10.1117 / 1.jbo.17.5.050506 . ISSN 1083-3668 . PMC 3382342 . PMID 22612121 .
- ^ Sandbichler, M .; Krahmer, F .; Berer, T .; Burgholzer, P .; Haltmeier, M. (enero de 2015). "Un nuevo esquema de detección comprimida para tomografía fotoacústica". Revista SIAM de Matemática Aplicada . 75 (6): 2475–2494. arXiv : 1501.04305 . Código Bibliográfico : 2015arXiv150104305S . doi : 10.1137 / 141001408 . ISSN 0036-1399 . S2CID 15701831 .
- ^ Provost, J .; Lesage, F. (abril de 2009). "La aplicación de la detección comprimida para la tomografía fotoacústica". Transacciones IEEE sobre imágenes médicas . 28 (4): 585–594. doi : 10.1109 / tmi.2008.2007825 . ISSN 0278-0062 . PMID 19272991 .
- ^ Haltmeier, Markus; Sandbichler, Michael; Berer, Thomas; Bauer-Marschallinger, Johannes; Burgholzer, Peter; Nguyen, Linh (junio de 2018). "Una estrategia de esparcimiento y reconstrucción para tomografía fotoacústica de detección comprimida". La Revista de la Sociedad Estadounidense de Acústica . 143 (6): 3838–3848. arXiv : 1801.00117 . Código bibliográfico : 2018ASAJ..143.3838H . doi : 10.1121 / 1.5042230 . ISSN 0001-4966 . PMID 29960458 . S2CID 49643233 .
- ^ Liang, Jinyang; Zhou, Yong; Winkler, Amy W .; Wang, Lidai; Maslov, Konstantin I .; Li, Chiye; Wang, Lihong V. (22 de julio de 2013). "Microscopía fotoacústica de resolución óptica de acceso aleatorio utilizando un dispositivo de microespejo digital" . Letras de óptica . 38 (15): 2683–6. Código Bib : 2013OptL ... 38.2683L . doi : 10.1364 / ol.38.002683 . ISSN 0146-9592 . PMC 3784350 . PMID 23903111 .
- ^ Duarte, Marco F .; Davenport, Mark A .; Takhar, Dharmpal; Laska, Jason N .; Sun, Ting; Kelly, Kevin F .; Baraniuk, Richard G. (marzo de 2008). "Imágenes de un solo píxel mediante muestreo por compresión". Revista de procesamiento de señales IEEE . 25 (2): 83–91. Código Bibliográfico : 2008ISPM ... 25 ... 83D . doi : 10.1109 / msp.2007.914730 . hdl : 1911/21682 . ISSN 1053-5888 .
- ^ Paltauf, G; Nuster, R; Burgholzer, P (8 de mayo de 2009). "Factores de peso para tomografía fotoacústica de ángulo limitado" . Física en Medicina y Biología . 54 (11): 3303–3314. Código bibliográfico : 2009PMB .... 54.3303P . doi : 10.1088 / 0031-9155 / 54/11/002 . ISSN 0031-9155 . PMC 3166844 . PMID 19430108 .
- ^ Liu, Xueyan; Peng, Dong; Ma, Xibo; Guo, Wei; Liu, Zhenyu; Han, Dong; Yang, Xin; Tian, Jie (14 de mayo de 2013). "Imágenes fotoacústicas de visión limitada basadas en un enfoque iterativo de retroproyección filtrada ponderada adaptativa". Óptica aplicada . 52 (15): 3477–83. Código bibliográfico : 2013ApOpt..52.3477L . doi : 10.1364 / ao.52.003477 . ISSN 1559-128X . PMID 23736232 .
- ^ Ma, Songbo; Yang, Sihua; Guo, Hua (15 de diciembre de 2009). "Imagen fotoacústica de visión limitada basada en la detección de matriz lineal y reconstrucción iterativa de proyección media-retroproyección filtrada". Revista de Física Aplicada . 106 (12): 123104–123104–6. Código Bibliográfico : 2009JAP ... 106l3104M . doi : 10.1063 / 1.3273322 . ISSN 0021-8979 .
- ^ Guan, Steven; Khan, Amir A .; Sikdar, Siddhartha; Chitnis, Parag V. (2020). "Vista limitada y tomografía fotoacústica dispersa para neuroimagen con aprendizaje profundo" . Informes científicos . 10 (1): 8510. arXiv : 1911.04357 . Código Bib : 2020NatSR..10.8510G . doi : 10.1038 / s41598-020-65235-2 . PMC 7244747 . PMID 32444649 .
- ^ a b c d e Chen, Xingxing; Qi, Weizhi; Xi, Lei (29 de octubre de 2019). "Algoritmo de corrección de movimiento basado en aprendizaje profundo en microscopía fotoacústica de resolución óptica" . Computación visual para la industria, la biomedicina y el arte . 2 (1): 12. doi : 10.1186 / s42492-019-0022-9 . ISSN 2524-4442 . PMC 7099543 . PMID 32240397 .
enlaces externos
Imágenes fotoacústicas
Microscopía fotoacústica
Efecto fotoacústico