La detección comprimida (también conocida como detección por compresión , muestreo por compresión o muestreo disperso ) es una técnica de procesamiento de señales para adquirir y reconstruir una señal de manera eficiente , al encontrar soluciones a sistemas lineales indeterminados . Esto se basa en el principio de que, a través de la optimización, la escasez de una señal se puede aprovechar para recuperarla de muchas menos muestras que las requeridas por el teorema de muestreo de Nyquist-Shannon . Hay dos condiciones bajo las cuales es posible la recuperación. [1] La primera es la escasez , que requiere que la señal sea escasa en algún dominio. El segundo esincoherencia , que se aplica a través de la propiedad isométrica, que es suficiente para señales dispersas. [2] [3]
Descripción general
Un objetivo común del campo de la ingeniería del procesamiento de señales es reconstruir una señal a partir de una serie de mediciones de muestreo. En general, esta tarea es imposible porque no hay forma de reconstruir una señal durante los tiempos en que la señal no se mide. Sin embargo, con conocimientos previos o supuestos sobre la señal, resulta posible reconstruir perfectamente una señal a partir de una serie de medidas (adquirir esta serie de medidas se denomina muestreo ). Con el tiempo, los ingenieros han mejorado su comprensión de qué supuestos son prácticos y cómo se pueden generalizar.
Uno de los primeros avances en el procesamiento de señales fue el teorema de muestreo de Nyquist-Shannon . Establece que si la frecuencia más alta de una señal real es menos de la mitad de la frecuencia de muestreo, entonces la señal se puede reconstruir perfectamente mediante interpolación sinc . La idea principal es que, con conocimientos previos sobre las limitaciones de las frecuencias de la señal, se necesitan menos muestras para reconstruir la señal.
Alrededor de 2004, Emmanuel Candès , Justin Romberg , Terence Tao y David Donoho demostraron que, dado el conocimiento sobre la escasez de una señal , la señal puede reconstruirse con incluso menos muestras de las que requiere el teorema de muestreo. [4] [5] Esta idea es la base de la detección comprimida.
Historia
La detección comprimida se basa en técnicas, que varios otros campos científicos han utilizado históricamente. [6] En estadística, el método de mínimos cuadrados se complementó con el-norm , que fue introducido por Laplace . Tras la introducción de la programación lineal y el algoritmo simplex de Dantzig , el-norm se utilizó en estadística computacional . En teoría estadística, el-norm fue utilizado por George W. Brown y escritores posteriores sobre estimadores de mediana insesgada . Fue utilizado por Peter J. Huber y otros que trabajaban en estadísticas sólidas . La-norm también se utilizó en el procesamiento de señales, por ejemplo, en la década de 1970, cuando los sismólogos construyeron imágenes de capas reflectantes dentro de la tierra basándose en datos que no parecían satisfacer el criterio de Nyquist-Shannon . [7] Se utilizó en la búsqueda de coincidencias en 1993, el estimador LASSO por Robert Tibshirani en 1996 [8] y la búsqueda de bases en 1998. [9] Hubo resultados teóricos que describen cuándo estos algoritmos recuperaron soluciones escasas, pero el tipo y número requeridos de las mediciones fueron subóptimas y, posteriormente, mejoraron enormemente mediante la detección comprimida. [ cita requerida ]
A primera vista, la detección comprimida puede parecer violar el teorema de muestreo , porque la detección comprimida depende de la escasez de la señal en cuestión y no de su frecuencia más alta. Este es un concepto erróneo, porque el teorema de muestreo garantiza una reconstrucción perfecta dadas las condiciones suficientes, no necesarias. Un método de muestreo fundamentalmente diferente del muestreo clásico de tasa fija no puede "violar" el teorema de muestreo. Las señales dispersas con componentes de alta frecuencia se pueden muestrear muy por debajo del uso de detección comprimida en comparación con el muestreo clásico de frecuencia fija. [10]
Método
Sistema lineal indeterminado
Un sistema indeterminado de ecuaciones lineales tiene más incógnitas que ecuaciones y generalmente tiene un número infinito de soluciones. La siguiente figura muestra un sistema de ecuaciones de este tipo. donde queremos encontrar una solución para .
Para elegir una solución para dicho sistema, se deben imponer restricciones o condiciones adicionales (como suavidad) según corresponda. En la detección comprimida, se agrega la restricción de escasez, permitiendo solo soluciones que tienen un pequeño número de coeficientes distintos de cero. No todos los sistemas indeterminados de ecuaciones lineales tienen una solución escasa. Sin embargo, si existe una solución dispersa única para el sistema indeterminado, entonces el marco de detección comprimido permite la recuperación de esa solución.
Método de solución / reconstrucción
La detección comprimida aprovecha la redundancia en muchas señales interesantes; no son puro ruido. En particular, muchas señales son escasas , es decir, contienen muchos coeficientes cercanos o iguales a cero, cuando se representan en algún dominio. [11] Esta es la misma información que se utiliza en muchas formas de compresión con pérdida .
La detección comprimida generalmente comienza con la toma de una combinación lineal ponderada de muestras, también llamadas mediciones de compresión, en una base diferente de la base en la que se sabe que la señal es escasa. Los resultados encontrados por Emmanuel Candès , Justin Romberg , Terence Tao y David Donoho , mostraron que el número de estas mediciones de compresión puede ser pequeño y aún contener casi toda la información útil. Por lo tanto, la tarea de volver a convertir la imagen en el dominio deseado implica resolver una ecuación matricial indeterminada, ya que el número de medidas de compresión tomadas es menor que el número de píxeles en la imagen completa. Sin embargo, agregar la restricción de que la señal inicial es escasa permite resolver este sistema indeterminado de ecuaciones lineales .
La solución de mínimos cuadrados a tales problemas es minimizar la L 2 {\ Displaystyle L ^ {2}} norma , es decir, minimizar la cantidad de energía en el sistema. Esto suele ser matemáticamente simple (implica solo una multiplicación de matriz por el pseudo-inverso de la base muestreada). Sin embargo, esto conduce a resultados deficientes para muchas aplicaciones prácticas, para las cuales los coeficientes desconocidos tienen una energía distinta de cero.
Para hacer cumplir la restricción de escasez al resolver el sistema indeterminado de ecuaciones lineales, se puede minimizar el número de componentes distintos de cero de la solución. La función que contaba el número de componentes distintos de cero de un vector se llamaba L 0 {\ Displaystyle L ^ {0}} "norma" de David Donoho [nota 1] .
Candès y col. demostró que para muchos problemas es probable que el L 1 {\ Displaystyle L ^ {1}} norma es equivalente a la L 0 {\ Displaystyle L ^ {0}} norma , en un sentido técnico: este resultado de equivalencia permite resolver la problema, que es más fácil que el problema. Encontrar al candidato con el más pequeñonorma se puede expresar con relativa facilidad como un programa lineal , para el cual ya existen métodos de solución eficientes. [13] Cuando las mediciones pueden contener una cantidad finita de ruido, se prefiere la eliminación de ruido por búsqueda de base a la programación lineal, ya que preserva la escasez frente al ruido y puede resolverse más rápido que un programa lineal exacto.
Reconstrucción de CS basada en variación total
Motivación y aplicaciones
Papel de la regularización televisiva
Variación total puede ser visto como un no negativo verdadero -valued funcional definido en el espacio de de valor real funciones (para el caso de funciones de una variable) o en el espacio de funciones integrables (para el caso de funciones de varias variables) . Para las señales, especialmente, la variación total se refiere a la integral del gradiente absoluto de la señal. En la reconstrucción de señales e imágenes, se aplica como regularización de variación total donde el principio subyacente es que las señales con detalles excesivos tienen una variación total alta y que eliminar estos detalles, mientras se retiene información importante como los bordes, reduciría la variación total de la señal y acerca el sujeto de la señal a la señal original del problema.
Para la reconstrucción de señales e imágenes, Se utilizan modelos de minimización. Otros enfoques también incluyen los mínimos cuadrados como se ha discutido anteriormente en este artículo. Estos métodos son extremadamente lentos y devuelven una reconstrucción no tan perfecta de la señal. Los modelos actuales de regularización de CS intentan abordar este problema incorporando a priori de escasez de la imagen original, uno de los cuales es la variación total (TV). Los enfoques de TV convencionales están diseñados para brindar soluciones constantes por partes. Algunos de estos incluyen (como se discutió más adelante) - minimización l1 restringida que usa un esquema iterativo. Este método, aunque rápido, conduce posteriormente a un suavizado excesivo de los bordes, lo que da como resultado bordes de imagen borrosos. [14] Se han implementado métodos de TV con reponderación iterativa para reducir la influencia de grandes magnitudes de valores de gradiente en las imágenes. Esto se ha utilizado en la reconstrucción por tomografía computarizada (TC) como un método conocido como variación total que preserva los bordes. Sin embargo, como las magnitudes de gradiente se utilizan para estimar los pesos de penalización relativos entre los términos de regularización y fidelidad de los datos, este método no es resistente al ruido y los artefactos y es lo suficientemente preciso para la reconstrucción de imágenes / señales CS y, por lo tanto, no preserva estructuras más pequeñas.
El progreso reciente en este problema implica el uso de un refinamiento de TV iterativamente direccional para la reconstrucción de CS. [15] Este método tendría 2 etapas: la primera etapa estimaría y refinaría el campo de orientación inicial, que se define como una estimación inicial puntual y ruidosa, a través de la detección de bordes, de la imagen dada. En la segunda etapa, el modelo de reconstrucción de CS se presenta utilizando un regularizador de TV direccional. A continuación, se proporcionan más detalles sobre estos enfoques basados en TV: minimización de l1 reponderada iterativamente, TV con preservación de bordes y modelo iterativo que utiliza un campo de orientación direccional y TV.
Enfoques existentes
Reponderado iterativamente minimización
En los modelos de reconstrucción CS utilizando restringido minimización, [16] los coeficientes más grandes se penalizan fuertemente en lanorma. Se propuso tener una formulación ponderada deminimización diseñada para penalizar más democráticamente los coeficientes distintos de cero. Se utiliza un algoritmo iterativo para construir los pesos apropiados. [17] Cada iteración requiere resolver una problema de minimización al encontrar el mínimo local de una función de penalización cóncava que se asemeja más a la norma. Un parámetro adicional, generalmente para evitar transiciones bruscas en la curva de la función de penalización, se introduce en la ecuación iterativa para asegurar la estabilidad y para que una estimación cero en una iteración no conduzca necesariamente a una estimación cero en la siguiente iteración. Básicamente, el método implica el uso de la solución actual para calcular los pesos que se utilizarán en la siguiente iteración.
Ventajas y desventajas
Las primeras iteraciones pueden encontrar estimaciones de muestra inexactas; sin embargo, este método las reducirá en una etapa posterior para dar más peso a las estimaciones de señales más pequeñas distintas de cero. Una de las desventajas es la necesidad de definir un punto de partida válido ya que es posible que no se obtenga siempre un mínimo global debido a la concavidad de la función. Otra desventaja es que este método tiende a penalizar uniformemente el gradiente de la imagen independientemente de las estructuras de imagen subyacentes. Esto provoca un suavizado excesivo de los bordes, especialmente los de las regiones de bajo contraste, lo que posteriormente provoca la pérdida de información de bajo contraste. Las ventajas de este método incluyen: reducción de la frecuencia de muestreo para señales dispersas; reconstrucción de la imagen sin dejar de ser resistente a la eliminación de ruido y otros artefactos; y uso de muy pocas iteraciones. Esto también puede ayudar a recuperar imágenes con degradados dispersos.
En la figura que se muestra a continuación, P1 se refiere al primer paso del proceso de reconstrucción iterativo, de la matriz de proyección P de la geometría del haz de abanico, que está restringida por el término de fidelidad de datos. Esto puede contener ruido y artefactos ya que no se realiza ninguna regularización. La minimización de P1 se resuelve mediante el método de mínimos cuadrados de gradiente conjugado. P2 se refiere al segundo paso del proceso de reconstrucción iterativa en el que utiliza el término de regularización de variación total que conserva los bordes para eliminar el ruido y los artefactos, y así mejorar la calidad de la imagen / señal reconstruida. La minimización de P2 se realiza mediante un método de descenso de gradiente simple. La convergencia se determina probando, después de cada iteración, la positividad de la imagen, verificando si para el caso cuando (Tenga en cuenta que se refiere a los diferentes coeficientes de atenuación lineal de rayos X en diferentes vóxeles de la imagen del paciente).
Detección comprimida basada en la variación total (TV) que preserva los bordes
Este es un algoritmo de reconstrucción de TC iterativo con regularización de TV que preserva los bordes para reconstruir imágenes de TC a partir de datos muy submuestreados obtenidos con TC de dosis baja a través de niveles de corriente bajos (miliamperios). Para reducir la dosis de formación de imágenes, uno de los enfoques utilizados es reducir el número de proyecciones de rayos X adquiridas por los detectores del escáner. Sin embargo, estos datos de proyección insuficientes que se utilizan para reconstruir la imagen de TC pueden causar artefactos de rayas. Además, el uso de estas proyecciones insuficientes en algoritmos de TV estándar terminan por hacer que el problema esté subdeterminado y, por lo tanto, conduce a infinitas soluciones posibles. En este método, se asigna una función adicional ponderada por penalización a la norma de TV original. Esto permite una detección más fácil de discontinuidades nítidas en la intensidad en las imágenes y por lo tanto adaptar el peso para almacenar la información de borde recuperada durante el proceso de reconstrucción de señal / imagen. El parámetrocontrola la cantidad de suavizado que se aplica a los píxeles en los bordes para diferenciarlos de los píxeles sin bordes. El valor de se cambia de forma adaptativa en función de los valores del histograma de la magnitud del degradado, de modo que un cierto porcentaje de píxeles tienen valores de degradado mayores que . El término de variación total que conserva los bordes, por lo tanto, se vuelve más escaso y esto acelera la implementación. Se utiliza un proceso de iteración de dos pasos conocido como algoritmo de división hacia adelante y hacia atrás. [18] El problema de optimización se divide en dos subproblemas que luego se resuelven con el método de mínimos cuadrados de gradiente conjugado [19] y el método de descenso de gradiente simple, respectivamente. El método se detiene cuando se alcanza la convergencia deseada o si se alcanza el número máximo de iteraciones. [14]
Ventajas y desventajas
Algunas de las desventajas de este método son la ausencia de estructuras más pequeñas en la imagen reconstruida y la degradación de la resolución de la imagen. Sin embargo, este algoritmo de TV que preserva los bordes requiere menos iteraciones que el algoritmo de TV convencional. [14] Al analizar los perfiles de intensidad horizontal y vertical de las imágenes reconstruidas, se puede ver que hay saltos bruscos en los puntos de los bordes y fluctuaciones menores e insignificantes en los puntos que no están en los bordes. Por lo tanto, este método conduce a un error relativo bajo y una correlación más alta en comparación con el método de TV. También suprime y elimina eficazmente cualquier forma de ruido de imagen y artefactos de imagen como las rayas.
Modelo iterativo que utiliza un campo de orientación direccional y variación total direccional
Para evitar el suavizado excesivo de los bordes y los detalles de la textura y para obtener una imagen CS reconstruida que sea precisa y resistente al ruido y los artefactos, se utiliza este método. Primero, una estimación inicial del ruidoso campo de orientación puntual de la imagen, , es obtenido. Este campo de orientación ruidoso se define para que pueda refinarse en una etapa posterior para reducir las influencias del ruido en la estimación del campo de orientación. Luego se introduce una estimación aproximada del campo de orientación basada en el tensor de estructura que se formula como: [20] . Aquí, se refiere al tensor de estructura relacionado con el punto de píxel de la imagen (i, j) que tiene una desviación estándar . se refiere al kernel gaussiano con desviación estándar . se refiere al parámetro definido manualmente para la imagen por debajo del cual la detección de bordes es insensible al ruido. se refiere al degradado de la imagen y se refiere al producto tensorial obtenido usando este gradiente. [15]
El tensor de estructura obtenido se convoluciona con un kernel gaussiano para mejorar la precisión de la estimación de orientación con se establece en valores altos para tener en cuenta los niveles de ruido desconocidos. Para cada píxel (i, j) de la imagen, el tensor de estructura J es una matriz semidefinida simétrica y positiva. Conversión de todos los píxeles de la imagen con, da vectores propios ortonormales ω y υ de la matriz. ω apunta en la dirección de la orientación dominante que tiene el mayor contraste y υ apunta en la dirección de la orientación de la estructura que tiene el menor contraste. La estimación inicial aproximada del campo de orientación Se define como = υ. Esta estimación es precisa en bordes fuertes. Sin embargo, en bordes débiles o en regiones con ruido, su confiabilidad disminuye.
Para superar este inconveniente, se define un modelo de orientación refinado en el que el término de datos reduce el efecto del ruido y mejora la precisión, mientras que el segundo término de penalización con la norma L2 es un término de fidelidad que asegura la precisión de la estimación aproximada inicial.
Este campo de orientación se introduce en el modelo de optimización de variación total direccional para la reconstrucción de CS a través de la ecuación: . es la señal objetiva que debe recuperarse. Y es el vector de medición correspondiente, d es el campo de orientación refinado iterativo yes la matriz de medición de CS. Este método sufre algunas iteraciones que finalmente conducen a la convergencia. es la estimación aproximada del campo de orientación de la imagen reconstruida de la iteración anterior (para comprobar la convergencia y el rendimiento óptico posterior, se utiliza la iteración anterior). Para los dos campos vectoriales representados por y , se refiere a la multiplicación de los respectivos elementos vectoriales horizontales y verticales de y seguido de su posterior adición. Estas ecuaciones se reducen a una serie de problemas de minimización convexa que luego se resuelven con una combinación de métodos de división variable y lagrangiano aumentado (solucionador rápido basado en FFT con una solución de forma cerrada). [15] (Lagrangiano aumentado) se considera equivalente a la iteración de Bregman dividida que asegura la convergencia de este método. El campo de orientación, d se define como igual a, dónde definir las estimaciones horizontales y verticales de .
El método lagrangiano aumentado para el campo de orientación, , implica inicializar y luego encontrar el minimizador aproximado de con respecto a estas variables. Luego, los multiplicadores de Lagrange se actualizan y el proceso iterativo se detiene cuando se logra la convergencia. Para el modelo de refinamiento de variación total direccional iterativo, el método lagrangiano aumentado implica inicializar. [21]
Aquí, son variables recién introducidas donde = , = , = , y = . son los multiplicadores lagrangianos para . Para cada iteración, el minimizador aproximado de con respecto a las variables () es calculado. Y como en el modelo de refinamiento de campo, los multiplicadores lagrangianos se actualizan y el proceso iterativo se detiene cuando se logra la convergencia.
Para el modelo de refinamiento del campo de orientación, los multiplicadores de Lagrange se actualizan en el proceso iterativo de la siguiente manera:
Para el modelo de refinamiento de variación total direccional iterativo, los multiplicadores de Lagrange se actualizan de la siguiente manera:
Aquí, son constantes positivas.
Ventajas y desventajas
Sobre la base de las métricas de la relación pico señal-ruido (PSNR) y del índice de similitud estructural (SSIM) e imágenes conocidas de verdad del terreno para probar el rendimiento, se concluye que la variación total direccional iterativa tiene un mejor rendimiento reconstruido que los métodos no iterativos en preservando los bordes y las áreas de textura. El modelo de refinamiento del campo de orientación juega un papel importante en esta mejora en el rendimiento, ya que aumenta el número de píxeles sin dirección en el área plana mientras mejora la consistencia del campo de orientación en las regiones con bordes.
Aplicaciones
El campo de la detección por compresión está relacionado con varios temas en el procesamiento de señales y las matemáticas computacionales, como los sistemas lineales indeterminados , las pruebas de grupo , los pesos pesados, la codificación dispersa , la multiplexación , el muestreo disperso y la tasa finita de innovación. Su amplio alcance y generalidad ha permitido varios enfoques innovadores mejorados con CS en procesamiento y compresión de señales, solución de problemas inversos, diseño de sistemas radiantes, imágenes de radar y a través de la pared, y caracterización de antenas. [22] Las técnicas de obtención de imágenes que tienen una fuerte afinidad con la detección por compresión incluyen la apertura codificada y la fotografía computacional .
La reconstrucción de CS convencional utiliza señales escasas (normalmente muestreadas a una frecuencia menor que la frecuencia de muestreo de Nyquist) para la reconstrucción a través de restricciones minimización. Una de las primeras aplicaciones de este enfoque fue la sismología de reflexión, que utilizaba señales reflejadas escasas de datos de banda limitada para rastrear cambios entre capas subterráneas. [23] Cuando el modelo LASSO se destacó en la década de 1990 como un método estadístico para la selección de modelos dispersos, [24] este método se utilizó más en el análisis armónico computacional para la representación de señales dispersas de diccionarios sobrecompletos. Algunas de las otras aplicaciones incluyen muestreo incoherente de pulsos de radar. El trabajo de Boyd et al. [16] ha aplicado el modelo LASSO, para la selección de modelos dispersos, hacia convertidores analógicos a digitales (los actuales utilizan una frecuencia de muestreo superior a la de Nyquist junto con la representación cuantificada de Shannon). Esto implicaría una arquitectura en paralelo en la que la polaridad de la señal analógica cambia a una velocidad alta seguida de la digitalización de la integral al final de cada intervalo de tiempo para obtener la señal digital convertida.
Fotografía
La detección comprimida se utiliza en el sensor de la cámara de un teléfono móvil. El enfoque permite una reducción en la energía de adquisición de imágenes por imagen hasta en un factor de 15 a costa de complejos algoritmos de descompresión; el cálculo puede requerir una implementación fuera del dispositivo. [25]
La detección comprimida se utiliza en cámaras de un solo píxel de la Universidad de Rice . [26] Bell Labs empleó la técnica en una cámara de un solo píxel sin lente que toma fotografías usando instantáneas repetidas de aperturas elegidas al azar de una cuadrícula. La calidad de la imagen mejora con la cantidad de instantáneas y, por lo general, requiere una pequeña fracción de los datos de las imágenes convencionales, al tiempo que se eliminan las aberraciones relacionadas con la lente / enfoque. [27] [28]
Holografía
La detección comprimida se puede utilizar para mejorar la reconstrucción de imágenes en holografía aumentando el número de vóxeles que se pueden inferir de un solo holograma. [29] [30] [31] También se utiliza para la recuperación de imágenes de mediciones submuestreadas en holografía óptica [32] [33] y de ondas milimétricas [34] .
Reconocimiento facial
La detección comprimida se utiliza en aplicaciones de reconocimiento facial. [35]
Imagen de resonancia magnética
La detección comprimida se ha utilizado [36] [37] para acortar las sesiones de exploración de imágenes por resonancia magnética en hardware convencional. [38] [39] [40] Los métodos de reconstrucción incluyen
- ISTA
- FISTA
- SISTA
- ePRESS [41]
- EWISTA [42]
- EWISTARS [43] etc.
La detección comprimida aborda el problema del tiempo de exploración elevado al permitir una adquisición más rápida al medir menos coeficientes de Fourier. Esto produce una imagen de alta calidad con un tiempo de escaneo relativamente menor. Otra aplicación (también discutida más adelante) es la reconstrucción por TC con menos proyecciones de rayos X. La detección comprimida, en este caso, elimina las partes de alto gradiente espacial, principalmente, el ruido de la imagen y los artefactos. Esto tiene un enorme potencial, ya que se pueden obtener imágenes de TC de alta resolución a bajas dosis de radiación (a través de configuraciones de corriente mA más bajas). [44]
Tomografía de red
La detección comprimida ha mostrado resultados sobresalientes en la aplicación de la tomografía de red a la gestión de redes . La estimación del retardo de la red y la detección de la congestión de la red se pueden modelar como sistemas indeterminados de ecuaciones lineales donde la matriz de coeficientes es la matriz de enrutamiento de la red. Además, en Internet , las matrices de enrutamiento de red generalmente satisfacen el criterio para usar detección comprimida. [45]
Cámaras de infrarrojos de onda corta
Se encuentran disponibles cámaras comerciales de infrarrojos de onda corta basadas en sensores comprimidos. [46] Estas cámaras tienen una sensibilidad a la luz de 0,9 µm a 1,7 µm, que son longitudes de onda invisibles para el ojo humano.
Síntesis de apertura en radioastronomía
En el campo de la radioastronomía , se ha propuesto la detección comprimida para descomponer una imagen interferométrica. [47] De hecho, el algoritmo CLEAN de Högbom que se ha utilizado para la deconvolución de imágenes de radio desde 1974, es similar al algoritmo de búsqueda de coincidencias de detección comprimida.
Microscopio de transmisión por electrones
La detección comprimida combinada con una apertura móvil se ha utilizado para aumentar la tasa de adquisición de imágenes en un microscopio electrónico de transmisión . [48] En el modo de escaneo , la detección por compresión combinada con el escaneo aleatorio del haz de electrones ha permitido una adquisición más rápida y una menor dosis de electrones, lo que permite obtener imágenes de materiales sensibles al haz de electrones. [49]
Ver también
- Ruido
- Aproximación escasa
- Codificación escasa
- Código de verificación de paridad de baja densidad
- Detección comprimida en señales de voz
Notas
- ^ Las comillas sirvieron para dos advertencias. Primero, el número de no ceros- "norma" no es una norma F propia , porque no es continua en su argumento escalar: nnzs (α x ) es constante cuando α se acerca a cero. Desafortunadamente, los autores ahora descuidan las comillas y la terminología abusada, chocando con el uso establecido de lanorma para el espacio de funciones medibles (equipado con una métrica apropiada) o para el espacio de secuencias con norma F . [12]
Referencias
- ^ CS: Genotipado comprimido, Sudoku de ADN: aprovechamiento de la secuenciación de alto rendimiento para el análisis de muestras multiplexadas .
- ^ Donoho, David L. (2006). "Para la mayoría de los grandes sistemas indeterminados de ecuaciones lineales, la solución mínima de 1 norma es también la solución más escasa". Comunicaciones sobre Matemática Pura y Aplicada . 59 (6): 797–829. doi : 10.1002 / cpa.20132 . S2CID 8510060 .
- ^ M. Davenport, "The Fundamentals of Compressive Sensing" , SigView, 12 de abril de 2013.
- ^ Candès, Emmanuel J .; Romberg, Justin K .; Tao, Terence (2006). "Recuperación de señal estable de mediciones incompletas e inexactas" (PDF) . Comunicaciones sobre Matemática Pura y Aplicada . 59 (8): 1207–1223. arXiv : matemáticas / 0503066 . Bibcode : 2005math ...... 3066C . doi : 10.1002 / cpa.20124 . S2CID 119159284 . Archivado desde el original (PDF) el 11 de marzo de 2012 . Consultado el 10 de febrero de 2011 .
- ^ Donoho, DL (2006). "Detección comprimida". Transacciones IEEE sobre teoría de la información . 52 (4): 1289–1306. doi : 10.1109 / TIT.2006.871582 . S2CID 206737254 .
- ^ Lista de ideas de regularización L1 de Vivek Goyal, Alyson Fletcher, Sundeep Rangan, The Optimistic Bayesian: Replica Method Analysis of Compressed Sensing
- ^ Hayes, Brian (2009). "Las mejores partes". Científico estadounidense . 97 (4): 276. doi : 10.1511 / 2009.79.276 . S2CID 349102 .
- ^ Tibshirani, Robert. "Contracción de regresión y selección a través del lazo" . Revista de la Sociedad Real de Estadística, Serie B . 58 (1): 267–288.
- ^ "Descomposición atómica por búsqueda de bases", por Scott Shaobing Chen, David L. Donoho, Michael, A. Saunders. Revista SIAM de Computación Científica
- ^ Candès, Emmanuel J .; Romberg, Justin K .; Tao, Terence (2006). "Principios sólidos de incertidumbre: reconstrucción de señal exacta a partir de información de Fourier muy incompleta" (PDF) . IEEE Trans. Inf. Teoría . 52 (8): 489–509. arXiv : matemáticas / 0409186 . CiteSeerX 10.1.1.122.4429 . doi : 10.1109 / tit.2005.862083 . S2CID 7033413 .
- ^ Candès, EJ y Wakin, MB, Introducción al muestreo por compresión , Revista de procesamiento de señales IEEE, V.21, marzo de 2008 [1]
- ^ Stefan Rolewicz. Espacios lineales métricos .
- ^ L1-MAGIC es una colección de rutinas MATLAB
- ^ a b c Tian, Z .; Jia, X .; Yuan, K .; Pantalón.; Jiang, SB (2011). "Reconstrucción de TC de dosis baja a través de la regularización de la variación total preservando el borde" . Phys Med Biol . 56 (18): 5949–5967. arXiv : 1009.2288 . Código Bibliográfico : 2011PMB .... 56.5949T . doi : 10.1088 / 0031-9155 / 56/18/011 . PMC 4026331 . PMID 21860076 .
- ^ a b c Xuan Fei; Zhihui Wei; Liang Xiao (2013). "Refinamiento de variación total direccional iterativo para la reconstrucción de imágenes de detección de compresión". Cartas de procesamiento de señales IEEE . 20 (11): 1070–1073. Código bibliográfico : 2013ISPL ... 20.1070F . doi : 10.1109 / LSP.2013.2280571 . S2CID 8156085 .
- ^ a b Candes, EJ; Wakin, MB; Boyd, SP (2008). "Mejora de la escasez por minimización l1 reponderada". J. Fourier Anal. Aplicat . 14 (5–6): 877–905. arXiv : 0711.1612 . doi : 10.1007 / s00041-008-9045-x . S2CID 5879257 .
- ^ Lange, K .: Optimización, Springer Texts in Statistics. Springer, Nueva York (2004)
- ^ Combettes, P; Wajs, V (2005). "Recuperación de la señal por división proximal hacia adelante y hacia atrás". Simul de modelo multiescala . 4 (4): 1168–200. doi : 10.1137 / 050626090 . S2CID 15064954 .
- ^ Hestenes, M; Stiefel, E (1952). "Métodos de gradientes conjugados para la resolución de sistemas lineales" . Revista de investigación de la Oficina Nacional de Normas . 49 (6): 409–36. doi : 10.6028 / jres.049.044 .
- ^ Brox, T .; Weickert, J .; Burgeth, B .; Mrázek, P. (2006). "Tensores de estructura no lineal". Imagen Vis. Computación . 24 (1): 41–55. CiteSeerX 10.1.1.170.6085 . doi : 10.1016 / j.imavis.2005.09.010 .
- ^ Goldluecke, B .; Strekalovskiy, E .; Cremers, D .; Siims, P.-TAI (2012). "La variación total vectorial natural que surge de la teoría de la medida geométrica". SIAM J. Imaging Sci . 5 (2): 537–563. CiteSeerX 10.1.1.364.3997 . doi : 10.1137 / 110823766 .
- ^ Andrea Massa; Paolo Rocca; Giacomo Oliveri (2015). "Detección compresiva en electromagnetismo - una revisión". Revista IEEE Antennas and Propagation . 57 (1): 224–238. Código bibliográfico : 2015IAPM ... 57..224M . doi : 10.1109 / MAP.2015.2397092 . S2CID 30196057 .
- ^ Taylor, HL; Banks, SC; McCoy, JF (1979). "Deconvolución con la norma 1". Geofísica . 44 (1): 39–52. doi : 10.1190 / 1.1440921 .
- ^ Tibshirani, R. (1996). "Contracción de regresión y selección a través del lazo" (PDF) . JR Stat. Soc. B . 58 (1): 267–288. doi : 10.1111 / j.2517-6161.1996.tb02080.x .
- ^ David Schneider (marzo de 2013). "Nuevo chip de cámara captura sólo lo que necesita" . Espectro IEEE . Consultado el 20 de marzo de 2013 .
- ^ "Imágenes compresivas: una nueva cámara de un solo píxel" . Arroz DSP . Archivado desde el original el 5 de junio de 2010 . Consultado el 4 de junio de 2013 .
- ^ "Bell Labs inventa la cámara sin lente" . Revisión de tecnología del MIT . 2013-05-25 . Consultado el 4 de junio de 2013 .
- ^ Gang Huang; Hong Jiang; Kim Matthews; Paul Wilford (2013). Imágenes sin lente por detección de compresión . 2013 IEEE International Conference on Image Processing. 2393 . págs. 2101–2105. arXiv : 1305.7181 . Código bibliográfico : 2013arXiv1305.7181H . doi : 10.1109 / ICIP.2013.6738433 . ISBN 978-1-4799-2341-0.
- ^ Brady, David; Choi, Kerkil; Marks, Daniel; Horisaki, Ryoichi; Lim, Sehoon (2009). "Holografía compresiva" . Optics Express . 17 (15): 13040–13049. Código Bibliográfico : 2009OExpr..1713040B . doi : 10.1364 / oe.17.013040 . PMID 19654708 .
- ^ Rivenson, Y .; Stern, A .; Javidi, B. (2010). "Holografía de fresnel compresiva". Tecnología de visualización, Revista de . 6 (10): 506–509. Código bibliográfico : 2010JDisT ... 6..506R . CiteSeerX 10.1.1.391.2020 . doi : 10.1109 / jdt.2010.2042276 . S2CID 7460759 .
- ^ Denis, Loic; Lorenz, Dirk; Thibaut, Eric; Fournier, Corinne; Trede, Dennis (2009). "Reconstrucción de hologramas en línea con restricciones de escasez" (PDF) . Optar. Lett . 34 (22): 3475–3477. Código Bibliográfico : 2009OptL ... 34.3475D . doi : 10.1364 / ol.34.003475 . PMID 19927182 .
- ^ Marim, M .; Angelini, E .; Olivo-Marin, JC; Atlan, M. (2011). "Microscopía holográfica comprimida fuera del eje en condiciones de poca luz". Letras de óptica . 36 (1): 79–81. arXiv : 1101.1735 . Código Bibliográfico : 2011OptL ... 36 ... 79M . doi : 10.1364 / ol.36.000079 . PMID 21209693 . S2CID 24074045 .
- ^ Marim, MM; Atlan, M .; Angelini, E .; Olivo-Marin, JC (2010). "Detección comprimida con holografía de desplazamiento de frecuencia fuera del eje". Letras de óptica . 35 (6): 871–873. arXiv : 1004.5305 . Código Bibliográfico : 2010OptL ... 35..871M . doi : 10.1364 / ol.35.000871 . PMID 20237627 . S2CID 9738556 .
- ^ Fernández Cull, Christy; Wikner, David A .; Mait, Joseph N .; Mattheiss, Michael; Brady, David J. (2010). "Holografía compresiva de ondas milimétricas". Apl. Opt . 49 (19): E67 – E82. Código bibliográfico : 2010ApOpt..49E..67C . CiteSeerX 10.1.1.1018.5231 . doi : 10.1364 / ao.49.000e67 . PMID 20648123 .
- ^ Los ingenieros prueban el reconocimiento facial de alta precisión
- ^ Lustig, Michael (2007). "Escasa resonancia magnética: la aplicación de detección comprimida para imágenes de resonancia magnética rápida" . Resonancia Magnética en Medicina . 58 (6): 1182-1195. doi : 10.1002 / mrm.21391 . PMID 17969013 . S2CID 15370510 .
- ^ Lustig, M .; Donoho, DL; Santos, JM; Pauly, JM (2008). "Resonancia magnética de detección comprimida". Revista de procesamiento de señales IEEE . 25 (2): 72–82. Código Bibliográfico : 2008ISPM ... 25 ... 72L . doi : 10.1109 / MSP.2007.914728 . S2CID 945906 .
- ^ Autor de correo electrónico de Jordan Ellenberg (2010-03-04). "Complete los espacios en blanco: uso de matemáticas para convertir conjuntos de datos de baja resolución en muestras de alta resolución | Revista con cable" . Cableado . 18 (3) . Consultado el 4 de junio de 2013 .
- ^ Por qué Compressed Sensing NO es una tecnología de "Mejora" de CSI ... ¡todavía!
- ^ Seguramente debe estar bromeando Sr. Guionista
- ^ Zhang, Y .; Peterson, B. (2014). "Muestreo de energía preservada para resonancia magnética de detección comprimida" . Métodos computacionales y matemáticos en medicina . 2014 : 546814. arXiv : 1501.03915 . Código Bib : 2015CMMM.201514104T . doi : 10.1155 / 2014/546814 . PMC 4058219 . PMID 24971155 .
- ^ Zhang, Y. (2015). "Algoritmo de umbralización de contracción iterativa Wavelet exponencial para imágenes de resonancia magnética de detección comprimida". Ciencias de la información . 322 : 115-132. doi : 10.1016 / j.ins.2015.06.017 .
- ^ Zhang, Y .; Wang, S. (2015). "Algoritmo de umbralización de contracción iterativa de wavelet exponencial con cambio aleatorio para imágenes de resonancia magnética de detección comprimida". Transacciones IEEJ sobre ingeniería eléctrica y electrónica . 10 (1): 116-117. doi : 10.1002 / tee.22059 .
- ^ Figueiredo, M .; Bioucas-Dias, JM; Nowak, RD (2007). "Algoritmos de mayorización-minimización para la restauración de imágenes basadas en ondículas" . IEEE Trans. Proceso de imagen . 16 (12): 2980–2991. Código Bibliográfico : 2007ITIP ... 16.2980F . doi : 10.1109 / tip.2007.909318 . PMID 18092597 . S2CID 8160052 .
- ^ [Tomografía de red mediante detección comprimida | http://www.ee.washington.edu/research/funlab/Publications/2010/CS-Tomo.pdf ]
- ^ "Sitio web de InView" . inviewcorp.com .
- ^ Técnicas de imagenología de detección comprimida para radiointerferometría
- ^ Stevens, Andrew; Kovarik, Libor; Abellan, Patricia; Yuan, Xin; Carin, Lawrence; Browning, Nigel D. (13 de agosto de 2015). "Aplicación de detección de compresión al video TEM: un aumento sustancial de la velocidad de fotogramas en cualquier cámara" . Imágenes químicas y estructurales avanzadas . 1 (1). doi : 10.1186 / s40679-015-0009-3 .
- ^ Kovarik, L .; Stevens, A .; Liyu, A .; Browning, ND (17 de octubre de 2016). "Implementación de un enfoque de muestreo disperso rápido y preciso para imágenes STEM de resolución atómica de baja dosis" . Letras de Física Aplicada . 109 (16): 164102. Código Bibliográfico : 2016ApPhL.109p4102K . doi : 10.1063 / 1.4965720 .
Otras lecturas
- "Los fundamentos de la detección compresiva" Parte 1 , Parte 2 y Parte 3 : tutorial en video de Mark Davenport, Georgia Tech. en SigView, la biblioteca de tutoriales de IEEE Signal Processing Society .
- Uso de matemáticas para convertir conjuntos de datos de baja resolución en muestras de alta resolución Artículo de Wired Magazine
- Recursos de detección de compresión en Rice University .
- Comprimido de detección hace que cada píxel Conde - artículo en el AMS lo que está pasando en el Mathematical Sciences serie
- Wiki sobre reconstrucción escasa