Una cámara de tiempo de vuelo ( cámara ToF ) es un sistema de cámara de imágenes de rango que emplea técnicas de tiempo de vuelo para resolver la distancia entre la cámara y el sujeto para cada punto de la imagen, midiendo el tiempo de ida y vuelta de una luz artificial. señal proporcionada por un láser o un LED . Las cámaras de tiempo de vuelo basadas en láser forman parte de una clase más amplia de LIDAR sin escáner , en el que se captura toda la escena con cada pulso láser, en lugar de punto por punto con un rayo láser, como en los sistemas LIDAR de escaneo. [1] Los productos de cámaras de tiempo de vuelo para aplicaciones civiles comenzaron a surgir alrededor de 2000, [2]ya que los procesos de semiconductores permitieron la producción de componentes lo suficientemente rápido para tales dispositivos. Los sistemas cubren rangos de unos pocos centímetros hasta varios kilómetros. La resolución de la distancia es de aproximadamente 1 cm. La resolución espacial de las cámaras de tiempo de vuelo es generalmente baja en comparación con las cámaras de video 2D estándar, con la mayoría de los dispositivos disponibles comercialmente a 320 × 240 píxeles o menos en 2011. [3] [4] [5] [6] En comparación con Otros métodos de escaneo láser 3D para capturar imágenes 3D, las cámaras TOF funcionan más rápidamente al proporcionar hasta 160 operaciones por segundo. [7]
Tipos de dispositivos
Se han desarrollado varias tecnologías diferentes para cámaras de tiempo de vuelo.
Fuentes de luz moduladas por RF con detectores de fase
Photonic Mixer Devices (PMD), [8] el Swiss Ranger y CanestaVision [9] funcionan modulando el haz saliente con una portadora de RF y luego midiendo el desplazamiento de fase de esa portadora en el lado del receptor. Este enfoque tiene un desafío de error modular: los rangos medidos son módulo la longitud de onda de la portadora de RF. El Swiss Ranger es un dispositivo compacto de corto alcance, con alcances de 5 o 10 metros y una resolución de 176 x 144 píxeles. Con los algoritmos de desenvolvimiento de fase, se puede aumentar el rango de unicidad máximo. El PMD puede proporcionar alcances de hasta 60 m. La iluminación consiste en LED pulsados en lugar de láser. [10] El desarrollador de CanestaVision, Canesta, fue comprado por Microsoft en 2010. El Kinect2 para Xbox One se basó en la tecnología ToF de Canesta.
Generadores de imágenes de rango
Estos dispositivos tienen un obturador incorporado en el sensor de imagen que se abre y se cierra al mismo ritmo que se envían los pulsos de luz. La mayoría de los sensores 3D de tiempo de vuelo se basan en este principio inventado por Medina. [11] Debido a que el obturador bloquea parte de cada pulso que regresa según su hora de llegada, la cantidad de luz recibida se relaciona con la distancia que ha recorrido el pulso. La distancia se puede calcular usando la ecuación, z = R ( S 2 - S 1 ) / 2 ( S 1 + S 2 ) + R / 2 para una cámara ideal. R es el rango de la cámara, determinado por el viaje de ida y vuelta del pulso de luz, S 1 la cantidad de pulso de luz que se recibe y S 2 la cantidad de pulso de luz que se bloquea. [11] [12]
La ZCam de 3DV Systems [1] es un sistema de apertura de rango. Microsoft compró 3DV en 2009. El sensor Kinect de segunda generación de Microsoft se desarrolló utilizando los conocimientos adquiridos de Canesta y 3DV Systems. [13]
Se utilizan principios similares en la línea de cámaras ToF desarrollada por el Instituto Fraunhofer de Circuitos y Sistemas Microelectrónicos y TriDiCam. Estas cámaras emplean fotodetectores con un obturador electrónico rápido.
La resolución de profundidad de las cámaras ToF se puede mejorar con cámaras CCD intensificadas de activación ultrarrápida. Estas cámaras proporcionan tiempos de activación de hasta 200ps y permiten la configuración ToF con una resolución de profundidad submilimétrica. [14]
Los generadores de imágenes de rango controlado también se pueden usar en imágenes 2D para suprimir cualquier cosa fuera de un rango de distancia específico, como ver a través de la niebla. Un láser pulsado proporciona iluminación y una puerta óptica permite que la luz llegue al generador de imágenes solo durante el período de tiempo deseado. [15]
Generadores de imágenes de tiempo de vuelo directo
Estos dispositivos miden el tiempo de vuelo directo requerido para que un solo pulso láser salga de la cámara y se refleje en la matriz del plano focal. También conocido como "modo de disparo", las imágenes en 3D capturadas con esta metodología muestran datos espaciales y temporales completos, registrando escenas en 3D completas con un solo pulso de láser. Esto permite una adquisición rápida y un procesamiento rápido en tiempo real de la información de la escena. Para operaciones autónomas sensibles al tiempo, este enfoque se ha demostrado para pruebas espaciales autónomas [16] y operaciones como las utilizadas en la misión de retorno y muestreo de asteroides OSIRIS-REx Bennu [17] y el aterrizaje autónomo de helicópteros. [18] [19]
Advanced Scientific Concepts, Inc. proporciona sistemas de visión directa TOF [20] para aplicaciones específicas (por ejemplo, aéreas, automotrices, espaciales) conocidas como cámaras 3D Flash LIDAR. Su enfoque utiliza matrices de fotodetectores PIN o fotodiodos de avalancha (APD) de InGaAs capaces de obtener imágenes de pulsos de láser en longitudes de onda de 980 nm a 1600 nm.
Componentes
Una cámara de tiempo de vuelo consta de los siguientes componentes:
- Unidad de iluminación: Ilumina la escena. Para fuentes de luz moduladas por RF con generadores de imágenes con detector de fase, la luz debe modularse con altas velocidades de hasta 100 MHz, solo son factibles los LED o diodos láser . Para los generadores de imágenes Direct TOF, se utiliza un solo pulso por cuadro (por ejemplo, 30 Hz). La iluminación normalmente utiliza luz infrarroja para que la iluminación sea discreta.
- Óptica: una lente recoge la luz reflejada e imágenes del entorno en el sensor de imagen (matriz de plano focal). Un filtro de paso de banda óptico solo deja pasar la luz con la misma longitud de onda que la unidad de iluminación. Esto ayuda a suprimir la luz no pertinente y reducir el ruido.
- Sensor de imagen : este es el corazón de la cámara TOF. Cada píxel mide el tiempo que ha tardado la luz en viajar desde la unidad de iluminación (láser o LED) al objeto y de regreso a la matriz del plano focal. Se utilizan varios enfoques diferentes para la sincronización; consulte Tipos de dispositivos más arriba.
- Electrónica del controlador: tanto la unidad de iluminación como el sensor de imagen deben ser controlados por señales de alta velocidad y sincronizados. Estas señales deben ser muy precisas para obtener una alta resolución. Por ejemplo, si las señales entre la unidad de iluminación y el sensor cambian solo 10 picosegundos , la distancia cambia en 1,5 mm. A modo de comparación: las CPU actuales alcanzan frecuencias de hasta 3 GHz , correspondientes a ciclos de reloj de aproximadamente 300 ps; la 'resolución' correspondiente es de solo 45 mm.
- Computación / Interfaz: La distancia se calcula directamente en la cámara. Para obtener un buen rendimiento, también se utilizan algunos datos de calibración. Luego, la cámara proporciona una imagen de distancia a través de alguna interfaz, por ejemplo, USB o Ethernet .
Principio
La versión más simple de una cámara de tiempo de vuelo utiliza pulsos de luz o un solo pulso de luz. La iluminación se enciende durante muy poco tiempo, el pulso de luz resultante ilumina la escena y es reflejado por los objetos en el campo de visión. La lente de la cámara recoge la luz reflejada y la proyecta en el sensor o matriz de plano focal. Dependiendo de la distancia, la luz entrante experimenta un retraso. Como la luz tiene una velocidad de aproximadamente c = 300.000.000 metros por segundo, este retraso es muy corto: un objeto a 2,5 m de distancia retrasará la luz en: [22]
Para arreglos de amplitud modulada, el ancho de pulso de la iluminación determina el rango máximo que la cámara puede manejar. Con un ancho de pulso de, por ejemplo, 50 ns, el rango está limitado a
Estos cortos tiempos muestran que la unidad de iluminación es una parte crítica del sistema. Solo con LED o láseres especiales es posible generar pulsos tan cortos.
El píxel único consta de un elemento fotosensible (por ejemplo, un fotodiodo ). Convierte la luz entrante en corriente. En los generadores de imágenes de temporización analógica, conectados al fotodiodo hay interruptores rápidos, que dirigen la corriente a uno de dos (o varios) elementos de memoria (por ejemplo, un condensador ) que actúan como elementos de suma. En los generadores de imágenes de temporización digital, un contador de tiempo, que puede funcionar a varios gigahercios, está conectado a cada píxel del fotodetector y deja de contar cuando se detecta la luz.
En el diagrama de un temporizador analógico de matriz modulada en amplitud, el píxel utiliza dos interruptores (G1 y G2) y dos elementos de memoria (S1 y S2). Los interruptores son controlados por un pulso con la misma longitud que el pulso de luz, donde la señal de control del interruptor G2 se retrasa exactamente por el ancho del pulso. Dependiendo del retraso, solo una parte del pulso de luz se muestrea a través de G1 en S1, la otra parte se almacena en S2. Dependiendo de la distancia, la relación entre S1 y S2 cambia como se muestra en el dibujo. [9] Debido a que solo pequeñas cantidades de luz inciden en el sensor en 50 ns, no solo se envían uno, sino varios miles de pulsos (tasa de repetición tR) y se recopilan, aumentando así la relación señal / ruido .
Después de la exposición, se lee el píxel y las siguientes etapas miden las señales S1 y S2. Como se define la longitud del pulso de luz, la distancia se puede calcular con la fórmula:
En el ejemplo, las señales tienen los siguientes valores: S1 = 0,66 y S2 = 0,33. Por tanto, la distancia es:
En presencia de luz de fondo , los elementos de memoria reciben una parte adicional de la señal. Esto perturbaría la medición de la distancia. Para eliminar la parte de fondo de la señal, toda la medición se puede realizar una segunda vez con la iluminación apagada. Si los objetos están más lejos que el rango de distancia, el resultado también es incorrecto. Aquí, una segunda medición con las señales de control retardadas por un ancho de pulso adicional ayuda a suprimir tales objetos. Otros sistemas funcionan con una fuente de luz modulada sinusoidalmente en lugar de la fuente de pulsos.
Para los lectores de imágenes TOF directos, como 3D Flash LIDAR, el láser emite un solo pulso corto de 5 a 10 ns. El evento T-cero (el momento en que el pulso sale de la cámara) se establece capturando el pulso directamente y enrutando este tiempo en la matriz del plano focal. T-cero se utiliza para comparar el tiempo de retorno del pulso reflejado de retorno en los diversos píxeles de la matriz del plano focal. Al comparar T-cero y el pulso devuelto capturado y comparar la diferencia de tiempo, cada píxel genera con precisión una medición directa del tiempo de vuelo. El viaje de ida y vuelta de un solo pulso durante 100 metros es de 660 ns. Con un pulso de 10 ns, la escena se ilumina y el rango y la intensidad se capturan en menos de 1 microsegundo.
Ventajas
Sencillez
A diferencia de los sistemas de visión estereoscópica o triangulación , todo el sistema es muy compacto: la iluminación se coloca justo al lado de la lente, mientras que los otros sistemas necesitan una cierta línea de base mínima. A diferencia de los sistemas de escaneo láser , no se necesitan piezas móviles mecánicas.
Algoritmo de distancia eficiente
Es un proceso directo para extraer la información de distancia de las señales de salida del sensor TOF. Como resultado, esta tarea usa solo una pequeña cantidad de potencia de procesamiento, nuevamente en contraste con la visión estéreo, donde se implementan complejos algoritmos de correlación. Una vez extraídos los datos de distancia, la detección de objetos, por ejemplo, también es un proceso sencillo de llevar a cabo porque los algoritmos no se ven alterados por patrones en el objeto.
Velocidad
Las cámaras de tiempo de vuelo pueden medir las distancias dentro de una escena completa con una sola toma. Dado que las cámaras alcanzan hasta 160 fotogramas por segundo, resultan ideales para su uso en aplicaciones en tiempo real.
Desventajas
Luz de fondo
Cuando se utiliza CMOS u otros detectores o sensores integradores que utilizan luz visible o infrarroja cercana (400 nm - 700 nm), aunque se suprime la mayor parte de la luz de fondo procedente de la iluminación artificial o del sol, el píxel todavía tiene que proporcionar una alta rango dinámico . La luz de fondo también genera electrones, que deben almacenarse. Por ejemplo, las unidades de iluminación de muchas de las cámaras TOF actuales pueden proporcionar un nivel de iluminación de aproximadamente 1 vatio. El Sol tiene una potencia de iluminación de aproximadamente 1050 vatios por metro cuadrado y 50 vatios después del filtro óptico de paso de banda . Por tanto, si la escena iluminada tiene un tamaño de 1 metro cuadrado, la luz del sol es 50 veces más fuerte que la señal modulada. Para los sensores TOF que no se integran y que no integran la luz a lo largo del tiempo y que utilizan detectores de infrarrojo cercano (InGaAs) para capturar el pulso láser corto, la visualización directa del sol no es un problema porque la imagen no se integra con el tiempo, sino que capturado dentro de un ciclo de adquisición corto típicamente menos de 1 microsegundo. Estos sensores TOF se utilizan en aplicaciones espaciales [17] y en consideración para aplicaciones de automoción. [23]
Interferencia
En ciertos tipos de dispositivos TOF (pero no todos), si varias cámaras de tiempo de vuelo están funcionando al mismo tiempo, las cámaras TOF pueden perturbar las mediciones de las demás. Existen varias posibilidades para hacer frente a este problema:
- Multiplexación de tiempo: un sistema de control inicia la medición de las cámaras individuales de forma consecutiva, de modo que solo una unidad de iluminación esté activa a la vez.
- Diferentes frecuencias de modulación: si las cámaras modulan su luz con diferentes frecuencias de modulación, su luz se recoge en los otros sistemas solo como iluminación de fondo, pero no perturba la medición de la distancia.
Para las cámaras de tipo TOF directo que utilizan un solo pulso láser para la iluminación, debido a que el pulso láser único es corto (por ejemplo, 10 nanosegundos), el TOF de ida y vuelta hacia y desde los objetos en el campo de visión es correspondientemente corto (por ejemplo, 100 metros = 660 ns TOF ida y vuelta). Para un generador de imágenes que captura a 30 Hz, la probabilidad de una interacción de interferencia es el tiempo que la puerta de adquisición de la cámara está abierta dividido por el tiempo entre pulsos láser o aproximadamente 1 en 50.000 (0,66 μs dividido por 33 ms).
Múltiples reflexiones
A diferencia de los sistemas de escaneo láser donde se ilumina un solo punto, las cámaras de tiempo de vuelo iluminan una escena completa. Para un dispositivo de diferencia de fase (matriz de amplitud modulada), debido a múltiples reflejos, la luz puede llegar a los objetos a lo largo de varios caminos. Por lo tanto, la distancia medida puede ser mayor que la distancia real. Los generadores de imágenes de TOF directo son vulnerables si la luz se refleja en una superficie especular. Hay artículos publicados disponibles que describen las fortalezas y debilidades de los diversos dispositivos y enfoques TOF. [24]
Aplicaciones
Aplicaciones automotrices
Las cámaras de tiempo de vuelo se utilizan en funciones de asistencia y seguridad para aplicaciones automotrices avanzadas, como seguridad activa de peatones, detección previa al choque y aplicaciones en interiores como detección de fuera de posición (OOP). [25] [26]
Interfaces hombre-máquina y juegos
Como las cámaras de tiempo de vuelo proporcionan imágenes de distancia en tiempo real, es fácil rastrear los movimientos de los humanos. Esto permite nuevas interacciones con dispositivos de consumo como televisores. Otro tema es utilizar este tipo de cámaras para interactuar con juegos en consolas de videojuegos. [27] El sensor Kinect de segunda generación incluido originalmente con la consola Xbox One usaba una cámara de tiempo de vuelo para su rango de imágenes, [28] permitiendo interfaces de usuario naturales y aplicaciones de juegos usando técnicas de reconocimiento de gestos y visión por computadora . Creative e Intel también ofrecen un tipo similar de cámara de tiempo de vuelo de gestos interactivos para juegos, la Senz3D basada en la cámara DepthSense 325 de Softkinetic . [29] Infineon y PMD Technologies permiten pequeñas cámaras de profundidad 3D integradas para el control de gestos de corto alcance de dispositivos de consumo como computadoras todo en uno y computadoras portátiles (cámaras Picco flexx y Picco monstar). [30]
Cámaras de teléfonos inteligentes
A partir de 2019, varios teléfonos inteligentes incluyen cámaras de tiempo de vuelo. Estos se utilizan principalmente para mejorar la calidad de las fotos al proporcionar al software de la cámara información sobre el primer plano y el fondo. [31]
El primer teléfono móvil en emplear esta tecnología es el LG G3 , lanzado a principios de 2014. [32]
Medición y visión artificial
Otras aplicaciones son las tareas de medición, por ejemplo, para la altura de llenado en silos. En la visión industrial de máquinas , la cámara de tiempo de vuelo ayuda a clasificar y localizar objetos para uso de robots, como elementos que pasan por un transportador. Los controles de la puerta pueden distinguir fácilmente entre animales y humanos que llegan a la puerta.
Robótica
Otro uso de estas cámaras es el campo de la robótica: los robots móviles pueden construir un mapa de su entorno muy rápidamente, lo que les permite evitar obstáculos o seguir a una persona que lidera. Como el cálculo de la distancia es sencillo, se utiliza muy poca potencia de cálculo.
Topografía de la tierra
Se han utilizado cámaras ToF para obtener modelos digitales de elevación de la topografía de la superficie de la Tierra , [33] para estudios de geomorfología .
Marcas
Marcas activas (a partir de 2011)[actualizar]
- ESPROS: chips de generación de imágenes 3D TOF, cámara TOF y módulo para aplicaciones automotrices, robóticas, industriales y de IoT
- Cámaras 3D Flash LIDAR y sistemas de visión de Advanced Scientific Concepts, Inc. para aplicaciones aéreas, automotrices y espaciales
- DepthSense: módulos y cámaras TOF, incluidos sensores RGB y micrófonos de SoftKinetic
- IRMA MATRIX - Cámara TOF, utilizada para el conteo automático de pasajeros en aplicaciones móviles y estacionarias por iris-GmbH
- Kinect : plataforma de interfaz de usuario de manos libres de Microsoft para consolas de videojuegos y PC, que utiliza cámaras de tiempo de vuelo en su segunda generación de dispositivos sensores. [28]
- pmd: software y diseños de referencia de la cámara (pmd [visión], incluidos los módulos TOF [CamBoard]) y generadores de imágenes TOF (PhotonIC) de PMD Technologies
- real.IZ 2 + 3D - Cámara TOF SXGA (1280 × 1024) de alta resolución desarrollada por la empresa emergente Odos Imaging, que integra captura de imagen convencional con rango TOF en el mismo sensor. Basado en tecnología desarrollada en Siemens .
- Senz3D: cámara TOF de Creative e Intel basada en la cámara DepthSense 325 de Softkinetic, utilizada para juegos. [29]
- SICK - Cámaras TOF industriales 3D (Visionary-T) para aplicaciones industriales y software [34]
- Sensor 3D MLI: generador de imágenes TOF, módulos, cámaras y software de IEE (International Electronics & Engineering), basado en la intensidad de luz modulada (MLI)
- TOFCam Stanley - Cámara TOF de Stanley Electric
- TriDiCam: módulos y software TOF, el generador de imágenes TOF desarrollado originalmente por el Instituto Fraunhofer de circuitos y sistemas microelectrónicos, ahora desarrollado por la empresa derivada TriDiCam
- Hakvision - cámara estéreo TOF
- Cube eye: módulos y cámara ToF, resolución VGA, sitio web: www.cube-eye.co.kr
Marcas desaparecidas
- CanestaVision [35] : módulos TOF y software de Canesta (empresa adquirida por Microsoft en 2010)
- D-IMager: cámara TOF de Panasonic Electric Works
- OptriCam: módulos y cámaras TOF de Optrima (rebautizado como DepthSense antes de la fusión de SoftKinetic en 2011)
- ZCam : productos de cámara TOF de 3DV Systems, que integran video a todo color con información de profundidad (activos vendidos a Microsoft en 2009)
- SwissRanger: una línea de cámaras industriales exclusivas para TOF originalmente del Centre Suisse d'Electronique et Microtechnique, SA ( CSEM ), ahora desarrollada por Mesa Imaging (Mesa Imaging adquirida por Heptagon en 2014)
- Fotonic - Cámaras TOF y software con chip Panasonic CMOS (Fotonic adquirido por Autoliv en 2018)
- S.Cube - Módulos y cámara ToF de Cube eye
D-IMager de Panasonic
pmd [visión] CamCube de PMD Technologies
SwissRanger 4000 de MESA Imaging
FOTONIC-B70 de Fotonic
Sensor 3D MLI de IEE SA
Prototipo de cámara ARTTS
pmd [visión] CamBoard de PMD Technologies
Kinect para Xbox One de Microsoft
Ver también
- Generador de imágenes láser de rango dinámico
- Escáner 3D de luz estructurada
- Kinect
Referencias
- ↑ a b Iddan, Gavriel J .; Yahav, Giora (24 de enero de 2001). "Imágenes 3D en el estudio (y en otros lugares ...)" (PDF) . Procedimientos de SPIE . 4298 . San José, CA: SPIE (publicado el 29 de abril de 2003). pag. 48. doi : 10.1117 / 12.424913 . Archivado desde el original (PDF) el 12 de junio de 2009 . Consultado el 17 de agosto de 2009 .
La cámara [tiempo de vuelo] pertenece a un grupo más amplio de sensores conocidos como LIDAR sin escáner (es decir, un radar láser que no tiene escáner mecánico); un ejemplo temprano [de 1990] es [Marion W.] Scott y sus seguidores en Sandia.
- ^ "Evolución del producto" . Sistemas 3DV. Archivado desde el original el 28 de febrero de 2009 . Consultado el 19 de febrero de 2009 .
Z-Cam, la primera cámara de video de profundidad, se lanzó en 2000 y estaba dirigida principalmente a organizaciones de radiodifusión.
- ^ Schuon, Sebastian; Theobalt, cristiano; Davis, James; Thrun, Sebastián (15 de julio de 2008). "Escaneo de alta calidad con superresolución de profundidad de tiempo de vuelo" (PDF) . Conferencia de la IEEE Computer Society sobre visión artificial y talleres de reconocimiento de patrones, 2008 . Instituto de Ingenieros Eléctricos y Electrónicos . págs. 1-7. CiteSeerX 10.1.1.420.2946 . doi : 10.1109 / CVPRW.2008.4563171 . ISBN 978-1-4244-2339-2. S2CID 1005890 . Consultado el 31 de julio de 2009 .
La Z-cam puede medir la profundidad de fotograma completo a una velocidad de video y con una resolución de 320 × 240 píxeles.
- ^ "El último sensor 3D de Canesta -" Cobra "... sensor de profundidad CMOS 3D de mayor resolución del mundo" (Flash Video) . Sunnyvale, California: Canesta . 2010-10-25.
Sensor de profundidad Canesta "Cobra" 320 x 200, capaz de una resolución de profundidad de 1 mm, alimentado por USB, 30 a 100 fps […] El módulo completo de la cámara es aproximadamente del tamaño de un dólar de plata
- ^ "Hoja de datos SR4000" (PDF) (Rev 2.6 ed.). Zúrich, Suiza : Mesa Imaging. Agosto de 2009: 1 . Consultado el 18 de agosto de 2009 .
Matriz de 176 x 144 píxeles (QCIF)
Cite journal requiere|journal=
( ayuda ) - ^ "PMD [vision] CamCube 2.0 Datasheet" (PDF) (No. 20090601 ed.). Siegen, Alemania : PMD Technologies . 2009-06-01: 5. Archivado desde el original (PDF) el 2012-02-25 . Consultado el 31 de julio de 2009 .
Tipo de sensor: PhotonICs PMD 41k-S (204 x 204)
Cite journal requiere|journal=
( ayuda ) - ^ http://ww2.bluetechnix.com/en/products/depthsensing/list/argos/
- ^ Christoph Heckenkamp: Das magische Auge - Grundlagen der Bildverarbeitung: Das PMD Prinzip . En: inspeccionar. Nr. 1, 2008, págs. 25-28.
- ^ a b Gokturk, Salih Burak; Yalcin, Hakan; Bamji, Cyrus (24 de enero de 2005). "Un sensor de profundidad de tiempo de vuelo: descripción del sistema, problemas y soluciones" (PDF) . Conferencia de la IEEE Computer Society sobre visión artificial y talleres de reconocimiento de patrones, 2004 : 35–45. doi : 10.1109 / CVPR.2004.291 . S2CID 1203932 . Archivado desde el original (PDF) el 23 de junio de 2007 . Consultado el 31 de julio de 2009 .
La estructura diferencial acumula cargas fotogeneradas en dos nodos de recolección utilizando dos puertas moduladas. Las señales de modulación de puerta están sincronizadas con la fuente de luz y, por lo tanto, dependiendo de la fase de la luz entrante, un nodo recolecta más cargas que el otro. Al final de la integración, la diferencia de voltaje entre los dos nodos se lee como una medida de la fase de la luz reflejada.
- ^ "Mesa Imaging - Productos" . 17 de agosto de 2009.
- ^ a b Patente estadounidense 5081530 , Medina, Antonio, "Cámara tridimensional y telémetro", emitida el 14 de enero de 1992, asignada a Medina, Antonio
- ^ Medina A, Gayá F, Pozo F (2006). "Radar láser compacto y cámara tridimensional". J. Opt. Soc. Soy. Una . 23 (4): 800–805. Código Bibliográfico : 2006JOSAA..23..800M . doi : 10.1364 / JOSAA.23.000800 . PMID 16604759 .
- ^ "El kit de desarrollador de Kinect para Windows, programado para noviembre, agrega tecnología de 'pantalla verde'" . PCWorld . 2013-06-26.
- ^ "Radar láser submilimétrico 3-D para inspección de azulejos del transbordador espacial.pdf" (PDF) .
- ^ "Sea-Lynx Gated Camera - sistema de cámara láser activa" (PDF) . Archivado desde el original (PDF) el 13 de agosto de 2010.
- ^ Reisse, Robert; Amzajerdian, Farzin; Bulyshev, Alexander; Roback, Vincent (4 de junio de 2013). Turner, Monte D; Kamerman, Gary W (eds.). "Prueba de vuelo en helicóptero de la tecnología LIDAR flash de imágenes 3D para un aterrizaje planetario seguro, autónomo y preciso" (PDF) . Tecnología y aplicaciones de radar láser XVIII . 8731 : 87310H. Código Bibliográfico : 2013SPIE.8731E..0HR . doi : 10.1117 / 12.2015961 . hdl : 2060/20130013472 . S2CID 15432289 .
- ^ a b "Cámara LIDAR 3D Flash de ASC seleccionada para la misión de asteroides OSIRIS-REx" . NASASpaceFlight.com . 2012-05-13.
- ^ http://e-vmi.com/pdf/2012_VMI_AUVSI_Report.pdf
- ^ "Programa de Sistema Autónomo de Carga Aérea / Servicios Públicos" . Oficina de Investigaciones Navales . Archivado desde el original el 6 de abril de 2014.
- ^ "Productos" . Conceptos científicos avanzados .
- ^ "Una cámara de Tiempo de Vuelo €" Introducción" . Mouser Electronics .
- ^ "Píxel de bloqueo CCD / CMOS para imágenes de rango: desafíos, limitaciones y estado de la técnica " - CSEM
- ^ "Automotriz" . Conceptos científicos avanzados .
- ^ Aue, Jan; Langer, Dirk; Muller-Bessler, Bernhard; Huhnke, Burkhard (9 de junio de 2011). "Segmentación eficiente de nubes de puntos LIDAR 3D manejando oclusiones parciales". Simposio de vehículos inteligentes IEEE 2011 (IV) . Baden-Baden, Alemania: IEEE. doi : 10.1109 / ivs.2011.5940442 . ISBN 978-1-4577-0890-9.
- ^ Hsu, Stephen; Acharya, Sunil; Rafii, Abbas; New, Richard (25 de abril de 2006). Rendimiento de una cámara de rango de tiempo de vuelo para aplicaciones de seguridad de vehículos inteligentes (PDF) . Microsistemas avanzados para aplicaciones automotrices 2006 . VDI-Buch. Springer . págs. 205–219. CiteSeerX 10.1.1.112.6869 . doi : 10.1007 / 3-540-33410-6_16 . ISBN 978-3-540-33410-1. Archivado desde el original (PDF) el 2006-12-06 . Consultado el 25 de junio de 2018 .
- ^ Elkhalili, Omar; Schrey, Olaf M .; Ulfig, Wiebke; Brockherde, Werner; Hosticka, Bedrich J. (septiembre de 2006), "A 64x8 pixel 3-D CMOS time-of flight image sensor for car safety applications" , European Solid State Circuits Conference 2006 , págs. 568–571, doi : 10.1109 / ESSCIR.2006.307488 , ISBN 978-1-4244-0302-8, S2CID 24652659 , recuperada 2010-03-05
- ^ Capitán, Sean (1 de mayo de 2008). "Juegos fuera de control" . PopSci.com . Ciencia popular . Consultado el 15 de junio de 2009 .
- ^ a b Rubin, Peter (21 de mayo de 2013). "Primer vistazo exclusivo a Xbox One" . Cableado . Revista cableada . Consultado el 22 de mayo de 2013 .
- ^ a b Sterling, Bruce (4 de junio de 2013). "Realidad aumentada: cámara de profundidad SoftKinetic 3D y cámara periférica Creative Senz3D para dispositivos Intel" . Revista cableada . Consultado el 2 de julio de 2013 .
- ^ Lai, Richard. "PMD e Infineon para habilitar pequeñas cámaras de profundidad 3D integradas (prácticas)" . Engadget . Consultado el 9 de octubre de 2013 .
- ^ Heinzman, Andrew (4 de abril de 2019). "¿Qué es una cámara de tiempo de vuelo (ToF) y por qué mi teléfono tiene una?" . How-To Geek .
- ^ Tecnología de tiempo de vuelo diseñada en teléfonos inteligentes - SensorTips.com el 17 de octubre de 2014
- ^ Nitsche, M .; Turowski, JM; Badoux, A .; Rickenmann, D .; Kohoutek, TK; Pauli, M .; Kirchner, JW (2013). "Imágenes de rango: un nuevo método para mediciones topográficas de alta resolución en sitios de campo de pequeña y mediana escala". Procesos y accidentes geográficos de la superficie terrestre . 38 (8): 810. Código Bibliográfico : 2013ESPL ... 38..810N . doi : 10.1002 / esp.3322 .
- ^ TBA. "SICK - Visionary-T y Visionary-B: 3D de un vistazo - Manipulación y almacenamiento" . www.handling-storage.com (en español) . Consultado el 18 de abril de 2017 .
- ^ "Tecnología TowerJazz CIS seleccionada por Canesta para sensores de imagen 3-D de consumo" . Business Wire . 21 de junio de 2010 . Consultado el 29 de octubre de 2013 .
Canesta Inc. está utilizando la tecnología de sensor de imagen CMOS (CIS) de TowerJazz para fabricar sus innovadores sensores de imagen CanestaVision 3-D.
Otras lecturas
- Hansard, Miles; Lee, Seungkyu; Choi, Ouk; Horaud, Radu (2012). "Cámaras de tiempo de vuelo: principios, métodos y aplicaciones" (PDF) . SpringerBriefs en Ciencias de la Computación (PDF) . doi : 10.1007 / 978-1-4471-4658-2 . ISBN 978-1-4471-4657-5. S2CID 5494636 .
Este libro describe una variedad de investigaciones recientes sobre imágenes de tiempo de vuelo: […] el principio de medición subyacente […] las fuentes asociadas de error y ambigüedad […] la calibración geométrica de las cámaras de tiempo de vuelo, particularmente cuando se utilizan en combinación con cámaras de color ordinarias [… y] utilizan datos de tiempo de vuelo junto con técnicas tradicionales de emparejamiento estéreo. Los cinco capítulos, en conjunto, describen un proceso completo de reconstrucción 3D de profundidad y color.