La codificación neuronal (o representación neuronal ) es un campo de la neurociencia que se ocupa de caracterizar la relación hipotética entre el estímulo y las respuestas neuronales individuales o de conjunto y la relación entre la actividad eléctrica de las neuronas en el conjunto. [1] [2] Basado en la teoría de que la información sensorial y de otro tipo está representada en el cerebro por redes de neuronas , se cree que las neuronas pueden codificar información tanto digital como analógica . [3]
Descripción general
Las neuronas son notables entre las células del cuerpo por su capacidad para propagar señales rápidamente a grandes distancias. Lo hacen generando pulsos eléctricos característicos llamados potenciales de acción : picos de voltaje que pueden viajar por los axones. Las neuronas sensoriales cambian sus actividades disparando secuencias de potenciales de acción en varios patrones temporales, con la presencia de estímulos sensoriales externos, como la luz , el sonido , el gusto , el olfato y el tacto . Se sabe que la información sobre el estímulo se codifica en este patrón de potenciales de acción y se transmite dentro y alrededor del cerebro, pero este no es el único método. Las neuronas especializadas, como las de la retina, pueden comunicar más información a través de potenciales graduados . Esto difiere de los potenciales de acción porque la información sobre la fuerza de un estímulo se correlaciona directamente con la fuerza de salida de las neuronas. La señal decae mucho más rápido para los potenciales graduados, lo que requiere distancias entre neuronas cortas y una alta densidad neuronal. La ventaja de los potenciales graduados son velocidades de información más altas capaces de codificar más estados (es decir, mayor fidelidad) que las neuronas de picos. [4]
Aunque los potenciales de acción pueden variar algo en duración, amplitud y forma, generalmente se tratan como eventos estereotipados idénticos en los estudios de codificación neuronal. Si se ignora la breve duración de un potencial de acción (aproximadamente 1 ms), una secuencia de potencial de acción, o tren de picos, puede caracterizarse simplemente por una serie de eventos puntuales de todo o nada en el tiempo. [5] Las longitudes de los intervalos entre picos ( ISI ) entre dos picos sucesivos en un tren de picos a menudo varían, aparentemente al azar. [6] El estudio de la codificación neuronal implica medir y caracterizar cómo los atributos de los estímulos, como la intensidad de la luz o el sonido, o las acciones motoras, como la dirección de un movimiento del brazo, están representados por los potenciales de acción o picos de las neuronas. Para describir y analizar el disparo neuronal, se han aplicado ampliamente métodos estadísticos y métodos de teoría de probabilidad y procesos de puntos estocásticos .
Con el desarrollo de tecnologías de grabación y decodificación neuronal a gran escala, los investigadores han comenzado a descifrar el código neuronal y ya han proporcionado el primer vistazo al código neuronal en tiempo real a medida que se forma y recuerda la memoria en el hipocampo, una región del cerebro conocida ser fundamental para la formación de la memoria. [7] [8] [9] Los neurocientíficos han iniciado varios proyectos de decodificación del cerebro a gran escala. [10] [11]
Codificación y decodificación
El vínculo entre estímulo y respuesta se puede estudiar desde dos puntos de vista opuestos. La codificación neuronal se refiere al mapa desde el estímulo hasta la respuesta. El objetivo principal es comprender cómo responden las neuronas a una amplia variedad de estímulos y construir modelos que intenten predecir las respuestas a otros estímulos. La decodificación neuronal se refiere al mapa inverso, desde la respuesta al estímulo, y el desafío es reconstruir un estímulo, o ciertos aspectos de ese estímulo, a partir de las secuencias de picos que evoca.
Esquemas de codificación hipotéticos
Una secuencia, o 'tren', de picos puede contener información basada en diferentes esquemas de codificación. En las neuronas motoras, por ejemplo, la fuerza a la que se contrae un músculo inervado depende únicamente de la "tasa de activación", el número medio de picos por unidad de tiempo (un "código de frecuencia"). En el otro extremo, un " código temporal " complejo se basa en la sincronización precisa de picos individuales. Pueden estar bloqueados a un estímulo externo como en el sistema visual [12] y auditivo o ser generados intrínsecamente por los circuitos neurales. [13]
Si las neuronas usan codificación de velocidad o codificación temporal es un tema de intenso debate dentro de la comunidad de neurociencias, aunque no existe una definición clara de lo que significan estos términos. [14]
Tasa de codificación
El modelo de codificación de velocidad de la comunicación de activación neuronal establece que a medida que aumenta la intensidad de un estímulo, aumenta la frecuencia o velocidad de los potenciales de acción , o "activación de picos". La codificación de velocidad a veces se denomina codificación de frecuencia.
La codificación de frecuencia es un esquema de codificación tradicional, asumiendo que la mayor parte, si no toda, la información sobre el estímulo está contenida en la frecuencia de activación de la neurona. Debido a que la secuencia de potenciales de acción generados por un estímulo dado varía de un ensayo a otro, las respuestas neuronales se tratan típicamente de forma estadística o probabilística. Pueden caracterizarse por tasas de disparo, en lugar de secuencias de picos específicas. En la mayoría de los sistemas sensoriales, la frecuencia de disparo aumenta, generalmente de forma no lineal, al aumentar la intensidad del estímulo. [15] Bajo un supuesto de codificación de velocidad, se ignora cualquier información posiblemente codificada en la estructura temporal del tren de picos. En consecuencia, la codificación de velocidad es ineficaz pero muy robusta con respecto al " ruido " ISI . [6]
Durante la codificación de velocidad, es muy importante calcular con precisión la velocidad de disparo. De hecho, el término "tasa de activación" tiene algunas definiciones diferentes, que se refieren a diferentes procedimientos de promediado, como un promedio a lo largo del tiempo (tasa como un recuento de picos de una sola neurona) o un promedio en varias repeticiones (tasa de PSTH) de experimentar.
En la codificación de velocidad, el aprendizaje se basa en modificaciones de peso sináptico dependientes de la actividad.
La codificación de velocidad fue mostrada originalmente por ED Adrian e Y Zotterman en 1926. [16] En este sencillo experimento, se colgaron diferentes pesos de un músculo . A medida que aumentaba el peso del estímulo, también aumentaba el número de picos registrados por los nervios sensoriales que inervan el músculo. A partir de estos experimentos originales, Adrian y Zotterman concluyeron que los potenciales de acción eran eventos unitarios y que la frecuencia de los eventos, y no la magnitud de los eventos individuales, era la base de la mayor parte de la comunicación interneuronal.
En las décadas siguientes, la medición de las tasas de activación se convirtió en una herramienta estándar para describir las propiedades de todos los tipos de neuronas sensoriales o corticales , en parte debido a la relativa facilidad de medir las tasas de manera experimental. Sin embargo, este enfoque ignora toda la información posiblemente contenida en el momento exacto de los picos. Durante los últimos años, más y más evidencia experimental ha sugerido que un concepto sencillo de tasa de disparo basado en el promedio temporal puede ser demasiado simplista para describir la actividad cerebral. [6]
Tasa de recuento de picos (promedio a lo largo del tiempo)
La tasa de recuento de picos, también conocida como promedio temporal, se obtiene contando el número de picos que aparecen durante una prueba y dividiendo por la duración de la prueba. [14] La duración T de la ventana de tiempo la establece el experimentador y depende del tipo de neurona registrada desde y hacia el estímulo. En la práctica, para obtener promedios razonables, deben ocurrir varios picos dentro de la ventana de tiempo. Los valores típicos son T = 100 ms o T = 500 ms, pero la duración también puede ser más larga o más corta ( Capítulo 1.5 del libro de texto 'Modelos de neuronas punzantes' [14] ).
La tasa de recuento de picos se puede determinar a partir de una única prueba, pero a expensas de perder toda la resolución temporal sobre las variaciones en la respuesta neuronal durante el curso de la prueba. El promedio temporal puede funcionar bien en los casos en que el estímulo es constante o varía lentamente y no requiere una reacción rápida del organismo , y esta es la situación que generalmente se encuentra en los protocolos experimentales. La entrada del mundo real, sin embargo, apenas es estacionaria, pero a menudo cambia en una escala de tiempo rápida. Por ejemplo, incluso al ver una imagen estática, los humanos realizan movimientos sacádicos , cambios rápidos de la dirección de la mirada. La imagen proyectada en los fotorreceptores retinianos cambia, por lo tanto, cada pocos cientos de milisegundos ( Capítulo 1.5 en [14] ).
A pesar de sus deficiencias, el concepto de código de tasa de recuento de picos se usa ampliamente no solo en experimentos, sino también en modelos de redes neuronales . Ha llevado a la idea de que una neurona transforma la información sobre una única variable de entrada (la fuerza del estímulo) en una única variable de salida continua (la tasa de activación).
Existe un creciente cuerpo de evidencia de que en las neuronas de Purkinje , al menos, la información no se codifica simplemente en la activación, sino también en el momento y la duración de los períodos inactivos sin activación. [17] [18] También hay evidencia de las células de la retina, que la información está codificada no solo en la tasa de disparo sino también en la sincronización de los picos. [19] De manera más general, siempre que se requiera una respuesta rápida de un organismo, una tasa de disparo definida como un recuento de picos de unos pocos cientos de milisegundos es simplemente demasiado lenta. [14]
Tasa de disparo dependiente del tiempo (promediando en varias pruebas)
La tasa de disparo dependiente del tiempo se define como el número promedio de picos (promediado durante las pruebas) que aparecen durante un intervalo corto entre los tiempos t y t + Δt, dividido por la duración del intervalo. [14] Funciona tanto para estímulos estacionarios como para estímulos dependientes del tiempo. Para medir experimentalmente la tasa de disparo dependiente del tiempo, el experimentador graba desde una neurona mientras estimula con alguna secuencia de entrada. La misma secuencia de estimulación se repite varias veces y la respuesta neuronal se informa en un Histograma de Peri-Estímulo-Tiempo (PSTH). El tiempo t se mide con respecto al inicio de la secuencia de estimulación. El Δt debe ser lo suficientemente grande (típicamente en el rango de uno o algunos milisegundos) para que haya un número suficiente de picos dentro del intervalo para obtener una estimación confiable del promedio. El número de ocurrencias de picos n K (t; t + Δt) sumado sobre todas las repeticiones del experimento dividido por el número K de repeticiones es una medida de la actividad típica de la neurona entre el tiempo t y t + Δt. Una división adicional por la longitud del intervalo Δt produce una tasa de activación dependiente del tiempo r (t) de la neurona, que es equivalente a la densidad de picos de PSTH ( capítulo 1.5 en [14] ).
Para Δt suficientemente pequeño, r (t) Δt es el número promedio de picos que ocurren entre los tiempos t y t + Δt en múltiples ensayos. Si Δt es pequeño, nunca habrá más de un pico dentro del intervalo entre t y t + Δt en cualquier ensayo dado. Esto significa que r (t) Δt es también la fracción de ensayos en los que se produjo un pico entre esos momentos. De manera equivalente, r (t) Δt es la probabilidad de que ocurra un pico durante este intervalo de tiempo.
Como procedimiento experimental, la medida de la tasa de activación dependiente del tiempo es un método útil para evaluar la actividad neuronal, en particular en el caso de estímulos dependientes del tiempo. El problema obvio con este enfoque es que no puede ser el esquema de codificación utilizado por las neuronas en el cerebro. Las neuronas no pueden esperar a que los estímulos se presenten repetidamente de la misma manera antes de generar una respuesta. [14]
No obstante, la medida experimental de la tasa de activación dependiente del tiempo puede tener sentido si hay grandes poblaciones de neuronas independientes que reciben el mismo estímulo. En lugar de registrar a partir de una población de N neuronas en una sola corrida, es experimentalmente más fácil registrar desde una sola neurona y promediar sobre N corridas repetidas. Por tanto, la codificación de la tasa de activación dependiente del tiempo se basa en la suposición implícita de que siempre hay poblaciones de neuronas.
Codificación temporal
Cuando se descubre que la sincronización precisa de los picos o las fluctuaciones de la velocidad de disparo de alta frecuencia transportan información, el código neuronal a menudo se identifica como un código temporal. [14] [20] Varios estudios han encontrado que la resolución temporal del código neuronal está en una escala de tiempo de milisegundos, lo que indica que la sincronización precisa de los picos es un elemento significativo en la codificación neuronal. [3] [21] [19] Estos códigos, que se comunican a través del tiempo entre picos, también se denominan códigos de intervalo entre pulsos y han sido respaldados por estudios recientes. [22]
Las neuronas exhiben fluctuaciones de alta frecuencia de tasas de disparo que podrían ser ruido o podrían transportar información. Los modelos de codificación de velocidad sugieren que estas irregularidades son ruido, mientras que los modelos de codificación temporal sugieren que codifican información. Si el sistema nervioso solo usara códigos de frecuencia para transmitir información, una frecuencia de disparo regular más consistente habría sido evolutivamente ventajosa, y las neuronas habrían utilizado este código sobre otras opciones menos robustas. [23] La codificación temporal proporciona una explicación alternativa para el "ruido", lo que sugiere que en realidad codifica información y afecta el procesamiento neuronal. Para modelar esta idea, se pueden usar símbolos binarios para marcar los picos: 1 para un pico, 0 para ningún pico . La codificación temporal permite que la secuencia 000111000111 signifique algo diferente de 001100110011, aunque la tasa de disparo media es la misma para ambas secuencias, a 6 picos / 10 ms. [24] Hasta hace poco, los científicos habían puesto el mayor énfasis en la codificación de tasa como una explicación para los patrones potenciales postsinápticos . Sin embargo, las funciones del cerebro son temporalmente más precisas de lo que parece permitir el uso de solo la codificación de velocidad. [19] En otras palabras, la información esencial podría perderse debido a la incapacidad del código de velocidad para capturar toda la información disponible del tren de picos. Además, las respuestas son lo suficientemente diferentes entre estímulos similares (pero no idénticos) para sugerir que los distintos patrones de picos contienen un mayor volumen de información n de lo que es posible incluir en un código de tarifa. [25]
Los códigos temporales (también llamados códigos de picos [14] ), emplean aquellas características de la actividad de picos que no pueden ser descritas por la tasa de disparo. Por ejemplo, el tiempo hasta el primer pico después del inicio del estímulo, la fase de disparo con respecto a las oscilaciones de fondo, las características basadas en el segundo y más alto momento estadístico de la distribución de probabilidad ISI , la aleatoriedad de los picos o grupos de picos cronometrados con precisión. ( patrones temporales ) son candidatos a códigos temporales. [26] Como no existe una referencia de tiempo absoluta en el sistema nervioso, la información se transmite en términos de la sincronización relativa de los picos en una población de neuronas (patrones temporales) o con respecto a una oscilación cerebral en curso . (fase de disparo) [3] [6] Una forma en que se decodifican los códigos temporales, en presencia de oscilaciones neurales , es que los picos que ocurren en fases específicas de un ciclo oscilatorio son más efectivos para despolarizar la neurona postsináptica . [27]
La estructura temporal de un tren de picos o tasa de disparo evocada por un estímulo está determinada tanto por la dinámica del estímulo como por la naturaleza del proceso de codificación neuronal. Los estímulos que cambian rápidamente tienden a generar picos cronometrados con precisión [28] (y tasas de activación que cambian rápidamente en los PSTH) sin importar qué estrategia de codificación neuronal se esté utilizando. La codificación temporal en sentido estricto se refiere a la precisión temporal en la respuesta que no surge únicamente de la dinámica del estímulo, sino que, sin embargo, se relaciona con las propiedades del estímulo. La interacción entre el estímulo y la dinámica de codificación dificulta la identificación de un código temporal.
En la codificación temporal, el aprendizaje se puede explicar mediante modificaciones de retardo sináptico dependientes de la actividad. [29] Las modificaciones pueden depender en sí mismas no sólo de las tasas de picos (codificación de la tasa) sino también de los patrones de sincronización de los picos (codificación temporal), es decir, pueden ser un caso especial de plasticidad dependiente de la sincronización de los picos . [30]
La cuestión de la codificación temporal es distinta e independiente de la cuestión de la codificación de picos independientes. Si cada pico es independiente de todos los demás picos del tren, el carácter temporal del código neuronal está determinado por el comportamiento de la velocidad de disparo r (t) dependiente del tiempo. Si r (t) varía lentamente con el tiempo, el código generalmente se denomina código de tasa, y si varía rápidamente, el código se denomina temporal.
Codificación temporal en sistemas sensoriales
Para estímulos muy breves, es posible que la velocidad máxima de activación de una neurona no sea lo suficientemente rápida como para producir más de un pico. Debido a la densidad de información sobre el estímulo abreviado contenida en este único pico, parecería que el momento del pico en sí tendría que transmitir más información que simplemente la frecuencia promedio de los potenciales de acción durante un período de tiempo determinado. Este modelo es especialmente importante para la localización del sonido , que ocurre dentro del cerebro en el orden de milisegundos. El cerebro debe obtener una gran cantidad de información basada en una respuesta neuronal relativamente corta. Además, si las tasas de activación bajas del orden de diez picos por segundo deben distinguirse de la codificación de tasas arbitrariamente cercanas para diferentes estímulos, entonces una neurona que intente discriminar estos dos estímulos puede necesitar esperar un segundo o más para acumular suficiente información. Esto no es consistente con numerosos organismos que pueden discriminar entre estímulos en el marco de tiempo de milisegundos, lo que sugiere que un código de velocidad no es el único modelo en funcionamiento. [24]
Para tener en cuenta la codificación rápida de los estímulos visuales, se ha sugerido que las neuronas de la retina codifican información visual en el tiempo de latencia entre el inicio del estímulo y el primer potencial de acción, también llamado latencia hasta el primer pico o tiempo hasta el primer pico. [31] Este tipo de codificación temporal se ha demostrado también en el sistema auditivo y somatosensorial. El principal inconveniente de tal esquema de codificación es su sensibilidad a las fluctuaciones neuronales intrínsecas. [32] En la corteza visual primaria de los macacos, se encontró que el momento del primer pico en relación con el inicio del estímulo proporciona más información que el intervalo entre picos. Sin embargo, el intervalo entre picos podría usarse para codificar información adicional, lo cual es especialmente importante cuando la tasa de picos alcanza su límite, como en situaciones de alto contraste. Por esta razón, la codificación temporal puede desempeñar un papel en la codificación de bordes definidos en lugar de transiciones graduales. [33]
El sistema gustativo de los mamíferos es útil para estudiar la codificación temporal debido a sus estímulos bastante distintos y las respuestas fácilmente discernibles del organismo. [34] La información codificada temporalmente puede ayudar a un organismo a discriminar entre diferentes saborizantes de la misma categoría (dulce, amargo, ácido, salado, umami) que provocan respuestas muy similares en términos de recuento de picos. El componente temporal del patrón provocado por cada saborizante puede usarse para determinar su identidad (por ejemplo, la diferencia entre dos saborizantes amargos, como la quinina y el denatonio). De esta manera, tanto la codificación de velocidad como la codificación temporal pueden usarse en el sistema gustativo: velocidad para el tipo de sabor básico, temporal para una diferenciación más específica. [35] La investigación sobre el sistema gustativo de los mamíferos ha demostrado que existe una abundancia de información presente en los patrones temporales de las poblaciones de neuronas, y esta información es diferente de la que se determina mediante los esquemas de codificación de velocidad. Los grupos de neuronas pueden sincronizarse en respuesta a un estímulo. En estudios que se ocupan de la porción cortical frontal del cerebro en primates, se encontraron patrones precisos con escalas de tiempo cortas de solo unos pocos milisegundos de duración en pequeñas poblaciones de neuronas que se correlacionaron con ciertos comportamientos de procesamiento de información. Sin embargo, se pudo determinar poca información a partir de los patrones; una posible teoría es que representaron el procesamiento de orden superior que tiene lugar en el cerebro. [25]
Al igual que con el sistema visual, en las células mitrales / con mechones en el bulbo olfatorio de los ratones, la latencia del primer pico en relación con el inicio de una acción de olfateo parecía codificar gran parte de la información sobre un olor. Esta estrategia de utilizar latencia de picos permite una rápida identificación y reacción a un olor. Además, algunas células mitrales / en penacho tienen patrones de activación específicos para determinados olores. Este tipo de información adicional podría ayudar a reconocer cierto olor, pero no es completamente necesario, ya que el recuento promedio de picos en el transcurso del olfato del animal también fue un buen identificador. [36] En la misma línea, los experimentos realizados con el sistema olfativo de los conejos mostraron patrones distintos que se correlacionaron con diferentes subconjuntos de odorantes, y se obtuvo un resultado similar en experimentos con el sistema olfativo de la langosta. [24]
Aplicaciones de codificación temporal
La especificidad de la codificación temporal requiere una tecnología altamente refinada para medir datos experimentales informativos y confiables. Los avances realizados en optogenética permiten a los neurólogos controlar picos en neuronas individuales, ofreciendo resolución eléctrica y espacial de una sola célula. Por ejemplo, la luz azul hace que la canalrodopsina del canal iónico activado por luz se abra, despolarizando la célula y produciendo un pico. Cuando la célula no detecta la luz azul, el canal se cierra y la neurona deja de generar picos. El patrón de los picos coincide con el patrón de los estímulos de luz azul. Al insertar secuencias de genes de canalrodopsina en el ADN del ratón, los investigadores pueden controlar los picos y, por lo tanto, ciertos comportamientos del ratón (por ejemplo, hacer que el ratón gire a la izquierda). [37] Los investigadores, a través de la optogenética, tienen las herramientas para efectuar diferentes códigos temporales en una neurona mientras mantienen la misma tasa de activación media y, por lo tanto, pueden probar si la codificación temporal ocurre o no en circuitos neuronales específicos. [38]
La tecnología optogenética también tiene el potencial de permitir la corrección de anomalías en picos en la raíz de varios trastornos neurológicos y psicológicos. [38] Si las neuronas codifican información en patrones de sincronización de picos individuales, las señales clave podrían perderse al intentar descifrar el código mientras se observan solo las tasas medias de activación. [24] Comprender cualquier aspecto codificado temporalmente del código neuronal y replicar estas secuencias en las neuronas podría permitir un mayor control y tratamiento de trastornos neurológicos como la depresión , la esquizofrenia y la enfermedad de Parkinson . La regulación de los intervalos de picos en células individuales controla con mayor precisión la actividad cerebral que la adición de agentes farmacológicos por vía intravenosa. [37]
Código de fase de disparo
El código de fase de disparo es un esquema de codificación neuronal que combina el código de recuento de picos con una referencia de tiempo basada en oscilaciones . Este tipo de código tiene en cuenta una etiqueta de tiempo para cada pico de acuerdo con una referencia de tiempo basada en la fase de las oscilaciones locales en curso a frecuencias bajas [39] o altas. [40]
Se ha demostrado que las neuronas en algunas áreas sensoriales corticales codifican ricos estímulos naturalistas en términos de sus tiempos de pico en relación con la fase de fluctuaciones oscilatorias de la red en curso, en lugar de solo en términos de su recuento de picos. [39] [41] Las señales de potencial del campo local reflejan las oscilaciones de la población (red). El código de fase de disparo a menudo se clasifica como un código temporal, aunque la etiqueta de tiempo utilizada para los picos (es decir, la fase de oscilación de la red) es una referencia de baja resolución (de grano grueso) para el tiempo. Como resultado, a menudo solo cuatro valores discretos para la fase son suficientes para representar todo el contenido de información en este tipo de código con respecto a la fase de oscilaciones en bajas frecuencias. El código de fase de disparo se basa libremente en los fenómenos de precesión de fase observados en las células del hipocampo . Otra característica de este código es que las neuronas se adhieren a un orden preferido de picos entre un grupo de neuronas sensoriales, lo que da como resultado una secuencia de disparo. [42]
Se ha demostrado que el código de fase en la corteza visual también implica oscilaciones de alta frecuencia . [42] Dentro de un ciclo de oscilación gamma, cada neurona tiene su propio tiempo de activación relativo preferido. Como resultado, toda una población de neuronas genera una secuencia de disparo que tiene una duración de hasta aproximadamente 15 ms. [42]
Codificación de población
La codificación de población es un método para representar estímulos utilizando las actividades conjuntas de varias neuronas. En la codificación de población, cada neurona tiene una distribución de respuestas sobre algún conjunto de entradas, y las respuestas de muchas neuronas pueden combinarse para determinar algún valor sobre las entradas. Desde el punto de vista teórico, la codificación de poblaciones es uno de los pocos problemas matemáticamente bien formulados en neurociencia. Comprende las características esenciales de la codificación neuronal y, sin embargo, es lo suficientemente simple para el análisis teórico. [43] Los estudios experimentales han revelado que este paradigma de codificación se utiliza ampliamente en las áreas motoras y sensoriales del cerebro.
Por ejemplo, en el área visual medial temporal (MT), las neuronas están sintonizadas en la dirección del movimiento. [44] En respuesta a un objeto que se mueve en una dirección particular, muchas neuronas en MT se disparan con un patrón de actividad en forma de campana y con ruido corrupto en toda la población. La dirección de movimiento del objeto se recupera de la actividad de la población, para ser inmune a la fluctuación existente en la señal de una sola neurona. Cuando se entrena a los monos para mover un joystick hacia un objetivo iluminado, una sola neurona se disparará para múltiples direcciones del objetivo. Sin embargo, dispara más rápido en una dirección y más lentamente, dependiendo de qué tan cerca esté el objetivo de la dirección "preferida" de la neurona. [45] [46] Si cada neurona representa un movimiento en su dirección preferida y se calcula la suma vectorial de todas las neuronas (cada neurona tiene una velocidad de disparo y una dirección preferida), la suma apunta en la dirección del movimiento. De esta manera, la población de neuronas codifica la señal del movimiento. [ cita requerida ] Este código de población en particular se conoce como codificación de vector de población .
Los códigos de población lugar-tiempo, denominados código de respuesta sincronizada localizada promediada (ALSR), se han derivado para la representación neuronal de los estímulos acústicos auditivos. Esto explota tanto el lugar o la sintonía dentro del nervio auditivo, así como el bloqueo de fase dentro de cada nervio auditivo de fibra nerviosa. La primera representación ALSR fue para vocales de estado estacionario; [47] Más tarde se demostraron representaciones ALSR de frecuencias de tono y formantes en estímulos complejos, en estado no estable, para tonos sonoros, [48] y representaciones de formantes en sílabas consonante-vocal. [49] La ventaja de tales representaciones es que las características globales, como el tono o los perfiles de transición de formantes, se pueden representar como características globales en todo el nervio simultáneamente a través de la codificación de velocidad y lugar.
La codificación de la población también tiene otras ventajas, incluida la reducción de la incertidumbre debido a la variabilidad neuronal y la capacidad de representar varios atributos de estímulo diferentes simultáneamente. La codificación de población también es mucho más rápida que la codificación de velocidad y puede reflejar cambios en las condiciones de estímulo casi instantáneamente. [50] Las neuronas individuales en una población de este tipo suelen tener selectividades diferentes pero superpuestas, de modo que muchas neuronas, pero no necesariamente todas, responden a un estímulo dado.
Normalmente, una función de codificación tiene un valor máximo de modo que la actividad de la neurona es máxima si el valor perceptual está cerca del valor máximo, y se reduce en consecuencia para valores menos cercanos al valor máximo. [ cita requerida ] Se deduce que el valor real percibido puede reconstruirse a partir del patrón general de actividad en el conjunto de neuronas. La codificación vectorial es un ejemplo de promediado simple. Una técnica matemática más sofisticada para realizar tal reconstrucción es el método de máxima verosimilitud basado en una distribución multivariante de las respuestas neuronales. Estos modelos pueden asumir independencia, correlaciones de segundo orden, [51] o incluso dependencias más detalladas como modelos de entropía máxima de orden superior , [52] o cópulas . [53]
Codificación de correlación
El modelo de codificación de correlación de la activación neuronal afirma que las correlaciones entre los potenciales de acción , o "picos", dentro de un tren de picos pueden llevar información adicional más allá de la simple sincronización de los picos. Los primeros trabajos sugirieron que la correlación entre los trenes de picos solo puede reducir, y nunca aumentar, la información mutua total presente en los dos trenes de picos sobre una característica de estímulo. [54] Sin embargo, más tarde se demostró que esto era incorrecto. La estructura de correlación puede aumentar el contenido de la información si las correlaciones de ruido y señal son de signo opuesto. [55] Las correlaciones también pueden llevar información que no está presente en la tasa de activación promedio de dos pares de neuronas. Un buen ejemplo de esto existe en la corteza auditiva del tití anestesiado con pentobarbital, en el que un tono puro provoca un aumento en el número de picos correlacionados, pero no un aumento en la tasa de activación media, de pares de neuronas. [56]
Codificación de picos independientes
El modelo de codificación de picos independientes de activación neuronal afirma que cada potencial de acción individual , o "pico", es independiente entre sí dentro del tren de picos . [57] [58]
Codificación de posición
Un código de población típico involucra neuronas con una curva de sintonía gaussiana cuyas medias varían linealmente con la intensidad del estímulo, lo que significa que la neurona responde con más fuerza (en términos de picos por segundo) a un estímulo cercano a la media. La intensidad real podría recuperarse como el nivel de estímulo correspondiente a la media de la neurona con mayor respuesta. Sin embargo, el ruido inherente a las respuestas neuronales significa que una función de estimación de máxima verosimilitud es más precisa.
Este tipo de código se utiliza para codificar variables continuas como la posición de la articulación, la posición de los ojos, el color o la frecuencia del sonido. Cualquier neurona individual es demasiado ruidosa para codificar fielmente la variable utilizando la codificación de velocidad, pero una población completa garantiza una mayor fidelidad y precisión. Para una población de curvas de sintonización unimodales, es decir, con un solo pico, la precisión suele escalar linealmente con el número de neuronas. Por lo tanto, para la mitad de precisión, se requieren la mitad de neuronas. Por el contrario, cuando las curvas de sintonía tienen múltiples picos, como en las celdas de la cuadrícula que representan el espacio, la precisión de la población puede escalar exponencialmente con el número de neuronas. Esto reduce en gran medida el número de neuronas necesarias para la misma precisión. [59]
Codificación escasa
El código escaso es cuando cada elemento está codificado por la fuerte activación de un conjunto relativamente pequeño de neuronas. Para cada elemento a codificar, este es un subconjunto diferente de todas las neuronas disponibles. A diferencia de la codificación de sensores dispersos, la codificación densa de sensores implica que se conoce toda la información de las posibles ubicaciones de los sensores.
Como consecuencia, la escasez puede centrarse en la escasez temporal ("un número relativamente pequeño de períodos de tiempo están activos") o en la escasez en una población activada de neuronas. En este último caso, esto puede definirse en un período de tiempo como el número de neuronas activadas en relación con el número total de neuronas en la población. Esto parece ser un sello distintivo de los cálculos neuronales ya que, en comparación con las computadoras tradicionales, la información se distribuye masivamente entre las neuronas. La codificación escasa de imágenes naturales produce filtros orientados en forma de ondas que se asemejan a los campos receptivos de células simples en la corteza visual. [60] La capacidad de los códigos dispersos puede aumentarse mediante el uso simultáneo de codificación temporal, como se encuentra en el sistema olfativo de la langosta. [61]
Dado un conjunto potencialmente grande de patrones de entrada, los algoritmos de codificación dispersos (por ejemplo, el codificador automático disperso ) intentan encontrar automáticamente un pequeño número de patrones representativos que, cuando se combinan en las proporciones correctas, reproducen los patrones de entrada originales. La codificación escasa para la entrada consiste entonces en esos patrones representativos. Por ejemplo, el conjunto muy grande de oraciones en inglés se puede codificar con una pequeña cantidad de símbolos (es decir, letras, números, puntuación y espacios) combinados en un orden particular para una oración en particular, por lo que una codificación escasa para el inglés sería la símbolos.
Modelo generativo lineal
La mayoría de los modelos de codificación escasa se basan en el modelo generativo lineal. [62] En este modelo, los símbolos se combinan de forma lineal para aproximar la entrada.
Más formalmente, dado un conjunto k-dimensional de vectores de entrada numerados reales , el objetivo de la codificación dispersa es determinar n vectores de base k-dimensionales junto con un vector escaso n-dimensional de pesos o coeficientes para cada vector de entrada, de modo que una combinación lineal de los vectores base con proporciones dadas por los coeficientes da como resultado una aproximación cercana al vector de entrada: . [63]
Las codificaciones generadas por algoritmos que implementan un modelo generativo lineal se pueden clasificar en codificaciones con escasez blanda y aquellas con escasez dura . [62] Se refieren a la distribución de los coeficientes del vector base para las entradas típicas. Una codificación con escasez suave tiene una distribución suave similar a la de Gauss , pero más pico que la gaussiana, con muchos valores cero, algunos valores absolutos pequeños, menos valores absolutos más grandes y muy pocos valores absolutos muy grandes. Por tanto, muchos de los vectores básicos están activos. La escasez dura, por otro lado, indica que hay muchos valores cero, ningún valor absoluto pequeño o casi ningún valor absoluto pequeño, menos valores absolutos más grandes y muy pocos valores absolutos muy grandes y, por lo tanto, pocos de los vectores básicos están activos. Esto es atractivo desde una perspectiva metabólica: se utiliza menos energía cuando se activan menos neuronas. [62]
Another measure of coding is whether it is critically complete or overcomplete. If the number of basis vectors n is equal to the dimensionality k of the input set, the coding is said to be critically complete. In this case, smooth changes in the input vector result in abrupt changes in the coefficients, and the coding is not able to gracefully handle small scalings, small translations, or noise in the inputs. If, however, the number of basis vectors is larger than the dimensionality of the input set, the coding is overcomplete. Overcomplete codings smoothly interpolate between input vectors and are robust under input noise.[64] The human primary visual cortex is estimated to be overcomplete by a factor of 500, so that, for example, a 14 x 14 patch of input (a 196-dimensional space) is coded by roughly 100,000 neurons.[62]
Other models are based on matching pursuit, a sparse approximation algorithm which finds the "best matching" projections of multidimensional data, and dictionary learning, a representation learning method which aims to find a sparse matrix representation of the input data in the form of a linear combination of basic elements as well as those basic elements themselves.[65][66][67]
Biological evidence
Sparse coding may be a general strategy of neural systems to augment memory capacity. To adapt to their environments, animals must learn which stimuli are associated with rewards or punishments and distinguish these reinforced stimuli from similar but irrelevant ones. Such tasks require implementing stimulus-specific associative memories in which only a few neurons out of a population respond to any given stimulus and each neuron responds to only a few stimuli out of all possible stimuli.
Theoretical work on sparse distributed memory has suggested that sparse coding increases the capacity of associative memory by reducing overlap between representations.[68] Experimentally, sparse representations of sensory information have been observed in many systems, including vision,[69] audition,[70] touch,[71] and olfaction.[72] However, despite the accumulating evidence for widespread sparse coding and theoretical arguments for its importance, a demonstration that sparse coding improves the stimulus-specificity of associative memory has been difficult to obtain.
In the Drosophila olfactory system, sparse odor coding by the Kenyon cells of the mushroom body is thought to generate a large number of precisely addressable locations for the storage of odor-specific memories.[73] Sparseness is controlled by a negative feedback circuit between Kenyon cells and GABAergic anterior paired lateral (APL) neurons. Systematic activation and blockade of each leg of this feedback circuit shows that Kenyon cells activate APL neurons and APL neurons inhibit Kenyon cells. Disrupting the Kenyon cell–APL feedback loop decreases the sparseness of Kenyon cell odor responses, increases inter-odor correlations, and prevents flies from learning to discriminate similar, but not dissimilar, odors. These results suggest that feedback inhibition suppresses Kenyon cell activity to maintain sparse, decorrelated odor coding and thus the odor-specificity of memories.[74]
Ver también
- Artificial neural network
- Autoencoder
- Biological neuron model
- Binding problem
- Cognitive map
- Deep learning
- Feature integration theory
- Grandmother cell
- Models of neural computation
- Neural correlate
- Neural decoding
- Neural oscillation
- Sparse distributed memory
- Vector quantization
Referencias
- ^ Brown EN, Kass RE, Mitra PP (May 2004). "Multiple neural spike train data analysis: state-of-the-art and future challenges". Nat. Neurosci. 7 (5): 456–61. doi:10.1038/nn1228. PMID 15114358.
- ^ Johnson, K. O. (June 2000). "Neural coding". Neuron. 26 (3): 563–566. doi:10.1016/S0896-6273(00)81193-9. ISSN 0896-6273. PMID 10896153.
- ^ a b c Thorpe, S.J. (1990). "Spike arrival times: A highly efficient coding scheme for neural networks". In Eckmiller, R.; Hartmann, G.; Hauske, G. (eds.). Parallel processing in neural systems and computers (PDF). North-Holland. pp. 91–94. ISBN 978-0-444-88390-2.
- ^ Sengupta B, Laughlin SB, Niven JE (2014) Consequences of Converting Graded to Action Potentials upon Neural Information Coding and Energy Efficiency. PLOS Computational Biology 10(1): e1003439. https://doi.org/10.1371/journal.pcbi.1003439
- ^ Gerstner, Wulfram; Kistler, Werner M. (2002). Spiking Neuron Models: Single Neurons, Populations, Plasticity. Cambridge University Press. ISBN 978-0-521-89079-3.
- ^ a b c d Stein RB, Gossen ER, Jones KE (May 2005). "Neuronal variability: noise or part of the signal?". Nat. Rev. Neurosci. 6 (5): 389–97. doi:10.1038/nrn1668. PMID 15861181.
- ^ The Memory Code. http://www.scientificamerican.com/article/the-memory-code/
- ^ Chen, G; Wang, LP; Tsien, JZ (2009). "Neural population-level memory traces in the mouse hippocampus". PLOS One. 4 (12): e8256. Bibcode:2009PLoSO...4.8256C. doi:10.1371/journal.pone.0008256. PMC 2788416. PMID 20016843.
- ^ Zhang, H; Chen, G; Kuang, H; Tsien, JZ (Nov 2013). "Mapping and deciphering neural codes of NMDA receptor-dependent fear memory engrams in the hippocampus". PLOS One. 8 (11): e79454. Bibcode:2013PLoSO...879454Z. doi:10.1371/journal.pone.0079454. PMC 3841182. PMID 24302990.
- ^ Brain Decoding Project. http://braindecodingproject.org/
- ^ The Simons Collaboration on the Global Brain. https://www.simonsfoundation.org/life-sciences/simons-collaboration-global-brain/
- ^ Burcas G.T & Albright T.D. Gauging sensory representations in the brain. http://www.vcl.salk.edu/Publications/PDF/Buracas_Albright_1999_TINS.pdf
- ^ Gerstner W, Kreiter AK, Markram H, Herz AV (November 1997). "Neural codes: firing rates and beyond". Proc. Natl. Acad. Sci. U.S.A. 94 (24): 12740–1. Bibcode:1997PNAS...9412740G. doi:10.1073/pnas.94.24.12740. PMC 34168. PMID 9398065.
- ^ a b c d e f g h i j Gerstner, Wulfram. (2002). Spiking neuron models : single neurons, populations, plasticity. Kistler, Werner M., 1969-. Cambridge, U.K.: Cambridge University Press. ISBN 0-511-07817-X. OCLC 57417395.
- ^ Kandel, E.; Schwartz, J.; Jessel, T.M. (1991). Principles of Neural Science (3rd ed.). Elsevier. ISBN 978-0444015624.
- ^ Adrian ED, Zotterman Y (1926). "The impulses produced by sensory nerve endings: Part II: The response of a single end organ". J Physiol. 61 (2): 151–171. doi:10.1113/jphysiol.1926.sp002281. PMC 1514782. PMID 16993780.
- ^ Forrest MD (2014). "Intracellular Calcium Dynamics Permit a Purkinje Neuron Model to Perform Toggle and Gain Computations Upon its Inputs". Frontiers in Computational Neuroscience. 8: 86. doi:10.3389/fncom.2014.00086. PMC 4138505. PMID 25191262.
- ^ Forrest MD (December 2014). "The sodium-potassium pump is an information processing element in brain computation". Frontiers in Physiology. 5 (472): 472. doi:10.3389/fphys.2014.00472. PMC 4274886. PMID 25566080.
- ^ a b c Gollisch, T.; Meister, M. (2008-02-22). "Rapid Neural Coding in the Retina with Relative Spike Latencies". Science. 319 (5866): 1108–1111. doi:10.1126/science.1149639. ISSN 0036-8075.
- ^ Dayan, Peter; Abbott, L. F. (2001). Theoretical Neuroscience: Computational and Mathematical Modeling of Neural Systems. Massachusetts Institute of Technology Press. ISBN 978-0-262-04199-7.
- ^ Butts DA, Weng C, Jin J, et al. (September 2007). "Temporal precision in the neural code and the timescales of natural vision". Nature. 449 (7158): 92–5. Bibcode:2007Natur.449...92B. doi:10.1038/nature06105. PMID 17805296.
- ^ Singh & Levy, "A consensus layer V pyramidal neuron can sustain interpulse-interval coding ", PLoS ONE, 2017
- ^ J. Leo van Hemmen, TJ Sejnowski. 23 Problems in Systems Neuroscience. Oxford Univ. Press, 2006. p.143-158.
- ^ a b c d Theunissen, F; Miller, JP (1995). "Temporal Encoding in Nervous Systems: A Rigorous Definition". Journal of Computational Neuroscience. 2 (2): 149–162. doi:10.1007/bf00961885. PMID 8521284.
- ^ a b Zador, Stevens, Charles, Anthony. "The enigma of the brain". © Current Biology 1995, Vol 5 No 12. Retrieved August 4, 2012.
- ^ Kostal L, Lansky P, Rospars JP (November 2007). "Neuronal coding and spiking randomness". Eur. J. Neurosci. 26 (10): 2693–701. doi:10.1111/j.1460-9568.2007.05880.x. PMID 18001270.
- ^ Gupta, Nitin; Singh, Swikriti Saran; Stopfer, Mark (2016-12-15). "Oscillatory integration windows in neurons". Nature Communications. 7: 13808. Bibcode:2016NatCo...713808G. doi:10.1038/ncomms13808. ISSN 2041-1723. PMC 5171764. PMID 27976720.
- ^ Jolivet, Renaud; Rauch, Alexander; Lüscher, Hans-Rudolf; Gerstner, Wulfram (2006-08-01). "Predicting spike timing of neocortical pyramidal neurons by simple threshold models". Journal of Computational Neuroscience. 21 (1): 35–49. doi:10.1007/s10827-006-7074-5. ISSN 1573-6873.
- ^ Geoffrois, E.; Edeline, J.M.; Vibert, J.F. (1994). "Learning by Delay Modifications". In Eeckman, Frank H. (ed.). Computation in Neurons and Neural Systems. Springer. pp. 133–8. ISBN 978-0-7923-9465-5.
- ^ Sjöström, Jesper, and Wulfram Gerstner. "Spike-timing dependent plasticity." Spike-timing dependent plasticity 35 (2010).
- ^ Gollisch, T.; Meister, M. (22 February 2008). "Rapid Neural Coding in the Retina with Relative Spike Latencies". Science. 319 (5866): 1108–1111. Bibcode:2008Sci...319.1108G. doi:10.1126/science.1149639. PMID 18292344.
- ^ Wainrib, Gilles; Michèle, Thieullen; Khashayar, Pakdaman (7 April 2010). "Intrinsic variability of latency to first-spike". Biological Cybernetics. 103 (1): 43–56. doi:10.1007/s00422-010-0384-8. PMID 20372920.
- ^ Victor, Johnathan D (2005). "Spike train metrics". Current Opinion in Neurobiology. 15 (5): 585–592. doi:10.1016/j.conb.2005.08.002. PMC 2713191. PMID 16140522.
- ^ Hallock, Robert M.; Di Lorenzo, Patricia M. (2006). "Temporal coding in the gustatory system". Neuroscience & Biobehavioral Reviews. 30 (8): 1145–1160. doi:10.1016/j.neubiorev.2006.07.005. PMID 16979239.
- ^ Carleton, Alan; Accolla, Riccardo; Simon, Sidney A. (2010). "Coding in the mammalian gustatory system". Trends in Neurosciences. 33 (7): 326–334. doi:10.1016/j.tins.2010.04.002. PMC 2902637. PMID 20493563.
- ^ Wilson, Rachel I (2008). "Neural and behavioral mechanisms of olfactory perception". Current Opinion in Neurobiology. 18 (4): 408–412. doi:10.1016/j.conb.2008.08.015. PMC 2596880. PMID 18809492.
- ^ a b Karl Diesseroth, Lecture. "Personal Growth Series: Karl Diesseroth on Cracking the Neural Code." Google Tech Talks. November 21, 2008. https://www.youtube.com/watch?v=5SLdSbp6VjM
- ^ a b Han X, Qian X, Stern P, Chuong AS, Boyden ES. "Informational lesions: optical perturbations of spike timing and neural synchrony via microbial opsin gene fusions." Cambridge, Massachusetts: MIT Media Lad, 2009.
- ^ a b Montemurro, Marcelo A.; Rasch, Malte J.; Murayama, Yusuke; Logothetis, Nikos K.; Panzeri, Stefano (2008). "Phase-of-Firing Coding of Natural Visual Stimuli in Primary Visual Cortex". Current Biology. 18 (5): 375–380. doi:10.1016/j.cub.2008.02.023. PMID 18328702.
- ^ Fries P, Nikolić D, Singer W (July 2007). "The gamma cycle". Trends Neurosci. 30 (7): 309–16. doi:10.1016/j.tins.2007.05.005. PMID 17555828.
- ^ Spike arrival times: A highly efficient coding scheme for neural networks Archived 2012-02-15 at the Wayback Machine, SJ Thorpe - Parallel processing in neural systems, 1990
- ^ a b c Havenith MN, Yu S, Biederlack J, Chen NH, Singer W, Nikolić D (June 2011). "Synchrony makes neurons fire in sequence, and stimulus properties determine who is ahead". J. Neurosci. 31 (23): 8570–84. doi:10.1523/JNEUROSCI.2817-10.2011. PMC 6623348. PMID 21653861.
- ^ Wu S, Amari S, Nakahara H (May 2002). "Population coding and decoding in a neural field: a computational study". Neural Comput. 14 (5): 999–1026. doi:10.1162/089976602753633367. PMID 11972905.
- ^ Maunsell JH, Van Essen DC (May 1983). "Functional properties of neurons in middle temporal visual area of the macaque monkey. I. Selectivity for stimulus direction, speed, and orientation". J. Neurophysiol. 49 (5): 1127–47. doi:10.1152/jn.1983.49.5.1127. PMID 6864242.
- ^ "Intro to Sensory Motor Systems Ch. 38 page 766" (PDF).
- ^ Science. 1986 Sep 26;233(4771):1416-9
- ^ Sachs, Murray B.; Young, Eric D. (November 1979). "Representation of steady-state vowels in the temporal aspects of the discharge patterns of populations of auditory-nerve fibers". The Journal of the Acoustical Society of America. 66 (5): 1381–1403. Bibcode:1979ASAJ...66.1381Y. doi:10.1121/1.383532. PMID 500976.
- ^ Miller, M.I.; Sachs, M.B. (June 1984). "Representation of voice pitch in discharge patterns of auditory-nerve fibers". Hearing Research. 14 (3): 257–279. doi:10.1016/0378-5955(84)90054-6. PMID 6480513.
- ^ Miller, M.I.; Sachs, M.B. (1983). "Representation of stop consonants in the discharge patterns of auditory-nerve fibrers". The Journal of the Acoustical Society of America. 74 (2): 502–517. Bibcode:1983ASAJ...74..502M. doi:10.1121/1.389816. PMID 6619427.
- ^ Hubel DH, Wiesel TN (October 1959). "Receptive fields of single neurones in the cat's striate cortex". J. Physiol. 148 (3): 574–91. doi:10.1113/jphysiol.1959.sp006308. PMC 1363130. PMID 14403679.
- ^ Schneidman, E; Berry, MJ; Segev, R; Bialek, W (2006), "Weak Pairwise Correlations Imply Strongly Correlated Network States in a Neural Population", Nature, 440 (7087): 1007–1012, arXiv:q-bio/0512013, Bibcode:2006Natur.440.1007S, doi:10.1038/nature04701, PMC 1785327, PMID 16625187
- ^ Amari, SL (2001), "Information Geometry on Hierarchy of Probability Distributions", IEEE Transactions on Information Theory, 47 (5): 1701–1711, CiteSeerX 10.1.1.46.5226, doi:10.1109/18.930911
- ^ Onken, A; Grünewälder, S; Munk, MHJ; Obermayer, K (2009), "Analyzing Short-Term Noise Dependencies of Spike-Counts in Macaque Prefrontal Cortex Using Copulas and the Flashlight Transformation", PLOS Comput Biol, 5 (11): e1000577, Bibcode:2009PLSCB...5E0577O, doi:10.1371/journal.pcbi.1000577, PMC 2776173, PMID 19956759
- ^ Johnson, KO (Jun 1980). "Sensory discrimination: neural processes preceding discrimination decision". J Neurophysiol. 43 (6): 1793–815. doi:10.1152/jn.1980.43.6.1793. PMID 7411183.
- ^ Panzeri; Schultz; Treves; Rolls (1999). "Correlations and the encoding of information in the nervous system". Proc Biol Sci. 266 (1423): 1001–12. doi:10.1098/rspb.1999.0736. PMC 1689940. PMID 10610508.
- ^ Merzenich, MM (Jun 1996). "Primary cortical representation of sounds by the coordination of action-potential timing". Nature. 381 (6583): 610–3. Bibcode:1996Natur.381..610D. doi:10.1038/381610a0. PMID 8637597.
- ^ Dayan P & Abbott LF. Theoretical Neuroscience: Computational and Mathematical Modeling of Neural Systems. Cambridge, Massachusetts: The MIT Press; 2001. ISBN 0-262-04199-5
- ^ Rieke F, Warland D, de Ruyter van Steveninck R, Bialek W. Spikes: Exploring the Neural Code. Cambridge, Massachusetts: The MIT Press; 1999. ISBN 0-262-68108-0
- ^ Mathis A, Herz AV, Stemmler MB (July 2012). "Resolution of nested neuronal representations can be exponential in the number of neurons". Phys. Rev. Lett. 109 (1): 018103. Bibcode:2012PhRvL.109a8103M. doi:10.1103/PhysRevLett.109.018103. PMID 23031134.
- ^ Olshausen, Bruno A; Field, David J (1996). "Emergence of simple-cell receptive field properties by learning a sparse code for natural images" (PDF). Nature. 381 (6583): 607–609. Bibcode:1996Natur.381..607O. doi:10.1038/381607a0. PMID 8637596. Archived from the original (PDF) on 2015-11-23. Retrieved 2016-03-29.
- ^ Gupta, N; Stopfer, M (6 October 2014). "A temporal channel for information in sparse sensory coding". Current Biology. 24 (19): 2247–56. doi:10.1016/j.cub.2014.08.021. PMC 4189991. PMID 25264257.
- ^ a b c d Rehn, Martin; Sommer, Friedrich T. (2007). "A network that uses few active neurones to code visual input predicts the diverse shapes of cortical receptive fields" (PDF). Journal of Computational Neuroscience. 22 (2): 135–146. doi:10.1007/s10827-006-0003-9. PMID 17053994.
- ^ Lee, Honglak; Battle, Alexis; Raina, Rajat; Ng, Andrew Y. (2006). "Efficient sparse coding algorithms" (PDF). Advances in Neural Information Processing Systems.
- ^ Olshausen, Bruno A.; Field, David J. (1997). "Sparse Coding with an Overcomplete Basis Set: A Strategy Employed by V1?" (PDF). Vision Research. 37 (23): 3311–3325. doi:10.1016/s0042-6989(97)00169-7. PMID 9425546.
- ^ Zhang, Zhifeng; Mallat, Stephane G.; Davis, Geoffrey M. (July 1994). "Adaptive time-frequency decompositions". Optical Engineering. 33 (7): 2183–2192. Bibcode:1994OptEn..33.2183D. doi:10.1117/12.173207. ISSN 1560-2303.
- ^ Pati, Y. C.; Rezaiifar, R.; Krishnaprasad, P. S. (November 1993). Orthogonal matching pursuit: recursive function approximation with applications to wavelet decomposition. Proceedings of 27th Asilomar Conference on Signals, Systems and Computers. pp. 40–44 vol.1. CiteSeerX 10.1.1.348.5735. doi:10.1109/ACSSC.1993.342465. ISBN 978-0-8186-4120-6.
- ^ Needell, D.; Tropp, J.A. (2009-05-01). "CoSaMP: Iterative signal recovery from incomplete and inaccurate samples". Applied and Computational Harmonic Analysis. 26 (3): 301–321. arXiv:0803.2392. doi:10.1016/j.acha.2008.07.002. ISSN 1063-5203.
- ^ Kanerva, Pentti. Sparse distributed memory. MIT press, 1988
- ^ Vinje, WE; Gallant, JL (2000). "Sparse coding and decorrelation in primary visual cortex during natural vision". Science. 287 (5456): 1273–1276. Bibcode:2000Sci...287.1273V. CiteSeerX 10.1.1.456.2467. doi:10.1126/science.287.5456.1273. PMID 10678835.
- ^ Hromádka, T; Deweese, MR; Zador, AM (2008). "Sparse representation of sounds in the unanesthetized auditory cortex". PLOS Biol. 6 (1): e16. doi:10.1371/journal.pbio.0060016. PMC 2214813. PMID 18232737.
- ^ Crochet, S; Poulet, JFA; Kremer, Y; Petersen, CCH (2011). "Synaptic mechanisms underlying sparse coding of active touch". Neuron. 69 (6): 1160–1175. doi:10.1016/j.neuron.2011.02.022. PMID 21435560.
- ^ Ito, I; Ong, RCY; Raman, B; Stopfer, M (2008). "Sparse odor representation and olfactory learning". Nat Neurosci. 11 (10): 1177–1184. doi:10.1038/nn.2192. PMC 3124899. PMID 18794840.
- ^ A sparse memory is a precise memory. Oxford Science blog. 28 Feb 2014. http://www.ox.ac.uk/news/science-blog/sparse-memory-precise-memory
- ^ Lin, Andrew C., et al. "Sparse, decorrelated odor coding in the mushroom body enhances learned odor discrimination." Nature Neuroscience 17.4 (2014): 559-568.
Otras lecturas
- Földiák P, Endres D, Sparse coding, Scholarpedia, 3(1):2984, 2008.
- Dayan P & Abbott LF. Theoretical Neuroscience: Computational and Mathematical Modeling of Neural Systems. Cambridge, Massachusetts: The MIT Press; 2001. ISBN 0-262-04199-5
- Rieke F, Warland D, de Ruyter van Steveninck R, Bialek W. Spikes: Exploring the Neural Code. Cambridge, Massachusetts: The MIT Press; 1999. ISBN 0-262-68108-0
- Olshausen, B. A.; Field, D. J. (1996). "Emergence of simple-cell receptive field properties by learning a sparse code for natural images". Nature. 381 (6583): 607–9. Bibcode:1996Natur.381..607O. doi:10.1038/381607a0. PMID 8637596.
- Tsien, JZ.; et al. (2014). "On initial Brain Activity Mapping of episodic and semantic memory code in the hippocampus". Neurobiology of Learning and Memory. 105: 200–210. doi:10.1016/j.nlm.2013.06.019. PMC 3769419. PMID 23838072.