Cámara neuromórfica y aprendizaje automático ayudan en la creación de imágenes nanoscópicas (Instituto Indio de Ciencias)

En un nuevo estudio, investigadores del Instituto Indio de Ciencias (IISc por sus siglas en inglés) muestran cómo un sensor de imagen inspirado en el cerebro puede ir más allá del límite de difracción de la luz, para posibilitar la detección objetos minúsculos como componentes celulares o nanopartículas, invisibles para los microscopios actuales. Su novedosa técnica, que combina microscopía óptica con una cámara neuromórfica y algoritmos de aprendizaje automático, supone un gran paso hacia adelante en la localización de objetos de menos de 50 nanómetros de tamaño. Los resultados de la investigación se han publicado en Nature Nanotechnology.

Desde la invención de los microscopios ópticos, los científicos se han esforzado por superar una barrera llamada “límite de difracción”, según la cual el microscopio no puede distinguir entre dos objetos con un tamaño muy pequeño (típicamente inferior a 200-300 nanómetros).

Para superar esta limitación, los investigadores se han centrado principalmente en modificar las moléculas que se están fotografiando o en desarrollar mejores estrategias de iluminación, algunas de las cuales condujeron al Premio Nobel de Química de 2014. "Pero muy pocos han intentado usar el detector para tratar de superar este límite de detección", dice Deepak Nair, profesor asociado del Centro de Neurociencia (CNS), IISc, y co-autor del estudio.

Con unas medidas aproximadas de 40 mm (altura) por 60 mm (ancho) por 25 mm (diámetro), y un peso de alrededor de 100 gramos, la cámara neuromórfica utilizada en el estudio imita la forma en que la retina humana convierte la luz en impulsos eléctricos, y tiene varias ventajas sobre las cámaras convencionales. En una cámara típica, cada píxel captura la intensidad de la luz que cae sobre él durante el tiempo de exposición en que la cámara enfoca el objeto, y todos esos píxeles se agrupan para reconstruir una imagen del objeto.

En las cámaras neuromórficas, cada píxel funciona de forma independiente y asíncrona, generando eventos o picos solo cuando hay un cambio en la intensidad de la luz que cae sobre ese píxel. Esto genera una cantidad de datos escasa y menor en comparación con las cámaras tradicionales, que capturan cada valor de píxel a una velocidad fija, independientemente de si hay algún cambio en la escena.

Este funcionamiento de una cámara neuromórfica es similar a cómo funciona la retina humana, y permite a la cámara "muestrear" el entorno con una resolución temporal mucho más alta, ya que no está limitada por una ratio de velocidad de fotogramas como las cámaras normales, y también realizar la supresión de fondos.

"Estas cámaras neuromórficas disponen de un rango dinámico muy alto (>120 dB), lo que significa que pueden pasar de un entorno con muy poca luz a condiciones de elevada luminosidad. La combinación naturaleza asíncrona, alto rango dinámico, datos dispersos y alta resolución temporal de las cámaras neuromórficas las hace adecuadas para su uso en microscopía neuromórfica", explica Chetan Singh Thakur, profesor asistente en el Departamento de Ingeniería de Sistemas Electrónicos (DESE), IISc, y coautor.

En el estudio actual, el grupo utilizó su cámara neuromórfica para localizar con precisión cuentas fluorescentes individuales de un tamaño inferior al límite de difracción, haciendo brillar pulsos de láser a altas y bajas intensidades y midiendo la variación en los niveles de fluorescencia. A medida que aumenta la intensidad, la cámara captura la señal como un evento "ON", mientras que informa de un evento "OFF" cuando disminuye la intensidad de la luz. Los datos de estos eventos se agruparon para reconstruir marcos.

Para localizar con precisión las partículas fluorescentes dentro de los marcos, el equipo utilizó dos métodos. El primero fue un algoritmo de aprendizaje profundo, al que se entrenó con aproximadamente un millón y medio de simulaciones de imágenes que representaban de cerca los datos experimentales, para predecir dónde podría estar el centroide del objeto, explica Rohit Mangalwedhekar, ex becario de investigación en CNS y autor principal del estudio. También se utilizó un algoritmo de segmentación wavelet para determinar los centroides de las partículas de los eventos ON y OFF por separado. La combinación de las predicciones de ambos permitió al equipo identificar la ubicación del objeto con mayor precisión que las técnicas existentes.

"En procesos biológicos como la autoorganización, hay moléculas que alternan entre movimiento aleatorio o dirigido, o que están inmovilizadas", explica Nair. "Por lo tanto, es necesario tener la capacidad de localizar el centro de esta molécula con la mayor precisión posible para que podamos entender las reglas empíricas que permiten la autoorganización".

Utilizando esta técnica, el equipo pudo seguir de cerca el movimiento de una cuenta fluorescente moviéndose libremente en una solución acuosa. Este enfoque puede, por tanto, tener aplicaciones generalizadas en el seguimiento y comprensión precisos de procesos estocásticos en biología, química y física.

Fuente artículo original: https://phys.org/news/2023-02-neuromorphic-camera-machine-aid-nanoscopic.html

Comentarios

Entradas populares de este blog

Las simulaciones por ordenador explican el movimiento celular: como una red ferroviaria de células

Un nuevo modelo de aprendizaje profundo utiliza el vídeo para identificar las diferentes fases del desarrollo embrionario

Un estudio que revela la estructura beta-amiloide arroja luz sobre la función del fármaco Leqembi