La fotocamera a fotone singolo consente la riproduzione video in qualsiasi scala temporale

L'acquisizione dati estrema illumina le nuove applicazioni della visione artificiale


I ricercatori di imaging computazionale della University of Toronto hanno catturato uno strano segnale con la loro esclusiva fotocamera. Durante l'esecuzione di esperimenti in laboratorio utilizzando la fotocamera, un diodo a valanga a singolo fotone (SPAD), il Toronto Computational Imaging Group ha rilevato uno sfarfallio inspiegabile di 80 kilohertz (kHz).

Utilizzando il loro potente sensore di imaging autonomo, hanno rilevato ogni singolo fotone in arrivo da varie fonti luminose e ne hanno registrato l'esatto orario di arrivo, con una precisione di un trilionesimo di secondo. Dopo aver acquisito tutti i dati che colpiscono ogni pixel, il team ha applicato un algoritmo che ha consentito di creare video che ricostruiscono la luce in ogni dato momento su un intervallo estremo, da secondi a picosecondi.

“È possibile ingrandire l'immagine a qualsiasi scala temporale si desideri e riprodurre un video: 30 fotogrammi al secondo, mille, un milione, un miliardo,” ha affermato Kyros Kutulakos, professore di informatica presso la University of Toronto. “Non è necessario conoscere in anticipo la scala temporale in cui si desidera osservare un fenomeno.”

Prima di questo, i ricercatori potevano catturare la luce che si propagava attraverso una scena nell'arco di pochi nanosecondi, ma non riuscivano a riprendere simultaneamente eventi incredibilmente veloci e lenti.

Le tecnologie esistenti sono specializzate in particolari regimi temporali, ha spiegato il collega di Kutulakos, il professore associato David Lindell. Le telecamere ad alta velocità convenzionali possono raggiungere velocità fino a circa 1 milione di fotogrammi al secondo, abbastanza veloci da catturare un proiettile in corsa, ma per passare a miliardi o trilioni di fotogrammi al secondo sono necessarie telecamere molto specializzate, in grado di catturare eventi che durano più di un microsecondo circa.

Il video dura 0:15

Grazie a un sensore di immagini autonomo, ogni singolo fotone proveniente da diverse sorgenti luminose viene rilevato e ne viene registrato l'esatto orario di arrivo. (Credito video: University of Toronto)

Il team della University of Toronto ha utilizzato MATLAB® per acquisire i dati di timestamp dei singoli fotoni e per controllare i componenti mobili nelle loro configurazioni per la loro tecnica di imaging, che il gruppo ha soprannominato “microscopio del tempo.”

Lo SPAD a pixel singolo ha una testina di rilevamento di 60 x 60 millimetri con un piccolo sensore al centro. Quando lo SPAD ha rilevato uno strano segnale a 80 kHz, inizialmente i ricercatori si sono chiesti se non si fossero semplicemente imbattuti in qualche artefatto. Dopo un'ispezione più attenta, il team ha scoperto la fonte.

“A quanto pare in laboratorio abbiamo LED T8 sostitutivi delle lampadine fluorescenti. “Quelli in realtà lampeggiano a 80 kilohertz,” ha detto Kutulakos. “Non sapevamo nemmeno che ciò stesse accadendo.”

Alla recente International Conference on Computer Vision (ICCV) tenutasi a Parigi, il documento del team sull'imaging passivo a singolo fotone a banda ultralarga ha ricevuto un prestigioso premio, assegnato solo a due articoli tra le migliaia presentati da esperti di visione artificiale in tutto il mondo.

Le potenziali applicazioni della loro tecnica includono nuovi tipi di sistemi di imaging 3D e lidar, nonché imaging scientifico, ad esempio per catturare eventi biologici su più scale temporali o per l'osservazione astronomica di brevi impulsi di luce che coincidono con rapidi lampi radio.

Miliardi di fotogrammi al secondo

Gli esseri umani vedono la luce come un'esperienza continua: Possiamo immaginare di utilizzare una macchina fotografica veloce per catturare filmati al rallentatore. Se avessimo telecamere sempre più veloci, forse potremmo semplicemente rallentare progressivamente la riproduzione.

“Ma a un certo punto avviene un cambiamento,” ha affermato Lindell. “La luce non è continua; è discreta. E il modo in cui catturiamo la luce è un fotone alla volta.”

“Lavoriamo con sensori a singolo fotone da diversi anni e la pipeline di acquisizione MATLAB che abbiamo funziona ancora. È completamente affidabile.”

I diodi a valanga a singolo fotone sono diventati ampiamente disponibili sul mercato solo nell'ultimo decennio. Kutulakos ha osservato che l'elevato costo del dispositivo ha fatto sì che pochissimi laboratori di informatica e di visione artificiale vi avessero accesso. I recenti sviluppi nel campo dei sensori hanno spinto il team della University of Toronto a porsi nuove domande su problemi che gli scienziati di altri settori affrontano da decenni.

Ad esempio, gli astronomi specializzati nell'astronomia dei raggi gamma hanno installato dei rilevatori per rilevare singole particelle e assegnargli una marca temporale. Ma questi astronomi erano più interessati all'illuminazione periodica delle stelle variabili piuttosto che all'esatta funzione variabile nel tempo che descrive la luminosità delle stelle, poiché questo è ciò che la fisica richiedeva, ha spiegato Kutulakos.

Nel laboratorio del Toronto Computational Imaging Group, il postdoc Sotiris Nousias e lo studente di dottorato Mian Wei hanno utilizzato per la prima volta uno SPAD per catturare informazioni temporali sui fotoni provenienti da diodi a emissione luminosa.

“Abbiamo fatto lampeggiare i LED e abbiamo osservato il flusso in uscita,” ha affermato Nousias. “Abbiamo osservato che il flusso aveva effettivamente lo stesso schema dello sfarfallio e poi abbiamo lavorato per trovare la connessione matematica. Questa è stata la nostra ispirazione per il progetto.”

Nousias e Wei, primi autori congiunti dell'articolo ICCV, si sono chiesti quali informazioni avrebbero potuto ottenere se avessero avuto accesso a tutti i fotoni. Gli scienziati tendono a far funzionare gli SPAD in modi particolari e sincronizzati. Il team ha invece utilizzato il sensore in modalità asincrona. Da lì, i ricercatori hanno cercato di collegare gli arrivi discreti di fotoni con una funzione continua sottostante che descrive l'intensità della luce variabile nel tempo.

“Stiamo raccogliendo passivamente fotoni e cercando di ricostruire il contributo di tutte le fonti di luce nell'ambiente, indipendentemente dal fatto che la variazione di intensità sia rapida o lenta,” ha affermato Kutulakos.

In un esperimento, il team ha catturato diverse luci simultaneamente e le ha poi riprodotte a velocità diverse. Lo SPAD ha osservato un singolo punto su una superficie bianca. La luce di un laser pulsato stroboscopico da 3 megahertz, di un laser pulsato stroboscopico da 40 megahertz e di un proiettore laser a scansione raster passava attraverso un diffusore e colpiva il punto bianco. Una lampadina intelligente brillava sopra la mia testa.

Hanno estratto un flusso di informazioni temporali dalla telecamera che indicava quando un fotone colpiva il sensore e hanno estratto informazioni sull'intensità. Il team ha utilizzato MATLAB per orientare il fascio e ottenere un'immagine, per garantire l'allineamento dei pixel nel tempo e per automatizzare l'intera fase di acquisizione dei dati.

“Lavoriamo con sensori a singolo fotone da diversi anni e la pipeline di acquisizione MATLAB che abbiamo funziona ancora,” ha affermato Lindell. “È completamente affidabile.”

Nello specifico, per il progetto si sono affidati a Image Processing Toolbox™, Computer Vision Toolbox™, Signal Processing Toolbox™, Data Acquisition Toolbox™ e Parallel Computing Toolbox™ . Nousias ha aggiunto che hanno anche realizzato un'interfaccia grafica personalizzata per controllare gli specchi di scansione in alcuni dei loro esperimenti.

Si scopre che i moderni SPAD sono in grado di elaborare immagini computazionali molto più di quanto i ricercatori avessero precedentemente immaginato.

“Non avremmo mai pensato di poter vedere gli impulsi laser tremolare in modo asincrono nell’ambiente,” ha affermato Kutulakos.

Il video dura 0:18
Il video dura 0:33

Configurazione sperimentale che cattura più sorgenti luminose in un unico punto su una superficie bianca. (Credito video: University of Toronto

Attraverso il tempo in un battito di ciglia

La ricostruzione del team ha permesso di concentrarsi su frequenze di campionamento di un secondo, a partire dallo sfarfallio del proiettore laser, fino a quasi nove ordini di grandezza, fino a un singolo impulso su scala di nanosecondi dal laser da 3 megahertz. Il loro metodo ha permesso loro anche di ricreare un video riprodotto su un proiettore laser TV che non si trovava nel campo visivo. In questo caso, si trattava del classico leone ruggente in bianco e nero della Metro Goldwyn Mayer ricreato solo a partire dal segnale di scansione raster.

Un'altra installazione presentava un ventilatore portatile rosa pallido, alimentato a batteria, su uno sfondo bianco. Per dimostrare la videografia passiva a banda ultralarga, hanno illuminato la ventola in rotazione con impulsi laser. A differenza delle tecniche di imaging attive che sfocano il ventilatore, questa tecnica congela chiaramente le pale del ventilatore che si muovono in una scala temporale diversa rispetto alla luce stroboscopica. La scena rimane ancora visibile nella scala dei gigahertz mentre un fronte d'onda rosso attraversa le pale di un ventilatore apparentemente congelate.

“Quando si acquistano nuove apparecchiature, se non si ha il supporto necessario per l'interfacciamento, bisogna sfruttare diverse interfacce grafiche utente (GUI) per ottenere i dati desiderati. MATLAB ci ha fornito un modo pratico per controllare tutti i componenti per eseguire l'acquisizione dei dati.”

“Consideratela come una videocamera molto veloce.” ha detto Nousias. “Con una macchina fotografica mobile, scatti un'istantanea. Ma nel nostro caso, scattiamo un'istantanea di un'istantanea di un'istantanea. Stiamo viaggiando nel tempo.”

Il team aveva già familiarità con MATLAB quando, otto anni fa, ha iniziato a utilizzare le apparecchiature di imaging per il progetto. “Tutti gli strumenti sono molto facili da integrare e ci forniscono un rapido accesso ai dati,” ha affermato Nousias. “Se qualcosa va storto e dobbiamo riaffermare i dati, è facile visualizzarli e questo ci fa risparmiare tempo.”

Wei ha apprezzato anche il supporto MATLAB . “Quando si acquistano nuove apparecchiature, se non si ha il supporto necessario per l'interfacciamento, bisogna sfruttare diverse interfacce grafiche utente (GUI) per ottenere i dati desiderati,” ha affermato. “MATLAB ci ha fornito un modo conveniente per controllare tutti i componenti per eseguire l'acquisizione dei dati.”

Lindell fu d'accordo. “Le attrezzature che utilizziamo sono piuttosto eterogenee. Abbiamo creato un'unica interfaccia di programmazione a partire dalle librerie esistenti,” ha affermato. “Se non avessimo MATLAB, dovremmo armeggiare con diverse librerie o estensioni di terze parti che le persone hanno provato a creare in altri linguaggi di programmazione.”

Il video dura 0:35

La videografia passiva a banda ultralarga blocca il movimento delle pale del ventilatore in una scala temporale diversa rispetto alla luce stroboscopica. Le pale rimangono visibili vicino alla scala dei gigahertz mentre un fronte d'onda rosso attraversa le pale del ventilatore apparentemente congelate. (Credito video: University of Toronto

Wei stimò che, senza l'accesso al software di elaborazione tecnica, l'integrazione di ogni nuovo componente avrebbe potuto richiedere giorni o settimane. “Controllare due volte che i componenti funzionassero come previsto aggiungerebbe ancora più tempo,” ha affermato.

“Grazie alle nostre configurazioni possiamo dire: 'Ok, ho questa nuova macchina Windows®. “Prenderò il codice che è stato eseguito in precedenza e poi lo trasferirò,” ha continuato Wei. “Ora qualcun altro può utilizzare il loro codice ed eseguire anche lui il sistema.”

Possibilità di imaging dinamico

Ricevere un premio per il miglior articolo alla International Conference on Computer Vision ha rappresentato un importante traguardo professionale per i ricercatori del Toronto Computational Imaging Group. Gli organizzatori della conferenza hanno selezionato solo due degli 8.068 documenti presentati, ha affermato Lindell.

“In un'epoca in cui Deep Learning domina la conversazione, questo è stato un buon promemoria del fatto che c'è ancora bisogno di ricerche che ci aiutino a comprendere i fenomeni fisici di base e come possiamo percepire questi fenomeni utilizzando le tecnologie emergenti,” ha affermato.

“Penso che otterremo risultati inaspettati puntando questa telecamera in giro per il laboratorio o addirittura all'esterno. Non vedo l'ora di scoprire cosa scopriremo. Sarà un nuovo modo di catturare il mondo.”

I ricercatori sperano che la loro scoperta ispiri nuovi progressi. Un settore che merita di essere esplorato è il flash lidar, una tecnica che produce un'immagine di profondità ad alta risoluzione tramite un laser pulsato diffuso anziché tramite un laser pulsato a scansione. In genere, ciò comporta l'invio di luce nella scena, la misurazione del tempo impiegato dalla luce per tornare indietro e l'utilizzo di queste informazioni temporali per misurare la distanza.

“Una delle avvertenze è che è necessario sincronizzare la sorgente luminosa con il sistema affinché questo meccanismo funzioni,” ha spiegato Wei. “Data la nostra capacità di misurare i segnali in modo asincrono, siamo interessati a capire se potremmo utilizzare una sorgente luminosa asincrona per realizzare un flash lidar.”

In biologia, eventi come il ripiegamento o il legame delle proteine possono verificarsi in scale temporali che vanno dai nanosecondi ai millisecondi. Lindell ha affermato che il team ha discusso le proprie tecniche di imaging con esperti di biologia dell'università.

“Il fatto che questi eventi si verifichino in queste scale temporali è interessante e la possibilità di osservarli in un modo che le persone non sono state in grado di fare finora è allettante,” ha affermato.

La rifocalizzazione computazionale potrebbe avere applicazioni in altre scienze. Gli astrofisici hanno voluto capire quali sono le cause dei lampi radio veloci da quando un radiotelescopio ha rilevato per la prima volta il fenomeno 20 anni fa. Queste misteriose esplosioni di energia si verificano nel cielo e durano solo pochi millisecondi, ma ciascuna è incredibilmente potente. La rifocalizzazione computazionale potrebbe consentire il rilevamento di FRB nel dominio ottico.

“Non sappiamo quando accadrà,” ha detto Nousias. “Bisogna monitorare il cielo e poi tornare ai dati su una scala temporale di nanosecondi per osservarli. Ora abbiamo lo strumento per farlo.”

Kutulakos prevede che il suo metodo SPAD potrebbe aiutare a rilevare problemi o difetti nei componenti meccanici progettati che non vengono rilevati dalle ispezioni standard. Quando un motore ha problemi, le vibrazioni potrebbero indicare un problema, ma senza ulteriori informazioni la fonte esatta potrebbe risultare sfuggente. Puntando una telecamera sul motore e raccogliendo tutti i dati, si potrebbe trovare l'ago nel pagliaio, ha affermato.

Il gruppo sta inoltre collaborando con altri ricercatori nel campo della microelettronica per ampliare le potenzialità delle telecamere. Una telecamera a pixel singolo consente al team di produrre video da movimenti ripetitivi, come la rotazione delle pale di un ventilatore, ma gli eventi veramente dinamici richiedono un sensore 2D.

Successivamente, la squadra intende lavorare per migliorare la propria tecnica. Ricostruire i segnali rimane un'operazione piuttosto dispendiosa in termini di tempo e computazionalmente inefficiente, ha osservato Lindell. Stanno quindi lavorando per catturare gli eventi in tutte le scale temporali in tempo reale.

“Penso che otterremo risultati inaspettati puntando questa telecamera in giro per il laboratorio o addirittura all’esterno,” ha affermato Lindell. “Non vedo l'ora di scoprire cosa scopriremo. Sarà un nuovo modo di catturare il mondo.”


Altri casi

Navigazione nel pannello

IA

Avanzamento della scoperta scientifica con la microscopia basata sull'intelligenza artificiale

Elaborazione delle immagini intuitiva e approfondimenti da Massive Lightsheet Data

Navigazione nel pannello

ELABORAZIONE DI IMMAGINI

Sviluppo di una videocamera 3D subacquea con imaging controllato sulla base della distanza

Navigazione nel pannello

ELABORAZIONE DI IMMAGINI

Esplorando l'ecosistema più grande del mondo: 500 metri sotto la superficie dell'oceano

Nat Geo sviluppa una telecamera robotica subacquea per esplorare le profondità