Google Pixel P4 e fotografia computazionale

Pixel P4, il nuovo telefonino dotato di fotocamera di Google, si affida largamente alla cosiddetta fotografia computazionale, come ormai tutti i prodotti di questo tipo e non solo.

Che cosa significa “fotografia computazionale”?
Come si legge su Wikipedia alla voce Computational photography:

La fotografia computazionale si riferisce a tecniche di acquisizione ed elaborazione di immagini digitali che utilizzano il calcolo digitale anziché i processi ottici. La fotografia computazionale può migliorare le capacità di una fotocamera o introdurre funzionalità che non erano possibili con la fotografia basata su pellicola o ridurre il costo o le dimensioni degli elementi della fotocamera.

In pratica, in essa rientrano tutti i vari algoritmi che permettono per esempio di realizzare una ripresa HDR, produrre il cosiddetto effetto Bockeh, applicare un’infinità di filtri, ottimizzare lo scatto e molto altro, grazie a un software e non alle ottiche o alla meccanica della macchina fotografica. In altre parole, la fotografia computazionale non è altro che un utilizzo dell’informatica – fino alle sue applicazioni più sofisticate basate sull’Intelligenza Artificiale – per migliorare le performance di un dispositivo di ripresa fotografica.

Questo tipo di tecnologia viene da diversi anni utilizzata anche nelle macchine tradizionali come le reflex, per esempio per migliorare in automatico la messa a fuoco, ma ha conosciuto uno sviluppo esponenziale con il diffondersi capillare dei cameraphone, i telefonini dotati di fotocamera. Questa tendenza non è dovuta solo all’imporsi di tendenze estetiche, come per esempio i filtri vintage alla Hipstamatic, ma è esplosa soprattutto grazie agli stessi limiti “fisici” dei telefonini. Infatti, se risulterebbe piuttosto difficile introdurre un sensore più grande in così poco spazio, è molto più semplice dotare il telefono di software capaci di migliorare l’acquisizione dell’immagine nonostante le dimensioni ridotte del sensore. E lo stesso discorso vale per le ottiche, supportate e corrette ancora via software.

Tornando al Google Pixel P4 da cui si era partiti, si può dire che questo nuovo cameraphone conferma i grandi investimenti fatti da Google nel campo della fotografia computazionale e dell’intelligenza artificiale in generale, come per altro stanno facendo anche i suoi maggiori competitor, da Apple a Samsung, a Huawey…

Proprio in occasione dell’annuncio del Pixel 4, Mark Levoy, capo del settore fotocamere di Google, riportando un detto spesso citato dai fotografi ha affermato che ciò che è più importante per una buona foto è anzitutto quello che sta davanti alla fotocamera, il soggetto, quindi l’illuminazione e solo dopo l’hardware, cioè l’obiettivo e il corpo della fotocamera. E ha ribadito che lui e il suo team credono che ora ci sia un diverso fattore in gioco che sostituisce il corpo macchina con qualcos’altro: il software.

Levoy ha quindi ribadito il ruolo fondamentale della “fotografia computazionale” nella tecnologia che Google utilizza per le sue fotocamere Pixel, in modo che una una foto di bassa qualità scattata con un piccolo sensore venga trasformata in qualcosa di gradevole e sorprendente.

Questo approccio, che Levoy chiama “fotocamera definita dal software” (software-defined camera), significa il più delle volte catturare più foto e combinare i dati di ciascuna di esse per produrre un’unica immagine finale migliore.

Nel Pixel P4 la ricerca Google in questa direzione ha portato a quattro nuove funzionalità:

  • Live HDR, che permette di controllare come sarà l’immagine finale una volta applicato l’HDR e di regolare luci e ombre.
  • Learning-based white balance (bilanciamento del bianco basato sull’apprendimento), una funzionalità basata sull’intelligenza artificiale per ottenere un corretto bilanciamento del bianco e colori più freddi già contenuta nel Pixel 3 per gli scatti notturni, estesa ad altre situazioni, in particolare quando il bianco tende al giallo o all’arancione.
  • Nuova Modalità ritratto wide-range (ad ampio raggio) più accurata, che sfrutta i sensori a doppio pixel e il secondo obiettivo per ricevere più dati e separare meglio il soggetto dallo sfondo dando più profondità. Assicura un effetto Bockeh più accurato e una definizione più nitida dei capelli sullo sfondo sfocato.
  • Nuova modalità Night Sight per fotografare i cieli notturni e le stelle con tempi di esposizione di alcuni minuti, ma con impostazioni automatiche e algoritmi computazionali che risolvono problemi come il movimento delle stelle durante il tempo di esposizione.

Levoy ha poi mostrato le foto realizzate da Annie Leibowitz con il Pixel 3 e il Pixel 4, per dimostrare come anche i grandi fotografi ormai non abbiano più riserve verso questi mezzi di ripresa, i telefonini, rispetto alle macchine fotografiche tradizionali.

Tutto, dunque, è diventato più semplice per chi vuole fotografare. È meglio di prima, è peggio di prima? Sicuramente è un’altra cosa, come risponde Luciano Corvaglia, grande esperto di camera oscura e stampatore, a Marcello Mencarini nel libro Dialogo tra un fotografo e uno stampatore (pp. 94-95):

Oggi tutto questo lo fa la fotocamera già da sola. La macchina fotografica media come media il cervello, non riprende più quello che succede e basta.
L’immagine digitale è stata mediata dal programma che hai usato al momento dello scatto, che dice alla macchina che alcune cose le deve mettere in evidenza e altre no. La visione è stata sostituita da un algoritmo. Siamo stati sostituiti da algoritmi che si comportano come si comporta il cervello. Adesso è una cosa molto veloce, più rendo accattivante l’immagine, meglio è. La fotografia è diventata un fast-food. Mettermi lì a fare una rifinitura che nessun palato può percepire, non ha proprio più senso. E forse sarebbe pure sbagliato. Perché dovrei continuare a lavorare sulla fisica della luce, dell’immagine? Ecco perché io non la chiamerei più fotografia, la chiamerei illustrazione. Fotografia significa scrivere con la luce e quella non è scrittura con la luce…
Se andiamo a prendere qualsiasi immagine, anche di reportage, vediamo che gli sfondi hanno un contrasto completamente diverso rispetto al resto, come se il cielo l’avessero fotografato alle cinque di mattina e il resto in un altro momento della giornata. Quando entri in camera oscura continui a lavorare con gli stessi principi della luce, come se fosse una macchina fotografica al contrario, ma lavori sempre con la fisica. Il digitale no. Una volta che entri tra i vari zero e uno, uno e zero o quello che sia, tutto diventa un’altra cosa. Non scrivi più con la luce.

partners tecnici

Sostenitori