L’editoriale
di due mesi fa ha provato a tracciare una linea su cui potrebbe
correre il progresso tecnologico nei prossimi anni. Se non
peccava di ottimismo, di certo eccedeva in sintesi, perché
tanti altri sono gli aspetti tecnici che potrebbero subire
presto sviluppi clamorosi, tali da portare a qualcosa di molto
diverso da ciò che noi oggi identifichiamo come macchina
fotografica. Torniamo quindi sull’argomento, provando
a individuare alcuni punti su cui potrebbero verificarsi vere
e proprie rivoluzioni, alcune decisamente auspicabili, altre,
almeno a prima vista, molto meno.
Oggi siamo abituati a fotocamere digitali che producono immagini
JPG pronte per essere stampate o inviate in qualsiasi parte
del mondo direttamente dal luogo dello scatto. Fatte le debite
distinzioni, si comportano come le Polaroid, fotocamere analogiche
a sviluppo istantaneo che hanno nell’immediatezza il
loro maggior pregio. La massima qualità, invece, in
pellicola si ottiene con diapositive di bassa sensibilità
o con negativi stampati a regola d’arte, in digitale
“sviluppando” i RAW con un software evoluto e
un computer sufficientemente potente da effettuare in tempi
ragionevoli i calcoli richiesti dalle formule. Quindi, se
escludiamo la “Polaroid digitale” costituita dal
pur valido JPG, se al giorno d’oggi vogliamo il massimo
della qualità dobbiamo vedere fotocamera e computer
come due elementi inseparabili, divisi solo dai rispettivi
compiti: alla reflex lo scatto, al computer lo sviluppo. Ma
perché la fotocamera non può fare tutto da sola?
Perché i dati che vengono inclusi nel RAW affinché,
una volta sviluppato, porti all’immagine migliore possibile
sono tantissimi e comportano dei calcoli di una complessità
imbarazzante, al punto che solo di una parte si tiene conto
nel confezionamento del JPG “in macchina”. Tanto
per citarne alcune, al file vengono allegate informazioni
per contenere il rumore termico, per l’elaborazione
del colore, per l’eliminazione delle aberrazioni cromatiche,
della caduta di luce ai bordi, per la correzione delle distorsioni.
Pensate solo che allo sviluppo del RAW sono demandati compiti,
come la correzione delle aberrazioni cromatiche, che anche
i migliori ingegneri ottici del mondo non hanno saputo svolgere
fino in fondo in fase di progettazione degli obiettivi. Volete
che tanta fatica sia sostenuta da quel “misero”
processore incorporato nella fotocamera, alimentato per giunta
da una semplice batteria al litio? Ebbene sì, imparate
a pretenderlo, perché questa è la strada intrapresa
dai costruttori e il terreno su cui si svolgeranno alcune
delle più accese battaglie commerciali. La capacità
di calcolo dei processori è aumentata troppo velocemente
negli ultimi anni per non osare una previsione del genere.
Il lavoro che oggi è svolto in 15 secondi da un computer
da tavolo, verrà portato a termine in una frazione
di secondo da quello racchiuso nella nostra futura reflex:
e tutte le correzioni che oggi applichiamo al RAW a casa,
le applicheremo sul campo o sarà la macchina stessa
a farlo al posto nostro. Un esempio che è già
realtà: la correzione in tempo reale delle aberrazioni
cromatiche che la Nikon D3 applica alle immagini scattate
con obiettivi di cui conosce le caratteristiche. È
un traguardo parziale, ma significativo. Passi ulteriori verranno
probabilmente compiuti quando la miniaturizzazione dovrà
più propriamente prendere il nome di nanotecnologia,
un mondo ancora tutto da scoprire con imprevedibili risvolti
nella vita di tutti i giorni. Per restare ai fatti di casa
nostra, i sensori stessi, quando efficacissimi strati di microlenti
riuscissero a incrementare a livelli ora inimmaginabili il
rendimento dei singoli pixel, potrebbero finalmente essere
progettati con sensibilità pancromatica, risolvendo
una volta per tutte i problemi di falsi colori indissolubilmente
legati ai sensori costruiti secondo il modello a mosaico ideato
da Bryce Bayer. E sempre alle nanotecnologie è legato
lo sviluppo della lente perfetta, quell’elemento che
grazie a metamateriali composti da sottostrutture artificiali
di dimensioni inferiori a 0,4 micron, sarà in grado
di piegare la luce alla bisogna ed eliminare, in sintesi,
la diffrazione, ben noto fenomeno, legato alla natura stessa
della luce, che è tornato ad essere un vero problema
con l’aumentare della densità dei sensori. Ma
questo sembra essere un futuro ancora lontano. Ciò
che pare prossimo in modo inquietante è una rivoluzione
del concetto stesso di reflex. Il Live View e la connessa
migrazione di massa verso i CMOS, per chi non se ne fosse
accorto, costituiscono un passo deciso verso la trasformazione
della reflex in videoreflex, supposizione rafforzata dall’evoluzione
dei software verso una gestione congiunta di file multimediali.
C’è però di mezzo uno specchio a dar fastidio,
quello stesso antipatico specchio che, a causa dei tempi tecnici
necessari al suo andirivieni, non consente di spingersi molto
oltre la già impressionante cadenza di scatto dei modelli
professionali e soprattutto, in tali condizioni di ripresa,
di garantire un autofocus continuo sufficientemente preciso.
Difficile immaginare uno specchio fisso semitrasparente, soluzione
tentata senza molto successo in passato. Più facile,
anche se doloroso, immaginarne l’abolizione, nell’attesa
che la messa a fuoco diretta sul sensore acquisisca la rapidità
richiesta dalle applicazioni professionali. Il dolore? Sta
nell’immaginare l’addio a un sistema di mira pressoché
perfetto e a un nome, reflex, indissolubilmente legati allo
specchio. Sarà possibile sostituire il vetro smerigliato
con un monitor LCD? Probabilmente sì, ma spero che
almeno per una volta non si confonda fattibilità con
opportunità. |