Seguici anche tu

Perché la qualità dei video è inferiore a quella delle fotografie?

da | Apr 23, 2023 | Blog e pensieri, Riflessioni | 1 commento

Un nostro lettore ci ha posto una domanda interessante: per quale ragione, i video non sono mai all’altezza delle fotografie, in termini di qualità?
Questo vale sia per le fotocamere reflex, che per le mirrorless ed è dovuto ad una serie di fattori, che caratterizzano l’hardware e le tipologie di formati digitali.

INDICE

1 – Risoluzione video vs risoluzione fotografia

Il primo motivo che determina la qualità inferiore delle immagini catturate da un video rispetto ad una fotografia, anche usando la stessa fotocamera, è dato dalla risoluzione, che nei video è sempre inferiore a quella delle fotografie.

Le risoluzioni video

Le fotocamere sono solitamente in grado di registrare video in 4K, Full-HD e inferiori, con qualche eccezione per i modelli più potenti che arrivano anche a qualcosa in più (es. 6K).

Lo standard video Full-HD (o 1080p) 16:9 è caratterizzato da una risoluzione dell’immagine pari a 1920×1080 pixel, che possiamo considerare come una immagine da appena 2 Mpixel  (1920 x 1080 = 2.073.600 pixel), cioè la stessa risoluzione che le fotocamere dei cellulari hanno raggiunto circa nel 2005.

Lo standard 4K vanta una risoluzione dei fotogrammi pari a 3840×2160 pixel, fornendo quindi una immagine da 8 Mpixel, sicuramente molto meglio, ma comunque pari ad una fotocamera digitale amatoriale di metà anni 2000.

Considerando i sensori delle moderne macchine fotografiche, che difficilmente vantano meno di 20 Mpixel, si può notare immediatamente quanta differenza ci sia in termini di risoluzione tra una fotografia (solitamente scattata alla massima risoluzione disponibile) e un video. Tradotto in termini pratici, proiettando il fotogramma di un video e una fotografia sullo stesso monitor, e quindi a parità di dimensioni, la seconda riesce ad offrire molti più dettagli, perché in essa sono memorizzati più “punti”.

 

2 – Codec e compressione

Il secondo motivo è dato dal codec e dalla compressione dei file.
Una fotografia solitamente viene scattata in formato RAW e poi esportata in formato JPEG ad alta qualità. L’alternativa è scattare direttamente in JPEG, cioè un formato già compresso, per risparmiare un po’ di spazio, ma tipicamente con un sacrificio molto modesto in termini di qualità.
Un file video è molto più complesso. Tralasciando l’audio, la parte visuale richiederebbe di memorizzare, a seconda del rateo di immagini scelto (framerate o fps, cioè frame per second), tipicamente dalle 24 alle 120 immagini per secondo.

Per motivi di efficienza, anche per evitare di dover usare memorie molto veloci, capienti e costose, interviene un codificatore (codec) che memorizza in forma completa solo un frame ogni tanto, riempiendo gli altri con le “differenze”, che tipicamente sono poche e quindi occupano meno spazio. Di fatto si sfruttano le informazioni di un frame per “ricalcolare” anche quelli adiacenti… un bel risparmio!

In più, tipicamente le informazioni sul colore vengono ridotte (chroma subsampling), riducendo la definizione dello stesso. Ad esempio se il codec usa un sottocampionamento colore di tipo 4:2:2, questo significa che per ogni gruppo di 4 pixel su una riga dell’immagine e uno di altri 4 su quella sottostante, vengono memorizzati solo 2 pixel di colore sulla prima e 2 sulla seconda, calcolati come media.

Questi peggioramenti qualitativi nei video sono tollerabili perché ogni fotogramma viene visualizzato per una frazione piccolissima di un secondo e il nostro cervello non ha tempo per focalizzarsi sui dettagli. Il codec può ad esempio ridurre maggiormente la qualità sulle parti di immagine che si muovono in fretta ed essere più conservativo sulle parti “ferme”, per darci l’illusione di una qualità più alta. Il problema nasce proprio quando si decide di fare un “fermo-immagine”, dove questo discorso cessa di valere e possiamo notare il peggioramento qualitativo.

Tutti questi parametri di compressione vengono decisi dal costruttore della fotocamera, e sono diversi per ogni modello, in base al tipo di utente a cui si rivolge e al prezzo su cui si vuole posizionare il prodotto. A seconda della fotocamera, che sia amatoriale o professionale, più o meno rivolta ad un’utenza interessata al video, più o meno dotata dal punto di vista hardware, i codec usabili consentono di preservare più o meno informazione.

Se ricaviamo un fotogramma da un video registrato con una fotocamera non specializzata o comunque entry-level, questo sarà sicuramente più compresso e avrà molta meno informazione rispetto ad una fotografia scattata con la stessa fotocamera.

Esistono fotocamere di fascia molto alta che offrono un campionamento pieno del colore o addirittura usano il formato M-JPEG, registrando effettivamente tutti i fotogrammi come immagini indipendenti, applicando solo una leggera compressione.

3 – Tempo di otturatore e frame rate

Un altro motivo che determina la qualità inferiore di un fotogramma estrapolato da un video rispetto ad una fotografia è quello del tempo di otturatore.

Un video, come abbiamo già detto, è caratterizzato da un certo numero di fotogrammi visualizzati al secondo. Solitamente si registrano video a 24 fps (standard cinematografico), 25 fps (standard TV PAL), 30 fps (standard TV NTSC), fino ad arrivare ai 60 e oltre fps nelle moderne fotocamere, per usi particolari come lo slow-motion.

È fondamentale usare un tempo di otturatore non superiore al doppio del frame-rate, o di fatto si avranno frame replicati. Ad esempio, con un video da 25 fps, si potranno usare tempi di otturatore pari a 1/50, 1/60,1/100 ecc., ma non 1/25 o più lunghi. Ecco perché i video ad alto frame rate richiedono molta luce: se si usano 120 fps, serve un tempo di otturatore di 1/250 di secondo o più veloce. Tipicamente però, usando 24 o 25 fps, viene molto comodo usare un tempo di otturatore di 1/50 di secondo, che rispetto alla media con cui fotografiamo, è un tempo lento. Il vantaggio, però, è che possiamo usare ISO più bassi (la riduzione del rumore in un video è un passaggio tedioso) e/o diaframmi più chiusi, migliorando la profondità di campo. Lo svantaggio, però, è che, proprio come se scattassimo una scena in movimento a 1/50, il singolo fotogramma risulterà “mosso” e quindi poco piacevole se estrapolato dal flusso video.

Se prendiamo un singolo fotogramma di un file video (specialmente di una scena con del movimento) questo risulterà sfuocato o decisamente mosso, rispetto ad una fotografia.

Se ti è piaciuto questo articolo, condividilo o lasciaci commento, per noi è fondamentale!

Federico Banzi

Federico Banzi

L'autore

Nasce a Ferrara il 21 maggio 1983 e fin da giovane è appassionato di tecnologia, mostrando grande interesse per tutto ciò che riguarda l'informatica e le telecomunicazioni. Dal 2006 è socio cofondatore di ITestense, società specializzata nella fornitura di servizi per le aziende. Laureato in Ingegneria Elettronica e delle Telecomunicazioni presso l'Università di Ferrara, dopo l'esperienza maturata nell'ambito server e networking, ha deciso di seguire la sua passione per la programmazione, dedicandosi in particolare allo sviluppo nel mondo web e SEO.

Seguici anche tu

1 commento

  1. Carlo

    Articolo molto molto utile ed esplicativo, grazie mille per il vostro lavoro ragazzi! 😉

    Rispondi

Invia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ti potrebbero interessare

Il panning

Il panning

Domenica scorsa ero al Lido Degli Estensi, sul terrazzo di casa mia, in un...

Effetto Bokeh

Effetto Bokeh

Cos'è l'effetto bokeh? In questo breve articolo vogliamo parlare del bokeh,...