Il dilemma del monitor

Print Friendly, PDF & Email

Ultimamente ho ricevuto un numero elevato di richieste tutte più o meno simili. Riassumendo: “potresti dirmi se il monitor di marca X, modello Y, è un buon monitor?” Le stesse richieste sono passate, talvolta portando la discussione imbarazzantemente fuori tema, sul gruppo CCC di Facebook, che almeno formalmente si occupa di correzione del colore e non di hardware.

Dal punto di vista concettuale, poche cose sono più distanti della qualità del monitor dalla correzione del colore: com’è ben noto, la correzione del colore si basa su una valutazione numerica dell’immagine, e potrebbe venire attuata perfino su un monitor in scala di grigi (i miei allievi lo sanno bene, per averlo provato sulla loro pelle). Naturalmente, un buon monitor descritto da un buon profilo colore è estremamente utile, ma far ruotare tutto attorno alla qualità della visualizzazione non è una grande idea, soprattutto quando ciò finisce per nascondere un sacco di polvere sotto il tappeto, ovvero altri problemi che esistono a monte, nella catena di post-produzione.

Alcune delle richieste ricevute sono state irritanti, non tanto per il tono quanto per il contenuto. Il problema attorno a cui si gira è sempre quello, ed è sempre mal posto:

Come posso essere sicuro di avere una corrispondenza tra monitor e stampa? tra monitor e altro monitor? tra monitor e previsioni zodiacali per il prossimo autunno? tra monitor e mia suocera?

Sto ironizzando, ma è un’ironia triste: per qualche motivo si è solidificata la convinzione che un monitor qualsiasi possa adattarsi e corrispondere più o meno con qualsiasi cosa. Purtroppo non è così.

Ho scritto e parlato così tanto di questo argomento che non voglio ripetermi, ma almeno alcuni punti vanno decisamente tenuti presenti. In estrema sintesi:

  • Un monitor è un dispositivo tecnologico come tutti gli altri: può essere di buona o cattiva qualità, affidabile o non affidabile, e spesso (ma non sempre) la sua qualità è proporzionale al prezzo.
  • “Calibrare il monitor”, come tutti sembrano dire, non significa renderlo migliore. In senso stretto, “calibrare” significa soltanto scegliere dei parametri di funzionamento opportuni in un certo contesto. Partendo da questi, si crea il profilo colore del monitor per mezzo della caratterizzazione. Di questo ho già parlato ampiamente in passato.
  • Un buon profilo colore non renderà stupefacente un monitor di scarsa qualità, così come il motore ben carburato di un’utilitaria non avrà le prestazioni di quello di un’auto da corsa.

L’idea è di dirottare le richieste che mi arrivano, e sono più di quanto si possa immaginare, su questo articolo, in modo da non dovere sempre rispondere alle stesse domande. Vorrei partire quindi da alcune “pillole” semplici e concise.

Monitor: analogico e digitale

Esistono due grandi categorie di monitor, distinte per principio di funzionamento: i monitor analogici e quelli digitali. I più importanti rappresentanti del primo gruppo sono i monitor CRT (Cathode Ray Tube) assimilabili alle vecchie televisioni. Il tubo a raggi catodici è quello che, in termini televisivi, veniva chiamato cinescopio. Questa tecnologia è ben nota, affidabile, ma ormai obsoleta – o perlomeno condannata da vari fattori a scomparire.

I monitor analogici sono stati praticamente sostituiti da quelli digitali, che si dividono in diverse categorie. Le due più importanti sono i monitor LCD e i monitor a LED.

Monitor digitali: LCD

I monitor LCD funzionano grazie alla proprietà ottiche di materiali denominati cristalli liquidi. La sigla, infatti, sta per Liquid Crystal Display. I cristalli liquidi, di per sé, non emettono luce: sono piuttosto assimilabili a filtri che vengono attraversati dalla luce. Il principio fisico di funzionamento non è importante, in questa sede, ma vale la pena di considerare alcune caratteristiche di questi dispositivi.

Si discute sempre molto del gamut dello spazio colore che un monitor è in grado di esprimere, ma questo non è l’unico parametro importante. La bontà di un monitor si giudica anche in base al contrasto, alla luminanza, all’uniformità della rappresentazione dei grigi, all’angolo utile di visuale, al tempo di risposta ai segnali che riceve e, naturalmente, alla resa cromatica.

Il contrasto in un monitor è facile da definire. Se inviamo al pannello un segnale pari a 0R 0G 0B (“nero”), possiamo misurare la sua luminanza in questo contesto; se inviamo invece un segnale pari a 255R 255G 255B possiamo misurare la luminanza del “bianco”. Il rapporto tra la luminanza del bianco e quella del nero è ciò che chiamiamo contrasto. Un contrasto elevato corrisponde a una gamma dinamica estesa, mentre un contrasto basso denuncia una gamma dinamica ristretta.

Gli schermi LCD hanno due modalità di funzionamento denominate trasmissiva e riflettiva. Gli schermi trasmissivi sono illuminati sul lato opposto rispetto a quello di osservazione: si parla in questo caso di retroilluminazione, perché viene posizionata una luce sul retro dello schermo; i cristalli liquidi la filtrano, facendo passare la componente cromatica richiesta. Questi schermi possono essere molto luminosi ma hanno un consumo elevato. Gli schermi riflettivi utilizzano la luce ambiente, che uno specchio posto dietro i cristalli liquidi riflette fornendo la retroilluminazione necessaria. Il contrasto è più basso rispetto agli schermi trasmissivi, e se la luce ambiente è bassa la performance è seriamente degradata. Per questo motivo, praticamente tutti i monitor per utilizzo informatico sono di tipo trasmissivo.

Una delle tecnologie di retroilluminazione più diffuse si basa su LED, ovvero Light Emitting Diodes.

Il tempo di risposta di un monitor LCD non è rapidissimo, anche se questo presenta paradossalmente dei vantaggi in certi contesti. La resa cromatica dipende molto dalla retroilluminazione: in particolare, l’utilizzo di sorgenti luminose LED permette di estendere il gamut del monitor in maniera sensibile rispetto ad altre tecniche peraltro ancora utilizzate.

Monitor digitali: LED

Un LED è un semiconduttore in grado di emettere luce quando gli viene applicato un segnale elettrico. Un pannello a LED è diverso da un pannello LCD nella misura in cui emette luce direttamente (ciascun pixel è formato da tre subpixel dei tre colori primari, e la loro combinazione produce la percezione dei diversi colori in base al fenomeno della sintesi additiva). In media, i monitor a LED reagiscono più velocemente ai segnali rispetto ai monitor LCD (minore tempo di risposta), hanno un rapporto di contrasto molto buono, possono avere una luminanza elevata e hanno un gamut ragionevolmente esteso. Inoltre, sono marginalmente più stabili, perché fluttuano meno e più lentamente nel tempo. 

Come scegliere un monitor

I monitor LED più economici costano meno di 100€, i modelli di fascia alta possono costare invece diverse migliaia di Euro. Aspettarsi che abbiano performance simili è irreale, ma – come scrivevo prima – permane l’assurda convinzione che un buon profilo ICC possa far funzionare alla perfezione qualsiasi monitor. Sarebbe come pretendere che gli altoparlanti da pochi Euro di un computer portatile, pilotati da un segnale opportunamente equalizzato, avessero lo stesso suono di un sistema di monitoraggio da studio che spesso costa decine di migliaia di Euro: nessuno se lo aspetterebbe in campo audio, ma nel nostro campo, per qualche motivo, questo è all’ordine del giorno.

Non sono mai in grado di rispondere alla domanda: “questo monitor è buono?”, che sottende sempre una domanda sulla coerenza del prezzo con le prestazioni. In tutta onestà, ho l’impressione che all’interno di una forbice di prezzi abbastanza contenuta le performance dei vari monitor siano simili, fatti salvi alcuni utilizzi specialistici. Intendo dire che se un generico modello X costa 250€,  un modello Y costa 280€ e le loro caratteristiche tecniche sono comparabili, è difficile che i due dispositivi presentino differenze significative di performance, per semplici ragioni di concorrenza sul mercato.

Diverso è il discorso quando si guardano alcuni parametri specifici: un monitor da gaming, ovvero pensato per i giochi, non ha motivo di essere cromaticamente accurato, ma dev’essere in grado di riprodurre un gran numero di poligoni disegnati molto rapidamente, senza sfarfallii e senza il fastidioso effetto scia che a volte si nota sui monitor più lenti. Per questo motivo, questo tipo di monitor sarà ottimizzato su aspetti come il tempo di risposta, ma progettualmente verrà chiuso un occhio sulla resa cromatica, e la stabilità nel tempo non sarà probabilmente in cima alla lista delle aspettative dei clienti. Un monitor di questo tipo, quindi, non sarà particolarmente adatto al ritocco fotografico e alla prestampa.

Chiedere se un monitor sia buono è come chiedere se una fotocamera sia buona: l’unica risposta possibile è “dipende”. Un banco ottico è strabiliante se usato in studio per produrre fotografie still life, ma è inutilizzabile in ambito sportivo. Allo stesso modo, un gamut esteso non è forse la caratteristica più necessaria, attualmente, per chi si occupa di video, visto che lo standard odierno livella tutto verso il basso (mi riferisco alla raccomandazione ITU-R BT.709). Inoltre, i software di editing più in voga non gestiscono i profili colore, né operano la compensazione a monitor, falsando pertanto la rappresentazione su un monitor ad ampio gamut.

Un monitor 4K è essenziale per chi lavora invece in video in questo formato, ma non è particolarmente indicato per la post-produzione fotografica, perché i pixel troppo piccoli riproducono in maniera discutibile gli effetti della maschera di contrasto, che rimane un passaggio fondamentale. Io, ad esempio, lavoro su un monitor a 24″ il cui lato maggiore è di “soli” 1920 px. In certi casi utilizzo un secondo monitor per i pannelli di Photoshop, ma sono felicissimo di avere relativamente poco spazio a disposizione se il risultato alla fine è in grado di prevedere cosa accadrà al momento dell’output. In altri casi, in flussi di lavoro diversi, questo potrebbe però causare notevole disagio.

Più spesso di quanto vorrei, vedo professionisti acquistare monitor di fascia alta per risolvere seri problemi di corrispondenza cromatica tra il loro risultato e ciò che il cliente vede. È un errore, a priori, per due motivi. Il primo è che allestire la postazione di visualizzazione più accurata possibile in maniera unilaterale non aiuta quando il cliente discute ciò che vede sullo schermo del suo portatile, a 300 km di distanza. Il secondo è che spesso i problemi non derivano tanto da errori nella gestione del colore quanto da grossi malintesi sulla modalità di produzione delle fotografie che vengono poi proposte. Malintesi che talvolta sono veri e propri errori, in base a qualsiasi ragionevole standard.

Il succo è che un flusso di lavoro porta ai risultati desiderati se è corretto da inizio a fine, o perlomeno se le inevitabili variabilità che s’incontrano lungo il percorso sono contenute: non bisogna dimenticare che la variazione finale è la somma di tutte le variazioni che intervengono nei vari passaggi. Più siamo precisi in ciascuno di essi, meno sorprese avremo.

E in pratica?

Idealmente, sarebbe ottimale poter provare diversi modelli e scegliere quello che ci soddisfa di più, senza diventare ossessivi. In pratica, questo è raramente possibile. Io suggerisco sempre di partire da un’analisi del budget e accettare che qualsiasi hardware ha delle limitazioni, in particolare gli hardware economici.

In assenza di una prova, qualche esperto di hardware che abbia avuto modo di confrontare i diversi modelli può forse aiutare. Leggere i numeri su un depliant o su Amazon dice poco: sull’uniformità della luminanza attraverso il monitor, sulla sua tendenza a ingiallire nel tempo, sulla pastosità dell’immagine legata alla dimensione dei pixel e ai gap tra un pixel e l’altro.

La vera differenza, fermo restando che un monitor accurato è utilissimo, la fanno l’operatore e il flusso di lavoro: se una fotografia non è correttamente esposta, nessun monitor potrà rappresentarla correttamente; se l’operatore non comprende che un errore di esposizione sposta i colori quanto la luminosità, non sarà facile rientrare nei ranghi in assenza di riferimenti.

Il mio consiglio è semplice: acquistate il miglior monitor che potete permettervi, che abbia delle caratteristiche adatte al lavoro che dovete fare, e state sereni. Ovviamente, scegliete dei parametri di calibrazione sensati e profilatelo a dovere, e se avete problemi di coerenza cromatica con ciò che il cliente vede, cercate di fare in modo che il suo sistema sia allineato al vostro. Vi avverto, però: non è semplice far passare il messaggio che lo sforzo dev’essere bilaterale.

La situazione è simile a ciò che accade con gli obiettivi: quando ho acquistato uno zoom di fascia alta per la mia fotocamera ho immediatamente notato un miglioramento qualitativo delle immagini, ma non per questo posso dire che quelle scattate fino al giorno prima con un obiettivo che costava il 25% del mio nuovo acquisto fossero da buttare nel cestino. L’importante è realizzare che esiste un limite e sfruttare ciò che si ha al meglio, spingendosi vicino a quel limite e soltanto dopo, se necessario, fare un passo verso un hardware più qualitativo.

28 commenti su “Il dilemma del monitor”

  1. Ciao, sono Raffaele, lavoro in campo video ed informatico.
    Che piacere leggere una disanima di questo argomento così sintetica e centrata.
    Grazie.

  2. Segnalo che i monitor LED in realtà sono semplicemente dei monitor LCD che usano per la retroilluminazione, al posto delle classiche lampade a fluorescenza, per l’appunto dei LED; ma dal punto di vista concettuale sono sempre degli LCD.

    Discorso diverso per i display OLED, in cui i singoli subpixel sono effettivamente dei microscopici LED, e che pertanto mostrano caratteristiche diverse rispetto agli LCD (contrasto quasi infinito, gamut molto ampio, tempi di risposta molto bassi, angoli di visualizzazione molto ampi; poi anche loro non sono esenti da difetti, però offrono dei vantaggi interessanti). Tuttavia, che io sappia, praticamente non esistono monitor OLED: questa tecnologia è usata nei display di alcuni smartphone, nonché in alcuni televisori (credo che attualmente solo LG produca TV OLED).

    1. L’osservazione è corretta, grazie della precisazione. Ho deliberatamente omesso di parlare degli schermi OLED, proprio perché sono ancora poco utilizzati in questo contesto.
      A presto!
      MO

  3. Che piacere leggere i tuoi articoli!
    Mi occupo di grafica da diversi anni è il dilemma della corrispondenza cromatica è sempre presente.

    Non so se in futuro esisterà mai l’elisir dei colori perfetti, oppure un mondo dove fisica e chimica, uniti in uno standard universale e magico, ci aiuteranno a non dover parlare più di gestione del colore.

    Attualmente mi affido ai miei occhi, all’esperienza ed anche alla fortuna.
    Tra Atlante Cromatico della Zanichelli, a settaggi e calibrazioni che funzionano decentemente, e poi al solito stampatore di fiducia.

    Ma tutto ciò per avere una corrispondenza cromatica “nella norma”. Mi accontento di una fedeltà tra l’80 ed il 90 per cento. Mi accontento di quello che viene percepito in generale dagli occhi.
    Perchè ci sono dei fattori “ambientali” che sfuggono al nostro controllo. E per questo diventa tutto inutile.

    Ricordo ancora un mio vecchio errore. La bozza era pronta.
    La tonalità di blu era visibile a monitor, sulla carta, nella mia stanza.
    Ma stampato ed affisso il poster sembrava tutto sbiadito.

    In stampa era quasi scomparsa…perchè?
    Presi la bozza e la osservai fuori, alla luce del sole di mezzogiorno. Adesso stava sparendo anche lì.

    Non avevo considerato come cambia la percezione dei colori a seconda della luce naturale. E che il cyano in percentuali minime tra il 5 ed il 10 per cento è un rischio da non sottovalutare.

    A casa ho un corridoio con pareti tra l’ocra ed il beige, che compensano (non è una cosa voluta, ovviamente!) delle foto stampate dove il giallo è ormai evaporato. Lì sono giuste, tolte dalla cornice, portate in cucina…..mamma quanto magenta!

    Per non parlare poi dello stampatore offset che carica di più o di meno i colori in macchina, tra percezioni personali ed assorbimento del colore da parte della carta.

    Senza considerare, poi, la differenza di sensibilità degli occhi da parte degli esseri umani….è nero…no! ti dico che è blu scuro!

    A volte manca una educazione cromatica, negli uomini.

    Insomma, secondo me ci vuole il buon senso. Senza rischiare ricoveri in reparti di psichiatria, perchè l’hardware non ci ha risolto un problema che, in realtà, non poteva essere risolto.

    Il mondo cambia, ma i colori non cambiano, sono liberi dalle regole e ridono di noi!

    1. Marco, leggo con molto piacere questo tuo commento che – scusami – mi era del tutto sfuggito; al punto che rispondo con due settimane di ritardo.
      In sintesi, sono completamente d’accordo con te. In ciò che scrivi menzioni fenomeni come il contrasto simultaneo, che le macchine non hanno ancora “imparato” a gestire correttamente. In ultima analisi, dobbiamo accettare che il colore è un evento: dipende da fenomeni fisici perfettamente parametrizzabili, ma viene percepito da noi (e da altri esseri senzienti, in maniera diversa) con modalità che non sono perfettamente replicabili da nessuno strumento. E qui sta il bello.
      Chi mi conosce sa che sono scettico nel ridurre tutto a un problema di parametri di calibrazione, profili ICC e a un’applicazione rigida della gestione del colore: questa rimane un punto di partenza imprescindibile, ma da sola non garantisce una riproduzione soddisfacente del colore. E si badi bene, “soddisfacente” non è necessariamente sinonimo di “corretta”.
      Grazi di nuovo quindi di questa testimonianza: con parole assai semplici hai espresso un concetto molto profondo. E sì, sono convinto anch’io che i colori ridano parecchio di noi (e il nostro sistema visivo, pure lui, ci prende in giro molto spesso).

      A presto!
      MO

  4. Bell’articolo Marco, inizio a capire qualcosa di più. Certo che il discorso è simile per molti versi a quello della musica, infatti ho collegato l’uscita audio del PC ad un amplificatore Denom PMA735R con ottimi risultati… Quello che ora sto cercando di capire è la differenza tra un campionamento video a 8 o a 10 bit… e se il mio MacBook Pro 15″ base mod. 2015 ci arriva. Potrei anche optare per l’Eizo cs2420 che è “solo” fullhd risparmiando circa 400 euro… Carlo

    1. Carlo, prendi con le pinze ciò che sto per scrivere, perché so benissimo di essere una voce abbastanza isolata: ma il mio approccio è pratico – se non vedo una differenza tra due modalità di lavoro, quella differenza di fatto non esiste. La mia idea è che in ambito di normale post-produzione fotografica la differenza tra 8 e 10 bit sia irrilevante. La faccenda è diversa se parliamo di grafica generata al computer, dove ci sono gradienti perfetti e cose simili. Il motivo è che il rumore intrinseco presente in ogni fotografia vanifica in larghissima parte la maggiore profondità disponibile nella visualizzazione, e proprio per questo la differenza semmai si vede sui gradienti “perfetti”. Inoltre il numero di colori teoricamente disponibili in una visualizzazione a 8 bit è circa 17.000.000. In una visualizzazione a 10 bit, si passa il miliardo. Le più ottimistiche teorie su quanti colori possiamo percepire si fermano a 10.000.000, e in realtà nessuno lo sa con esattezza. Più di questo però, è davvero difficile da credere. Quindi… trai le tue conclusioni.

      MO

      1. Grazie, Marco, lo stesso discorso vale in ambito audio, a cosa serve un impianto stereo che arrivi fino a 20.000 Hertz, quando si sente fino a 10.000 Hertz, io stesso mi rendo conto di non sentire più le alte frequenze come una volta… e mi da fastidio sentire musica es. con le cuffie da telefonino o con cassettine da computer. Infatti seguo i concerti classici in sala perché è l’unica musica fatta come una volta senza amplificazioni assurde. Passando al campo fotografico progressi enormi sono stati già fatti dai tempi del tubo catodico agli lcd attuali… ed ai tempi delle pellicole si parlava di effetto grana all’aumentare della sensibilità ISO… ora di rumore, che non si vuole.
        A questo punto credo che avere più definizione su un monitor serva solo per avere una visione più dettagliata in caso di forti croppaggi. Vero o no? Carlo

        1. Non sono sicuro di avere capito la domanda. Per “più definizione” intendi un maggior numero di pixel e una maggiore definizione in PPI? In caso di crop, ovvero di ritaglio d’immagini, hai meno pixel nel documento. Quindi in linea di principio un monitor più grande è quasi controindicato, perché tendenzialmente devi aumentare il fattore di zoom. O forse non ho davvero capito cosa intendi. Per inciso, la questione della frequenza è un po’ diversa: l’equivalente sarebbe semmai legato al numero di bit del convertitore. Ci sono amplificatori che hanno una risposta in frequenza che si estende ben oltre i 20 kHz, e hanno un senso per ragioni collegate alla pendenza dei filtri, che risuonano: quindi possono avere un perché, anche se poi il nostro udito non è in grado di sentire certe frequenze.

          MO

  5. Credo che ci siano alcuni casi in cui è necessario partire da più dati possibili, come nel caso di immagini a 16 o 32 bit, al posto dei classici 16 milioni di colori. Perchè 64 miliardi di colori potrebbero convenire?

    Scavando nel mio archivio di ricordi, mi sono venuti in mente due episodi dove è stato necessario andare oltre i canonici 8 bit per canale.

    Uno riguarda la ILM che sviluppò un formato di file chiamato EXR. La Industrial Light and Magic stava lavorando al film The Time Machine ed avevano riversato su pellicola degli shot per visionare un test in sala di una scena che riguarda una caverna buia ma con una luce fioca blu.

    Ebbene si accorsero che non si vedeva nulla e avevano perso molti dettagli. Quindi pensarono di realizzare un formato di file che potesse gestire 16/32 bit di colore, in modo da perdere il minor numero di informazioni durante il passaggio “fisico” su pellicola.

    Un caso analogo ci fu da parte di Don Bluth durante la realizzazione del laserdisc (che supporta video analogico) di Dragons Lair. Anche lì “partirono” da immagini a 64 miliardi di colori rispetto ai canonici 16 milioni e passa. Se non ricordo male (dovrei ritrovare l’articolo) il processo fu in fase di scansione o in modo simile al problema avuto dalla ILM, durante la fase di “riversamento” su Laserdisc.

    Marco

    1. Marco, su questo sono d’accordo, ma riguarda il processo di scansione/codifica. Nella mia risposta parlavo inoltre di “normale post-produzione fotografica”: il video è già un ambito diverso, a causa della codifica applicata. La mia osservazione era, a codifica effettuata (qualsiasi sia il numero di bit che si usa), legata alla rappresentazione – che è ben diversa: io non riesco a vedere differenze apprezzabili tra una rappresentazione a 8 e 10 bit quando si osserva un’immagine non sintetica. Certamente possono essercene, e significative, se si aumenta il numero di bit a livello di codifica – ma questa è un’altra storia.

      A presto,
      MO

      1. Marco la discussione è talmente bella che mi ha fatto dimenticare di scrivere alcune precisazioni!

        Purtroppo sono un appassionato/malato di vfx, compositing e computer grafica in generale ed ho fatto due esempi che certamente si discostano molto dalle produzioni comuni.

        Ma mi erano venute in mente proprio perchè nella realtà è difficile lavorare con questi formati. Difficile nel senso che spesso è inutile.

        Anche io, oltre alla possibilità di poter vedere un gradiente perfettamente sfumato senza bande a monitor, nella pratica comune, una immagine a 8 bit è più che sufficiente.

        Credo che l’unico reale vantaggio sia quello di poter usufruire di una maggiore mole di dati per editare l’immagine senza perdere informazioni, soprattutto nelle luci e nelle ombre.

        Dal punto di vista cromatico non so se ci siano anche dei vantaggi concreti molto visibili, ma su questo dubbio soltanto tu puoi aiutarmi ed illuminarmi!

        Cioè, correggimi se sbaglio, ha senso lavorare a 10 bit soltanto se si vuole “giocare” molto con l’immagine?

        Oppure può essere utile anche per una più fedele (ed inutile per i ragionamenti precedenti) fedeltà cromatica?

        O soltanto negli esempi “cinematografici” da me menzionati?

        Marco, grazie per la pazienza sui miei dubbi, ma per me è solo un onore poter parlare con un guru come te.

        L’ultima volta che ho vissuto una esperienza simile fu molti anni fa, quando mi passarono il cellulare di un “consulente” Agfa, perchè stavo cercando uno scanner particolare. E mi feci una bellissima chiacchierata con Roberto Bigano.

        1. Grazie Marco, ho scoperto questo blog solo ieri, ma già capito moltissime cose in più. La pubblicità ci presenta telefonini e compatti e con sensori a 20 Mpixel ed oltre, ma per favore non ditemi che la qualità è migliore di una foto fatta a 24 Mpixel con una Nikon D750 es. vero è che l’utente medio, quello che si accontenta di far solo foto in full auto, senza pernsarci più di tanto, quando la riproduzione in jpeg, con le correzioni di default permette già ottimi risultati, apprezza le foto suddette, ma la PP di foto in raw, con un monitor che permetta una visualizzazione corretta della gamma colori, e tutt’altra cosa. E buona luce. Carlo

          1. Concordo, in parte. Il problema non sta solo nel sensore, ma anche nelle ottiche – e spesso ce ne dimentichiamo rimanendo abbagliati solo dai numeri che descrivono il numero di pixel. A priori, disinnescati certi automatismi, un sensore è un sensore, e non mi sorprenderebbe se in futuro si arrivasse a un allineamento “di fatto” delle prestazioni di dispositivi e fotocamere. La vera domanda è quanto il pubblico medio riesca a distinguere la qualità di due fotografie fatte con una reflex top di gamma e con un cellulare – e ci sono parecchie prove che la differenza non viene percepita così facilmente. Detto questo, non sto sostenendo che un cellulare possa attualmente scattare come o meglio di una reflex. Sul RAW… è ben nota la mia posizione eretica: è una bellissima cosa, ha una sua utilità – ma non sono a priori un fan assoluto del formato. Un corso che afferma che il RAW è tutto e il JPEG non vale nulla non lo farò mai… perché è un’affermazione falsa e comunque va contestualizzata molto bene: cosa che per ragioni di marketing non sempre accade. Ed esistono ambiti in cui scattare in JPEG è non solo la scelta più sensata ma anche la più vantaggiosa.

            Un saluto,
            MO

          2. Tutto vero Marco, con il jpeg di ottengono risultati.. ottimi. ora in effetti sto scattando solo in raw… perché ho finalmente capito come con la PP… con Lightroom si possono ottenere correzioni nelle ombre e sulle luci eccessive… Infatti ai tempi della foto analogica facevo solo dia… perché non ho mai sviluppato foto… e la qualità delle stampe fatte in automatico non mi soddisfaceva affatto… erano meglio le stampe da dia col CibaChrome es. ora quelle correzioni che si facevano in fase di stampa a colori o in b&n sono alla portata di tutti… o quasi… non certo quelli che fanno foto solo con telefonino e selfie stick… w il progresso

          3. Tutto vero Marco, il pubblico medio non distingue certo se una foto messa in rete è stata fatta con un telefonino o con una reflex seria in raw e poi compattata in jpg… ma io sto scoprendo le enormi possibilità di correzione che offre es. Lightroom per una foto in raw… cose che con una foto già convertita in jpg col software della macchina certo non si possono fare… ora verissimo che anche il professionista che scatta foto sportive da mandare immediatamente on-line lo fa in jpg… magari pure in bassa risoluzione… ma mi sono reso conto che quelle correzioni che si facevano con la pellicola in CO… mi riferisco sia allo sviluppo variando tempi di bagni… temperature.. ecc.. con la stampa con l’ingranditore… con schermi… ombreggiature… ecc. e successivo sviluppo della foto sono ora alla portata di chiunque apprezzi la vera fotografia… ed i risultati si vedono subito… viva il progresso… aggiungo che avrei in passato sempre voluto provare a sviluppare e stampare foto… ma non ho mai potuto farlo… e buona luce. Carlo

  6. Ciao Marco,
    complimenti innanzitutto per i tuoi articoli e i tutorial su ALCE che vedo e rivedo per imparare sempre di piu’ .
    vorrei chiederti un consiglio ,…devo sostituire il mio monitor CRT IBM 22inch (un bestione da oltre 20KG) che uso per elaborare foto e prepararle per la stampa su EPSON SC P800 (la maggior parte in B&W) con un monitor LCD.. (scatto in spazio ADOBE con Canon EOS 5 MK3 )
    sono indeciso tra EIZO 2420 e EIZO 247X …non so se la LUT 3D ed il miglior calibratore valgono la differenza di prezzo… (avendo un calibratore Display 2 ho considerato anche il CS 2420 …. per il costo… ma mi sembra abbia minore contrasto )
    cosa mi consigli?
    p.s. faccio solo foto ..niente video!
    p.s.2 dai tuoi YOUTUBE.. mi sembra di capire che e’ inutile andare sui 2730 o o 277…ho capito bene
    Grazie in anticipo e complimenti a te a Bigano a Giuliana e a DAN di cui ho tutti i libri e iscrizione a Colortheory
    ciao Enrico,

    1. Domande difficili… no, in realtà la risposta è facile: il monitor giusto è quello che va bene per te. Mi spiego.
      24″ o 27″? È questione di gusto e comodità, nonché di abitudine. Io sono abituato su un 24″, conosco bene che “pasta” ha l’immagine e so rapportarmici. Il 27″ lo trovo un po’ troppo grande per i miei gusti, e i pixel sono più piccoli: il che in certi casi è un bene, in altri meno… per come lavoro io. Per questo io uso un 24″. Ciò non implica però che sconsigli un 27″, tutt’altro. E sono certo che se mi trovassi a lavorare su un monitor così, dopo due mesi sarei comunque abituato anche a quello e passerei indifferentemente dall’uno all’altro.
      Quanto alla questione tra colorimetro interno ed esterno, è fuori dubbio che quello interno è più comodo: il sistema è integrato, non devi collegare nulla e tutto fila liscio. Ma fila liscio anche con quello esterno, con un minimo di lavoro in più. Sulla LUT 3D non ti saprei dire: in ambito strettamente fotografico ho la sensazione che non sia il parametro più cruciale. Se hai una qualità effettiva più alta dell’1%, visto che sei già quasi al top, la domanda è se quella differenza qualitativa sia visibile sempre e se averla giustifichi il prezzo più alto per te. Quindi dipende anche dal budget.
      I monitor di alta fascia, EIZO ma non solo, sono macchine magnifiche: la diatriba su cosa prendere è simile a Nikon, Canon o Mirrorless? Sensore full-frame o sensore crop? Di nuovo, dipende dall’uso che ne fai. Una Ferrari è bellissima, ma andarci alla COOP è complicato, più che interessante; una 500 funziona meglio in quel caso, ma farci la Aosta-Reggio Calabria forse, ecco, non è il top :).

      Un caro saluto!
      MO

  7. L’articolo è molto interessante.
    Speravo di trovare un chiarimento anche a riguardo di una particolarità dei monitor 4K e precisamente sul fatto che questo tipo di monitor, come scritto nell’articolo, “non è particolarmente indicato per la post-produzione fotografica, perché i pixel troppo piccoli riproducono in maniera discutibile gli effetti della maschera di contrasto”.
    Ecco: sarebbe possibile avere un piccolo approfondimento sul significato di “discutibile”?
    Ho acquistato da poco un monitor 4K da 27 pollici e mi sono trovato immediatamente in difficoltà nell’applicare in giusta misura la maschera di contrasto alle fotografie ridimensionate e destinate al web. Con questo nuovo monitor ho continuato ad applicare la maschera di contrasto (sempre molto leggera!) nella mia maniera abituale, ma mi si sono subito presentate due sgradite sorprese.
    La prima sorpresa è stata quella di non riuscire più a valutare con facilità se la maschera di contrasto che applico è troppo forte o troppo leggera, cosa che non mi era mai capitata prima con un monitor standard. La seconda sorpresa mi è giunta da molte persone che hanno osservato le mie fotografie pubblicate sul web e mi ha avvisato che, sui loro monitor standard, le mie fotografie compaiono con una maschera di contrasto talmente forte da risultare fastidiosa. Come mai non riesco a vedere la stessa cosa sul mio monitor 4K e, soprattutto, quali accorgimenti bisognerebbe adottare per far sì che la maschera di contrasto risulti gradevole su ogni tipo di monitor?
    Grazie.

    1. Mirko,
      temo che non ci sia modo di uniformare i risultati purtroppo. Un vecchio adagio ironico suggerisce che se si vuole sapere come risulterà la maschera di contrasto in stampa è sufficiente stampare la foto… allargando, verrebbe da dire che per sapere come risulterà la maschera di contrasto su un certo dispositivo è sufficiente guardare la foto su quel dispositivo. Ovviamente non è una soluzione.
      Il problema sta naturalmente nelle dimensioni dei pixel, che sono per forza legate alla risoluzione del dispositivo. In un monitor 27″ 4K impostato in modo da sfruttare tutti i pixel a disposizione la risoluzione a occhio e croce supera i 170 ppi. Rispetto ai monitor tradizionali questo significa pixel molto più piccoli, circa la metà. Questo implica anche che gli aloni generati da una maschera di contrasto, a parità di impostazione del raggio in px, sono, più stretti che su un monitor tradizionale. Per questo si tende ad allargare l’alone, su uno schermo con una dimensione di pixel molto piccola, e questo diventa dolorosamente visibile su un monitor normale.
      Puoi forse provare a impostare il monitor su una dimensione più bassa: i pixel vengono interpolati, ma suggerirei di fare in modo che la dimensione reale sia il 50% della dimensione massima. Questo dimezza la risoluzione, anche se è un po’ un palliativo perché non sappiamo esattamente come venga fatto il rescaling: in teoria accorpando quattro pixel in modo che si comportino come uno, ma è tutto da verificare.
      Quando parlavo della riproduzione discutibile della maschera di contrasto mi riferivo proprio a questo. Mentre un monitor 4K è essenziale se si lavora in video a quel formato, per poter visualizzare il filmato al 100%, in fotografia le cose vanno diversamente. D’altronde è vero che il continuo aumentare della dimensione dei sensori ha portato a file che vanno visualizzati a fattori di zoom molto bassi, e questo di per sé pone un problema di visualizzazione della maschera di contrasto, che molte voci autorevoli suggeriscono di osservare al 50% sui monitor tradizionali. Quindi, in pratica, non si vede mai la maschera di contrasto su tutta la foto, ma solo su una parte, a causa del fattore di zoom.
      Infine, la maschera di contrasto è tradizionalmente l’ultimo passaggio, e dovrebbe essere (in un mondo ideale) mirata per i diversi formati di output: una per il web, una per la stampa fotografica, una per la stampa litografica… e via dicendo. Il che, temo, è quasi impossibile.

      Insomma: viviamo tempi molto interessanti ;).

      A presto!
      MO

  8. Come al solito Marco impeccabile il tuo articolo …poi quanto mi piace il tuo sottile sarcasmo, secondo solo a quello del tuo omonimo Travaglio. Ti stimo ed invidio la tua dialettica, leggendoti forse qualcosa riesco a carpire.
    Veniamo al dunque:
    A me con i monitor capita l’esatto contrario: i miei lavori sono destinati essenzialmente alla visualizzazione sul web da parte dei miei clienti. Sono pochissimi quelli che mi chiedono il lavoro per effettuarne delle stampe.
    Siccome i miei clienti hanno tutti (o quasi) monitor di fascia bassa o comunque di mediocre qualità, diciamo hanno monitor o display di portatili per così dire di “serie” o standard, devo cercare di regolare luminosità, contrasto e colori perchè possano vederli come li vede la maggior parte delle persone sul web, che siano siti web, cataloighi web, Facebook etc etc etc.
    Uso un iMac 27 late 2010 che mi basta ed avanza per l’elaborazione e l’archiviazione e che a sua volta ha impostato il suo classico profilo “iMac” regolo la luminosità a 6 tacche (per uso normale lo lascio a 3 tacche) e vado avanti così.
    Non sai quante volte mi trovo a spiegare al cliente che mi contesta foto troppo chiare o troppo sure, che è il suo monitor o display regolato in malomodo e che io cerco sempre di stare nello “Standard” web.
    …che fatica!
    Tu come ti regolersti ? hai qualche consiglio da darmi, a parte il fatto di mandarli a c…re …ma poi li perdo come clienti e questo non è saggio, mia moglie ed i miei figli voglio mangiare a fine mese 🙂
    Grazie Marco

    1. Temo di no. In pratica, non c’è molto che puoi fare. Sul web, qualsiasi standard è opinabile perché – anche ammesso che una media si possa fare – la varianza (ovvero l’oscillazione delle impostazioni dei vari dispositivi) è così ampia che quella media ha poco senso. Quello che puoi dire, e che è più facile da capire, è che uno studio di registrazione non può mixare un’orchestra sinfonica su una radiolina, e per questo si dota di casse che i comuni utenti di solito non possono avere. Questo paragone con l’audio funziona, chissà perché: l’utente medio conosce bene la differenza tra un transistor e le casse di alta fascia (anche mediocre, eh… ma non una radiolina, ecco), mentre non capisce che un iPhone non avrà mai la qualità di un monitor di classe. È l’unica cosa che conosco e che funzioni un po’, come paragone.
      Ed è una sofferenza, lo so.

      Auguri!
      MO

      1. Non so se questa sia la sezione giusta per questo mio quesito.
        Ho notato che molti laboratori online per la stampa di fotolibri non forniscono i propri profili colore ma si limitamo a fornire delle generiche “dritte” per visualizzare sul proprio monitor quello che, più o meno, sarà il risultato di stampa. Al solo fine di semplificare il mio quesito sorvolo sulla calibrazione del monitor.
        Ad esempio uno delle “dritte” suggerite da un laboratorio è quella di settare il proprio monitor con
        • Temperatura di colore: 6500 kelvin
        • Gamma: 2,2
        • Brillanza (luminance): ca. 120-140 cd/m²
        perchè questo settaggio è quello che, a grandi linee, si avvicina maggiormente allo standard sRGB di quel laboratorio di stampa.
        In questi ultimi anno ho avuto tre monitor di buona qualità ma nessuno di essi consente di regolare la luminanza espressa in cd/m², ma solo di regolare la luminosità da 0 a100.
        Esiste una tabella di conversione che consenta, anche solo approssimativamente, di calcolare a quale valore di luminosità da 0 a 100 corrisponde il valore 120-140 cd/m²?

        1. Buondì Alex,
          è una questione un po’ spinosa… cerco di spiegare in maniera semplice.
          A priori, non è necessario che un laboratorio fornisca un profilo di stampa, se non per effettuare una prova colore a monitor, la cosiddetta soft-proof. C’è una scuola di pensiero che suggerisce (nel caso si abbia il profilo) di convertire le immagini e inviarle al laboratorio con il profilo incorporato: non mi trova d’accordo, per diversi motivi che non sto a elencare. In ogni caso, qualsiasi spazio colore standard, in linea di principio, dovrebbe venire onorato in maniera automatica da qualsiasi laboratorio serio.
          I parametri suggeriti sono un po’ strani: in particolare la brillanza, che è elevata rispetto agli 80-100 cd/m2 che si suggeriscono per la visualizzazione di documenti destinati alla stampa. Ma soprattutto, bisogna ancora una volta ribadire che a priori non esiste alcun legame tra lo standard “sRGB” di stampa e l’impostazione del monitor: lo spazio di lavoro e lo spazio di visualizzazione sono in generale diversi, e la gestione del colore si occupa in questo caso di convertire i numeri dal primo al secondo, effettuando la ben nota compensazione a monitor. Altrimenti, è paradossale: un monitor wide-gamut che copra Adobe RGB dovrebbe essere impostato come un monitor che emula sRGB solo perché il laboratorio dichiara di utilizzare quello standard?
          Infine, no: non c’è corrispondenza tra i valori numerici di una scala arbitraria da 0 a 100 e la luminanza. L’impostazione di questa si fa, però, con un colorimetro o uno spettrofotometro – anche perché è l’unico modo vagamente affidabile per realizzare il profilo colore del dispositivo.

          Spero che questa risposta chiarisca almeno in parte i dubbi!
          Un caro saluto,
          MO

          1. Grazie per il tempo dedicato alla risposta. Effettivamente non è semplice, per un comune fotoamatore, capire cosa succederà alle sue fotografie quando vengono inviate ad un laboratorio di stampa. Le immagini sul mio monitor le osservo per retroilluminazione, le foto stampate le osserverò per riflessione e dunque non potranno mostrare la stessa scintillante brillantezza che avevano sul monitor. Per prevedere quanto sarà “luminosa” la foto stampata io regolo la luminosità del mio monitor (non calibrato) su 50, ossia dimezzo la luminosità del pannello ma mi pare che il valore 50 sia ancora eccessivo.
            Ancora grazie.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *