Il dilemma del monitor

Ultimamente ho ricevuto un numero elevato di richieste tutte più o meno simili. Riassumendo: “potresti dirmi se il monitor di marca X, modello Y, è un buon monitor?” Le stesse richieste sono passate, talvolta portando la discussione imbarazzantemente fuori tema, sul gruppo CCC di Facebook, che almeno formalmente si occupa di correzione del colore e non di hardware.

Dal punto di vista concettuale, poche cose sono più distanti della qualità del monitor dalla correzione del colore: com’è ben noto, la correzione del colore si basa su una valutazione numerica dell’immagine, e potrebbe venire attuata perfino su un monitor in scala di grigi (i miei allievi lo sanno bene, per averlo provato sulla loro pelle). Naturalmente, un buon monitor descritto da un buon profilo colore è estremamente utile, ma far ruotare tutto attorno alla qualità della visualizzazione non è una grande idea, soprattutto quando ciò finisce per nascondere un sacco di polvere sotto il tappeto, ovvero altri problemi che esistono a monte, nella catena di post-produzione.

Alcune delle richieste ricevute sono state irritanti, non tanto per il tono quanto per il contenuto. Il problema attorno a cui si gira è sempre quello, ed è sempre mal posto:

Come posso essere sicuro di avere una corrispondenza tra monitor e stampa? tra monitor e altro monitor? tra monitor e previsioni zodiacali per il prossimo autunno? tra monitor e mia suocera?

Sto ironizzando, ma è un’ironia triste: per qualche motivo si è solidificata la convinzione che un monitor qualsiasi possa adattarsi e corrispondere più o meno con qualsiasi cosa. Purtroppo non è così.

Ho scritto e parlato così tanto di questo argomento che non voglio ripetermi, ma almeno alcuni punti vanno decisamente tenuti presenti. In estrema sintesi:

  • Un monitor è un dispositivo tecnologico come tutti gli altri: può essere di buona o cattiva qualità, affidabile o non affidabile, e spesso (ma non sempre) la sua qualità è proporzionale al prezzo.
  • “Calibrare il monitor”, come tutti sembrano dire, non significa renderlo migliore. In senso stretto, “calibrare” significa soltanto scegliere dei parametri di funzionamento opportuni in un certo contesto. Partendo da questi, si crea il profilo colore del monitor per mezzo della caratterizzazione. Di questo ho già parlato ampiamente in passato.
  • Un buon profilo colore non renderà stupefacente un monitor di scarsa qualità, così come il motore ben carburato di un’utilitaria non avrà le prestazioni di quello di un’auto da corsa.

L’idea è di dirottare le richieste che mi arrivano, e sono più di quanto si possa immaginare, su questo articolo, in modo da non dovere sempre rispondere alle stesse domande. Vorrei partire quindi da alcune “pillole” semplici e concise.

Monitor: analogico e digitale

Esistono due grandi categorie di monitor, distinte per principio di funzionamento: i monitor analogici e quelli digitali. I più importanti rappresentanti del primo gruppo sono i monitor CRT (Cathode Ray Tube) assimilabili alle vecchie televisioni. Il tubo a raggi catodici è quello che, in termini televisivi, veniva chiamato cinescopio. Questa tecnologia è ben nota, affidabile, ma ormai obsoleta – o perlomeno condannata da vari fattori a scomparire.

I monitor analogici sono stati praticamente sostituiti da quelli digitali, che si dividono in diverse categorie. Le due più importanti sono i monitor LCD e i monitor a LED.

Monitor digitali: LCD

I monitor LCD funzionano grazie alla proprietà ottiche di materiali denominati cristalli liquidi. La sigla, infatti, sta per Liquid Crystal Display. I cristalli liquidi, di per sé, non emettono luce: sono piuttosto assimilabili a filtri che vengono attraversati dalla luce. Il principio fisico di funzionamento non è importante, in questa sede, ma vale la pena di considerare alcune caratteristiche di questi dispositivi.

Si discute sempre molto del gamut dello spazio colore che un monitor è in grado di esprimere, ma questo non è l’unico parametro importante. La bontà di un monitor si giudica anche in base al contrasto, alla luminanza, all’uniformità della rappresentazione dei grigi, all’angolo utile di visuale, al tempo di risposta ai segnali che riceve e, naturalmente, alla resa cromatica.

Il contrasto in un monitor è facile da definire. Se inviamo al pannello un segnale pari a 0R 0G 0B (“nero”), possiamo misurare la sua luminanza in questo contesto; se inviamo invece un segnale pari a 255R 255G 255B possiamo misurare la luminanza del “bianco”. Il rapporto tra la luminanza del bianco e quella del nero è ciò che chiamiamo contrasto. Un contrasto elevato corrisponde a una gamma dinamica estesa, mentre un contrasto basso denuncia una gamma dinamica ristretta.

Gli schermi LCD hanno due modalità di funzionamento denominate trasmissiva e riflettiva. Gli schermi trasmissivi sono illuminati sul lato opposto rispetto a quello di osservazione: si parla in questo caso di retroilluminazione, perché viene posizionata una luce sul retro dello schermo; i cristalli liquidi la filtrano, facendo passare la componente cromatica richiesta. Questi schermi possono essere molto luminosi ma hanno un consumo elevato. Gli schermi riflettivi utilizzano la luce ambiente, che uno specchio posto dietro i cristalli liquidi riflette fornendo la retroilluminazione necessaria. Il contrasto è più basso rispetto agli schermi trasmissivi, e se la luce ambiente è bassa la performance è seriamente degradata. Per questo motivo, praticamente tutti i monitor per utilizzo informatico sono di tipo trasmissivo.

Una delle tecnologie di retroilluminazione più diffuse si basa su LED, ovvero Light Emitting Diodes.

Il tempo di risposta di un monitor LCD non è rapidissimo, anche se questo presenta paradossalmente dei vantaggi in certi contesti. La resa cromatica dipende molto dalla retroilluminazione: in particolare, l’utilizzo di sorgenti luminose LED permette di estendere il gamut del monitor in maniera sensibile rispetto ad altre tecniche peraltro ancora utilizzate.

Monitor digitali: LED

Un LED è un semiconduttore in grado di emettere luce quando gli viene applicato un segnale elettrico. Un pannello a LED è diverso da un pannello LCD nella misura in cui emette luce direttamente (ciascun pixel è formato da tre subpixel dei tre colori primari, e la loro combinazione produce la percezione dei diversi colori in base al fenomeno della sintesi additiva). In media, i monitor a LED reagiscono più velocemente ai segnali rispetto ai monitor LCD (minore tempo di risposta), hanno un rapporto di contrasto molto buono, possono avere una luminanza elevata e hanno un gamut ragionevolmente esteso. Inoltre, sono marginalmente più stabili, perché fluttuano meno e più lentamente nel tempo. 

Come scegliere un monitor

I monitor LED più economici costano meno di 100€, i modelli di fascia alta possono costare invece diverse migliaia di Euro. Aspettarsi che abbiano performance simili è irreale, ma – come scrivevo prima – permane l’assurda convinzione che un buon profilo ICC possa far funzionare alla perfezione qualsiasi monitor. Sarebbe come pretendere che gli altoparlanti da pochi Euro di un computer portatile, pilotati da un segnale opportunamente equalizzato, avessero lo stesso suono di un sistema di monitoraggio da studio che spesso costa decine di migliaia di Euro: nessuno se lo aspetterebbe in campo audio, ma nel nostro campo, per qualche motivo, questo è all’ordine del giorno.

Non sono mai in grado di rispondere alla domanda: “questo monitor è buono?”, che sottende sempre una domanda sulla coerenza del prezzo con le prestazioni. In tutta onestà, ho l’impressione che all’interno di una forbice di prezzi abbastanza contenuta le performance dei vari monitor siano simili, fatti salvi alcuni utilizzi specialistici. Intendo dire che se un generico modello X costa 250€,  un modello Y costa 280€ e le loro caratteristiche tecniche sono comparabili, è difficile che i due dispositivi presentino differenze significative di performance, per semplici ragioni di concorrenza sul mercato.

Diverso è il discorso quando si guardano alcuni parametri specifici: un monitor da gaming, ovvero pensato per i giochi, non ha motivo di essere cromaticamente accurato, ma dev’essere in grado di riprodurre un gran numero di poligoni disegnati molto rapidamente, senza sfarfallii e senza il fastidioso effetto scia che a volte si nota sui monitor più lenti. Per questo motivo, questo tipo di monitor sarà ottimizzato su aspetti come il tempo di risposta, ma progettualmente verrà chiuso un occhio sulla resa cromatica, e la stabilità nel tempo non sarà probabilmente in cima alla lista delle aspettative dei clienti. Un monitor di questo tipo, quindi, non sarà particolarmente adatto al ritocco fotografico e alla prestampa.

Chiedere se un monitor sia buono è come chiedere se una fotocamera sia buona: l’unica risposta possibile è “dipende”. Un banco ottico è strabiliante se usato in studio per produrre fotografie still life, ma è inutilizzabile in ambito sportivo. Allo stesso modo, un gamut esteso non è forse la caratteristica più necessaria, attualmente, per chi si occupa di video, visto che lo standard odierno livella tutto verso il basso (mi riferisco alla raccomandazione ITU-R BT.709). Inoltre, i software di editing più in voga non gestiscono i profili colore, né operano la compensazione a monitor, falsando pertanto la rappresentazione su un monitor ad ampio gamut.

Un monitor 4K è essenziale per chi lavora invece in video in questo formato, ma non è particolarmente indicato per la post-produzione fotografica, perché i pixel troppo piccoli riproducono in maniera discutibile gli effetti della maschera di contrasto, che rimane un passaggio fondamentale. Io, ad esempio, lavoro su un monitor a 24″ il cui lato maggiore è di “soli” 1920 px. In certi casi utilizzo un secondo monitor per i pannelli di Photoshop, ma sono felicissimo di avere relativamente poco spazio a disposizione se il risultato alla fine è in grado di prevedere cosa accadrà al momento dell’output. In altri casi, in flussi di lavoro diversi, questo potrebbe però causare notevole disagio.

Più spesso di quanto vorrei, vedo professionisti acquistare monitor di fascia alta per risolvere seri problemi di corrispondenza cromatica tra il loro risultato e ciò che il cliente vede. È un errore, a priori, per due motivi. Il primo è che allestire la postazione di visualizzazione più accurata possibile in maniera unilaterale non aiuta quando il cliente discute ciò che vede sullo schermo del suo portatile, a 300 km di distanza. Il secondo è che spesso i problemi non derivano tanto da errori nella gestione del colore quanto da grossi malintesi sulla modalità di produzione delle fotografie che vengono poi proposte. Malintesi che talvolta sono veri e propri errori, in base a qualsiasi ragionevole standard.

Il succo è che un flusso di lavoro porta ai risultati desiderati se è corretto da inizio a fine, o perlomeno se le inevitabili variabilità che s’incontrano lungo il percorso sono contenute: non bisogna dimenticare che la variazione finale è la somma di tutte le variazioni che intervengono nei vari passaggi. Più siamo precisi in ciascuno di essi, meno sorprese avremo.

E in pratica?

Idealmente, sarebbe ottimale poter provare diversi modelli e scegliere quello che ci soddisfa di più, senza diventare ossessivi. In pratica, questo è raramente possibile. Io suggerisco sempre di partire da un’analisi del budget e accettare che qualsiasi hardware ha delle limitazioni, in particolare gli hardware economici.

In assenza di una prova, qualche esperto di hardware che abbia avuto modo di confrontare i diversi modelli può forse aiutare. Leggere i numeri su un depliant o su Amazon dice poco: sull’uniformità della luminanza attraverso il monitor, sulla sua tendenza a ingiallire nel tempo, sulla pastosità dell’immagine legata alla dimensione dei pixel e ai gap tra un pixel e l’altro.

La vera differenza, fermo restando che un monitor accurato è utilissimo, la fanno l’operatore e il flusso di lavoro: se una fotografia non è correttamente esposta, nessun monitor potrà rappresentarla correttamente; se l’operatore non comprende che un errore di esposizione sposta i colori quanto la luminosità, non sarà facile rientrare nei ranghi in assenza di riferimenti.

Il mio consiglio è semplice: acquistate il miglior monitor che potete permettervi, che abbia delle caratteristiche adatte al lavoro che dovete fare, e state sereni. Ovviamente, scegliete dei parametri di calibrazione sensati e profilatelo a dovere, e se avete problemi di coerenza cromatica con ciò che il cliente vede, cercate di fare in modo che il suo sistema sia allineato al vostro. Vi avverto, però: non è semplice far passare il messaggio che lo sforzo dev’essere bilaterale.

La situazione è simile a ciò che accade con gli obiettivi: quando ho acquistato uno zoom di fascia alta per la mia fotocamera ho immediatamente notato un miglioramento qualitativo delle immagini, ma non per questo posso dire che quelle scattate fino al giorno prima con un obiettivo che costava il 25% del mio nuovo acquisto fossero da buttare nel cestino. L’importante è realizzare che esiste un limite e sfruttare ciò che si ha al meglio, spingendosi vicino a quel limite e soltanto dopo, se necessario, fare un passo verso un hardware più qualitativo.

19 pensieri su “Il dilemma del monitor”

  1. Ciao, sono Raffaele, lavoro in campo video ed informatico.
    Che piacere leggere una disanima di questo argomento così sintetica e centrata.
    Grazie.

  2. Segnalo che i monitor LED in realtà sono semplicemente dei monitor LCD che usano per la retroilluminazione, al posto delle classiche lampade a fluorescenza, per l’appunto dei LED; ma dal punto di vista concettuale sono sempre degli LCD.

    Discorso diverso per i display OLED, in cui i singoli subpixel sono effettivamente dei microscopici LED, e che pertanto mostrano caratteristiche diverse rispetto agli LCD (contrasto quasi infinito, gamut molto ampio, tempi di risposta molto bassi, angoli di visualizzazione molto ampi; poi anche loro non sono esenti da difetti, però offrono dei vantaggi interessanti). Tuttavia, che io sappia, praticamente non esistono monitor OLED: questa tecnologia è usata nei display di alcuni smartphone, nonché in alcuni televisori (credo che attualmente solo LG produca TV OLED).

    1. L’osservazione è corretta, grazie della precisazione. Ho deliberatamente omesso di parlare degli schermi OLED, proprio perché sono ancora poco utilizzati in questo contesto.
      A presto!
      MO

  3. Che piacere leggere i tuoi articoli!
    Mi occupo di grafica da diversi anni è il dilemma della corrispondenza cromatica è sempre presente.

    Non so se in futuro esisterà mai l’elisir dei colori perfetti, oppure un mondo dove fisica e chimica, uniti in uno standard universale e magico, ci aiuteranno a non dover parlare più di gestione del colore.

    Attualmente mi affido ai miei occhi, all’esperienza ed anche alla fortuna.
    Tra Atlante Cromatico della Zanichelli, a settaggi e calibrazioni che funzionano decentemente, e poi al solito stampatore di fiducia.

    Ma tutto ciò per avere una corrispondenza cromatica “nella norma”. Mi accontento di una fedeltà tra l’80 ed il 90 per cento. Mi accontento di quello che viene percepito in generale dagli occhi.
    Perchè ci sono dei fattori “ambientali” che sfuggono al nostro controllo. E per questo diventa tutto inutile.

    Ricordo ancora un mio vecchio errore. La bozza era pronta.
    La tonalità di blu era visibile a monitor, sulla carta, nella mia stanza.
    Ma stampato ed affisso il poster sembrava tutto sbiadito.

    In stampa era quasi scomparsa…perchè?
    Presi la bozza e la osservai fuori, alla luce del sole di mezzogiorno. Adesso stava sparendo anche lì.

    Non avevo considerato come cambia la percezione dei colori a seconda della luce naturale. E che il cyano in percentuali minime tra il 5 ed il 10 per cento è un rischio da non sottovalutare.

    A casa ho un corridoio con pareti tra l’ocra ed il beige, che compensano (non è una cosa voluta, ovviamente!) delle foto stampate dove il giallo è ormai evaporato. Lì sono giuste, tolte dalla cornice, portate in cucina…..mamma quanto magenta!

    Per non parlare poi dello stampatore offset che carica di più o di meno i colori in macchina, tra percezioni personali ed assorbimento del colore da parte della carta.

    Senza considerare, poi, la differenza di sensibilità degli occhi da parte degli esseri umani….è nero…no! ti dico che è blu scuro!

    A volte manca una educazione cromatica, negli uomini.

    Insomma, secondo me ci vuole il buon senso. Senza rischiare ricoveri in reparti di psichiatria, perchè l’hardware non ci ha risolto un problema che, in realtà, non poteva essere risolto.

    Il mondo cambia, ma i colori non cambiano, sono liberi dalle regole e ridono di noi!

    1. Marco, leggo con molto piacere questo tuo commento che – scusami – mi era del tutto sfuggito; al punto che rispondo con due settimane di ritardo.
      In sintesi, sono completamente d’accordo con te. In ciò che scrivi menzioni fenomeni come il contrasto simultaneo, che le macchine non hanno ancora “imparato” a gestire correttamente. In ultima analisi, dobbiamo accettare che il colore è un evento: dipende da fenomeni fisici perfettamente parametrizzabili, ma viene percepito da noi (e da altri esseri senzienti, in maniera diversa) con modalità che non sono perfettamente replicabili da nessuno strumento. E qui sta il bello.
      Chi mi conosce sa che sono scettico nel ridurre tutto a un problema di parametri di calibrazione, profili ICC e a un’applicazione rigida della gestione del colore: questa rimane un punto di partenza imprescindibile, ma da sola non garantisce una riproduzione soddisfacente del colore. E si badi bene, “soddisfacente” non è necessariamente sinonimo di “corretta”.
      Grazi di nuovo quindi di questa testimonianza: con parole assai semplici hai espresso un concetto molto profondo. E sì, sono convinto anch’io che i colori ridano parecchio di noi (e il nostro sistema visivo, pure lui, ci prende in giro molto spesso).

      A presto!
      MO

  4. Bell’articolo Marco, inizio a capire qualcosa di più. Certo che il discorso è simile per molti versi a quello della musica, infatti ho collegato l’uscita audio del PC ad un amplificatore Denom PMA735R con ottimi risultati… Quello che ora sto cercando di capire è la differenza tra un campionamento video a 8 o a 10 bit… e se il mio MacBook Pro 15″ base mod. 2015 ci arriva. Potrei anche optare per l’Eizo cs2420 che è “solo” fullhd risparmiando circa 400 euro… Carlo

    1. Carlo, prendi con le pinze ciò che sto per scrivere, perché so benissimo di essere una voce abbastanza isolata: ma il mio approccio è pratico – se non vedo una differenza tra due modalità di lavoro, quella differenza di fatto non esiste. La mia idea è che in ambito di normale post-produzione fotografica la differenza tra 8 e 10 bit sia irrilevante. La faccenda è diversa se parliamo di grafica generata al computer, dove ci sono gradienti perfetti e cose simili. Il motivo è che il rumore intrinseco presente in ogni fotografia vanifica in larghissima parte la maggiore profondità disponibile nella visualizzazione, e proprio per questo la differenza semmai si vede sui gradienti “perfetti”. Inoltre il numero di colori teoricamente disponibili in una visualizzazione a 8 bit è circa 17.000.000. In una visualizzazione a 10 bit, si passa il miliardo. Le più ottimistiche teorie su quanti colori possiamo percepire si fermano a 10.000.000, e in realtà nessuno lo sa con esattezza. Più di questo però, è davvero difficile da credere. Quindi… trai le tue conclusioni.

      MO

      1. Grazie, Marco, lo stesso discorso vale in ambito audio, a cosa serve un impianto stereo che arrivi fino a 20.000 Hertz, quando si sente fino a 10.000 Hertz, io stesso mi rendo conto di non sentire più le alte frequenze come una volta… e mi da fastidio sentire musica es. con le cuffie da telefonino o con cassettine da computer. Infatti seguo i concerti classici in sala perché è l’unica musica fatta come una volta senza amplificazioni assurde. Passando al campo fotografico progressi enormi sono stati già fatti dai tempi del tubo catodico agli lcd attuali… ed ai tempi delle pellicole si parlava di effetto grana all’aumentare della sensibilità ISO… ora di rumore, che non si vuole.
        A questo punto credo che avere più definizione su un monitor serva solo per avere una visione più dettagliata in caso di forti croppaggi. Vero o no? Carlo

        1. Non sono sicuro di avere capito la domanda. Per “più definizione” intendi un maggior numero di pixel e una maggiore definizione in PPI? In caso di crop, ovvero di ritaglio d’immagini, hai meno pixel nel documento. Quindi in linea di principio un monitor più grande è quasi controindicato, perché tendenzialmente devi aumentare il fattore di zoom. O forse non ho davvero capito cosa intendi. Per inciso, la questione della frequenza è un po’ diversa: l’equivalente sarebbe semmai legato al numero di bit del convertitore. Ci sono amplificatori che hanno una risposta in frequenza che si estende ben oltre i 20 kHz, e hanno un senso per ragioni collegate alla pendenza dei filtri, che risuonano: quindi possono avere un perché, anche se poi il nostro udito non è in grado di sentire certe frequenze.

          MO

  5. Credo che ci siano alcuni casi in cui è necessario partire da più dati possibili, come nel caso di immagini a 16 o 32 bit, al posto dei classici 16 milioni di colori. Perchè 64 miliardi di colori potrebbero convenire?

    Scavando nel mio archivio di ricordi, mi sono venuti in mente due episodi dove è stato necessario andare oltre i canonici 8 bit per canale.

    Uno riguarda la ILM che sviluppò un formato di file chiamato EXR. La Industrial Light and Magic stava lavorando al film The Time Machine ed avevano riversato su pellicola degli shot per visionare un test in sala di una scena che riguarda una caverna buia ma con una luce fioca blu.

    Ebbene si accorsero che non si vedeva nulla e avevano perso molti dettagli. Quindi pensarono di realizzare un formato di file che potesse gestire 16/32 bit di colore, in modo da perdere il minor numero di informazioni durante il passaggio “fisico” su pellicola.

    Un caso analogo ci fu da parte di Don Bluth durante la realizzazione del laserdisc (che supporta video analogico) di Dragons Lair. Anche lì “partirono” da immagini a 64 miliardi di colori rispetto ai canonici 16 milioni e passa. Se non ricordo male (dovrei ritrovare l’articolo) il processo fu in fase di scansione o in modo simile al problema avuto dalla ILM, durante la fase di “riversamento” su Laserdisc.

    Marco

    1. Marco, su questo sono d’accordo, ma riguarda il processo di scansione/codifica. Nella mia risposta parlavo inoltre di “normale post-produzione fotografica”: il video è già un ambito diverso, a causa della codifica applicata. La mia osservazione era, a codifica effettuata (qualsiasi sia il numero di bit che si usa), legata alla rappresentazione – che è ben diversa: io non riesco a vedere differenze apprezzabili tra una rappresentazione a 8 e 10 bit quando si osserva un’immagine non sintetica. Certamente possono essercene, e significative, se si aumenta il numero di bit a livello di codifica – ma questa è un’altra storia.

      A presto,
      MO

      1. Marco la discussione è talmente bella che mi ha fatto dimenticare di scrivere alcune precisazioni!

        Purtroppo sono un appassionato/malato di vfx, compositing e computer grafica in generale ed ho fatto due esempi che certamente si discostano molto dalle produzioni comuni.

        Ma mi erano venute in mente proprio perchè nella realtà è difficile lavorare con questi formati. Difficile nel senso che spesso è inutile.

        Anche io, oltre alla possibilità di poter vedere un gradiente perfettamente sfumato senza bande a monitor, nella pratica comune, una immagine a 8 bit è più che sufficiente.

        Credo che l’unico reale vantaggio sia quello di poter usufruire di una maggiore mole di dati per editare l’immagine senza perdere informazioni, soprattutto nelle luci e nelle ombre.

        Dal punto di vista cromatico non so se ci siano anche dei vantaggi concreti molto visibili, ma su questo dubbio soltanto tu puoi aiutarmi ed illuminarmi!

        Cioè, correggimi se sbaglio, ha senso lavorare a 10 bit soltanto se si vuole “giocare” molto con l’immagine?

        Oppure può essere utile anche per una più fedele (ed inutile per i ragionamenti precedenti) fedeltà cromatica?

        O soltanto negli esempi “cinematografici” da me menzionati?

        Marco, grazie per la pazienza sui miei dubbi, ma per me è solo un onore poter parlare con un guru come te.

        L’ultima volta che ho vissuto una esperienza simile fu molti anni fa, quando mi passarono il cellulare di un “consulente” Agfa, perchè stavo cercando uno scanner particolare. E mi feci una bellissima chiacchierata con Roberto Bigano.

        1. Grazie Marco, ho scoperto questo blog solo ieri, ma già capito moltissime cose in più. La pubblicità ci presenta telefonini e compatti e con sensori a 20 Mpixel ed oltre, ma per favore non ditemi che la qualità è migliore di una foto fatta a 24 Mpixel con una Nikon D750 es. vero è che l’utente medio, quello che si accontenta di far solo foto in full auto, senza pernsarci più di tanto, quando la riproduzione in jpeg, con le correzioni di default permette già ottimi risultati, apprezza le foto suddette, ma la PP di foto in raw, con un monitor che permetta una visualizzazione corretta della gamma colori, e tutt’altra cosa. E buona luce. Carlo

          1. Concordo, in parte. Il problema non sta solo nel sensore, ma anche nelle ottiche – e spesso ce ne dimentichiamo rimanendo abbagliati solo dai numeri che descrivono il numero di pixel. A priori, disinnescati certi automatismi, un sensore è un sensore, e non mi sorprenderebbe se in futuro si arrivasse a un allineamento “di fatto” delle prestazioni di dispositivi e fotocamere. La vera domanda è quanto il pubblico medio riesca a distinguere la qualità di due fotografie fatte con una reflex top di gamma e con un cellulare – e ci sono parecchie prove che la differenza non viene percepita così facilmente. Detto questo, non sto sostenendo che un cellulare possa attualmente scattare come o meglio di una reflex. Sul RAW… è ben nota la mia posizione eretica: è una bellissima cosa, ha una sua utilità – ma non sono a priori un fan assoluto del formato. Un corso che afferma che il RAW è tutto e il JPEG non vale nulla non lo farò mai… perché è un’affermazione falsa e comunque va contestualizzata molto bene: cosa che per ragioni di marketing non sempre accade. Ed esistono ambiti in cui scattare in JPEG è non solo la scelta più sensata ma anche la più vantaggiosa.

            Un saluto,
            MO

          2. Tutto vero Marco, con il jpeg di ottengono risultati.. ottimi. ora in effetti sto scattando solo in raw… perché ho finalmente capito come con la PP… con Lightroom si possono ottenere correzioni nelle ombre e sulle luci eccessive… Infatti ai tempi della foto analogica facevo solo dia… perché non ho mai sviluppato foto… e la qualità delle stampe fatte in automatico non mi soddisfaceva affatto… erano meglio le stampe da dia col CibaChrome es. ora quelle correzioni che si facevano in fase di stampa a colori o in b&n sono alla portata di tutti… o quasi… non certo quelli che fanno foto solo con telefonino e selfie stick… w il progresso

          3. Tutto vero Marco, il pubblico medio non distingue certo se una foto messa in rete è stata fatta con un telefonino o con una reflex seria in raw e poi compattata in jpg… ma io sto scoprendo le enormi possibilità di correzione che offre es. Lightroom per una foto in raw… cose che con una foto già convertita in jpg col software della macchina certo non si possono fare… ora verissimo che anche il professionista che scatta foto sportive da mandare immediatamente on-line lo fa in jpg… magari pure in bassa risoluzione… ma mi sono reso conto che quelle correzioni che si facevano con la pellicola in CO… mi riferisco sia allo sviluppo variando tempi di bagni… temperature.. ecc.. con la stampa con l’ingranditore… con schermi… ombreggiature… ecc. e successivo sviluppo della foto sono ora alla portata di chiunque apprezzi la vera fotografia… ed i risultati si vedono subito… viva il progresso… aggiungo che avrei in passato sempre voluto provare a sviluppare e stampare foto… ma non ho mai potuto farlo… e buona luce. Carlo

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *