Di che colore è il pianeta rosso?

Print Friendly, PDF & Email

00_MarsPochi giorni fa, più precisamente il 6 agosto, il Curiosity Rover (ufficialmente noto come MSL – Mars Science Laboratory) è atterrato sul pianeta Marte dopo un viaggio di circa otto mesi. Tra i numerosi equipaggiamenti scientifici in dotazione il veicolo ha un sistema di acquisizione d’immagini denominato MastCam che è formato in realtà da due camere adatte alla ripresa stereoscopica.

Dario Giannobile ha segnalato sul gruppo CCC presente su facebook un interessante articolo in cui si accenna inequivocabilmente a un’operazione di correzione del colore attuata su un’immagine (naturalmente a colori) inviata sulla terra dal Curiosity Rover.

Una delle foto a colori inviate da MSL sulla terra.

L’immagine è liberamente scaricabile e di pubblico dominio, e possiamo quindi mostrarla in questa sede. Se volete scaricarla alla massima risoluzione disponibile, la trovate qui. L’immagine ritrae i detriti creati dal motore dello stadio di discesa di MSL, opportunamente riquadrati e ingranditi nell’area in alto a sinistra. La cosa più interessante è però il passaggio finale del breve articolo che accompagna la fotografia già citato sopra. Vale la pena di tradurlo letteralmente, tenendo presente che ci sono due versioni dell’immagine disponibili; vedremo la seconda tra poco:

Nella versione principale, i colori riprodotti non sono modificati rispetto a quelli restituiti dalla fotocamera. La vista è quella che un telefono cellulare o un camcorder registrerebbero dal momento che la MastCam fotografa a colori esattamente allo stesso modo in cui le fotocamere consumer acquisiscono le immagini a colori. La seconda versione, collegata alla prima, mostra il colore modificato come se la scena fosse trasportata sulla Terra e illuminata dalla luce del sole terrestre. Questa elaborazione, nota come “bilanciamento del bianco”, è utile agli scienziati per metterli in grado di riconoscere e distinguere le rocce in base al loro colore in condizioni di luce più familiari.

Appena ho letto questo passaggio mi sono posto alcune domande. Innanzitutto, vediamo la versione “bilanciata” della stessa immagine presentata poco fa. Di nuovo, se volete scaricarla alla massima risoluzione disponibile, la trovate qui.

La stessa immagine vista sopra, con il bilanciamento del bianco effettuato dalla NASA.

Istintivamente l’immagine originale ci appariva viziata da una dominante giallastra, ed è un dato oggettivo che questa versione appaia più bilanciata per quanto riguarda i colori. Notate anche come sia stato artificiosamente aumentato il contrasto nella sezione ingrandita in alto a sinistra, per evidenziare meglio i dettagli dell’immagine, e notate lo spostamento cromatico rispetto alla versione contenuta nel riquadro piccolo (un fenomeno tipico dell’applicazione di una regolazione come Tono Automatico). La domanda che mi sono fatto è però questa: se avessimo solo a disposizione la versione originale della fotografia, cosa potremmo dire sul colore? Non sembra che abbiamo molti riferimenti noti: il terreno può in linea di principio avere qualsiasi colore, perché è vero che chiamiamo Marte “pianeta rosso” ma questo non è sufficiente a concludere che ogni roccia visibile sulla superficie sia rossa; e anche se questo fosse il caso, quanto rossa dovrebbe essere? e di che sfumatura di rosso? Quindi ho cercato di affrontare il problema nella maniera più neutrale possibile, partendo dal vecchio adagio: ogni immagine ha un punto di luce e un punto d’ombra, e tendiamo a rappresentare il punto di luce come bianco e quello d’ombra come nero. Per “bianco” e “nero” intendiamo come sempre colori neutri, rispettivamente molto chiari e molto scuri.

Alcuni punti significativi sull’immagine originale.

Partiamo in maniera canonica: sull’originale, utilizziamo la regolazione Soglia per identificare non tanto il punto più chiaro significativo ma il punto più chiaro in assoluto. I punti sono in realtà due e sono equivalenti: l’area più chiara visibile a metà dell’immagine verso destra, su quello che sembra essere un tubo del Curiosity Rover, ha praticamente la stessa luminosità di quello che abbiamo scelto. Il valore Lab del punto in questione è pari a 87L(2)a1b: a parte una minima deviazione verso il verde e verso il giallo, possiamo tranquillamente dire che è sostanzialmente neutro; il valore di luminosità è basso, ma questo ci interessa relativamente in questo momento. Ho aggiunto altri tre campionatori (il massimo numero di campionatori disponibili in Photoshop è quattro) su alcune aree che considero significative dal punto di vista della luminosità, e anche questi sono visibili nell’immagine. La figura a fianco rappresenta le letture in Lab del colore dei quattro campionatori nel loro insieme.

La Palette Info relativa alle letture dei quattro campioni esaminati.

Il primo lo abbiamo già discusso. Gli altri mostrano una tendenza molto chiara: una forte componente verde (a < 0) e una forte componente gialla (b > 0) che tendono a diminuire con la luminosità. Potreste chiedervi perché ho scelto una parte sfocata e decisamente fastidiosa dell’immagine per la mia analisi: il motivo è molto semplice. Come affermavo sopra, non ho alcun modo per sapere di che colore siano i minerali marziani; ma posso forse fare un’ipotesi di massima sensata su quale possa essere il colore dei metalli terrestri utilizzati per la costruzione del veicolo. Quello che vediamo nella sezione dell’immagine esaminata è infatti un pezzo del Curiosity Rover. Le immagini ufficiali dello stesso non mancano. Una, ad esempio, è disponibile qui: e si tratta di un’immagine molto, molto significativa. Andiamo a vedere perché.

Un’immagine ufficiale del Curiosity Rover in costruzione.

Ho poche certezze nella vita, ma una di queste riguarda i colori dell’immagine qui a fianco. C’è una montagna di oggetti bianchi o neutri in questa immagine, e ciascuno di loro presenta una deviazione verso il giallo variabile tra 2 e 5 punti nel canale b circa: ovvero, l’immagine ha una debole dominante gialla uniforme – nel senso che sostanzialmente non varia con la luminosità. Questa fotografia non ha, ad esempio, le luci un po’ gialle, i mezzitoni un po’ più neutri e le ombre quasi del tutto neutre: è tutta un po’ giallina. Si potrebbe correggerla con una curva in Lab in pochi secondi, ma la cosa più importante in questo contesto è la deduzione che possiamo trarne: se ogni oggetto che sappiamo essere neutro è affetto dalla stessa dominante, possiamo scommettere la carriera sulla neutralità di oggetti di cui non conosciamo il colore che sono caratterizzati dagli stessi valori. In parole povere: se le tute (che sono certamente bianche) e la parte chiara del Curiosity Rover hanno gli stessi valori nei canali a e b, hanno anche lo stesso colore nella realtà; e così infatti succede. Le ruote hanno gli stessi valori dell’armadio nero sullo sfondo; quindi devono essere nere. Ogni parte del veicolo che cada tra il bianco e il nero ha di nuovo gli stessi valori – quindi esiste un pattern preciso che non possiamo ignorare e che ci porta a una conclusione certa: il veicolo è tutto sostanzialmente neutro nelle parti metalliche, come ci aspetteremmo dal momento che è costruito con materiali metallici molto riconoscibili.

Questo ha una ricaduta importante. I valori riportati nella Palette Info riprodotta qui sopra sono errati: troppo verde e soprattutto troppo giallo. La speranza è che la NASA, bilanciando il bianco, abbia messo a posto le cose. Vediamo.

La stessa sezione dell’immagine esaminata prima, con gli stessi campionatori.

Qui a fianco, la stessa sezione esaminata prima, con gli stessi campionatori, tratta però dalla versione corretta dalla NASA. L’impressione è che ci sia una dominante bluastra nelle parti che sappiamo essere neutre, ma per verificare questo fatto è necessario esaminare di nuovo la Palette Info in Photoshop. Una cosa che possiamo certamente affermare è che i punti che si trovano sotto i campionatori #1 e #2 sembrano avere ora praticamente la stessa luminosità, mentre nell’originale era possibile distinguere a occhio livelli di luminosità diversi tra le due aree. Dal momento che l’area che ospita il campionatore #2 nell’originale è più scura di quella che ospita il campionatore #1, questo implicherebbe la scelta di clippare, bruciandole, alcune aree dell’immagine considerate non significative. Vediamo la Palette Info.

La Palette Info relativa all’immagine bilanciata nel bianco dalla NASA.

I numeri parlano chiaro. I campionatori #1 e #2 presentano il massimo valore possibile di luminosità. Gli altri due punti presentano invece una tendenza al blu che peggiora andando verso i mezzitoni. Questo è errato: noi sappiamo dall’esame della fotografia realizzata in laboratorio che possiamo considerare sostanzialmente neutre tutte le parti che intuiamo essere grigie nel veicolo. Il fatto che ci siano due punti a luminosità massima può significare che è stata fatta un’operazione di bilanciamento del bianco scegliendo un punto errato, e che non sono state esaminate le gradazioni di grigio intermedie. Un esperimento interessante, a questo punto, è verificare quante e quali aree dell’immagine siano bruciate, o comunque molto vicine al clipping.

Le aree praticamente bruciate dell’immagine (Luminosità superiore a 250 in RGB).

Com’è possibile vedere nel dettaglio qui a fianco, ottenuto tramite un livello di regolazione Soglia impostato a 250 e con un’opacità del 50%, ci sono diverse aree molto vicine al clipping. Il problema è che queste aree, a parte forse quella caratterizzata dal campionatore #1 nell’originale, portavano certamente informazioni significative sul colore, dal momento che è facile verificare che il loro colore è stabilmente giallo-verdastro come nei punti che abbiamo esaminato poco fa. Come mai quindi il punto #1 è sostanzialmente neutro nell’originale? L’unica ipotesi che mi sento di fare è che si tratti di una riflessione speculare, mentre tutte le altre aree chiare siano più opache. Nella Palette Info originale, il punto #1 ha un valore pari a 87L(2)a1b, mentre il punto #2 ha un valore pari a 83L(8)a18b: voi ci credete? Io no. Non riesco a credere che due aree a soli quattro punti di distanza per quanto riguarda la luminosità possano presentare uno spostamento cromatico di sei punti nel canale a e di ben diciassette punti nel canale b. Non posso crederlo quando ho ottimi motivi per ipotizzare che entrambe siano neutre: ma anche se una non lo fosse, in realtà, la mia conclusione resterebbe valida anche se il ragionamento fosse errato: il punto #1 semplicemente non è significativo. Un modo alternativo per esprimere questo concetto è il seguente: ho quattro punti a luminosità diverse, e non ho motivi per pensare che si discostino dalla neutralità. Li misuro: uno è neutro, gli altri tre sono giallo-verdastri. Secondo voi quale dei quattro punti è l’intruso?

Per valutare la versione bilanciata nel bianco dalla NASA, però, dobbiamo tornare a un pezzo della citazione dell’articolo che ho tradotto all’inizio. Mi riferisco a questa specifica frase: “La seconda versione, collegata alla prima, mostra il colore modificato come se la scena fosse trasportata sulla Terra e illuminata dalla luce del sole terrestre.” La parte in corsivo non mi convince. Dal momento che non voglio essere in alcun modo offensivo nei confronti della NASA e qualsiasi espressione slang italiana sarebbe probabilmente troppo forte, esprimerò il concetto nella loro lingua: this statement is a crock. Perlomeno, il concetto è esposto male. Cerchiamo di ragionare.

Sappiamo qual è la temperatura di colore media della luce su Marte? Io no. Ho cercato sul web ma non ho trovato dei numeri. Però posso ragionare come segue: l’atmosfera su Marte ha pochissimo ossigeno e molta anidride carbonica. Una delle funzioni dell’ossigeno nella nostra atmosfera è quella di ridurre l’intensità dei raggi ultravioletti. Mi aspetto quindi che un’atmosfera con poco ossigeno consenta l’incidenza di una luce bluastra. Ci sono molte microparticelle di polvere vaganti, però, nell’atmosfera di Marte: parecchio pulviscolo, insomma. I minerali marziani, come è stato scientificamente provato, sono tendenzialmente rossi, quindi la presenza di questo schermo rossastro dovrebbe ridurre un po’ la componente blu favorita dalla carenza di ossigeno. Marte è più lontano dal sole rispetto alla Terra, quindi l’intensità della luce che lo colpisce sarà più bassa che da noi. Ma in generale, a meno di sorprese eclatanti, non ci aspettiamo che la temperatura di colore della luce diurna di Marte sia radicalmente diversa dalla nostra. Non ritengo che la temperatura di colore media possa essere molto più elevata di quella di un’alba terrestre in montagna o molto più bassa di quella di un tramonto in pianura. Questo significa che, se fossimo su Marte, i nostri occhi si adatterebbero facilmente alla temperatura di colore del pianeta, e grazie al fenomeno dell’adattamento cromatico noi continueremmo a percepire come neutri gli oggetti neutri. È il solito vecchio gioco: un foglio di carta appare sostanzialmente bianco sotto il sole ma anche sotto una lampadina a incandescenza, grazie al mirabile meccanismo che consente ai nostri occhi di correggere le dominanti al volo. Quindi, l’affermazione della NASA è probabilmente errata se la riferiamo al nostro sistema visivo: vedremmo su Marte come vedremmo sulla Terra, con buona approssimazione.

E una fotocamera? Dipende da un sacco di fattori. Ma, almeno in linea di principio, è errato prendere i dati catturati da un normalissimo sensore a filtro di Bayer in una luce di temperatura di colore arbitraria e forzare un bilanciamento del bianco “terrestre”, cosa che la frase sembra implicare. Dovremmo avere un color checker, o qualcosa del genere, e bilanciare la neutralità con quello; e a dire il vero un articolo di dpreview indica la presenza di un (anomalo) color checker. In questa immagine però qualcosa palesemente non ha funzionato: noi sappiamo che i metalli che vediamo sono neutri; e sappiamo che la nostra visione, su Marte, continuerebbe a vederli come tali nelle prevedibili condizioni di illuminazione che ci aspetteremmo. Quindi, dichiaro tranquillamente che la versione probabilmente più attendibile della foto presentata in questo articolo non è quella originale (troppo giallo-verde) né quella in cui la NASA afferma di avere bilanciato il bianco (troppo blu), ma questa:

La mia versione dell’immagine originale.

L’unica cosa su cui mi sono basato è la neutralità della parte di Curiosity Rover visibile nell’angolo in basso a destra. Non tutti i punti naturalmente sono caratterizzati da a = 0 e b = 0, ma certamente i metalli sono più neutri che in entrambe le altre versioni.

Posso garantire a questo punto che il colore del terreno sia quello che vediamo nella mia versione? In realtà no: posso solo garantire, entro ragionevoli limiti, la resa dei colori neutri. Le tinte potrebbero avere degli spostamenti anche significativi, soprattutto nelle aree più sature. Ma se davvero ci aspettiamo che Marte sia il pianeta rosso, credo che questa versione sia più credibile sia dell’originale (troppo giallo) che della versione bilanciata dalla NASA (troppo blu).

Per finire, non posso esimermi, ovviamente: un veloce passaggio di PPW, con l’obbligatorio – in questo caso – step del Modern Man from Mars. Forse non sarà un grande riferimento dal punto di vista scientifico, ma l’ultima fotografia di questo articolo suggerisce davvero il senso di “pianeta rosso”, e soprattutto della variazione indotta dall’ormai famosa e utilissima tecnica di Dan Margulis.

Poteva mancare, in questo caso, il PPW con il suo MMM?

Buono spazio a tutti!
MO

20 commenti su “Di che colore è il pianeta rosso?”

  1. Appena ho visto il suolo mi si è comparsa alla mente la parola MMM. Sarà per il nome? Un analisi impeccabile. Fossi in te manderei l’articolo (tradotto) alla NASA. Complimenti.

    1. Grazie Fabrizio (e anche grazie Davide)… non credo che manderò l’articolo tradotto alla NASA; anzi, se venite a sapere che sono stato ucciso da un razzo vettore casualmente caduto sulla mia testa, vi prego di dire al mondo la verità :-).

  2. Riflessine davvero interessante, Marco. Ma la domanda seguente è: ma a loro, quelli della NASA, restituire colori così credibili e comunque veritieri, interessa abbastanza?
    In ogni caso sono abbastanza convinto che, se qualcuno di noi fosse atterrato su Marte col rover e potesse guardare direttamente la sua superficie, probabilmente ciò che vedrebbe sarebbe molto simile alla versione ppw con mmm.

    1. Claudio, in generale credo di no – che alla NASA non interessi. Ci sono migliaia di esempi di fotografie perfettamente corrette dal punto di vista cromatico che non assomigliano alla realtà come l’avremmo vista se fossimo stati presenti, e questa non è neppure una di quelle: i neutri sono sbagliati, punto. D’altronde direi che fino a che il suolo non diventa verde smeraldo o blu cobalto, tutto va – perché i dati scientifici realmente rilevanti sono ben altri. Rimane però un problema affascinante: quello che mi ha colpito subito è stato il discorso sul bilanciamento del bianco “terrestre”, che a mio parere – se ho interpretato tutto nel modo giusto – non sta in piedi. Se osservi la versione da loro proposta, ti accorgi che la parte grigio scuro del Rover ha sostanzialmente le stesse coordinate Lab del sasso “grigio” che si trova sostanzialmente a metà orizzontalmente, proprio sotto i due sassi chiari, in basso. Se loro hanno ragione, quel sasso è fortemente blu; se io ho ragione, è quasi grigio. A me non importa molto, ma un sasso blu (anzi, diversi minerali bluastri) probabilmente darebbe da pensare rispetto alla sua composizione chimica, perché la colorazione dev’essere causata da un qualche tipo di elemento. Ovviamente non vengono tratte conclusioni qualitative basate esclusivamente sulle immagini, ma una connessione c’è. Se pensi che per capire la loro natura e la composizione delle stelle se ne osserva lo spettro, già da lì comprendi che una valutazione cromatica corretta è cruciale in molti campi – non solo in quello fotografico. E più ci entri, più la materia sembra diventare un vespaio: ma come sempre, come io perlomeno credo, la natura favorisce le soluzioni semplici rispetto quelle complesse. Quindi sono personalmente molto più sereno se mi convinco che un certo minerale è grigio :-).
      Grazie del tuo commento!

  3. Cose dell’altro mondo!
    Mi dispiace un pò che la NASA non possa conoscere questa falla da te evidenziata, ma per la tua salute fisica penso sia meglio così.

  4. Articolo veramente interessante ! effettivamente capisco la scelta di lasciare l’immagine meno alterata possibile , ma questo bilanciamento nativo è veramente errato e l’immagine è palesemente gialla/verde, cosa che però , ripeto a mio parere deve restare com’è poiché può essere un fattore di studio. La versione corretta e bilanciata rispecchia più la nostra visione

    1. Beh, certamente è un fattore di studio per noi :-). Come ho scritto sotto in risposta a Claudio, in un caso del genere tutto va bene – entro certi limiti. Quello che mi ha incuriosito è il fatto che nel momento in cui si decide di fare una correzione si sbagli clamorosamente nella direzione opposta e si dica, su un sito ufficiale molto importante, che tale intervento “è utile agli scienziati per metterli in grado di riconoscere e distinguere le rocce in base al loro colore in condizioni di luce più familiari”. Quindi, un qualche tipo di valutazione qualitativa si fa, a quanto pare, in contesti come questo.
      Grazie per il commento!

  5. Gran bell’articolo, Marco. Con tanto di ricerca investigativa. Ma della tua bravura non mi stupisco. Mi stupisco invece dell’errato bilanciamento del bianco fatto dalla NASA. Tanto più che nel Curiosity Rover loro non hanno di certo avuto difficoltà ad individuare i colori neutri.
    Mi chiedo come abbiano fatto a commettere un tale errore. Non mi viene in mente una spiegazione diversa dalla tua, e cioè che abbiano considerato per il bilanciamento del bianco il punto 1 che è molto vicino al clipping. Ma poi non hanno controllato le aree neutre meno luminose? A me questo sembra davvero un errore da principianti.
    Non è che hanno bisogno di un corso? E che la prossima Roadmap che leggerò sarà da Washington?
    Ancora complimenti, ciao.

    1. Secondo me l’errore è più sottile: la parte che vediamo del Rover è sfocata ed è difficile valutare esattamente cosa siano le varie parti che si vedono. Il punto più chiaro di tutti nell’ originale (il mio campionatore #1) non è in realtà così vicino al clipping, perché misura 214R 218G 216B. Ovvero, come si vede anche dai valori Lab, è praticamente neutro. Alcuni punti sembrano riflessioni speculari (questo incluso): e se è così possono riflettere qualsiasi cosa. Altre parti, come il “bersaglio” bianco (forse è meglio dire “chiaro”?) che si vede in basso certamente non lo sono. Altre parti ancora sembrano opache pur essendo metalliche e chiare. Come l’immagine abbia potuto diventare così bluastra onestamente non me lo spiego: non c’è una curva ovvia che possa produrre quell’effetto. In realtà è perfettamente possibile, trattandosi della NASA, che le immagini siano state processate con software specializzati che magari implementano degli automatismi, i quali non necessariamente sono uguali a quelli di Photoshop. E gli automatismi, comunque, sbagliano spesso: identificano il punto di luce e il punto d’ombra, ma non sono in grado di porsi il problema di cosa quei punti rappresentino. La cosa è estremamente image-dependent, ed è per questo motivo che Tono Automatico in PS a volte sembra fare miracoli e a volte causa disastri formidabili.
      Quanto al corso a Washington – credo che Margulis, nel New Jersey, sia più vicino di me, quindi meglio che lo faccia lui… 🙂

      1. Hai ragione Marco, non c’è nessuna zona vicina al clipping. E comunque non può essere il punto 1 ad aver indotto quell’errore. Ho provato in vari modi, ed è difficile creare quella dominante blu. Ma alla fine sono riuscito a avere un’immagine praticamente identica a quella della NASA (con l’eccezione dello sharpening riportato nel riquadro che non ho fatto). La tecnica che ho usato è questa:
        1) Con la toppa e il timbro clone ho eliminato le frecce e i riquadri bianchi. Ho dovuto eliminarli altrimenti le sofisticate tecniche successive non avrebbero funzionato;
        2) Immagine-Colore automatico;
        3) Immagine-Tono automatico.
        Finito! 🙂 Ho sovrapposto il mio risultato con quello della Nasa ed ho messo dei campionatori colore. Le differenze visive e numeriche sono davvero minime. Provare per credere. Non ho parole. Spero sia una pura, anche se improbabile, coincidenza.
        Ciao

        1. Luca, ottima intuizione: ho provato anch’io (ritagliando l’immagine in basso per eliminare le righe a cui giustamente fai cenno) ed effettivamente il risultato è parecchio vicino. Il passaggio che sfascia tutto è Colore automatico. Tono automatico, di per sé, dà un risultato decente. Invocare Colore automatico su un’immagine sostanzialmente monocromatica come quella di cui stiamo parlando è una ricetta per il disastro, e come dici tu c’è da sperare che sia una coincidenza – visto che l’articolo parla esplicitamente di bilanciamento del bianco. Insomma, voglio crederlo. (Ma non posso…)

          1. Marco, sono contento che tu abbia ottenuto risultati simili. Per avere ottenuto una dominante blu, ho pensato, devono aver fatto il bilancaimento del bianco su qualcosa di giallo. Ho provato in vari modi, anche portando il file in camera raw ma è difficile ottenere lo stesso risultato. Poi mi è venuto in mente di provare con colore automatico, visto che la dominante era su tutta l’immagine. I colori ottenuti erano molto simili ma la foto poco contrastata. Con le curve riuscivo ad ottenere il risultato che volevo, ma ho cercato un automatismo. Tono automatico però non mi era di aiuto per via della presenza del bianco nelle frecce e nei riquadri. Ma eliminati questi ho ottenuto un risultato quasi identico. E poiché credo poco nelle coincidenze, la cosa mi fa parecchio ridere. Voglio solo pensare che alla NASA siano occupati a fare qualcosa di serio e che dell’articolo sia stato pubblicato “a loro insaputa”.
            Ciao
            Ciao

  6. mmmm..non hai pensato che potrebbe esserci un omino verde dietro il rover che guarda incuriosito e che ha lasciato che un po della sua luce riflessa abbia influenzato la resa dei toni delle parti metalliche del rover???

    A parte gli scherzi..il ragionamento che hai fatto ti potrebbe tranquillamente far da curriculum per entrare a Scotland Yard….
    grazie

  7. Aggiungo una considerazione: sicuramente la componente UV della luce è molto superiore ma…ricordiamoci che in questi casi il modello CIELab va in crisi perché la correlazione bluastro-UV è accettabile per piccole quantità di fluorescenza ma sbaglia di brutto quando la componente UV è troppo elevata. Ci vorrebbe un modello quadridimensionale che però non è standardizzato. Quindi potrebbe essere che tutto il ragionamento sulla “b” debba essere rivisto e, ahimè, senza avere un riferimento spettrale (non colorimetrico) non capiremmo mai che filtri hanno montato sull’obiettivo.

    1. Grazie mille dell’importante osservazione, Alessandro – anche perché indica una direzione e un problema che normalmente non affrontiamo. Le limitazioni del modello CIELab sono ben note e se ricordi ne discutevamo assieme a Davide Barranca in gennaio. In realtà per me tutto ruota attorno all’affermazione contenuta nell’articolo originale che il bilanciamento del bianco serve agli scienziati per valutare il colore delle rocce in condizioni di luce più familiari a loro: continuo a pensare che se vediamo il Rover come neutro i colori delle rocce possono essere fedeli oppure no; ma se vediamo il Rover non neutro ci sono davvero pochissime probabilità che le rocce siano corrette. È comunque un problema molto affascinante e non semplice…
      Grazie ancora!

  8. è stata pubblicata oggi sul Post questa foto, che ritrae i target utilizzati dal rover per bilanciare i colori, mettere a fuoco e calcolare le distanze. http://www.ilpost.it/2012/09/10/foto-penny-lincoln-marte/ I tre tasselli rgb immagino servano come riferimenti noti per i tre colori primari, mentre poco sotto sembra esserci un quadrato grigio, anche se ad occhio e croce mi pare più scuro del classico 18%. Quanto ai tre tasselli color crema sotto gli rgb, non capisco bene il loro scopo…

Rispondi a Alessandro Beltrami Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *