Nei vari moduli di comparazione (Measuretool/ColorLab) si trovano i valori Average/Sigma/Total con i relativi Total/best90%/worst10% Questi valori hanno tutti la stessa importanza o alcuni sono sufficienti a dare una buona descrizione delle differenze colorimetriche esistenti?
Bisognerebbe dare un'occhiata un po' a tutti... ma dipende a cosa si è interessati...
A volta ci può bastare che l'errore medio sia basso, e siccome si possono definire vari tipi di "medie", viene resa disponibile sia la media aritmetica che l'errore quadratico medio, che è un parametro più indicativo dell'andamento medio dell'errore, soprattutto se il numero di patches è grande (profili per stampanti).
A volte invece si vuole che non ci siano colori isolati troppo sbagliati, quando per esempio il comportamento della periferica è più prevedibile (tipo lineare). E' il classico caso dei profili per fotocamere, in cui in genere si usano poche patches, e dove diventa importante l'errore massimo...
Come vedi non c'è una regola rigida a cui attenersi...
E' ancora per la storia del Calibrator. Volevo comparare in DeltaE2000 i vari risultati ai vari settaggi degli slider con il file lab di partenza. Cosa guarderesti principalmente?