Holm86 skrev:Men hvis 10-bit teknologien er til stede og har været det i flere år hvorfor bliver selv topmodeller idag så kun udstyret med 8-bit??
Så vidt jeg kan se på det link til Sony skulle 10-bit øge farvegradueringen i forhold til et 8-bit. Men er forskellen for lille i virkeligheden til at producenterne gider satse på det?? Eller har det noget med at der ikke findes nok 10-bit signaler at gøre?? Mener da de fleste blu-ray og PS3 er istand til at vise 10-bit billeder.
Der er for de flestes brug nul og niks anvendelse for mere end 8 bit. Den mindste lille rest af forskel vil kunne ses, hvis billedet man arbejdede med er rene gråtoner, og der med 8 bit pr. farve kun vil kunne dannes 256 forskellige gråtoner.
En anden ting er at TV-signaler ikke engang har 8 bit informationer pr farve (256) - kun 220, så at bruge over 8 bit er nyttesløst. Af samme grund er farverummet også tilpas begrænset (sRGB).
I 40Z500 TV'et som Cutter nævner, er der brugt bagbelysning der medfører et større farverum end hvad der er standard for det farverum som normalt tiltænkes til TV (sRGB), så for at undgå pangfarver og lave en fornuftig kalibrering er det bedre at have med 10 bit at gøre for at kunne justere i små nok trin, nu hvor farverummet er større end normalt.
Hvorfor de ikke bare satser på belysning med et standard farverum er selvfølgelig lidt underligt. Men til billeder med et større farverum som fx. AdobeRGB, vil det være at foretrække. Muligvis har det også noget at gøre med at forøge blikfanget i butikkerne i butiksindstillingen.