Til diskussion og snak om computerskærme

Redaktører: AndreasL, Moderatorer

Af Dlejt
#3227
I dag har jeg modtaget et katalog fra Hi-Fi klubben, hvor de på side 13 har en liste over gode grunde til at købe fjernsynsskærme hos dem. Bl.a. skriver de:

"10-bit billedbehandling. Øger antallet af farvenuancer fra millioner til milliarder. Giver væsentlig bedre billedkvalitet end den billigere 8-bit teknologi"

Jeg troede det højeste fladskærme understøttede var 8bit eller er jeg galt på den? Er det en anden teknologi man bruger til fjernsyn end computerskærme? Eller er der også computerskærme der på nuværende tidspunkt eller i nær kommende fremtid understøttter 10 bit, hvilket vel giver 30bit farver i.f.t de nuværende 24 bit? Eller hvordan skal det forstås?

Mvh
Dlejt.
Brugeravatar
Af Rasmus Larsen
#3228
Der er to muligheder: De vildleder bevidst eller de vildleder ubevidst. I forhold til Hifi-klubbens normale niveau, tror jeg blot det er et salgstrick, men det er naturligvis et lidt strengt et.

Flere af de nyere fladskærme operer ganske rigtigt ved 10-bit, men det er internt. Udadtil viser de naturligvis stadig 8-bit per subpixel.
Typisk kaldes det gammakorrektion eller en gamma LUT. Egentlig er det blot en intern fortolkning af signalet, men det er en fordel, at det sker ved et højere bit niveau end skærmen kan vise udadtil. Når man rykker videre mod ægte 10-bit systmer, så går man også tilsvarende op til 12 eller 14-bit internt.

Der er systemer på vej, som reelt set kan vise 10-bit, men vi får nok lov at vente på dem et par år endnu.