Når det diskuteres, hvorvidt man er i stand til at skelne individuelle pixels ved bestemte afstande, synes jeg det oftest udelades, at der på UHD benyttes 12 subpixels per synlig pixel mod 3 subpixels ved FullHD. Det giver et "renere" billede når man er tæt på og - vil jeg påstå - også ved mere almindelig afstand.
Prøv at tage en 1024x768 bitmap og vis den på en iPad 1-2. Tag derefter den samme bitmap, opskalér den til 2048x1536 (uden interpolation) og vis den på en iPad 3-5. Der er endog MEGET stor forskel selv om der er tale om det "samme" billede og det "samme" antal pixels. Forskellen er særligt tydelig når forsøget gøres med en bitmap der indeholder antialiased tekst.
En anden ting er, at billedbehandlingsalgoritmer med et større antal pixels har flere muligheder for at levere et mere optimalt billede ved opskalering og/eller bevægelseskompensation hvor de ved en lavere opløsning ellers må tage til takke med at benytte de pixels, der er tættest på de positioner, de ellers gerne ville ramme.
På CES 2014 præsenterede Sharp deres Aquos Quattron Plus tv som er et almindeligt FullHD tv der kan tage et UHD signal og udnytte, at der er 3 subpixels vandret for hver synlig pixel og til en hvis grænse udnytte dette til at levere et billede, der er en anelse skarpere end hvis algoritmerne kun betragtede de 1920x1080 pixels som helheder:
http://www.techradar.com/news/televisio ... 4k-1212679
At udnytte subpixels til at vise et UHD signal mere korrekt er ganske vist det modsatte af at benytte et UHD panel til at vise en lavere opløsning men det er nu engang sådan jeg primært tænker på UHD-tv: At man med flere pixels kan vise billedet mere korrekt når vi taler om opskaleret materiale (selv BluRay).
Husk på, at en grøn pixel på et FullHD tv ikke er et grønt kvadrat men derimod et smalt, grønt rektangel med måske 3-5 gange så meget sort omkring sig (da selv ikke "hvide" pixels udfylder hele den flade, de egentlig burde).