Til diskussion og snak om computerskærme

Redaktører: AndreasL, Moderatorer

Brugeravatar
Af Torben Rasmussen
#29803
Acer er notoriske for deres elendige korrektur af informationerne på deres hjemmeside. Der er endda fejl i den introducerende tekst på deres hjemmeside
solid and reliable 4:3 display
På deres hjemmeside angives betragtningsvinklerne på 1923D til at være et 160/160, og et TN panel, imens de påstår at det er et 8 bit panel.
Af muttleydk
#29805
fifafrazen -->

Det jeg har fundet ud af, er at det er absolut umuligt at sammenligne skærme ud fra specifikationer..


Især hastighed er totalt ubrugligt at bruge til at sammenligne med.. Du kan dog med stor sikkerhed være ret sikker på at skærme opgivet til 2-5ms er skærme med et TN panel..


Der er mange grunde til at responstiden opgivet af skærmeproducenterne ikke kan bruges til ret meget..

For det første, så er den tid der angives, en tid panelet i skærmen bruger.. altså den tid fra panelet starter med at ændre farve, indtil den er færdig..

Det er også meget fint, og denne hastighed skal helst være max 16ms.. (min mening)

Problemet er at den elektronik der styrer panelet, bruger tid på at behandle signalet, før panelet rent faktisk starter med at skifte farve..

Så den samlet tid er altså elektronik+panel..


Så en skærm med et 2ms panel, og 10ms elektronik giver ialt 12ms..

og en skærm med 6ms panel og 6ms elektronik giver ialt 12ms..


Den ene skærm er opgivet til 2ms, den anden til 6ms.. selvom de er lige hurtige..

(yakken vil så her nok understrege at det ikke er samme resultat, som det heller ikke er, men det vil meget virke some det samme så længe vi snakke så små tal)

Det er klart at hvis panelet bliver for langsomt, så dannes slør når der er levende billeder.. men 16ms eller derunder er alt nok af panelet.


Det hele handler om tal, og salg.. 2ms lyder bedre end 6ms.


**For mig er det absolut vigtigt med hurtig elektronik.. om panelet er 2ms eller 10ms, det er sådanset mig lige meget, den smugle slør kan mine gamle øjne ikke se alligevel**

Panel hastighed = mængden af slør.

Elektronik hastighed = Hvor hurtig der skær noget på skærmen..

Ret mig hvis jeg tager fejl yakken :)

-----------
Og her snakker vi kun responstid.. der er så mange andre skumle ting i specifikationerne man ikke kan sammenligne.. Det er derfor jeg spørger på et forum, idet jeg håber der er hjælp at hente hos folk der rent faktisk har prøvet det de anbefaler..

Jeg kan sagtens selv sammenligne specifikationer, men det giver ikke noget korrekt billed overhovedet..

--

Jeg bestiller med stor sikkerhed den Samsung 971p nuher snart.. Om ikke andet, så kan jeg se hvad den evt fejler efter min mening..

/muttleydk
Af fifafrazer
#29808
Ja, den med elektronik latency var jeg med på, men der er stort set ingen der tester det, og derfor spørger jeg så her på sitet om nogen ved noget om den pågældende skærm. Den eneste rigtige måde at teste det på er vel at sætte en CRT skærm til i clonemode, og så bruge monitortesten. Slør ser træls ud, men inputlag er nok ligeså slemt. Har ikke selv oplevet det, for jeg har aldrig prøvet at bruge en fladskærm til andet end kontorbrug. Jeg ved dog hvor meget jeg hader trådløse mus pga. input lag, så jeg kan lige forestille mig, hvor irriterende det er på en skærm også.
Af muttleydk
#29810
fifafrazer-->

jeg er kun glad for forslag, så længe det er et forslag.. Kom endelig med flere :)


det jeg bare også mente var, at man skal passe på at læse ting på nettet.. når jeg læser på tweakup.dk og edbpriser.dk 's forum og mange andre steder, så anbefaler en person en skærm, og 20 andre personer kommer med ting som: ej, køb ikke den der, den er langsom, 5 ms dur bare ikke.. du skal købe 2ms, det er så fedt.. egentligt kunne de snakke om 100% samme skærm, bare den ene skærm er opgivet ved g2g, den anden rise+fall


Og dem der længe har siddet ved en direkte elendig skærm, kan bliv oh så glad for en halv-dårlig skærm, og anbefale alle den..

lidt som hvis jeg tager en clock-radio og giver den til en meget fattig mand, så bliver han ret glad, men giver jeg samme clock radio til Bill Gates, så vil han nok sige: Hvad fanden skal jeg med den ?
Af fifafrazer
#29811
Med al den snak om latency blev jeg nødt til at teste min bærbar og min lillebrors BenQ skærm :D

Jeg satte kameraet til en lukketid på 1 ms. Det mest frustrerende var at fange strålen på CRT skærmen, som jo kun når omkring 1/10 ned ad skærmen på 1 ms.

Min bærbar er en Fujitsu Siemens Amilo Pro 3515, som ikke er noget at råbe hurra for ;)
Jeg fik hurtigt taget nogle billeder af den ved siden af CRT'en, og det viste sig hurtigt at den altid er 16 ms efter.

Min lillebros skærm er en BenQ FP93GX+, og den var langt sjovere at teste :) Da skærmen blev købt var topprioriteten ingen input lag, så derfor var det lidt mere spændende at se resultatet :D

Igen tog jeg billeder med lukketid på 1 ms. Jeg tog 43 billeder af skærmen og her viste 10 af dem 15-16 ms latency. Til gengæld viste de resterende 33 billeder 0 ms latency, hvilket overraskede mig. Troede egentlig ikke det var muligt at lave en skærm uden latency :P Men må jo så erkende at den gennemsnitlige latency dog er 3,6 ms, når man tager gennemsnittet af alle målingerne. Hvad er forklaringen i grunden på at skærmen sådan springer frem og tilbage mellem 0 og 16 ms?
Af muttleydk
#29813
fifafrazer skrev:Hvad er forklaringen i grunden på at skærmen sådan springer frem og tilbage mellem 0 og 16 ms?

Jeg er faktisk ikke sikker overhovedet, men kan se alle LCD skærme, uanset paneltype laver det nummer..

Først troede jeg det var en slags buffer der blevt fyldt, og skulle slettet, eller noget i den dur, men det er det vidst overhovedet ikke, der er nok en super logisk forklaring på dette.. yakken kan nok ryste lidt med ærmet og komme med en forklaring..

Jeg forstår sådanset heller ikke at elektronikken til 8bits paneler er langsommere end elektronikken til 6bits paneler. elektronikken til 8bits paneler, skal bare styre panelet, hvor elektronikken til 6bits paneler, skal regne på en masse (dithering), men der er en masse jeg ikke forstår :P

Kan forstå at selve panelet kan være langsommere ved 8bit, men ikke elektronikken .. ;;)


Der er dog altid input-lag, selvom den viser 0ms.. så er der måske 996ns :D men passer det dog, er det ikke noget at snakke om selvfølgelig..
Af fifafrazer
#29814
Hey.
Det giver vel slet ikke mening at snakke om lag på under 1 ms, for når vi er nede at snakke så små forskelle, så bliver man vel nødt til at huske på, at der er stor forskel på, hvordan de to skærmtyper viser billedet.
Jeg tror også det er her vi finder svaret på 16-ms-sagen. 60 Hz svarer til en 'periodetid' på 16,6 ms. Men så snyder CRT-skærmen når man tester, for den viser jo aldrig hele billedet på én gang.

Når CRT skærmen starter med at køre strålen oppefra, så er vi allerede begyndt at modtage billedet, mens TFT-skærmen sidder og tygger på signalet. Efter 16,6 ms er CRT strålen nået ned i bunden, og så skulle TFT-skærmen gerne have smidt et nyt billede op. Dvs. CRT-skærmen kan vise den øverste halvdel af billedet, mens TFT-skærmen signalbehandler. Det må vel også betyde at input-lag testen afhænger af, hvor man placerer tælleren på skærmen. Hvis CRT-skærmen scanner oppefra og ned, må det være mest retfærdigt at placere tælleren i bunden af skærmbilledet. Det er jo lidt snyd at kameraet står og råber til os "se! CRT skærmen er foran, den har allerede smidt det næste billede op", når den i virkeligheden kun viser den øverste 1/4 af billedet. Så min konklusion på denne mindre hjerneblødning må være at, TFT-skærmen ikke nødvendigvis lider af inputlag fordi den viser et tal, der er 16 ms bagefter. Den har bare den begrænsning/egenskab, at den kun viser hele billeder.

Er der noget om snakken, eller er der et sted mine teorier ikke holder tæt?
Brugeravatar
Af Torben Rasmussen
#29817
Ja, det er sandt at fladskærmen kun kan opdatere ved 60 Hz, så man kan sagtens argumentere for at de sidste par millisekunder slet ikke kan vises fordi skærmen ikke opdaterer sine pixels ligeså hurtigt som tælleren løber.

Mht. hvor inputlag kommer fra, så er det en hel kæde af forsinkelser, der til sidst resulterer i en forsinkelse i et spil. Det tal du ser på skærmen vil både være en effekt af ovenstående begrænsning i opdateringsfrekvensen på skærmens pixels (dvs. de 60 Hz) og selve panelet i skærmen. Når du herfter kobler et spil ind i sammenhængen går det blot endnu mere galt, for så skal der også tages højde for bufferlagringerne i grafikkortet, samt hastigheden af musen...

Hvorfor man helt konkret får værdier mellem 0 og X kan jeg dog ikke give jer det endelige svar på.

En ekstra ting man måske glemmer er, at en fladskærm jo også skal opdatere sine transsistorer og det sker altså ikke på én gang. Der skal også skannes fra top til bund hvorefter de pixels der har ændret farve får justeret sin spænding.


Jeg vil dog ikke give fifafrazer ret i at alt under 16 ms er acceptabelt. Slør på en LCD skærm kan være mindst ligeså forstyrrende som forsinkelser i billedet og for at minimere dem.
Det er desuden ikke forsinkelser i elektronikken i skærmen der af og til gør at en 2 ms er ligeså "langsom" som en 5 ms skærm, men derimod den måde som producenterne har lov at opgive responstiden på.
g2g metoden indeholder ikke noget krav om hvilken farveovergang der skal benyttes, så derfor vælger en producent selvfølgelig den hurtigste. Det kan meget vel være en peakværdi, der er adskillige gange kortere end gennemsnitsværdien. Man valgte i sin tid at gå over til g2g fordi alle producenter simpelthen optimerede deres sort-hvid-sort overgange for at få så lav en responstid som muligt, men igen var det ikke repræsentativt for den egentlige responstid. Hvad der så er smartest kan være svært at bestemme - begge dele giver lidt for mange fordele for en udvikler og lidt for meget uoverskuelighed for forbrugeren.

Når fladskærmene begynder at blive så hurtige som de er i dag, så er det desuden ikke længere responstiden, der er det afgørende i sig selv. Det er den måde dit syn fungerer på - eller den retention dit syn har. Med CRT var det ikke noget problem fordi billedet simpelthen blev visket ud adskillige gange i sekundet, hvilket medførte at du var mere mentalt klar til at få opdateret det du så på. Med LCD skærmen er billedet der altid, så nu skal du ikke længere se forskel på noget der før var helt sort og derefter flyttede sig, men derimod to lysende billeder der er en lille smule forskellige. Synet har simpelthen nemmere ved at se en ændring, hvis det forrige billede er blevet "visket ud" i forvejen. Dette har BenQ forsøgt at tage højde for med deres X serie, der benytter "black frame insertion" som egentlig er en CRT simulering på et "refresh and hold"-panel.
Af muttleydk
#29819
Det var netop pga. BFI jeg havde set mig lun på BENQ's nye X900


Jeg har som mange læst de mange news sider om beskriver om denne nye X-Serie, skærme med BFI.


Jeg har endda set BenQ's egen flash film om denne serie, hvor de beskriver BFI som er en del af X-Serien..

Uhh, så fed en serie..


...

Desværre er det rent fup at sige at denne serie har BFI, da det kun er 1 af 4 skærme der har funktionen.. der er 2x 19" skærme(wide og ikke wide), en 20" og til sidst en 22"


kun 22" modellen har BFI når man ser efter på BenQ's hjemmeside..


Igen viser det at det gælder om at sælge.. Pyt med at lidt forkert info slipper ud, pyt med at få modeller får dårlig omtale, der går jo kun 3 måneder, så er næste model på trapperne.. !:(


PS. Jeg må se at få den samsung bestilt og testet.. jeg sidder oppe hver nat og læser om skærme og folks meninger.. :D bliver snart tosset af alle de meninger.. 50% mener en skærm er super high end, 50% mener den samme skærm ikke burde være lovlig at sælge for penge.. O-O
Af fifafrazer
#29827
Okay, så den med langsom elektronik holder ikke, eller er bare stort set det samme for alle skærme?
Kan godt se fidusen ved BFI, men så vigtigt er hastigheden ikke for mig. Så længe der ikke er tydelig trailing eller ghosting ved almindelig spilbrug. En ulempe ved BFI, må da også være at man får den blinke-effekt, man oplever på en CRT skærm, og når jeg skal bruge skærmen til en hel del opgaveskrivning (starter på uni til september:)), så må et mere roligt billede være at foretrække.



Forresten, kan jeg se at den Eizo, jeg linkede til også kan fås 400 kr. billigere med en anden fod:
http://www.edbpriser.dk/Products/Listpr ... ?ID=230826
Men den skærm kender du ikke, Yakken?
Jeg kan se den er opgivet til 8 ms midtone og 16 ms (on-off). Hvis det er peak værdier er det vel ikke særlig optimalt?
Af muttleydk
#29832
fifafrazer skrev:Okay, så den med langsom elektronik holder ikke, eller er bare stort set det samme for alle skærme?
Det med elektronikken må så absolut holde, det er jo det som er forskellen på mange skærme, og kun det..


Ens test computer er ens, panelet i 2 skærme kan være det samme, så jo, elektronikken må absolut ha' noget at sige..

f.eks. Eizo, bruger i nogle modeller en funktion til at skabe bedre farver, ved ikke hvad den funkion hedder, men den skulle ud fra en hvis mængde 8 bit data, konvertere det til 10 bit, arbejde med de 10bit data, og så konvertere de 10bit behandlet data tilbage til 8bit som panelet forstår..

Denne process må så absolut give en lille forsinkelse(lag) og den er en del af hvad jeg kalder elektronikken.. (måske vi snakker forbi hinanden yakken?)


Sådan er det med mange skærme, elektronikken der bestemmer input-lag, ikke alene panelet, hvis dette ikke er sandt, så giver jeg op snart :) har læst dette så mange steder nu..
Brugeravatar
Af Torben Rasmussen
#29834
Hvis du ser på statistikkerne, så er det 8 bits panelerne der har den længste inputlag, men det er ikke alle disse skærme der konverterer noget til 10 bit først. Langt de fleste har kun en 8 bit LUT. Det er helt sikkert bundet til elektronikken i skærmen, men så er konsekvensen af des højere bitrate des højere inputlag...
Af muttleydk
#29845
yakken skrev:Hvis du ser på statistikkerne, så er det 8 bits panelerne der har den længste inputlag

yakken, jeg tror vi misforstår hinanden, jeg påstår ikke at panelet intet har at sige.. klart 8bit paneler er langsommere end 6bit paneler..


Min pointe er bare, at hvis du i forvejen har et langsomt panel, så hjælper det ikke, hvis der tilføjes endnu mere ventetid..


f.eks.:
---
10-Bit Gamma Correction
Produces smooth gradations of color with its 10-bit LUT (Look-Up Table) that automatically converts 8-bit data (256 gradations) received from the computer to 10-bit (1,021 gradations) and then reassigns this data back to 8-bits with the ideal gamma values.
---

Denne "Correction" må da så absolut tage tid..


Jeg interesseret i mange farver(16.7m) men om de er lidt forkerte, gør ikke noget..

Grunden til at jeg ikke ønsker 6bit, er ikke pga. forkerte farver, men få antal farver.. (det ser tosset ud når der ikke er en glidende overgang, hvor der skulle være det)

Så når jeg allerede betaler ventetid ved at ha' mange farver, ville det være dumt også at betale ventetid for at få korrekte mange farver.. Hvis ikke man behøver korrekte farver..



Misforstå ikke, klart farverne skal være ok osv.. men jeg behøber ikke en masse ventetid, for at få de OK farver lidt bedre..

Lad os sige du har en farve (20,155,254)

Denne farve er hvad jeg får uden signalbehandling på en god skærm.. Men farven skulle faktisk være (22,154,255)

Jeg siger så bare at jeg heller vil ha' en lidt forkert farve, leveret hurtigt, frem for at vente på noget elektronik der skal rette denne farve..


Dermed IKKE sagt at forskellen mellem 6 og 8 bit er lige meget.. :)