Debat af tilbehør og andre hardware-emner, som ikke hører ind under de andre fora

Redaktører: AndreasL, Moderatorer

Brugeravatar
Af azrael
#16952
Det er to vidt forskellige måder at koble grafikkort og skærm sammen på. VGA er rent analog, mens DVI er tiltænkt et digitalt signal. Folkene bag DVI har dog været smarte nok til at tænke på bagudkompatibilitet, idet DVI findes i tre "smagsretninger".

Der er DVI-A for rent analoge signaler (bagudkompatibel med VGA), DVI-D for rent digitale signaler og DVI-I, der overfører begge typer signaler.

Typisk vil DVI-udgangen i et moderne grafikkort være af typen DVI-I, så det kan udsende begge signaler. Langt de fleste skærme har en DVI-I indgang, men det er ikke 100% givet. Ellers vil der være tale om DVI-D, idet jeg aldrig har set DVI-A i brug.

Så hvis dit grafikkort kun har DVI-udgang, og din skærm kun har VGA-indgang, så har du brug for et fuldtmonteret DVI(-I)->VGA kabel eller en adapter fra DVI->VGA og et VGA->VGA kabel.

Du kan læse en ret god beskrivelse af DVI på Wikipedia.
Af Emil Kastberg
#16955
Men du ved ikke, om nogle skærme kan opdatere dårligere over VGA? (mindre modtagelig over for analoge signaler eller så'n noget?) Så der kommer slør?
Brugeravatar
Af Torben Rasmussen
#16964
Jeg tror ikke helt jeg forstår hvad det er du er bange for. Signalvejen er jo bare en måde at fortælle skærmen hvad den skal vise. Det har som sådan ikke noget som helst med opdateringen af de flydende krystaller at gøre.

Du vinder ikke noget ved at køre med VGA.
Af Emil Kastberg
#16967
Pokkers... Håbede, den måske opdaterede bedre over DVI...
Brugeravatar
Af Torben Rasmussen
#16969
Skarpheden vil sandsynligvis være bedre over DVI. Der er rapporter om at visse modeller fra Samsung bliver langsommere hvis man kører med højere opdateringsfrekvenser end de 60 Hz som man bør bruge, men det har ikke noget med VGA vs. DVI at gøre.