Rasmus Larsen skrev: ↑23 mar 2026, 06:45butikstilstand (Vivid mode) forsøger også at lægge skygger og lys på, for at øge dybden i billedet. Der bruges ansigts- og objektgenkendelse, drevet af NPU'er
Ja, det har TV-producenterne selv været gode til at fremhæve i deres materiale. Men det kommer sku da i praksis netop ikke videre til udtryk i lige netop en butikstilstand/vivid-mode! NPUernes nytte og analyse af billedet og de indsatte DL-trænede algoritmers løft af detaljer, reduktion af banding, posterization og kompressionsartefakter mv i et videosignal, har man da langt langt større praktisk gavn af i mere neutrale/referencenære indstillinger på et TV end i en butikstilstand/vivid-mode.
For vi er vel være enige om at at en butikstilstand/vivid mode på et TV netop udflader billedet, reducerer subtile lysvariationer og giver et mere uniformt overeksponeret billede med mindre dybde end en mere referencnær tilstand på et TV gør det, ikke?
Men DLSS5 trækker i den stik modsatte retning af hvad lige netop en butikstilstand/vividmode gør: DLSS5´s AI-approximeringer af tabte lysinformationer fremhæver materialers lysrespons, fremhæver lysvariationer og forbedrer scenens dybde og form. Resultatet bliver helt manifest af demomaterialet et mere kontrastfuldt, mere rumligt og mere formdefineret billede, noget som ligger så langt fra butikstilstandens/vividmodens udfladende “trick”, som man næsten kan komme i den stik modsatte retning.
Dertil kommer, at algoritmerne brugt på et TV’s NPU er trænet på naturlige billeder og video, hvor målet er at forbedre real-life optagelser, reducere banding, posterization og kompressionsartefakter mv og formidle kildematerialets naturlige lysforløb. DLSS derimod er trænet på syntetisk, genereret computergrafik, hvor formålet er at rekonstruere manglende detaljer og lysrespons i et helt andet datadomæne.
Det er to forskellige opgaver, to forskellige træningssæt og to forskellige billedmål.
Hvis du ikke havde fremført påstanden således, at DLSS5‑tricket skulle være at regne som det samme som tricket i netop en butikstilstand/vivid‑mode, så ville vi langt lettere og langt hurtigere formentligt kunne finde nogle aspekter med fælles konsensus om, at der naturligvis også findes ligheder mellem NPU’er i TV og GPUer. Men det er så på et mere overordnet niveau, da TV‑skærmes NPU’er, som du selv har fremhævet det, slet ikke samme regnekraft, og deres DL‑algoritmer også er trænet til helt andre formål end DLSS5.
Men påstanden om, at DLSS5‑tricket er det samme som en butikstilstand/vivid‑mode, når de to ting netop trækker formidlingen af lysopførsel i diametralt modsatte retninger, er naturligvis ikke noget jeg med nogen som helst rimelighed eller respekt til overs for hverken virkelighed eller demoresultater kan godtage.
For at kunne berigtige sådan en vild påstand, så skylder du stadig at forklare hvilket TV’s butikstilstand/vivid‑mode er i stand til at tilføje scenen ikke tidligere eksisterende refleksioner fra objekter i en computergenereret scene og grounde objekter som bl.a i eksemplet med kaffemaskinerne, de orange kopper og deres toppe i et eksisterende spil helt uden path‑tracingens occlusion, reflektioner og indirekte lys og hvilket TVs butikstilstand/vivid‑mode der på samme måde kan gøre, at disse assets gives en så meget bedre lysforankring, at det minder om den større global illumination‑effekt, man normalt kun ser i dén udstrækning fra en god path tracing – Du har endnu slet ikke forholdt dig til aspektet endnu, selv om jeg har fremhævet det adskillige gange nu: https://www.nvidia.com/en-us/geforce/ne ... nshot-003/
Det er iblandt den slags forbedringer jeg finder centrale i forhold til hvordan jeg vurderer teknologiens potentialer, hensides de 'instagram pornoansigter' mv du lyder til at gå mere op i, men samtidigt også snubler så hårdt over, at du gør dig selv helt dig blind i forhold til at ville betragte nogle som helst af de manifeste forbedringer og potentialer jeg og andre på basis af det præsenterede selv tydeligt ser forbundet med teknologien.
Rasmus Larsen skrev: ↑23 mar 2026, 06:45Dit forrige indlæg lagde op til, at du har erkendt, at det er mindre, end hvad du til at starte med forstod, men hvis det ikke er tilfældet, så nej, så er vi ikke rykket nærmere konsensus.
Hvad du måtte have lagt eller ikke lagt i mine ord mellem den 17. og 19., kan jeg naturligvis ikke vide. Men jeg ændrede hverken holdning eller forståelse i den periode. Min opfattelse var uændret frem til din besked den 20. kl. 06:50, hvor du gav udtryk for, at jeg skulle have forstået noget andet end fra starten, og at der derfor burde være større konsensus om, hvad teknologien egentlig indebærer.
De eneste nye oplysninger, der kortvarigt ændrede min forståelse, kom først til udtryk den 20. marts. I min nysgerrighed faldt jeg over teknologimedier, der hævdede, at DLSS 5 også brugte depth‑, normal‑, motion‑ og materialebuffers. Det afspejlede sig først og som eneste gang i mine tilføjelser den 20 kl. 12:57. Men forinden da, frem til den 19 og allerede den 17. kl. 14:52, hvor jeg første gang skrev om DLSS5, skrev jeg alene at DLSS 5 baserer sig på farve- og bevægelsesvektorer pr. frame og bruger AI‑modellen til at rekonstruere scenen med mere fotorealistisk lys og materialer. Først efter din antagelse om, at jeg havde misforstået noget, stødte jeg på artikler som denne:
https://tbreak.com/nvidia-dlss-5-neural ... explained/
Det viste sig dog sandsynligvis at være vildledende. Forklaringen virkede ellers overbevisende, fordi adgang til depth-, normal- og materialebuffers ville gøre det langt lettere at forstå, hvordan DLSS 5 kan lykkes med at approximere bl.a. indirekte lys, occlusion, color‑bleeding og refleksionshint så effektivt og imponerende, selv fra spil ikke selv leverer RT‑ eller path‑tracing‑data.
Dagen efter begyndte jeg også at se de artikler, du også henviser til den 23, som alene understreger, at DLSS 5 bruger motion‑vectors. Det er også det eneste, Nvidia selv har nævnt i deres materiale, og det eneste Digital Foundry har formidlet. Dermed må tbreaks rapportering formodentlig afvises.
Jeg er derfor tilbage ved min forståelse som den er kommet til udtryk fra den 17.–19, selv om det var i den periode du mente jeg var kommet til ny forståelse. Og netop såfremt DLSS 5 kun bruger motion‑vectors – altså kun sporer pixelbevægelse over tid og akkumulerer/stabiliserer detaljer og lysinformation temporalt – er resultaterne jo kun endnu mere imponerende. At teknologien alligevel formår at forbedre occlusion, refleksioner og indirekte lys, gør blot dens præstationer markant mere bemærkelsesværdige og imponerende, end hvis den havde haft adgang til de ekstra buffers, som tbreak efter alt at dømme fejlagtigt påstod.
Rasmus Larsen skrev: ↑23 mar 2026, 06:45Udviklerne har ikke kontrol, uanset hvilke misfortåelser der florerer derude, hvorfor den løgn intet indtryk gør på mig.
Her er der med sikkerhed
ikke tale om misforståelser, vildledninger eller løgne fra teknologimedier. For her er der tale om officielle udmeldinger fra Nvidia helt tilbage fra launch. Den kontrol Nvidia påpeger eksisterer er: udviklere kan styre DLSS5’s intensitet, color grading og masking. Nvidia har forklaret, at udviklere kan “adjust parameters such as intensity and color grading” samt “masking off places where the effect shouldn’t be applied”.
Udviklere kan altså styre hvor kraftigt DLSS5’s AI‑genererede lys og materialeforbedringer blandes ind i spillets eget renderede output.
Der er mulighed for at “mask specific areas where the effect should not be applied”. Altså kan udviklerne bestemme hvor i billedet DLSS5 må arbejde – og hvor dets effekter ønskes at skulle holdes ude.
Så der eksisterer altså officiel dokumentation for, at DLSS5 ikke er en fuldstændig ukontrollolabel AI‑effekt, men reelt et AI-værktøj der efter præferencer kan benyttes i den grad og udstrækning udviklerne finder det relevant. Og brugere der slet ikke ønsker hvad udviklerne ellers selv har kunnet godkende og stå inde for i forbindelse med deres DLSS5 implementeringer i deres spil, gives tillige også kontrol over om de overhovedet vil bruge DLSS eller ej.
Ud fra det demomateriale, vi indtil videre har set, er jeg ikke i tvivl om, at både jeg og mange andre meget gerne vil gøre brug af de grafiske forbedringer, DLSS 5 demonstrerer. Du har stadig utroligt svært ved at se bort fra dine ”instagram-pornofiltre ansigter” og demomaterialets styrke-12 colorgradinger – og jeg forstår og anerkender hvorfor de aspekter som udgangspunkt kan stemme dig negativt til sagen - Men prøv du nu til en forandring engang også at betragte hvad jeg nu adskillige gange har fremhævet af hvad teknologien i praksis kan bringe til bordet af støre dybder og dimensionalitet, inkl. effekter der ligner occlusion, reflektioner og indirekte lys; effekter, som man normalt kun ser i den grad forbundet med PT. Så vil burde du også bedre kunne forstå hvorfor jeg er positiv og spændt på teknologien som jeg er, da den bringer os i retning af et sted med dets lag oven på nutidens real-time renders, vi ikke ville kunne nå inden for budgeterne for traditionelle renderkræfter mange år endnu - og på trods af hvad vi kan være enige om at colorgrading mv har fået vindstyrke 12 i Nvidias eget demomateriale.
Rasmus Larsen skrev: ↑23 mar 2026, 06:45I øvrigt sjovt at se, hvordan artikelskribenter og YouTubere i slutugen begyndte at fremlægge det som om, at Nvidia løj om DLSS 5 indledningsvis. Og at Nvidia først nu erkender, at det er et AI-filter ovenpå 2D-frames. Desværre vidner det bare om, at disse personer – og Digital Foundry – ikke har den tekniske forståelse til at forstå beskrivelser af AI-værktøjer. Nvidia har lige fra starten gjort klart: "DLSS 5 takes a game’s color and motion vectors for each frame as input". https://nvidianews.nvidia.com/news/nvid ... -for-games
Jeg håber, du selv kan se den logiske modsætning i at påstå, at Nvidia skulle have løjet indledningsvis og samtidig citere Nvidia for præcis det, de har sagt helt fra starten.
Med andre ord har Nvidia selv ikke løjet om noget som helst, mens det er åbenlyst og manifest at skribenter og YouTubere, har kunnet læse noget ind i teknologien, som Nvidia aldrig selv har påstået, som de så har kunnet vildlede andre med, herunder mig for en kort stund, og de selv eller andre så senere har måttet korrigere. Der er i høj grad tale om et medielandskab, der er gået i selvsving over en ny, dybt disruptiv teknologi. Nvidia selv har kommunikeret konsistent fra dag ét, mens dele af mediedækningen har projiceret funktioner og mekanismer over på teknologien, som Nvidia aldrig selv har påstået.
Hvad angår Digital Foundry, så har de ikke på noget tidspunkt påstået andet om teknologiens datagrundlag, end hvad Nvidia selv har meldt ud. De har – hvilket er fuldt forståeligt ud fra det materiale, de fik demonstreret – givet udtryk for at være imponerede over resultaterne i deres first‑impressions‑video, selv om de naturligvis også har gjort opmærksom på, at de ikke har haft tid nok til at analysere alle aspekter af teknologien på tidspunktet for den. Men digital foundry har ikke været iblandt dem der har sagt eller formidlet noget usandt i forbindelse med formidlingen af deres impressions.
Og vær helt sikker på én ting: Som det har været med både DLSS, FSR og PSSR mv., så bliver det også Digital Foundry – branchens mest anerkendte, teknisk dybdegående og metodisk grundige analyseinstans vedrørende spil og spil-relaterede teknologier – der mere end nogen andre kommer til at gennemlyse DLSS5 fra ende til anden. Det er netop derfor, at både andre medier, udviklere og entusiaster konsekvent refererer til deres analyser.
Når de først får DLSS5 i hænderne og kan teste det systematisk, vil de – som altid – afdække alt fra teknologiens styrker til dens svagheder, begrænsninger artifacts mv. Det er deres rolle og kompetencer i økosystemet, og det er præcis derfor, deres vurderinger og deres impressions vægter så tungt.