Debat af spilkonsoller, hvad angår både spildelen og medieafspilningsdelen

Redaktører: AndreasL, Moderatorer

Brugeravatar
Af Naiera
#375302
Det er ikke sket her :(
#375305
TBC: Læs mine tidligere indlæg. Min sammenligning med butikstilstand været den samme siden starten. Jeg har ikke rykket mig. I øvrigt, butikstilstand (Vivid mode) forsøger også at lægge skygger og lys på, for at øge dybden i billedet. Der bruges ansigts- og objektgenkendelse, drevet af NPU'er. Jeg forstår, hvorfor du ikke er klar over dette, idet journalister, der skriver om TV-skærme, som folk rent faktisk lytter til, ikke længere rapporterer producenternes påstande på disse punkter.

Dit forrige indlæg lagde op til, at du har erkendt, at det er mindre, end hvad du til at starte med forstod, men hvis det ikke er tilfældet, så nej, så er vi ikke rykket nærmere konsensus. Min fremlægning om det tekniske er den faktuelle.

Udviklerne har ikke kontrol, uanset hvilke misfortåelser der florerer derude, hvorfor den løgn intet indtryk gør på mig. Adskillige udviklere har været fremme og kommentere på dette. Jeg synes i øvrigt, at er absurd at argumentere, at objektiv forkert, urealistisk lyssætning og instagram-pornofiltre lagt ovenpå ansigter er indenfor udviklernes kontrol.

I øvrigt sjovt at se, hvordan artikelskribenter og YouTubere i slutugen begyndte at fremlægge det som om, at Nvidia løj om DLSS 5 indledningsvis. Og at Nvidia først nu erkender, at det er et AI-filter ovenpå 2D-frames. Desværre vidner det bare om, at disse personer – og Digital Foundry – ikke har den tekniske forståelse til at forstå beskrivelser af AI-værktøjer. Nvidia har lige fra starten gjort klart: "DLSS 5 takes a game’s color and motion vectors for each frame as input".
https://nvidianews.nvidia.com/news/nvid ... -for-games

Vector = 2D. Der er intet i AI-modellen, som arbejder med 3D-objekter i spilmotoren. AI-filteret kigger kun på output-frames.
Brugeravatar
Af TBC
#375316
Rasmus Larsen skrev: 23 mar 2026, 06:45butikstilstand (Vivid mode) forsøger også at lægge skygger og lys på, for at øge dybden i billedet. Der bruges ansigts- og objektgenkendelse, drevet af NPU'er
Ja, det har TV-producenterne selv været gode til at fremhæve i deres materiale. Men det kommer sku da i praksis netop ikke videre til udtryk i lige netop en butikstilstand/vivid-mode! NPUernes nytte og analyse af billedet og de indsatte DL-trænede algoritmers løft af detaljer, reduktion af banding, posterization og kompressionsartefakter mv i et videosignal, har man da langt langt større praktisk gavn af i mere neutrale/referencenære indstillinger på et TV end i en butikstilstand/vivid-mode. For vi er vel være enige om at at en butikstilstand/vivid mode på et TV netop udflader billedet, reducerer subtile lysvariationer og giver et mere uniformt overeksponeret billede med mindre dybde end en mere referencnær tilstand på et TV gør det, ikke?

Men DLSS5 trækker i den stik modsatte retning af hvad lige netop en butikstilstand/vividmode gør: DLSS5´s AI-approximeringer af tabte lysinformationer fremhæver materialers lysrespons, fremhæver lysvariationer og forbedrer scenens dybde og form. Resultatet bliver helt manifest af demomaterialet et mere kontrastfuldt, mere rumligt og mere formdefineret billede, noget som ligger så langt fra butikstilstandens/vividmodens udfladende “trick”, som man næsten kan komme i den stik modsatte retning.

Dertil kommer, at algoritmerne brugt på et TV’s NPU er trænet på naturlige billeder og video, hvor målet er at forbedre real-life optagelser, reducere banding, posterization og kompressionsartefakter mv og formidle kildematerialets naturlige lysforløb. DLSS derimod er trænet på syntetisk, genereret computergrafik, hvor formålet er at rekonstruere manglende detaljer og lysrespons i et helt andet datadomæne. Det er to forskellige opgaver, to forskellige træningssæt og to forskellige billedmål.

Hvis du ikke havde fremført påstanden således, at DLSS5‑tricket skulle være at regne som det samme som tricket i netop en butikstilstand/vivid‑mode, så ville vi langt lettere og langt hurtigere formentligt kunne finde nogle aspekter med fælles konsensus om, at der naturligvis også findes ligheder mellem NPU’er i TV og GPUer. Men det er så på et mere overordnet niveau, da TV‑skærmes NPU’er, som du selv har fremhævet det, slet ikke samme regnekraft, og deres DL‑algoritmer også er trænet til helt andre formål end DLSS5.

Men påstanden om, at DLSS5‑tricket er det samme som en butikstilstand/vivid‑mode, når de to ting netop trækker formidlingen af lysopførsel i diametralt modsatte retninger, er naturligvis ikke noget jeg med nogen som helst rimelighed eller respekt til overs for hverken virkelighed eller demoresultater kan godtage.

For at kunne berigtige sådan en vild påstand, så skylder du stadig at forklare hvilket TV’s butikstilstand/vivid‑mode er i stand til at tilføje scenen ikke tidligere eksisterende refleksioner fra objekter i en computergenereret scene og grounde objekter som bl.a i eksemplet med kaffemaskinerne, de orange kopper og deres toppe i et eksisterende spil helt uden path‑tracingens occlusion, reflektioner og indirekte lys og hvilket TVs butikstilstand/vivid‑mode der på samme måde kan gøre, at disse assets gives en så meget bedre lysforankring, at det minder om den større global illumination‑effekt, man normalt kun ser i dén udstrækning fra en god path tracing – Du har endnu slet ikke forholdt dig til aspektet endnu, selv om jeg har fremhævet det adskillige gange nu: https://www.nvidia.com/en-us/geforce/ne ... nshot-003/

Det er iblandt den slags forbedringer jeg finder centrale i forhold til hvordan jeg vurderer teknologiens potentialer, hensides de 'instagram pornoansigter' mv du lyder til at gå mere op i, men samtidigt også snubler så hårdt over, at du gør dig selv helt dig blind i forhold til at ville betragte nogle som helst af de manifeste forbedringer og potentialer jeg og andre på basis af det præsenterede selv tydeligt ser forbundet med teknologien.

Rasmus Larsen skrev: 23 mar 2026, 06:45Dit forrige indlæg lagde op til, at du har erkendt, at det er mindre, end hvad du til at starte med forstod, men hvis det ikke er tilfældet, så nej, så er vi ikke rykket nærmere konsensus.
Hvad du måtte have lagt eller ikke lagt i mine ord mellem den 17. og 19., kan jeg naturligvis ikke vide. Men jeg ændrede hverken holdning eller forståelse i den periode. Min opfattelse var uændret frem til din besked den 20. kl. 06:50, hvor du gav udtryk for, at jeg skulle have forstået noget andet end fra starten, og at der derfor burde være større konsensus om, hvad teknologien egentlig indebærer.

De eneste nye oplysninger, der kortvarigt ændrede min forståelse, kom først til udtryk den 20. marts. I min nysgerrighed faldt jeg over teknologimedier, der hævdede, at DLSS 5 også brugte depth‑, normal‑, motion‑ og materialebuffers. Det afspejlede sig først og som eneste gang i mine tilføjelser den 20 kl. 12:57. Men forinden da, frem til den 19 og allerede den 17. kl. 14:52, hvor jeg første gang skrev om DLSS5, skrev jeg alene at DLSS 5 baserer sig på farve- og bevægelsesvektorer pr. frame og bruger AI‑modellen til at rekonstruere scenen med mere fotorealistisk lys og materialer. Først efter din antagelse om, at jeg havde misforstået noget, stødte jeg på artikler som denne: https://tbreak.com/nvidia-dlss-5-neural ... explained/

Det viste sig dog sandsynligvis at være vildledende. Forklaringen virkede ellers overbevisende, fordi adgang til depth-, normal- og materialebuffers ville gøre det langt lettere at forstå, hvordan DLSS 5 kan lykkes med at approximere bl.a. indirekte lys, occlusion, color‑bleeding og refleksionshint så effektivt og imponerende, selv fra spil ikke selv leverer RT‑ eller path‑tracing‑data.

Dagen efter begyndte jeg også at se de artikler, du også henviser til den 23, som alene understreger, at DLSS 5 bruger motion‑vectors. Det er også det eneste, Nvidia selv har nævnt i deres materiale, og det eneste Digital Foundry har formidlet. Dermed må tbreaks rapportering formodentlig afvises.

Jeg er derfor tilbage ved min forståelse som den er kommet til udtryk fra den 17.–19, selv om det var i den periode du mente jeg var kommet til ny forståelse. Og netop såfremt DLSS 5 kun bruger motion‑vectors – altså kun sporer pixelbevægelse over tid og akkumulerer/stabiliserer detaljer og lysinformation temporalt – er resultaterne jo kun endnu mere imponerende. At teknologien alligevel formår at forbedre occlusion, refleksioner og indirekte lys, gør blot dens præstationer markant mere bemærkelsesværdige og imponerende, end hvis den havde haft adgang til de ekstra buffers, som tbreak efter alt at dømme fejlagtigt påstod.

Rasmus Larsen skrev: 23 mar 2026, 06:45Udviklerne har ikke kontrol, uanset hvilke misfortåelser der florerer derude, hvorfor den løgn intet indtryk gør på mig.
Her er der med sikkerhed ikke tale om misforståelser, vildledninger eller løgne fra teknologimedier. For her er der tale om officielle udmeldinger fra Nvidia helt tilbage fra launch. Den kontrol Nvidia påpeger eksisterer er: udviklere kan styre DLSS5’s intensitet, color grading og masking. Nvidia har forklaret, at udviklere kan “adjust parameters such as intensity and color grading” samt “masking off places where the effect shouldn’t be applied”.

Udviklere kan altså styre hvor kraftigt DLSS5’s AI‑genererede lys og materialeforbedringer blandes ind i spillets eget renderede output.

Der er mulighed for at “mask specific areas where the effect should not be applied”. Altså kan udviklerne bestemme hvor i billedet DLSS5 må arbejde – og hvor dets effekter ønskes at skulle holdes ude.

Så der eksisterer altså officiel dokumentation for, at DLSS5 ikke er en fuldstændig ukontrollolabel AI‑effekt, men reelt et AI-værktøj der efter præferencer kan benyttes i den grad og udstrækning udviklerne finder det relevant. Og brugere der slet ikke ønsker hvad udviklerne ellers selv har kunnet godkende og stå inde for i forbindelse med deres DLSS5 implementeringer i deres spil, gives tillige også kontrol over om de overhovedet vil bruge DLSS eller ej.

Ud fra det demomateriale, vi indtil videre har set, er jeg ikke i tvivl om, at både jeg og mange andre meget gerne vil gøre brug af de grafiske forbedringer, DLSS 5 demonstrerer. Du har stadig utroligt svært ved at se bort fra dine ”instagram-pornofiltre ansigter” og demomaterialets styrke-12 colorgradinger – og jeg forstår og anerkender hvorfor de aspekter som udgangspunkt kan stemme dig negativt til sagen - Men prøv du nu til en forandring engang også at betragte hvad jeg nu adskillige gange har fremhævet af hvad teknologien i praksis kan bringe til bordet af støre dybder og dimensionalitet, inkl. effekter der ligner occlusion, reflektioner og indirekte lys; effekter, som man normalt kun ser i den grad forbundet med PT. Så vil burde du også bedre kunne forstå hvorfor jeg er positiv og spændt på teknologien som jeg er, da den bringer os i retning af et sted med dets lag oven på nutidens real-time renders, vi ikke ville kunne nå inden for budgeterne for traditionelle renderkræfter mange år endnu - og på trods af hvad vi kan være enige om at colorgrading mv har fået vindstyrke 12 i Nvidias eget demomateriale.

Rasmus Larsen skrev: 23 mar 2026, 06:45I øvrigt sjovt at se, hvordan artikelskribenter og YouTubere i slutugen begyndte at fremlægge det som om, at Nvidia løj om DLSS 5 indledningsvis. Og at Nvidia først nu erkender, at det er et AI-filter ovenpå 2D-frames. Desværre vidner det bare om, at disse personer – og Digital Foundry – ikke har den tekniske forståelse til at forstå beskrivelser af AI-værktøjer. Nvidia har lige fra starten gjort klart: "DLSS 5 takes a game’s color and motion vectors for each frame as input". https://nvidianews.nvidia.com/news/nvid ... -for-games
Jeg håber, du selv kan se den logiske modsætning i at påstå, at Nvidia skulle have løjet indledningsvis og samtidig citere Nvidia for præcis det, de har sagt helt fra starten.

Med andre ord har Nvidia selv ikke løjet om noget som helst, mens det er åbenlyst og manifest at skribenter og YouTubere, har kunnet læse noget ind i teknologien, som Nvidia aldrig selv har påstået, som de så har kunnet vildlede andre med, herunder mig for en kort stund, og de selv eller andre så senere har måttet korrigere. Der er i høj grad tale om et medielandskab, der er gået i selvsving over en ny, dybt disruptiv teknologi. Nvidia selv har kommunikeret konsistent fra dag ét, mens dele af mediedækningen har projiceret funktioner og mekanismer over på teknologien, som Nvidia aldrig selv har påstået.

Hvad angår Digital Foundry, så har de ikke på noget tidspunkt påstået andet om teknologiens datagrundlag, end hvad Nvidia selv har meldt ud. De har – hvilket er fuldt forståeligt ud fra det materiale, de fik demonstreret – givet udtryk for at være imponerede over resultaterne i deres first‑impressions‑video, selv om de naturligvis også har gjort opmærksom på, at de ikke har haft tid nok til at analysere alle aspekter af teknologien på tidspunktet for den. Men digital foundry har ikke været iblandt dem der har sagt eller formidlet noget usandt i forbindelse med formidlingen af deres impressions.

Og vær helt sikker på én ting: Som det har været med både DLSS, FSR og PSSR mv., så bliver det også Digital Foundry – branchens mest anerkendte, teknisk dybdegående og metodisk grundige analyseinstans vedrørende spil og spil-relaterede teknologier – der mere end nogen andre kommer til at gennemlyse DLSS5 fra ende til anden. Det er netop derfor, at både andre medier, udviklere og entusiaster konsekvent refererer til deres analyser.

Når de først får DLSS5 i hænderne og kan teste det systematisk, vil de – som altid – afdække alt fra teknologiens styrker til dens svagheder, begrænsninger artifacts mv. Det er deres rolle og kompetencer i økosystemet, og det er præcis derfor, deres vurderinger og deres impressions vægter så tungt.
#375327
Jesus Kristus nogle lange smører du skriver. Apropos ham, så tror jeg du har skrevet flere ord i den her tråd, end der er i biblen ;;)
TBC skrev: 20 mar 2026, 12:57
Rasmus Larsen skrev: 20 mar 2026, 05:50 Vi nærmer os vist en slags konsensus om, hvad teknologien er og ikke er, men vi er uenige hvad angår resultatet.
Men der er jo intet der har ændret sig i vores opfattelser af hvad teknologien er og ikke er - og vores standpunkter er også fortsat uændrede, vi er også fortsat uenige om resultatet. Du ser det fortsat som udtryk for dårlig smag, mens jeg ser det som en signifikant teknisk opgradering med enormt og direkte disruptivt potentiale.
 
Rasmus Larsen skrev: 20 mar 2026, 05:50 Jeg ser eksempler, hvor scenerne fuldstændig ændres med forkert lyssætning og ændret stemning/balance.
Du har med andre ord set dig ond på Nvidias egen arbitrære brug af særlig colorgrading aspektet, som sammen med cinematic lighting, material depth og masking er iblandt de neural rendering controls udviklerne får mulighed for at justere og begrænse, ja direkte override ihht. deres præferencer, så output holdes inden for de rammer, som art‑teamet definerer. Lysintensitet, colour‑grading‑overrides og målrettet masking kan justeres efter behov. Det betyder, at art‑teamet ikke blot kan styre intensiteten forskelligt for figurer og miljøer, men også helt udelukke UI‑lag, stiliserede elementer eller hele cutscene‑kompositioner fra behandlingen. Oven i DLSS 5’s output kan de endda lægge deres egne colour‑grading‑kurver, så det visuelle udtryk forbliver præcis inden for de rammer, de selv definerer.

Ellers VAR artistic-intent argumentet ihht demomaterialet et argument der gjorde indtryk på mig, men det skygger [pun intended] ikke over alle de potentialer og fordele jeg samtidig ser ved teknologien, særligt når man da jeg ser igennem den overflade [pun igen intended] der handler om Nvidias arbitrere kuratering af demomaterialet.

Og det du er negativ over i den forbindelse, er derfor ikke nødvendigvis selve teknologien som et værktøj, men Nvidias egne udviklerfrakoblede indstillinger til demoerne. Måske er du så heldig at kunne se anderledes på det, når vi får eksempler, hvor udviklere selv har haft hånden på rattet, så du kan få øjnene op for alle de fordele og gevinster jeg selv tydeligt kan se teknologien i øvrigt bidrager med.

Rasmus Larsen skrev: 20 mar 2026, 05:50Bare lige for at slå min pointe om butikstilstand på TV-skærme fast: Jeg siger alene, at det er samme "trick", altså samme mentale trick med, at det ser bedre ud ved første øjekast, men ikke rent faktisk er bedre. Jeg siger bestemt ikke, at TV-skærme har samme regnekraft som 2x RTX 5090 til at udregne dette trick. Det har de naturligvis ikke – ikke engang en hundredende-del, vil jeg estimere. Men det en forlængelse af samme trick, med mere regnekraft lagt bag. 
Du ER en kløgtig debattør, ved at reducere det til at skulle handle om det mentale. For så flyttes hele diskussionen over i subjektiv smag og følelse. På den måde kan enhver konklusion gøres til et spørgsmål om egne subjektive oplevelser gennem egne fordomme og holdningers linser, og så slipper man samtidig for at forholde sig til de tekniske mekanismer og de konkrete billedforbedringer, som faktisk kan analyseres og dokumenteres. Den præmis kan jeg således ikke købe. Når man reducerer det til noget mentalt, gør man det til et spørgsmål om personlige indtryk af billedet gennem det filter og den holdning man har, og man kan springe i mål hen over overhovedet at forholde sig til og anerkende, hvad DLSS5 rent faktisk er i stand til at opkvalificere ved lysperspektiverne og de underliggende billeddata, som jeg selv finder finder er det væsentligste og hvor jeg imponeres af teknologien og dens potentialer.

Men DLSS5’s ændringer er ikke mentale – de er tekniske, reproducerbare og direkte analyserbare i billeddata og de er ikke bare en placeboeffekt som en butikstilstand på et TV. Og det er netop her, jeg mener, at din skepsis får dig til at overse, hvad teknologien faktisk gør af nytte. Og det er forbundet med den helt grundlæggende påstand om at det skulle være 'samme trick', at jeg mener at du har stirret dig fuldstændig blind i din AI-negativitets neglekt i forhold til at se og anerkende hvad jeg uden samme negative indstilling ser teknologien indebærer og faktisk bringer til bordet af substantielle potentialer og af demomaterialet manifeste grafiske opgraderinger og forbedringer:

For det første resulterer det som allerede fremhævet i fuldstændigt modsatrette resultater: Når man sammenligner DLSS5 med en butikstilstand på et TV, er forskellene så markante, at analogien falder fra hinanden og det ikke bliver at regne som samme trick, men som direkte modsatrettede: En butikstilstand udjævner mikrokontraster, reducerer lokale lysvariationer, flader billedet ud og efterlader et mere uniformt og mindre dybt visuelt udtryk. DLSS5’s lysrekonstruktion gør det diametralt modsatte: den rekonstruerer og approximerer aktivt tabte lysinformationer, fremhæver materialers lysrespons og "genskaber" scenens dybde og form. Resultatet bliver et mere kontrastfuldt, mere rumligt og formdefineret billede, som teknisk set ligger så langt fra butikstilstandens “trick”, som man næsten kan komme i den stik modsatte retning.

Edit: I jævnfør af indlæg den 24. mar, 07:35 er nedenstående tekst der er markeret med overstregninger baseret på hvad der formentlig har været vildledende oplysninger fra https://tbreak.com/nvidia-dlss-5-neural ... explained/
For det andet arbejder DLSS5 med depth‑, normals‑, motion‑ og materialebuffers direkte fra spillet. Du har tidligere fremhævet, at DLSS5 ikke arbejder inde i selve 3D‑renderpipen, og det er korrekt - men det ændrer ikke ved, at DLSS5 bygger på præcis de samme 3D‑afledte datastrukturer, som teknikker som bl.a. SSAO, SSGI traditionelt har brugt til at rekonstruere lys, skygger og dybde. Det er netop derfor DLSS5 kan udføre lysrekonstruktion, selvom det ikke er simuleret tracing af lys. Det arbejder med de samme inputsignaler, men bruger en langt mere avanceret, neuralt trænet model til at fortolke dem.

Og det leder videre til den tredje og centrale pointe: DLSS5’s lysrekonstruktion bygger oven på og forbedrer de samme principper eller ”tricks”, som tidligere teknologier i årevis allerede har forsøgt at løfte:Screen‑Space Ambient Occlusion, Screen‑Space Global Illumination, subsurface scattering, micro‑shadowing, specular highlight‑reconstruction, depth‑baseret occlusion og klassiske bloom‑ og tone‑mapping‑effekter (såvel som ray og pathtracing) har alle haft til formål at skabe mere realistisk lysforankring og dybde i real‑time rendering. DLSS5 er åbenlyst blot i stand til at gøre det både mere effektivt og sammenhængende, end framgmenteret brug af disse teknologier, undtaget hvad man kan få fra en godt budetteret pathtracing, som DLSS5 så stadig kan ligges ovenpå til yderligere forbedringer. Det er derfor, man i Starfield‑eksemplet jeg har brugt som eksempel ser så markant bedre grounding af alt fra kaffemaskinerne til de orange kopper og deres toppe i baggrunden. I de fremhævede eksempler med de benævnte assets er der manifest tale om en forbedring i lysforankring, der i kvalitet og udstrækning minder om det niveau af ambient occlusion, man normalt kun ser med en endog ret god path tracing – i et spil der alene har SSAO men er helt uden den mindste smule raytracing!
https://www.nvidia.com/en-us/geforce/ne ... nshot-003/

Skal der forankres [pun] mere objektiv som knyttet til ovenstående fremhævede forhold - så er det langt mere korrekt at beskrive DLSS5 som en teknologi, der bygger videre på de samme tricks som SSAO, SSGI, subsurface scattering, micro‑shadowing, specular reconstruction, depth‑occlusion og tone‑mapping - og for den sags skyld Ray- og pathtracing - mv længe har søgt at løfte - og det endog i en udstrækning hvor det nogle steder kommer til at minde om resultaterne forbundet med pathtracing som f.eks. SSAO vs DLSS5 eksemplet fra Starfield. Og DLSS5 kan endda lægges oven på eksisterende hardwarebegrænset real‑time path tracing for yderligere løft og forbedringer af lysopførslen!

Derfor er det svært at overse, at DLSS5 løfter real‑time rendering markant ud over de begrænsninger, som traditionel performance‑baseret rendering ellers har fastholdt os i, og åbner for et kvalitetsniveau, der tidligere kun var realistisk med langt tungere teknikker, som nutidens og de kommende års hardware ellers ikke ville kunne bære Man kan selvfølgelig stirre sig blind og arrig på en farvekuratering i en udviklerafkoblet demo baseret på andres spil, men ser man på de faktiske tekniske forbedringer teknologien er i stand til at give lyset, dybden og materialeforankringen, er det svært at benægte, at DLSS5 bringer noget substantielt og nyt til bordet med store potentialer for at løfte den visuelle kvalitet i spil.
Brugeravatar
Af TBC
#375331
Martin Sjøstrand skrev: 24 mar 2026, 16:19 Jesus Kristus nogle lange smører du skriver. Apropos ham, så tror jeg du har skrevet flere ord i den her tråd, end der er i biblen ;;)
Ahh, mon dog. Men, jeg synes teknologien er super interessant og meget lovende, med hvad den bl.a. kan introducere mht lys, refleksioner, skygger, colorbleed og occlusioneffekter til grounding af assets og AI-rekonstruktion/approximeringer af i kildematerialet i forvejen ikke eksisterende refleksioner, dybdefornemmelser mv. Det er også derfor jeg i den forbindelse taler om at resultatet eller "tricket" mere reelt minder om en forstærkning af de samme effekter som man har brugt teknologier som SSAO, SSGI, subsurface scattering, micro‑shadowing, specular reconstruction, depth‑occlusion og tone‑mapping - og for den sags skyld Ray- og pathtracing til - også selv om det ikke er med samme datasæt og metoder.

Det betyder ikke at disse effekter skal udgå eller erstattes. DLSS5’s styrke ligger i, at teknologien kan introducere eller forstærke visuelle fænomener, som ellers ville være ekstremt dyre at beregne direkte. Det gælder blandt andet mere nuancerede og hardwaremæssigt meget dyre lys- og refleksionsmodeller, tilføjelser af skygge- og occlusion‑effekter, colorbleed og lysopførslens betydning for en generelt stærkere og mere sammenhængende fornemmelse af fysisk rummelighed og tilstedeværelse i scenen. I den forstand fungerer DLSS5 som en overbygning på teknikker som SSAO, SSGI, subsurface scattering, micro‑shadowing, specular reconstruction, RT og PT m.fl. Den efterligner ikke disse teknikker én til én, men den kan løfte deres samlede visuelle bidrag ud over, hvad der realistisk kan opnås med traditionelle renderbudgetter, selv når RT og og PT indgår

Selve debatten om DLSS5 illustrerer så et interessant spændingsfelt mellem teknologisk skepsis og teknologisk nysgerrighed og forventning. Men jeg forstår ærlig talt ikke når kritik og modstand bliver så ensidig, at man slet ikke enten kan se- eller ikke vil erkende hvad der findes af positive aspekter i en teknologi, men alene fokuserer på aspekter man selv opfatter som negative, selv når der findes officielle udmeldinger om at udviklerne har mulighed for at skrue på med hvor stor intensitet og hvor meget af disse aspekter de ønsker skal med eller maskes ud i deres spils ibrugtagelse af teknologien.

Jeg forsøger selv at være åben over for at erkende aspekter man med rette kan være negativ og kritisk indstillet over i Nvidias præsentationer - men jeg forstår simpelt hen ikke når andre ikke kan erkende de aspekter man med rette kan være positiv over. Jeg er selv af den overbevisning, at man bør følge med hen hvor konsensus om hvad der er de bedste oplysninger - og når den tid kommer - også hvor egne hands-on RESULTATER - og andres grundige analyser nu fører en hen. Og jeg tror også man er nødt til at indstille sig på, at det bliver en integreret del af fremtiden - også for konsoller, hvad enten der kommer delelementer af det i en PS6 eller om det først bliver en 7er (eller PS6 Pro?) der bliver kraftig nok til det.
Brugeravatar
Af TBC
#375352
TBC skrev: 24 mar 2026, 06:35 Og vær helt sikker på én ting: Som det har været med både DLSS, FSR og PSSR mv., så bliver det også Digital Foundry – branchens mest anerkendte, teknisk dybdegående og metodisk grundige analyseinstans vedrørende spil og spil-relaterede teknologier – der mere end nogen andre kommer til at gennemlyse DLSS5 fra ende til anden. Det er netop derfor, at både andre medier, udviklere og entusiaster konsekvent refererer til deres analyser.
Analysen af det nye PSSR2 er netop blevet offentliggjort for under en time siden:


https://www.digitalfoundry.net/features ... s-we-hoped

Konklusionen er, at PSSR2 markant forbedrer billedkvaliteten og gør PSSR-titler i PS5 Pro‑biblioteket skarpere, renere og mere stabile, idet det eliminerer meget af den shimmer, støj og ustabilitet der var fra den første PSSR‑version. Dermed lukker det en stor del af hullet op til FSR.

Min personlige holdning til den sag: Det er sku gode nyheder for PS5-Pro ejere - og værdien af en PS5 Pro er imho dermed lige blevet løftet i signifikant grad, særligt hvis man har en stor skærm og sidder tæt mht god immersion.

Som Oliver Mackenzie har udtrykt det: “PSSR 2 is so big it justifies the existence of PS5 Pro.

For omkring 23 timer siden udgav de også en video baseret på deres skriftlige Q&A-udveksling med Mark Cerny om teknologien:


https://www.digitalfoundry.net/news/202 ... mark-cerny
https://www.digitalfoundry.net/news/202 ... -platforms

Her afslører Mark Cerny, at ML‑baseret frame generation kommer til PlayStation, angiveligt dog ikke i år. Det blev ikke specificeret til hvilke konsoller, men mon ikke det gælder PS5-Pro versionen og en kommende PS6?

Min personlige vurdering forbundet med den sag er, at frame generation potentielt godt kan fungere som et relevant supplement i spil, der allerede rammer 60 fps (Jeg bruger dog selv stort aldrig lige den del af DLSS-algoritmerne på PC, da jeg fortrækker billedet uden). Jeg kunne have en reel bekymring for, at teknikken også kunne forsøges brugt til at løfte 30 fps‑titler/game-modes til 60 fps. Fra PC ved man allerede at det ikke giver nogen videre god oplevelse, da input‑lag forbliver svarende til 30 fps + et marginalt overhead, samt gør billedartefakter mere tydelige ved få FPS end de er ved mange FPS - og at det giver en mindre sammenhængende bevægelsesgengivelse, sammenlignet med titler der i forvejen har 60 fps eller derover. Sidstnævnte mht bevægelsesgengivelsen kunne en FAST 30 til 60 FPS lock formentligt lappe lidt på i spil med rigtig god konistent framepacing, men det er imho for lidt med ~30-40 fps som udgangspunkt mht overbevisende jævn bevægelsesgengivelse ved VRR.

Det kommer også frem, at PSSR bygger på algoritmer, der minder meget om FSR Redstone‑algoritmerne. Jeg kan ikke huske, om det er i denne video eller en tidligere, men det nævnes, at den væsentligste forskel er, at PSSR arbejder med integer‑beregninger med lavere 8 bit præcision (hurtigere, mindre præcist og mere konsolvenligt), mens FSR (og DLSS) normalt arbejder med floating point (FP16), som er mere præcist, men også har højere beregningsomkostninger. Det matcher også det tidligere source-code leak der viste at AMD arbejdede på en INT8 og FP8 version af FSR4 og samtidig med at det forklarer hvorfor den version aldrig blev knyttet til andet end RDNA4, da det var den første AMD hardware med FP8 support, vidner det også om det tætte samarbejde med Sony - INT8 versionen blev så modded til RDNA 2 og 3 af moddere og AMD kunne (hvis de vil) få det ud af samarbejdet med Sony om INT8 versionen til vælge FSR4 understøttelse på ældre RDNA 2 og 3 hardware. Det hele giver mening når man husker den kontekst at PS5 er baseret på RDNA 2. Bottom line er at PSSR nu mht opskalering er at regne i samme liga som FP8 versionen af FSR på RDNA4 eller den moddede 8 bit INT version til RDNA 2 og 3.

Det er også afgørende, at den opgraderede PSSR‑udgave faktisk er så billig i performance, at den er marginalt hurtigere end den gamle PSSR version. Det fremhæves som årsagen til, at Sony nu kan tilbyde et universelt system‑switch (“Enhance PSSR Image Quality”), som tvinger den nye algoritme ind i spil, der tidligere brugte den gamle. Det spændende spørgsmål i den forbindelse bliver om fremtidige spil skabt med PSSR2 løbende kan udvikles med nyere mere modne og opgraderede algoritmer, mens system-switchet (“Enhance PSSR Image Quality”), samtidig kommer til at hænge fast i en en ældre algorime, der nødvendigvis ikke kan være langsommere end den gamle PSSR1 algoritme. Fremtidige opgraderinger på systemniveau, er jo i hvert fald nødt til ikke at blive beregningsmæssigt tungere hvis man af Quality Assurance hensyn skal forblive i stand til at sikre god oplevese på ikke patchede spil.
Af steadi
#375367
Så hæver Sony priserne endnu en gang priserne på PS5.

Jeg købte en PS4 Pro, da Red Dead Redemption 2 landede, men jeg bliver mere og mere overbevist om, at jeg ikke køber en PS5, når GTA VI engang lander.
  • 1
  • 236
  • 237
  • 238
  • 239
  • 240