Debat af streamingtjenester, priser, indhold og kvalitet. F.eks. Netflix, HBO, TV2 Play, Viaplay, iTunes m.fl.

Redaktører: AndreasL, Moderatorer

#374962
Simon R. skrev: 01 mar 2026, 12:22Der er meget andet end opløsning, der spiller ind. For det første er blu-ray kun 8-bit hvor UHD er 10-bit. Det giver en kæmpe forskel i farverum, langt mindre banding osv som du altid ser på blu-ray.

Og så er der bitrate, HDR og en masse andre ting.
Korrekt, der er flere akser endnu. Men UHD/4K kan i sig selv være både 8‑ og 10‑bit; det er HDR‑formatet, der indebærer, ja kræver 10‑bit, ikke opløsningen.

Man kan derfor ofte finde 4K‑udgivelse i 8‑bit SDR, det gælder f.eks. mange independent, såvel som mange Danske og Europæiske film. De gamle 1080p Blu‑rays har slet ikke HDR, mens UHD/4K‑Blu‑rays typisk kombinerer 4K‑opløsning, 10‑bit, bredere farverum og markant højere bitrate – og det er netop derfor de ofte anbefales som “den fuldere pakke”.

Det er også værd at betragte i denne snak, at især mange af de debatterende opskalerede fra 1080 DI netop ofte mangler HDR, selv når de kommer tik os i "4K" containere. Og de ser altså oftest bedre ud, ikke blot på 4K-UHD‑Blu‑ray, men også det gamle 1080p Blu‑ray format, fordi den fysiske discs bitrate oftest ligger pænt over, hvad streamingtjenester normalt leverer, særligt ifbm 8 bit 4k. Den højere bitrate giver færre kompressionsartefakter, renere teksturer og mere stabil farvegraduering, uanset om det er så er inden for mulighederne forbundet med potentialerne for 8 eller 10 bit

Hvad banding angår, spiller både bitdybden og bitraten nemlig ind. 10‑bit reducerer de synlige trin i farveovergange, men hvis bitraten er for lav, vil kompressionen stadig introducere sin egen banding og blokstøj, også i 10 bit materiale. Det kan sagtens blive så udtalt at man kan opleve, at selv en 1080p Blu‑ray uden HDR faktisk fremstår mere detaljeret, mindre farvebandet og mere blok stabil end en 4K‑stream med HDR, såfremt selve kompressionen på streamingen er så hård at den æder bitdybdens fordele i en alt for hård kompression. I værste fald ender man i den situation at det eneste der er bedre er HDR-aspektet. Det sker så heldigvis sjældent, i forhold til streamingudbydere, at det er i en sådan en grad at 10-bit fordelen ikke kompenserer for tabet forbundet med bitraten i sammenligningen med en 8-bit 1080p BluRay kompression, men forskellene bliver straks markant mere udtalte og endnu lettere at se, når der er tale om 4K uden HDR, der som reglen altid falder ud til 1080p BluRays fordel hvis denne har signifikant højere bitrate, især når der ikke er hverken >2K DI eller 10-bit til at kompesere og udligne på vægten mht en lavere bitrate.

Det er netop det, der forklarer, hvorfor selv 1080p Blu‑ray i nogle tilfælde kan se bedre ud end 4K‑streaming: begge faktorer - både bitdybde og bitrate – er nemlig afgørende. Og det forklarer samtidig også, hvorfor 10‑bit HDR også er at regne som en reel kvalitetsforbedring på 10-bit HDR kompatible projektorer, selv om de ikke på samme måde som et high-nit OLED-tv kan udnytte HDR’s højere lysstyrker. Men HDR handler ikke alene kun om nits, men også om bredere farverum, bedre gradueringer, bedre shadow-details mv som som gode projektorer i høj grad også kan drage fordel af, selv med lavere peak‑brightness output.
#374963
TBC skrev: 01 mar 2026, 15:03 Det er også værd at betragte i denne snak, at især mange af de debatterende opskalerede fra 1080 DI netop ofte mangler HDR, selv når de kommer tik os i "4K" containere.
Det er ikke en "container" når de 2K (som ikke er det samme som 1080p) er blevet opskaleret på udstyr der gør den slags bedre end nogen "on the fly"-opskalering der findes. Så er det 4K, selvom kilden ikke var det, og rigtig, ægte, eller hvad man nu end vil kalde det, 4K typisk ser bedre ud.
#374968
Det er vist en smule reduktivt. I hvert fald i forhold til påstanden om, at "4K ikke findes i praksis".
#374970
Naiera skrev: 01 mar 2026, 15:42Det er ikke en "container" når de 2K (som ikke er det samme som 1080p) er blevet opskaleret på udstyr der gør den slags bedre end nogen "on the fly"-opskalering der findes. Så er det 4K, selvom kilden ikke var det, og rigtig, ægte, eller hvad man nu end vil kalde det, 4K typisk ser bedre ud.
Det har du ret i, hvis vi taler strengt stringent terminologi. Men så begynder vi også at bevæge os ind i semantik, men kontekst og mening bør efter min mening betyde mere end ordvalget. Målet med ordvalget var i konteksten at indramme forholdet angående indholdets oprindelse: når billedmaterialet i praksis stadig stammer fra en 2K DI, som ligger signifikant og ekstremt meget tættere på 1080p end på ægte 4K‑detaljegrad. Det ændrer ikke ved substansen: uanset hvor god den professionelle opskalering er, så foregår den inden den efterfølgende kompression. Det er stadig denne kompression, der i sidste ende kan æde finere tekstur, gradueringer og detaljer og introducere banding eller blokstøj, hvormed den naturligvis også æder af opskaleringens kvaliteter. Pointen om, hvordan både den oprindelige kildens opløsning og den efterfølgende kompression påvirker den i praksis tilgængelige kvalitet er den samme.

Når 4K for alvor adskiller sig fra 1080p SDR, sker det især i situationer hvor flere kvalitetsparametre går op i en højere enhed: et ægte højopløst kildemateriale hele vejen fra kameraer til 4K DI, HDR‑grading med 10‑bit farvedybde og en høj, relativt ukomprimerende bitrate. Under de forhold bliver forskellen markant – især på formater som 4K Blu‑ray eller tjenester som Kaleidescape, hvor komprimeringen er (alt relativt i brugerperspektiv) minimal og signalet bevarer langt flere billedinformationer.

Men billedkvalitet er en kæde, der kun er så stærk som de svageste led. Hvis ét eller flere elementer i 4K‑kæden kompromitteres – eksempelvis et 2K DI opskaleret til 4K, SDR‑grading, 8‑bit og lav bitrate (som ofte ses på streamingtjenester) kan balancen tippe. I sådanne tilfælde kan en 1080p Blu‑ray med væsentligt højere bitrate hurtigere fremstå både mere detaljeret, mere nuanceret og stabil end et 4K‑encode med signifikant lavere bitrate, når det begrænses af dårligere forudsætninger.

Jo flere stærke, ukomprimerede led der er i 4K‑kæden, desto større bliver den reelle kvalitetsforskel til 1080p. Omvendt: jo flere kompromiser der sniger sig ind (2K DI, 8‑bit SDR, lav bitrate – bitraten vil ofte også være endnu lavere på 8-bit end 10-bit på streamingtjenesterne), desto større er sandsynligheden for, at en velmasteret højere bitrate 1080p‑skive kan se bedre ud end en “papir‑4K” (hvis du bedre kan æde det udtryk) præsentation.
Naiera skrev: 01 mar 2026, 15:42[..] påstanden om, at "4K ikke findes i praksis".
Naturligvis findes der 4K i praksis. Som jeg selv fremhævede det som noget af det første på side 1, så går det den rette vej, med flere og flere 4K DI'er, hvorfra det så desværre kun i forskellige grader går ned af bakke på vejen ud til forbrugerne (4K Bluray/Kaleidescape vs almindelige streamingudbydere) - og selv om Indie, Danske og Europæiske m.v. mindre markeders film stadig haler for meget efter og der desværre fortsat er for meget "fake 4k" (som andre end jeg har døbt det - hvis du skulle vise dig utilfreds med det udtryk) via 2K DI på markedet.
Senest rettet af TBC 01 mar 2026, 21:17, rettet i alt 1 gang.
#375043
Rasmus Larsen skrev: 27 feb 2026, 07:43 Alle tre The Lord of the Rings-film blev rescannet (filmnegativerne) og restaureret i 4K for år tilbage i forbindelse med 4K-genudgivelserne, med Peter Jackson ved roret. Special effects er i 2K fordi de er skabt digitalt.
Nu er netop de film jo et fremragende eksempel på, at opløsningen er fløjtende ligegyldig, hvis man efterfølgende digitalt udglatter som ind i helvede. LOTR 4K udgivelserne er jo en skandale.

Nordisk Film kunne da også bilde mig ind, at de skannede Olsen Banden i 4K, men det betyder jo intet når efterbehandlingen fik dem til at ligne noget en DVD ville skamme sig over.