Til al snak om Android TV - Google's styresystem til tv-skærme, mediebokse og spilkonsoller

Redaktører: AndreasL, Moderatorer

By TBC
#305041
Godt at se, at jeg trods alt ikke længere står alene som en forbløffet fanatisk tosse med mine foranstående iagtagelser:

"One of the best examples of this upscaling making a difference was during Superbad, streamed on Netflix in HD. With the upscaler on, you could see the light reflecting off the actors’ eyes, make out the images on their shirts and could clearly see tiny details like the nutrition label on a pack of chips Michael Cera and Jonah Hill’s characters had during lunch.

For some, this level of detail is unnecessary - who cares what characters in a decade-old film wore? - but for others, this is exactly the kind of clarity worth paying for.
[..]
Who’s it for?
[..]
Discerning Cinephiles: Because AI upscaling really focuses on the small details in a scene (the lettering on a bag of chips, the wrinkles in someone’s face, etc…) relatively observant cinephiles will get the maximum enjoyment from the upscaling features of the new Shield.
https://www.techradar.com/reviews/gamin ... 106/review

Tilføjelse til mit undersøgende indlæg d. 8/11:

Har lige siddet og set Human Universe https://www.blu-ray.com/movies/Human-Un ... ay/122772/, en Bluray i 1080i hvor AI-upscale således IKKE er aktivt. Der er situationen den samme som med 4K demoerne: På samme vis en skarpere og mere detaljeret fremvisning hvad angår strukturer (f.eks. hud og skæg mv.) end jeg var vant til fra ATV 4K. Så noget må være i spil selv uden AI-upscale. Mit gæt er at det ligger i det upscale niveau der hedder enhanced som jeg ikke har fundet ud af hvad dækker over, men som muligvis(?) er en nedskaleret version af AI med en langt mindre omfattende og processorkrævende algoritme. Der er i hvertfald 3 niveauer: 'AI', 'Enhanced' og 'Basic'. Som Nvidia skiver: "AI Enhanced upscaling will fallback to “Enhanced” in these cases" (...når kilden, (f.eks. 4K, eller 50 fps 1080i) ikke er kompatibel med AI-upscaling). Tilbage står så Basic upscale, som svarer til hvad jeg er vant til at se fra mit ATV 4K.

Hvad der tales om mht AI-upscale "vist" på YouTube:
https://youtu.be/yQ7-CN3XH20?t=62
https://youtu.be/kmqa3c-oiAk?t=32
By TBC
#305095
Supergris skrev:Det er vel ikke meget anderledes end Sonys Reality Creation eller Darbee?
Set fra et marketing perspektiv, hvis man med superlativer helt ansvarsløst skulle "forklare" hvilke fordele det er beregnet på at skulle give hr og fru Jensen, sikkert ikke meget anderledes. Men i realiteten, jo, så er det endog meget anderledes:

Sony's Relaity Creation handler om kombinationer af ting som egentlig sharpness funktion, motion adaption og støjreduktion, altså nogle helt andre ting, og har sin oprindelse i 90'erne.

Darbee vision har sine rødder helt tilbage i 70'erne og handlede egentligt oprindeligt om at gøre et 2D billede mere 3D og er et trick hvor man tager inverterede ude-af-fokus billeder og injicerer det oven i det originale billede for at give en effekt hvor hjernen narres til at opleve billedet med mere dybde (mere "3D-agtigt") og dermed mere livagtig, fordi vi med 2 øjne er vant til at arbejde med små variationer i perspektivet imellem vores 2 øjne. Det er ret smart faktisk, ...særligt når man tænker på at teknologien oprinder helt tilbage fra 1970'erne er det imponerende og klart forud for sin tid, men igen er det noget andet.

NVidia AI-upscale er til sammenligning med begge noget helt andet og nyt, derved at det er baseret på det vi i dag kalder kunstig intelligens (AI). Det er med andre ord til sammenligning en ny teknologi, hvor Nvidia har trænet sine store neural-network supercomputerfarme til maskinlæringsalgoritmer beregnede på at knække koden til hvordan man præsenterer og tilføjer "4K detaljer" i forbedringen af indhold opskaleret fra f.eks. 720p eller 1080p. (så tænk mere i retning af nyere spionfilm/CSI, hvor en supercomputer på nærmest magisk vis kan udregne flere detaljer i f.eks. et satellitbillede). Man har simpelthen fodret kunstig intelligens med videoeksempler i bl.a. SD, 720p, 1080p, 4K, 8k, så AI'en har lært hvad der udgør forskellen på videoeksemplerne og så ladet den udregne og give svar på hvilken kompleks algoritme der kan bruges for at udligne forskellene og f.eks. få 720p og 1080p eksemplerne til at minde mere om 4K eksemplet. Svaret fra Nvidias AI-supercomputere kan så downloades og benyttes af Shieldens relativt kraftige Tegra+ processor (hvilket også forklarer hvorfor det ikke er alle opløsninger og framerates der er processorkræfter nok til at udnytte algoritmerne på - i en Shield i hvert fald). Og jo mere Nvidias neurale netværks supercomputere lærer om og forfiner opskaleringsalgoritmerne, vil man også fremadrettet kunne forfine og forbedre Shieldens benyttede opskaleringsalgoritme, via fremtidige firmware updates af sheilden. Så funktionen vil med andre ord også kunne blive bedre og bedre over tid, jo bedre og mere forfinede algorimter Nvidias supercomputere får regnet sig frem til. Det er med andre ord ikke Shielden der er hjernen bag, den er blot den enhed du får lov at se noget af det med tiden klogere og klogere svar fra Nvidias supercomputere på (inden for rammerne af Shieldens tilgængelige processorkraft). Så jo, på flere områder er det endog meget anderledes end Sonys Reality Creation og Darbee Vision.

Jeg må indrømme at jeg er blevet ret imporneret over og meget glad for funktionen, selv om det bestemt også kan over-tunes til at gøre lige så meget skade som gavn på især low-quality materiale og hvis man ikke holder sig til lave mere moderate settings. Som beskrevet på forgående side afhænger det en del af kildematerialets kvalitet hvor godt eller ligefrem skidt resultatet på forskellig vis kan blive. Men det sparker helt klart nyt liv i især en 1080p blu-ray eller en relativt fornuftigt encoded Netflix film, på en måde som udkonkurrerer alt andet jeg har set og jeg ikke tror man har set mage til hidtil, selv om svagheder ved et hårdt komprimmeret encode også ville kunne eskponeres tydligere, særligt hvis man overdriver sine settings. Med andre ord, så virker det generelt langt bedre og mere gennemført på en 1080p Bluray end på f.eks. TV2Play's gyslige kompression.

Det er helt oplagt en udspringer af Nvidia's eksisterende NGX og deep learning teknologier, Nvidia er jo med i front på AI, især på dette område. Så skulle man endelig sammenligne det med noget ville det mere oplagt være med Nvidia's øvrige NGX teknologier for opskalering. https://www.trustedreviews.com/news/nvi ... ch-2947926
Brugeravatar
By Torben Rasmussen
#305146
AI opskalering er til stede i mange af de nye TV - med ret blandet held vil jeg sige. Både Samsung og Sony promoverer deres opskalering, som værende baseret på kunstig intelligens, hvor algoritmen er trænet på eksisterende billedmateriale. Samsungs algoritme i TV'ene tilpasses også løbende efterhånden som den gentrænes hos Samsung.
By TBC
#305186
Ja, på nyere TV vil det give mening at kalde det AI, når benyttede algoritmer er baserede på store neurale netværks læring, men ikke i forbindelse med teknologier i 70 og 90'erne, men mindre man for alvor begynder at udvande begrebet.

Jeg har selv et Sony AF8 som iblandt de forskellige mærkers 2018 OLED modeller, netop blev købt fordi Sony var/er kendt for at have en særlig god opskalering (og posterization). TV'ets opskalering er da alt andet lige da også at betegne som god, men giver dog langt fra lige så ekstreme detaljeniveauer som Nvidia's AI-opskalering i Shielden, selv om det så måske også kunne være baseret på AI i AF8 og andre nyere TV.

Ved du om det skulle være AI udviklede algoritmer der specifikt benyttes i X1™ Extreme processoren (som bl.a. i AF8) eller om man skal op i en X1™ Ultimate? (f.eks. AF9). Hvis Sony har det, vil det jo oplagt være at associere til deres X1 linje af chip.
Brugeravatar
By bbplayer
#305188
Nu da jeg lige faldt over en 8K HDR AndroidTV boks fra Kina, så må det være oplagt at spørge om denne har 8K + HDMI 2.1 support?
By TBC
#305216
HDMI 2.0b iflg bl.a. https://www.flatpanels.dk/nyhed.php?sub ... 1572267215

Personligt syntes jeg det er tåbelig timing at udgive en ny enhed uden HDMI 2.1, men indrømmet er det ikke lige nu lige nu og her muligt at finde ikke et betydende use case, hvor der er reelt behov for HDMI 2.1 til en streamingboks, hvis altså den så bare får VRR via HDMI 2.0b.

Vi har ingen udsigt til noget betydeligt omfang af 8K materiale, før man sikkert for længst har set endnu en revision. Og både Geforce Now og Gamestream skaleres til 60hz i encoded til streming. Så ud over de få demoer på YouTube som den aktuelle Tegra processor efter alt at dømme alligevel ikke ville kunne afkode som 8K i AV1, er der jo ikke ligefrem noget overbevisende argument for behovet endnu.

Som jeg ser HDMI 2.1 har det endnu kun regulær berettigelse i forhold til PC og næste generation 2020 konsoller og så har selve VRR delen relevans i forhold til hurtigere framerate switch uden den aktuelle blanking periode ved framerateskift. Men dette ville potentielt også kunne implementeres via HDMI 2.0b, så vidt jeg er orienteret.

Mit bedste bud [og reelle forvetning] er at den kinesiske streamingenhed med angivet 8K udgang heller ikke ville kunne afspille 8K AV1 videoer og det mere er en relativt ubrugelig funktion hvor GUI og fotofremvisning er reelle eksempler på ting ville kunne klares i 8K via HDMI 2.1. (lidt ala eksemplerne på 8K TV der reelt ikke kan modtage andet end 4K signaler). Og kinesiske Android stremingboks har helt sikkert ikke Nvidias AI-upscale, som er det som jeg sammen med bitstreaming og muligheden for mere generelt match af framerate på tværs af apps, ser som den samlede pakke der udgør hovedargumentet for at orientere sig imod en Shield som streamingboks, hvis man er entusiast. Uden dette trekløvers, ville man ikke have nogen grund til at vælge opgradere fra en tidligere Shield eller et ATV 4K eller overhovedet fra start vælge en 2019 Shield over f.eks. et ATV 4K, i forhold til selve afspilningsdelen.

OK, spildelen kunne være et andet argument for nogle, men er trods alt ikke de væsentligste element for langt de fleste. ...Heller mig selv for den sags skyld ...Selv ville jeg altid fortrække ukomprimmeret videooutput med lavere latenstid direkte fra min egen gamer-pc, når nu jeg har en sådan i forvejen.
Brugeravatar
By bbplayer
#305219
Det er måske lidt vag og ikke særligt fremtids sikrende at mene det kan undværes hvis vi får VRR på 2.0b, som nok ikke er det som sker.

Som du starter med at sige, så er det rigtig dårligt at udgive en boks tæt op ad 2020, og uden HDMI 2.1 protokol support, og denne måske skal leve i 3-4 år, før der kommer noget, og så har flere skærme nok 8K og nogle vil have materiale som de måske vil bruge, det er intet vi ved.

Når UHD kommer i HFR , så vil man helt sikkert være glad for HDMI2.1 og man vil så glæde sig over at have valgt et TV med HDMI2.1 fuld kompatibilitet, og ikke kun visse funktioner af dette.

Filmentusiaster har ventet på dette, og håber man genudgiver de film som allerede ligger i HFR og kun mangler mediet at udgives på , der kan en UHD v2 med HDMI2.1, som er samme medie nok stadig trække folk til, uden at hele UHD Blu-ray mediet skal udskiftet men en afspiller kan supportere det.

Lad os nu se hvad fremtiden virkelig kan præstere, det er i hvert spændende om de nye Amlogic S905X3 chipset virkelig klarer 8K HDR og samtidig får HDMI2.1 håndteret korrekt på nye bokse, så er Android da godt på vej ind i nogle stuer og måske ud til nogle Samsung Q900 ejere, som har opdateret firmware :)
By TBC
#305230
TBC skrev:
Toranaga skrev:Det ville VIRKELIG være fedt med oplistning af anbefalede indstillinger ift. hvis man har et 4K HDR TV og Kodi
[..]
Jeg må indrømme at jeg er blevet ret imporneret over og meget glad opskalerings funktionen, selv om det bestemt også kan over-tunes til at gøre lige så meget skade som gavn på især low-quality materiale og hvis man ikke holder sig til lave mere moderate settings. Som beskrevet på forgående side afhænger det en del af kildematerialets kvalitet hvor godt eller ligefrem skidt resultatet på forskellig vis kan blive. Men det sparker helt klart nyt liv i især en 1080p blu-ray eller en relativt fornuftigt encoded Netflix film, på en måde som udkonkurrerer alt andet jeg har set og jeg ikke tror man har set mage til hidtil, selv om svagheder ved et hårdt komprimmeret encode også ville kunne eskponeres tydligere, særligt hvis man overdriver sine settings. Med andre ord, så virker det generelt langt bedre og mere gennemført på en 1080p Bluray end på f.eks. TV2Play's gyslige kompression.
Hermed lige mine seneste mere præciserende iagttagelser om hvad jeg personligt, i forhold til egne præferencer og temperamenter, finder forskellige kilde-kvalitets niveauer generelt kan bære af opskaleringsniveauer. Der kan være forskel på de enkelte titler på tjenesterne, idet nogle kan have et mere stabilt og klart encode end andre, hvorfor jeg benytter en range i angivelserne (f.eks. Basic <> Enhanced). Mange andre vil sikkert syntes at det kan bære mere vil jeg ganske givet tro og vil f.eks. kunne benytte AI-medium der er default, men personligt syntes jeg at det risikerer at begynde at se for artificial ud med alt for ekstreme settings. Så her er hvad jeg personligt syntes giver mig de samlet set bedste opskaleringsresultater, som gør at Shielden (i opskaleringsniveauerne Enhanced til AI-low) slår hvad jeg har været vant til af opskaleringer, f.eks. fra ATV 4K eller mit TV og min projectors indbyggede opskaleringer, såvel som afspilningen af 4K på ATV 4K.

- Lav streaming kvalitet (f.eks. HBO Nordic, TV2 Play): Basic
- Middelmådig streaming kvalitet (f.eks DRTV): Basic <> gode titler enhanced
- Rimelig 1080p streaming kvalitet og DVB-c (f.eks ViaPlay film, 1080p Netflix, Yousee DVB-c) Enhanced <> gode titler AI-low
- God 1080p streaming kvalitet (f.eks 1080p 10-bit HDR på Netflix) AI-Low
- 1080p Bluray kvalitet: AI-Low
- 4K Streaming: AI-low = fallback til Enhanced
- 4K Blu-ray: AI-Low = fallback til Enhanced

Med andre ord er virker de højeste opskalerings settings allerbedst bedst med 10-bit HDR og 1080p Blu-ray, mens Enhanced niveauet samtidig gør boksen eminent til 4K (Streaming og BlyRay) med fremhævelse af endnu flere detaljer og nuancer end hidtil i 4K materialet. Men de højeste opskaleringsalgoritmer får imho især sløje encodes til at se direkte dårlige ud med yderligere eksponeringer af alle encodets svagheder. Jeg skylder sikkert at sige at jeg nok er mere hysterisk mht encoding artifacts og artifacts i det hele taget, end de fleste sikkert vil være det, som jeg bl.a. sværger til Blu-ray skiver når muligt, syntes at streaming generelt er ALT for hådt komprimmeret og samtidig benytter mig af et 123 tommer billede.

- - -

Nye opdagelser:
- Match framerate virker også på chromecastet indhold i 24 fps.
- Den første og hidtil eneste app jeg endnu er faldet over der ikke virker med match-framerate er Apple-TV. Der er dog [endnu] tale om en uofficiel sideloaded version fra Amazon beregnet til FireOS (en fork af en ældre Android version og uden samme Support Library), der således slet ikke er beregnet til Sheild: com.apple.atve.amazon.appletv_1.1-2_minAPI21(armeabi-v7a)(nodpi)_apkmirror.com - Jeg har kun set trailers på Apple-tv appen (jeg sparer min gratis prøve til der engang lægger flere hele serier klar, da jeg ikke har lyst til at se halve serier)
bbplayer skrev:Når UHD kommer i HFR , så vil man helt sikkert være glad for HDMI2.1 og man vil så glæde sig over at have valgt et TV med HDMI2.1 fuld kompatibilitet, og ikke kun visse funktioner af dette.
Jeg er for så vidt enig med dig, sådan helt grundlæggende i princippet om at der burde have været HDMI 2.1 i en ny version. Men som andre debattører i andre tråde har overbevist mig om er det svært at se realistiske use-cases i den nærmeste fremtid ud over hurtigere switching af video uden blanking via VRR (som potentielt kan klares på HDMI 2.0) og så højere fps i 4K fra især PC og evt. fremtidige konsoller.

Streamingbokse som ATV4K og Shield kan jo allerede snildt afvikle og outputte 60 fps HFR video i 4K via HDMI 2.0, shielden endog også 120 fps ved 1080p via HDMI 2.0b.

Husk at videomateriale som kilde jo er farve-subsamplet ved YCBCR 4:2:0, og HDMI 2.0 f.eks. kan klare 4K [email protected] fps selv hvis det havde været 12 bit 4:2:2 og sågar bære 240 fps ved 1080p 4:2:0 hvis det endelig skulle være (og displayet var kompatibelt).

Det er svært at se for sig at 4k 120 fps HFR skulle blive tilgængeligt via skiver eller streaming, sådan lige i den nærmeste fremtid må jeg jo medgive dem der har "omskolet" mig til indrømmelserne af at det er svært at se use-cases ifbm lige præcis en streaming boks, på trods af min principielle holdning om at der dog burde have været HDMI 2.1 i en 2019 version, selv om det måske inden for den nærmeste fremtid og ind til på den anden side af næste version ifbm en streamingboks reelt kun ville have egentligt relevans i forhold til fremvisningen af GUI og fotos i 8K. Aktuelt mangler vi så meget som bare meningsfuld adgang til 4K HDR 60 fps materiale, som streamingbokse ala Shield og 4K Blu-ray afspillere allerede kan afvikle og klare via HDMI 2.0
#306878
Jeg synes heller ikke, at AI-opskalering bør bruges. Som så meget andet, der kaldes "opskalering" så har det faktisk ikke meget med opskalering at gøre. Det er billedbehandling eller det man på engelsk kalder 'picture enhancement'. Det er ikke meget anderledes end hvad f.eks. Samsung gør brug af i sine TV. En slags objekt-baseret analyse, der kan genkende ansigter, former mv. og så tilføjes der noget kunstig skarphed mv. i billedet.

Det er noget af en glidebane, at ikke kun vores TV-skærme nu billedbehandler videosignalet, men også vores medieafspillere også er begyndt. Det næste bliver vel, at tjenesterne også begynder på det.
By TBC
#306891
Toranaga skrev: 3. dec 2019, 13:47 Jeg syntes ikke AI upscaling er værd at bruge. Det giver for meget kunstig skarped i billedet.
Ja, i default og højeste setting - Helt enig. Men jeg syntes bestemt den gør det rigtigt godt i laveste AI setting uden den voldsomme brug af kunstig detail enhancement på de 2 højeste setting. HVIS kildematerialet er solidt og i god stand er AI-low en fantistisk upscale setting, mens medium(default) og høj setting med brug af kunstigt udseende detail enhancement er direkte rædsomme og kunstige at se på. Det samme gælder også mht. dårlige kilde-kvaliteter, f.eks. streaming fra TV2 Play eller HBO og lign hvor AI-funktionen imho slet ikke kan bruges, heller ikke på laveste niveau - Det bliver det hele kun værre af, når der er alt for langt fra materialets spatiale opløsning til en 4K skærms opløsning. Men lavt AI-niveau giver til gengæld en opskalering der virkelig puster fordelagtigt liv i en god 1080p kilde (f.eks. BluRay) på 123 tommer.

Mit Sony-TV har jeg erfaret også benytter AI-baserede algoritmer med sin X1 processor og Sony's TV er jo netop også kendt for at have en god opskalering, lige som Samsungs nyere TV med Quantum Processor. For meget og for lidt fordærver for tit, siger man. Det handler om at holde balancen, så bliver resultatet samlet set bedre, mens det bliver værre hvis den direkte vælter. Med Shield er udfordringen med dens mange valgmuligheder at det faktisk er brugeren der har inflydelse på balancen fra det helt basale til det overdrevent aggressive. Den nødvendige balance afhænger så yderligere også af hvad materialet kan bære. Har man ikke held med det kan man jo heldigvis selv fravælge det helt. Personligt elsker jeg at kunne indstille det rette niveau der passer materialet bedst - Den mulighed har jeg ikke på f.eks. mit Sony TV eller mit ATV.

Rasmus Larsen skrev: 4. dec 2019, 05:50 Det er noget af en glidebane, at ikke kun vores TV-skærme nu billedbehandler videosignalet, men også vores medieafspillere også er begyndt.

Jeg kan ikke se at intelligent opskalering skulle være værre som glidebane end f.eks. tonemapping til HDR. Skærmen kan jo ikke formidle hele dynamikken, så videosignalet billedbehandles i en kontekst hvor det er tvingende nødvendigt. Det samme gælder opskalering, den er også tvingende nødvendig og den billedbehandling en opkalering udgør, kan så med brug af enten færre eller flere enten dynamiske eller generiske algoritmer udføres enten med et godt eller dårlig resultat, fuldstændigt lige som tonemapping. Begge dele (tonemapping og opskalering) udgør helt tvungne trin i den uendelige maraton for at forbedre en helt nødvendig billedbehandlingskvalitet. Shield 2019 giver så ikke mindre end 5 [imho reelt 3] forskellige niveauer brugeren kan vælge imellem alt efter hvad kilden og temperamentet nu kan bære - Det er da kun at betragte som en god ting, det er ikke noget jeg f.eks. har mulighed for at have nogen indflydelse over overhovedet på mit Sony TV eller mit ATV. Og sagen er jo at en, til materialet mere specifikt tilpasset eller optimal algoritme kan skabe et bedre billede end en helt generisk algoritme kan, i forbindelse med et givent materiale. Det er ikke alene princippet både i dynamisk tonemapping og AI opskalering, men også i det at man som bruger overhovedet kan have valg i forbindelse med algoritmers aggresivitet, nogen man som bruger så enten kan tildeles indflydelse på eller ej.

Opkalering af en god 1080p BluRay syntes jeg personligt at Shield 2019 lykkes bedre med på laveste AI-setting, end selv mit Sony TV, som med sine algoritmer for sin part gør det bedre end mit Apple-tv med dets algoritmer. Og på to sidstnævnte har jeg bare slet ingen brugerindflydelse på resultatet overhovedet. Det sætter jeg som "avanceret" bruger direkte pris på at kunne have.

TV'et skal jo så i øvrigt slet ikke [op]skalere hvis det får et 4K signal til 1:1 pixelmapping ind og så er det jo ligemeget om den helt tvingende nødvendige funktion sidder i medieafspilleren eller i TV'et, så handler det bare om at lede den af dem der gør det bedst gøre det.

Mere komplekst er det så imho med HDR tonemapping, hvor det fortsat forgår to steder, hvis det også er til stede i medieafspilleren. Men der er der mange inkl. HDTVTest, Cnet og Rtings (svjh), der mener at f.eks. Panasonics tonemapping i deres BluRay afspillere ofte medvirker til at forbedre det samlede resultat, selv om TV'et også udfører en efterfølgende tonemapping. Så selv helt grundlæggende principper for hvad der udgør en glidebane kan man åbenbart ikke opstille, i hvert fald når der er tale om funktioner der slutteligt er uundgåelige og strengt nødvendige.
#306900
Jeg synes ikke, at man kan sammenligne med tone-mapping. Opløsningen 4K er fast defineret som 3840x2160 pixels i TV. Lysstyrke og håndteringen heraf varierer meget fra TV til TV og man kan ikke fremvise et godt resultat over en bred kam uden en eller anden form for tone-mapping eller metadata-fremgangsmetode. Hvis alle TV var lige gode til at håndtere lysstyrken - ligesom alle 4K TV viser præcis 3840x2160 pixels - så var tone-mapping og dynamiske metadata unødvendige, bl.a. fordi man så i studiet kunne fastsætte niveauet 100% præcist.

Dertil kommer, at tone-mapping af lys er noget ganske andet end at ændre farvetone, detaljer eller komposition i et billede. Den samme farve kan gengives ved forskellige lysniveauer. Hvordan vi opfatter farven afhænger af lyset i omgivelserne fordi vores pupil tilpasser sig dynamisk. Af samme årsag kan man ikke sige, at et billede gengivet ved 2000 nits er bedre end et billede gengivet ved 200 nits, selvom det første tal er højere. Essencen i HDR er, at skærmen kan styre lyset præcist i billedet og at den har et stort spænd i lyset.

Ændrer man derimod farvetonen, så er den ændret. Den er en anden. Ændrer man skarpheden omkring et ansigt eller objekt i billedet, så ændrer man også fokuspunktet i billedet. Det er billedbehandling og det er det, som Nvidia Shield bevæger sig over i (og TV-skærme generelt gør). Desværre accepteres det ofte, hvis det pakkes ind som "opskalering".

Billedbehandling er en beslutning, som hører til i filmstudiet på foranledning af filmskaberne. Hvis de mener, at f.eks. en algoritme, som den Nvidia bruger, er gavnlig, så kan de jo blot tage den i brug. Men beslutningen skal ligge hos dem der skaber indholdet - ikke dem der fremviser det. I produktionsledet kunne man også udføre processen langt bedre, da man har tiden på sin side. I TV og afspillere skal det ske i realtid.

Opskalering er processen at opskalere fra en opløsning til en anden. Opløsningerne er defineret som de er fordi det sikrer pixelperfekt opskalering. 2x1080 = 2160. 3x720 = 2160 osv. Når man begynder at anvende objekt-baseret analyse til f.eks. at genkende ansigter i billedet, så er der i stedet tale om billedbehandling. Jeg ved at dette er en svær sondring selv for mange anmeldere af TV. Vi undersøger emnet AI-opskalering nærmere i bl.a. anmeldelsen af Samsungs 8K Q900R.

I mange år har der jo også været en meget streng DCI-definition for biografer. Biografer, som ikke bruger DCI-certificeret udstyr, får ikke lov at fremvise filmene. På hjemmefronten har billedoplevelsen i det seneste årti eller lidt mere været kørt ud på et sidespor fordi TV-producenterne mener, at det er deres opgave at "forbedre" billedet. Nu sker det også i afspillerne og det er meget problematisk, synes jeg.
By TBC
#306913
Jeg kan på den gode begavede argumentation sådan rent principielt set jo kun erklære mig helt enig i de grundlæggende ideologiske orienteringer.

Men jeg er også realist og nødt til at forholde mig til resultatet på skærmen. Jeg finder som de fleste andre, inkl. folk i dine egne rækker så at sige, at opskaleringen på diverse TV med AI algoritmer ofte er gode og bedre end mindre avancerede modeller fra konkurrenterne. Hvis producenterne udelukkende benyttede en fuldstændig simpel pixel opskalering så f.eks at en 1080p pixel uden nogen som helst andre algoritmer taget i brug blot blev til en blok af 4 ens pixels på 4K skærmen, så ville det hurtigt tage sig meget ringe og "jagged" ud som opskalering. Det tror jeg faktisk slet ikke der er nogle af producenterne der overhovedet nøjes med at gøre, for så ville deres implementeringer falde pladask på gulvet i forhold til mere avancerede konkurenters, idet der er rigtig mange værktøjer og og redskaber i brug på vejen til en god og funktionel opskalering. AI, eller opskalerings algoritmer baseret op dybe indviklede neurale netværk læring, er blot det seneste og mest avancerede skud på stammen ud af mange andre mere eller mindre avancerede algoritmer allerede i brug ifbm. opskalering.

Vincent Theo som jeg har stor respekt for som grundig, omhyggelig og meget "skarpøjet", nuancerende og opmærksom anmelder roser jo netop også gerne AI opskaleringerne fra bl.a. Sony samt Sonys algoritmer til bekæmpelse af posterization i det til hjemmene, og i forhold til biografen, endog meget ufuldkomne kildemateriale (ikke mindst her i streamingens barndom). Han har også på det seneste bemærket at nyere Samsung TV har fået bedre opskalering. Så uanset ideologiske principper så er jeg overbevist om at det er noget der er kommet for at blive og med tid og forfinelse også vil give endnu bedre resultater i en billedbehandling der helt grundlæggende er uundgåelig og nødvendig som opskalering jo er. Hvordan den balanceres er en anden sag, da algoritmer der gør godt i en sammenhæng kan være mindre gunstige i forhold til en anden algoritme i en anden sammenhæng. Jo bedre billedbehandlingen via maskinlæring bliver til at differentiere i den forbindelse, jo bedre resultater må man også over tid forvente at kunne få.

Tak for en god og begavet debat både her og i disqus-tråden i dag, altid en fornøjelse, men nu må jeg efter min nattevagt og en kommende i nattevagt foran mig hellere få trukket mig tilbage til noget søvn før det bliver alt for sent.
Brugeravatar
By bbplayer
#306915
TBC skrev: 4. dec 2019, 14:33 Men jeg er også realist og nødt til at forholde mig til resultatet på skærmen.
Er det ikke hvad alle forbrugere gør? Der er det jo ikke mange som forstår hvorfor man kalibrerer eller hvorfor billede med natur profil eller hvad de hedder, slet ikke er ægte men forbrugeren kan lide det, og derfor laver de vel også AI løsninger.

Det synspunkt kan ikke være troværdigt, hvis man går op i billede kvalitet og korrekt gengivelse. Så kan man være nok så meget realist men et ægte billede som filmstudiet har lavet må være det eneste korrekte, alt andet er ikke et bedre resultat, hvis der manipuleres med det originale billede.
By TBC
#306947
bbplayer skrev: 4. dec 2019, 15:38Så kan man være nok så meget realist men et ægte billede som filmstudiet har lavet må være det eneste korrekte, alt andet er ikke et bedre resultat, hvis der manipuleres med det originale billede.
Det ville så i dette tilfælde i bogstaveligste forstand betyde at man måtte nøjes med et billede der fyldte fra 5% (SD) over 11% (720p) til 25% (1080p) af en 4K skærms areal eller skulle have seperate skærme i brug til henholdsvis 720p, 1080p og 4K med tilsvarende panelopløsninger - Og så ville man alligevel stadig sidde tilbage med videoprocessorernes øvrige manipulationer. Skalering og brugen af en bred vifte af algoritmer i den forbindelse er ganske simpelt uungåeligt og ingen forbruger ville finde sig i billedkvaliteten ved kun en helt simpel algortime der ikke manipulerede med det originale billedes pixels ud over f.eks. at gøre 1 1080p pixel til 4 stk 4K pixels (den mest grundlæggende og basale af algoritmerne i brug til en start, med et utal af øvrige algoritmer lagt oven på for at give et mere brugbart differentieret og mindre jagged resultat). For denne algoritme alene ville give et ubrugeligt jagged resultat. Du er af samme grund næppe i stand til at finde et eneste produkt hvor en sådan opskalering er status.

Hvorfor tror du at producenterne udvikler stadig kraftigere og kraftigere billedbehandlingschip til sådanne funktioner (det ville jo være fuldstændigt unødvendigt hvis de ikke brugte andre end benævnte meget regne-lette algoritme) og hvorfor tror du f.eks. at de mest entusiastiske videophiler går efter at udnytte GPU assisterede opskaleringsalgoritmer med brug af graftige GPU'ere via madVR på en HTPC f.eks? Det er naturligvis for at udnytte hardwarekræfterne til nogle langt mere komplekse og regne/hardwaretunge algoritmer der slutteligt giver dem et langt bedre opskalerings resultat end uden brugen af de mere regnetunge algoritmer.

Det er dét jeg mener med at være realist og i forbindelse med forhold som netop lige præcis opskalering (og tonemapping for den sags skyld). De er nemlig uundgåelige og kræver forskellige billedmanipulerende algoritmer for at give de bedste billed resultater.

Nu vi er ved madVR, så har det i øvrigt også demonstreret at det gør det bedre end mange TV's egen HDR tonemapping i shootouts - lige som med tonemappingen i Panasonic BluRay afspillere som også gerne giver bedre resultater end udelukkende brug af et TV's alenestående tonemapping.

Så i forbindelse med lige netop opskalering og tonemapping kan man være nok så meget idealist, men på netop de to områder er det i praksis umuligt at være rendyrket idealist. Det er den vilde vesten og man er grundet kompleksiteten tvunget til at være realist og først og fremmest bedømme resultatet på skærmen - for der i modsætning til mange andre billedbehandlinger tale om en helt nødvendig billedbehandling hvor idealismen ikke finder applikation, slår til og finder sin kompromisløse anvendelse, lige som den f.eks. bedre gør i forbindelse med f.eks. kalibrering af SDR til referencerne - Det er i øvrigt også derfor jeg finder de 2 højeste settings på Shielden er ubrugelige, da de netop øger kontrasterne i billedet markant og får det til at se kunstigere ud - Men heldigvis har man jo 3 andre valgmuligheder.

Hvis du mener at inklusionen af AI opskaleringsalgoritmerne på Shielden anullerer den som streamingboks, så er du først og fremmest også nødt til helt at undgå og stryge TV fra bl.a [men overhovedet ikke begrænset til] både Sony, Pioneer og Samsung m.fl. som ALLE benytter billedmanipulerende algoritmer der både tilføjer og ændrer på billedparametrene i forbindelse med både opskalering og posterization. På Shielden har du i det mindste selv et brugervalg at kunne gøre dig imellem 5 forskellige opskaleringsprofiler og kan som kompromisløs idealist dér, i modsætning til med et TV, sagtens få lov til at benytte den aller simpleste setting med færrest algoritmer (stadig i flertal), som netop har været brugt tidligere på de ældre Shields, men som af netop samme grund ikke været kendt for at have lige så god opskalering som f.eks. ovennævnte TV med flere mere komplekse algoritmer med manipulationer af de opskalerede pixels og deres overgange i forhold til hinanden ud over en klump af 4 (1080p) eller mere komplekst 9 pixels (720p) med fuldstændigt samme værdier som f.eks. den 1080p pixel de er opskaleret fra.

Igen: For meget og for lidt fordærver for tit. Man er nødt til at applicere idealismen på forhold hvor den overhovedet kan finde applikation, anvendelse og berettigelse (som f.eks. i tilstræbelsen af referencefarver) og være realistisk i forhold til områder hvor idealismen i praksis ikke kan finde nogen reel applikation. Hvis man i den forbindelse ikke er realistisk, men insisterer på en kompromisløs idealisme, så står man enten tilbage uden muligheder i praksis overhovedet eller hvis man insisterer på idealismen og var var i stand til at finde den appliceret i det specifikke tilfælde hvor dens applikation grundet virkelighedens kompleksistet ikke er valid, ville sidde tilbage med et væsentligt ringere resultat. Den balance og de differentieringer er man simpelthen tvunget til at gøre sig på grund af virkelighedens konstitution og kompleksiteter, hvis man skal være i stand til at navigere substantielt i forhold til virkelighedens produkter.
#306952
Det er stadig billedbehandling og ikke opskalering :) Jeg tror, at det du tænker på ift. Vincents kommentarer om Sony er deres 'smooth gradation', der kan udglatte gradueringer. Det er en særskilt indstilling - ikke en del af opskalerings-passet - og er billedbehandling. Funktionen har sine fordele, men er ikke uden ulemper. Det er en form for støjreduktion, som samtidig fjerner detaljer i billedet. Ved billedhandling ændrer man altid på noget og det fører ofte noget andet med sig. Visse andre producenter har noget lignende. Se f.eks. vores test af LG C9 for en evaluering af, hvordan LGs ditto har rykket sig fra 2018 til 2019-generationen.

Med al respekt for Vincent, som jeg har kendt i mange år og som i øvrigt er flittig læser af FlatpanelsHD, så tror jeg, at du skal passe på med at betragte hans holdninger som sandheden. Den perfekte skærm findes ikke, så vi har alle vores egne holdninger til, hvad der er det bedste kompromis. Vi har en Slack-gruppe sammen med bl.a. Vincent, Rtings-gutterne, David fra CNET, Chris fra Wirecutter m.fl. Lad os bare sige det sådan, at vi bestemt ikke er enige om alle emner omkring billedkvalitet. Og det er fint nok :-)
By TBC
#306967
Jeg tænker på bl.a. Vincents kommentarer om BÅDE Sony (og for den sags skyld Panasonics) algoritmer forbundet med posterization (hvis kommercielle navn så er "smooth gradation" hos Sony) <> OG så forskelligt derfra Sony såvel som bl.a. Samsungs AI-baserede opskalering som to forskellige og seperate ting. "Smooth gradation" (jeg hader at skulle bruge komercielle navne) er en billedbehandling der handler om at procesere og håndtere kildematerialets posterization, mens alle de forskellige og komplementerende opskalerings algoritmer forbundet med opskalering handler om at få en vellykket opskalering.

Og Igen: Det er jo IKKE tilfældet at der ikke allerede er hvad vi så for min skyld godt kan kalde enhancement algoritmer i brug i opskaleringerne på de forskellige producenters TV der manipulerer, ændrer på OG differentierer de forskellige pixels i hvad man åbenbart forestiller sig skulle være fuldstændigt overforsimplede opskalerede blokke af identisk udseende 4, 9 eller 20 pixels, således at et 720p signals ene pixel, ikke bare opskaleres til 9 fuldstændigt identiske pixels og 1080p signalets ene pixel ikke bare bliver til 4 identiske pixels i en 4K opskalering osv. Det ville se direkte rædsom ud, den slags grove interpolation regnes som den ringest eksisterende af alle opskalering algoritmer der findes og er noget man næppe finder i et produkt fra dette årtusinde. Så der benyttes allerede i vid udstrækning algoritmer der ændrer på og skruer på de forskellige pixels nuancer og indbyders forhold i hvad der således er det opskalerede signals billedmanipulerede blokke af mere end blot helt simpelt opskalerede pixels. Hvad forestiller man sig ellers alle processorkræfterne i et TV's videoprocessor skulle bruges til i forbindelse med opskalering - eller store GPU'er skulle regne på i forbindelse med GPU acceleration af opskaleringer med madVR? I får det til at lyde som om det helt grundlæggende nødvendige fænomen med at en opskalering også indebærer pixelmanipulerende behandlinger og tilpasninger af det opskalerede signals pixels er noget fremmed og nærmest ondt som det først var AI algoritmerne der som de eneste skulle være både først og alene om at gøre. Men det er jo IKKE tilfældet. AI-algoritmerne er blot seneste skud på stammen af en vifte af algoritmer der ALLE manipulerer med de opskalerede pixels indbyrders relation og nuancegrader. https://en.wikipedia.org/wiki/Compariso ... algorithms /
https://www.researchgate.net/figure/Com ... _261244360

AI-deep learning skal som det seneste skud på stammen i den forbindelse bare gerne være mere fleksibel, dynamisk, intelligent, effektiv og slet og ret bedre ud i det end de forrige opskaleringsalgoritmers og de tidligere tidligere opskalerings generationers manipulation og ændring af de opskalerede pixels ud over blot at være en fuldstændigt ensfarvet klat af sammenhængende 4, 9 eller 20 pixels på en 4K skærm. Det er selve formålet med den jo eller unødvendigt datatunge deep-learnings og dens egentlige eksistensberettigelse.

Som alt andet godt kan det naturligvis både bruges og misbruges. Personligt syntes jeg de to højeste settings på Sheild 2019 går over gevind og misbruger det, mens de lavere settings giver gode resultater i praksis, fuldstændigt lige som jeg syntes at mit Sony-TV's AI baserede opskalering også gør et bedre stykke opskaleringsarbejde end f.eks. både mit ATV og min Projektor. Shielden bliver således en god partner til min projektor, bedre en ATV'et var det, men mindre nødvendig i forhold til mit Sony TV end i forhold til min projektor.

Og jeg er i øvrigt helt enig i denne pointe du fremsætter: Naturligvis er der ingen ultimative sandheder når der som oftest reelt er tale om hvad man kan betragte som en balancegang angående de bedste tilgange vs deres kompromiser. Med hensyn til opskalering er det slet og ret en balancegang man overhovedet ikke kan komme eller styre uden om. Forestillingen om den helt simple opskalering er en myte, for den fungerer rædsomt i praksis.

Jeg sagde ikke at Vincents udsagn var at betragte som eneste sandhed, jeg blot at jeg havde stor respekt for mange af han skarpe og ofte meget grundige iagttagelser - Det har jeg nu også for mange af dine.

Personligt finder jeg blot at de seneste mere datatunge algoritmer også giver de bedste resultater, også når det kommer til opskalering, sålænge implementeringen er indstillet og udført med rette balance naturligvis.
https://1.bp.blogspot.com/-Cx1rkmV1NuA/ ... rmance.png
#306973
Det er rigtigt, at der efterhånden bruges en del billedforbedringsalgoritmer i samme led som videokædens opskalerings-pas. Disse opskalerer bare ikke, men foretager i stedet primært objekt-baseret billedanalyse. Det er her betegnelsen "AI" kommer ind, selvom det blot er maskinlæring. Man holder simpelthen billedet op imod en database med f.eks. billeder af ansigter, billeder af natur, billeder af blomster. Jo tidligere i processen man kan lave denne objekt-baserede analyse, desto bedre kan den foretages uden at tilføje for meget forsinkelse på signalet.

Ud fra disse referencebilleder kan man lave nogle algoritmer, som kan genkende netop ansigter, blomster, kanter og andre former og konturer. Når denne objekt-baserede analyse er foretaget, så kan man tilføre kunstig skarphed med sort eller hvide pixelrækker omkring kanter eller konturer. Man kan booste gamma lokalt i billedet for at give et indtryk af bedre kontrast. Man kan booste mætning i farver for at give indtryk af et mere levende billede. Det er alt sammen noget, som sker i TV-skærme, og det har intet med opskalering af opløsning at gøre - uanset om TV-producenter eller anmeldere kalder det det.

Det er rigtigt, at der findes forskellige tilgange til opskalering, f.eks. 'nearest neighbour', men det er et andet emne end det vi taler om her.

Det er også rigtigt, at der findes ret avancerede AI-algoritmer til at restaurere - eller farvelægge - et billede, hvor man bl.a. tager et GaN i brug. Her har man tiden på sin side. Der er TV slet ikke endnu. Husk på, at alt i et TV skal ske i realtid og med så lav forsinkelse som muligt - maximum omkring 100-150 ms.

Maskinlæring til objekt-baseret billedanalyse har været brugt i TV siden før 4K. Bl.a. i Sony TV. I nogle tilfælde kan f.eks. kunstig skarphed slet ikke slås helt fra (selvom alle billedhåndtag sættes i 0) i visse TV-modeller, hvorfor nogle seere får denne opfattelse af, at et TV gengiver et skarpere billede. Lige indtil man sætter sig ned med en referenceskærm og undersøger. Så begynder man at lægge mærke til, at der bare er pixelfnidder om kanter og lignende artefakter. Når man først ser det, så kan man ikke se bort fra det og så ser det sjældent godt ud længere. Men det tager noget tid at træne sit øje til at spotte det.

Jeg synes, at det er svært at snakke om, hvilken af disse algoritmer, der gør det "bedst", når man ikke har defineret hvad målet er. Mit mål er, at billedbehandling ikke sker i afspiller eller TV. Jeg synes ikke, at Nvidia's nødvendigvis algoritme er dårlig. Jeg synes, at det er forkert overhovedet at tage den i brug i en afspiller.

Grunden til, at du oplever en gavnlig effekt på din projekter er formentlig, at projektorer jo har flere analoge led. Når først lyset rammer lærredet, så har du ikke længere et 'digitalt' billede. Du har ikke længere præcis 1920x1080 eller 3840x2160 pixels. Det er rigtig nok den opløsning som skydes ud (diverse projector-tricks til opløsning glemt for en stund), men på vejen får du blandet lyset. Der er ikke 100% digital separering og derfor vil kunstig skarphed måske visuelt kunne bidrage til at få det hele til at se bedre ud. På en digital skærm er det nogle lidt andre forhold, der er gældende.

Det er hele snakken om Darbee om igen, f.eks. i de tidligere Oppo-dage. Og før Darbee en masse andre systemer, som kom og gik. Heldigvis døde Darbee i takt med at folk fik øjnene op for disse billige tricks, men så kommer noget nyt jo bare til. Jeg har hørt sangen fra de varme lande flere gange end de fleste i branchen, tør jeg godt love, og den bliver desværre ikke bedre med tiden :-)

PS: Jeg forstår godt, hvis jeg er meget frustrerende at diskutere med, Torben, idet jeg ikke rykker mig en tøddel. Jeg har bare haft disse diskutioner så mange gange før, både på den ene og anden side af hegnet, på dansk og på engelsk, inklusiv med de folk, som designer nogle af de her algoritmer og systemer i TV-skærme. Og når man får skubbet marketingholdet til side og får fat i ingeniørerne, så får man som regel en reel snak om op og ned. Flere af de ting, som du ser pointeret i videoer på YouTube, kommer f.eks. fra ingeniørerne ifbm. tekniske seancer eller head-to-head sammenligninger. Det ved jeg fordi jeg ved flere lejligheder har stået lige ved siden af et par uger før videoen om det givne emne lægges op.

Men uagtet, så vil jeg gerne takke for en spændende og god debat. Det er altid en fornøjelse.
By lennon
#306988
Barren er sgu sat lidt højt i denne tråd . Er vi derhenne,hvor det i bedste fald er subjektivt om Shields upscale er bedre end feks AppleTV4k ?