Til al snak om Android TV - Google's styresystem til tv-skærme, mediebokse og spilkonsoller

Redaktører: AndreasL, Moderatorer

Brugeravatar
Af TBC
#305230
TBC skrev:
Toranaga skrev:Det ville VIRKELIG være fedt med oplistning af anbefalede indstillinger ift. hvis man har et 4K HDR TV og Kodi
[..]
Jeg må indrømme at jeg er blevet ret imporneret over og meget glad opskalerings funktionen, selv om det bestemt også kan over-tunes til at gøre lige så meget skade som gavn på især low-quality materiale og hvis man ikke holder sig til lave mere moderate settings. Som beskrevet på forgående side afhænger det en del af kildematerialets kvalitet hvor godt eller ligefrem skidt resultatet på forskellig vis kan blive. Men det sparker helt klart nyt liv i især en 1080p blu-ray eller en relativt fornuftigt encoded Netflix film, på en måde som udkonkurrerer alt andet jeg har set og jeg ikke tror man har set mage til hidtil, selv om svagheder ved et hårdt komprimmeret encode også ville kunne eskponeres tydligere, særligt hvis man overdriver sine settings. Med andre ord, så virker det generelt langt bedre og mere gennemført på en 1080p Bluray end på f.eks. TV2Play's gyslige kompression.
Hermed lige mine seneste mere præciserende iagttagelser om hvad jeg personligt, i forhold til egne præferencer og temperamenter, finder forskellige kilde-kvalitets niveauer generelt kan bære af opskaleringsniveauer. Der kan være forskel på de enkelte titler på tjenesterne, idet nogle kan have et mere stabilt og klart encode end andre, hvorfor jeg benytter en range i angivelserne (f.eks. Basic <> Enhanced). Mange andre vil sikkert syntes at det kan bære mere vil jeg ganske givet tro og vil f.eks. kunne benytte AI-medium der er default, men personligt syntes jeg at det risikerer at begynde at se for artificial ud med alt for ekstreme settings. Så her er hvad jeg personligt syntes giver mig de samlet set bedste opskaleringsresultater, som gør at Shielden (i opskaleringsniveauerne Enhanced til AI-low) slår hvad jeg har været vant til af opskaleringer, f.eks. fra ATV 4K eller mit TV og min projectors indbyggede opskaleringer, såvel som afspilningen af 4K på ATV 4K.

- Lav streaming kvalitet (f.eks. HBO Nordic, TV2 Play): Basic
- Middelmådig streaming kvalitet (f.eks DRTV): Basic <> gode titler enhanced
- Rimelig 1080p streaming kvalitet og DVB-c (f.eks ViaPlay film, 1080p Netflix, Yousee DVB-c) Enhanced <> gode titler AI-low
- God 1080p streaming kvalitet (f.eks 1080p 10-bit HDR på Netflix) AI-Low
- 1080p Bluray kvalitet: AI-Low
- 4K Streaming: AI-low = fallback til Enhanced
- 4K Blu-ray: AI-Low = fallback til Enhanced

Med andre ord er virker de højeste opskalerings settings allerbedst bedst med 10-bit HDR og 1080p Blu-ray, mens Enhanced niveauet samtidig gør boksen eminent til 4K (Streaming og BlyRay) med fremhævelse af endnu flere detaljer og nuancer end hidtil i 4K materialet. Men de højeste opskaleringsalgoritmer får imho især sløje encodes til at se direkte dårlige ud med yderligere eksponeringer af alle encodets svagheder. Jeg skylder sikkert at sige at jeg nok er mere hysterisk mht encoding artifacts og artifacts i det hele taget, end de fleste sikkert vil være det, som jeg bl.a. sværger til Blu-ray skiver når muligt, syntes at streaming generelt er ALT for hådt komprimmeret og samtidig benytter mig af et 123 tommer billede.

- - -

Nye opdagelser:
- Match framerate virker også på chromecastet indhold i 24 fps.
- Den første og hidtil eneste app jeg endnu er faldet over der ikke virker med match-framerate er Apple-TV. Der er dog [endnu] tale om en uofficiel sideloaded version fra Amazon beregnet til FireOS (en fork af en ældre Android version og uden samme Support Library), der således slet ikke er beregnet til Sheild: com.apple.atve.amazon.appletv_1.1-2_minAPI21(armeabi-v7a)(nodpi)_apkmirror.com - Jeg har kun set trailers på Apple-tv appen (jeg sparer min gratis prøve til der engang lægger flere hele serier klar, da jeg ikke har lyst til at se halve serier)
bbplayer skrev:Når UHD kommer i HFR , så vil man helt sikkert være glad for HDMI2.1 og man vil så glæde sig over at have valgt et TV med HDMI2.1 fuld kompatibilitet, og ikke kun visse funktioner af dette.
Jeg er for så vidt enig med dig, sådan helt grundlæggende i princippet om at der burde have været HDMI 2.1 i en ny version. Men som andre debattører i andre tråde har overbevist mig om er det svært at se realistiske use-cases i den nærmeste fremtid ud over hurtigere switching af video uden blanking via VRR (som potentielt kan klares på HDMI 2.0) og så højere fps i 4K fra især PC og evt. fremtidige konsoller.

Streamingbokse som ATV4K og Shield kan jo allerede snildt afvikle og outputte 60 fps HFR video i 4K via HDMI 2.0, shielden endog også 120 fps ved 1080p via HDMI 2.0b.

Husk at videomateriale som kilde jo er farve-subsamplet ved YCBCR 4:2:0, og HDMI 2.0 f.eks. kan klare 4K HDR@60 fps selv hvis det havde været 12 bit 4:2:2 og sågar bære 240 fps ved 1080p 4:2:0 hvis det endelig skulle være (og displayet var kompatibelt).

Det er svært at se for sig at 4k 120 fps HFR skulle blive tilgængeligt via skiver eller streaming, sådan lige i den nærmeste fremtid må jeg jo medgive dem der har "omskolet" mig til indrømmelserne af at det er svært at se use-cases ifbm lige præcis en streaming boks, på trods af min principielle holdning om at der dog burde have været HDMI 2.1 i en 2019 version, selv om det måske inden for den nærmeste fremtid og ind til på den anden side af næste version ifbm en streamingboks reelt kun ville have egentligt relevans i forhold til fremvisningen af GUI og fotos i 8K. Aktuelt mangler vi så meget som bare meningsfuld adgang til 4K HDR 60 fps materiale, som streamingbokse ala Shield og 4K Blu-ray afspillere allerede kan afvikle og klare via HDMI 2.0
#306878
Jeg synes heller ikke, at AI-opskalering bør bruges. Som så meget andet, der kaldes "opskalering" så har det faktisk ikke meget med opskalering at gøre. Det er billedbehandling eller det man på engelsk kalder 'picture enhancement'. Det er ikke meget anderledes end hvad f.eks. Samsung gør brug af i sine TV. En slags objekt-baseret analyse, der kan genkende ansigter, former mv. og så tilføjes der noget kunstig skarphed mv. i billedet.

Det er noget af en glidebane, at ikke kun vores TV-skærme nu billedbehandler videosignalet, men også vores medieafspillere også er begyndt. Det næste bliver vel, at tjenesterne også begynder på det.
Brugeravatar
Af TBC
#306891
Toranaga skrev: 3. dec 2019, 13:47 Jeg syntes ikke AI upscaling er værd at bruge. Det giver for meget kunstig skarped i billedet.
Ja, i default og højeste setting - Helt enig. Men jeg syntes bestemt den gør det rigtigt godt i laveste AI setting uden den voldsomme brug af kunstig detail enhancement på de 2 højeste setting. HVIS kildematerialet er solidt og i god stand er AI-low en fantistisk upscale setting, mens medium(default) og høj setting med brug af kunstigt udseende detail enhancement er direkte rædsomme og kunstige at se på. Det samme gælder også mht. dårlige kilde-kvaliteter, f.eks. streaming fra TV2 Play eller HBO og lign hvor AI-funktionen imho slet ikke kan bruges, heller ikke på laveste niveau - Det bliver det hele kun værre af, når der er alt for langt fra materialets spatiale opløsning til en 4K skærms opløsning. Men lavt AI-niveau giver til gengæld en opskalering der virkelig puster fordelagtigt liv i en god 1080p kilde (f.eks. BluRay) på 123 tommer.

Mit Sony-TV har jeg erfaret også benytter AI-baserede algoritmer med sin X1 processor og Sony's TV er jo netop også kendt for at have en god opskalering, lige som Samsungs nyere TV med Quantum Processor. For meget og for lidt fordærver for tit, siger man. Det handler om at holde balancen, så bliver resultatet samlet set bedre, mens det bliver værre hvis den direkte vælter. Med Shield er udfordringen med dens mange valgmuligheder at det faktisk er brugeren der har inflydelse på balancen fra det helt basale til det overdrevent aggressive. Den nødvendige balance afhænger så yderligere også af hvad materialet kan bære. Har man ikke held med det kan man jo heldigvis selv fravælge det helt. Personligt elsker jeg at kunne indstille det rette niveau der passer materialet bedst - Den mulighed har jeg ikke på f.eks. mit Sony TV eller mit ATV.

Rasmus Larsen skrev: 4. dec 2019, 05:50 Det er noget af en glidebane, at ikke kun vores TV-skærme nu billedbehandler videosignalet, men også vores medieafspillere også er begyndt.

Jeg kan ikke se at intelligent opskalering skulle være værre som glidebane end f.eks. tonemapping til HDR. Skærmen kan jo ikke formidle hele dynamikken, så videosignalet billedbehandles i en kontekst hvor det er tvingende nødvendigt. Det samme gælder opskalering, den er også tvingende nødvendig og den billedbehandling en opkalering udgør, kan så med brug af enten færre eller flere enten dynamiske eller generiske algoritmer udføres enten med et godt eller dårlig resultat, fuldstændigt lige som tonemapping. Begge dele (tonemapping og opskalering) udgør helt tvungne trin i den uendelige maraton for at forbedre en helt nødvendig billedbehandlingskvalitet. Shield 2019 giver så ikke mindre end 5 [imho reelt 3] forskellige niveauer brugeren kan vælge imellem alt efter hvad kilden og temperamentet nu kan bære - Det er da kun at betragte som en god ting, det er ikke noget jeg f.eks. har mulighed for at have nogen indflydelse over overhovedet på mit Sony TV eller mit ATV. Og sagen er jo at en, til materialet mere specifikt tilpasset eller optimal algoritme kan skabe et bedre billede end en helt generisk algoritme kan, i forbindelse med et givent materiale. Det er ikke alene princippet både i dynamisk tonemapping og AI opskalering, men også i det at man som bruger overhovedet kan have valg i forbindelse med algoritmers aggresivitet, nogen man som bruger så enten kan tildeles indflydelse på eller ej.

Opkalering af en god 1080p BluRay syntes jeg personligt at Shield 2019 lykkes bedre med på laveste AI-setting, end selv mit Sony TV, som med sine algoritmer for sin part gør det bedre end mit Apple-tv med dets algoritmer. Og på to sidstnævnte har jeg bare slet ingen brugerindflydelse på resultatet overhovedet. Det sætter jeg som "avanceret" bruger direkte pris på at kunne have.

TV'et skal jo så i øvrigt slet ikke [op]skalere hvis det får et 4K signal til 1:1 pixelmapping ind og så er det jo ligemeget om den helt tvingende nødvendige funktion sidder i medieafspilleren eller i TV'et, så handler det bare om at lede den af dem der gør det bedst gøre det.

Mere komplekst er det så imho med HDR tonemapping, hvor det fortsat forgår to steder, hvis det også er til stede i medieafspilleren. Men der er der mange inkl. HDTVTest, Cnet og Rtings (svjh), der mener at f.eks. Panasonics tonemapping i deres BluRay afspillere ofte medvirker til at forbedre det samlede resultat, selv om TV'et også udfører en efterfølgende tonemapping. Så selv helt grundlæggende principper for hvad der udgør en glidebane kan man åbenbart ikke opstille, i hvert fald når der er tale om funktioner der slutteligt er uundgåelige og strengt nødvendige.
#306900
Jeg synes ikke, at man kan sammenligne med tone-mapping. Opløsningen 4K er fast defineret som 3840x2160 pixels i TV. Lysstyrke og håndteringen heraf varierer meget fra TV til TV og man kan ikke fremvise et godt resultat over en bred kam uden en eller anden form for tone-mapping eller metadata-fremgangsmetode. Hvis alle TV var lige gode til at håndtere lysstyrken - ligesom alle 4K TV viser præcis 3840x2160 pixels - så var tone-mapping og dynamiske metadata unødvendige, bl.a. fordi man så i studiet kunne fastsætte niveauet 100% præcist.

Dertil kommer, at tone-mapping af lys er noget ganske andet end at ændre farvetone, detaljer eller komposition i et billede. Den samme farve kan gengives ved forskellige lysniveauer. Hvordan vi opfatter farven afhænger af lyset i omgivelserne fordi vores pupil tilpasser sig dynamisk. Af samme årsag kan man ikke sige, at et billede gengivet ved 2000 nits er bedre end et billede gengivet ved 200 nits, selvom det første tal er højere. Essencen i HDR er, at skærmen kan styre lyset præcist i billedet og at den har et stort spænd i lyset.

Ændrer man derimod farvetonen, så er den ændret. Den er en anden. Ændrer man skarpheden omkring et ansigt eller objekt i billedet, så ændrer man også fokuspunktet i billedet. Det er billedbehandling og det er det, som Nvidia Shield bevæger sig over i (og TV-skærme generelt gør). Desværre accepteres det ofte, hvis det pakkes ind som "opskalering".

Billedbehandling er en beslutning, som hører til i filmstudiet på foranledning af filmskaberne. Hvis de mener, at f.eks. en algoritme, som den Nvidia bruger, er gavnlig, så kan de jo blot tage den i brug. Men beslutningen skal ligge hos dem der skaber indholdet - ikke dem der fremviser det. I produktionsledet kunne man også udføre processen langt bedre, da man har tiden på sin side. I TV og afspillere skal det ske i realtid.

Opskalering er processen at opskalere fra en opløsning til en anden. Opløsningerne er defineret som de er fordi det sikrer pixelperfekt opskalering. 2x1080 = 2160. 3x720 = 2160 osv. Når man begynder at anvende objekt-baseret analyse til f.eks. at genkende ansigter i billedet, så er der i stedet tale om billedbehandling. Jeg ved at dette er en svær sondring selv for mange anmeldere af TV. Vi undersøger emnet AI-opskalering nærmere i bl.a. anmeldelsen af Samsungs 8K Q900R.

I mange år har der jo også været en meget streng DCI-definition for biografer. Biografer, som ikke bruger DCI-certificeret udstyr, får ikke lov at fremvise filmene. På hjemmefronten har billedoplevelsen i det seneste årti eller lidt mere været kørt ud på et sidespor fordi TV-producenterne mener, at det er deres opgave at "forbedre" billedet. Nu sker det også i afspillerne og det er meget problematisk, synes jeg.
Brugeravatar
Af TBC
#306913
Jeg kan på den gode begavede argumentation sådan rent principielt set jo kun erklære mig helt enig i de grundlæggende ideologiske orienteringer.

Men jeg er også realist og nødt til at forholde mig til resultatet på skærmen. Jeg finder som de fleste andre, inkl. folk i dine egne rækker så at sige, at opskaleringen på diverse TV med AI algoritmer ofte er gode og bedre end mindre avancerede modeller fra konkurrenterne. Hvis producenterne udelukkende benyttede en fuldstændig simpel pixel opskalering så f.eks at en 1080p pixel uden nogen som helst andre algoritmer taget i brug blot blev til en blok af 4 ens pixels på 4K skærmen, så ville det hurtigt tage sig meget ringe og "jagged" ud som opskalering. Det tror jeg faktisk slet ikke der er nogle af producenterne der overhovedet nøjes med at gøre, for så ville deres implementeringer falde pladask på gulvet i forhold til mere avancerede konkurenters, idet der er rigtig mange værktøjer og og redskaber i brug på vejen til en god og funktionel opskalering. AI, eller opskalerings algoritmer baseret op dybe indviklede neurale netværk læring, er blot det seneste og mest avancerede skud på stammen ud af mange andre mere eller mindre avancerede algoritmer allerede i brug ifbm. opskalering.

Vincent Theo som jeg har stor respekt for som grundig, omhyggelig og meget "skarpøjet", nuancerende og opmærksom anmelder roser jo netop også gerne AI opskaleringerne fra bl.a. Sony samt Sonys algoritmer til bekæmpelse af posterization i det til hjemmene, og i forhold til biografen, endog meget ufuldkomne kildemateriale (ikke mindst her i streamingens barndom). Han har også på det seneste bemærket at nyere Samsung TV har fået bedre opskalering. Så uanset ideologiske principper så er jeg overbevist om at det er noget der er kommet for at blive og med tid og forfinelse også vil give endnu bedre resultater i en billedbehandling der helt grundlæggende er uundgåelig og nødvendig som opskalering jo er. Hvordan den balanceres er en anden sag, da algoritmer der gør godt i en sammenhæng kan være mindre gunstige i forhold til en anden algoritme i en anden sammenhæng. Jo bedre billedbehandlingen via maskinlæring bliver til at differentiere i den forbindelse, jo bedre resultater må man også over tid forvente at kunne få.

Tak for en god og begavet debat både her og i disqus-tråden i dag, altid en fornøjelse, men nu må jeg efter min nattevagt og en kommende i nattevagt foran mig hellere få trukket mig tilbage til noget søvn før det bliver alt for sent.
Brugeravatar
Af bbplayer
#306915
TBC skrev: 4. dec 2019, 14:33 Men jeg er også realist og nødt til at forholde mig til resultatet på skærmen.
Er det ikke hvad alle forbrugere gør? Der er det jo ikke mange som forstår hvorfor man kalibrerer eller hvorfor billede med natur profil eller hvad de hedder, slet ikke er ægte men forbrugeren kan lide det, og derfor laver de vel også AI løsninger.

Det synspunkt kan ikke være troværdigt, hvis man går op i billede kvalitet og korrekt gengivelse. Så kan man være nok så meget realist men et ægte billede som filmstudiet har lavet må være det eneste korrekte, alt andet er ikke et bedre resultat, hvis der manipuleres med det originale billede.
Brugeravatar
Af TBC
#306947
bbplayer skrev: 4. dec 2019, 15:38Så kan man være nok så meget realist men et ægte billede som filmstudiet har lavet må være det eneste korrekte, alt andet er ikke et bedre resultat, hvis der manipuleres med det originale billede.
Det ville så i dette tilfælde i bogstaveligste forstand betyde at man måtte nøjes med et billede der fyldte fra 5% (SD) over 11% (720p) til 25% (1080p) af en 4K skærms areal eller skulle have seperate skærme i brug til henholdsvis 720p, 1080p og 4K med tilsvarende panelopløsninger - Og så ville man alligevel stadig sidde tilbage med videoprocessorernes øvrige manipulationer. Skalering og brugen af en bred vifte af algoritmer i den forbindelse er ganske simpelt uungåeligt og ingen forbruger ville finde sig i billedkvaliteten ved kun en helt simpel algortime der ikke manipulerede med det originale billedes pixels ud over f.eks. at gøre 1 1080p pixel til 4 stk 4K pixels (den mest grundlæggende og basale af algoritmerne i brug til en start, med et utal af øvrige algoritmer lagt oven på for at give et mere brugbart differentieret og mindre jagged resultat). For denne algoritme alene ville give et ubrugeligt jagged resultat. Du er af samme grund næppe i stand til at finde et eneste produkt hvor en sådan opskalering er status.

Hvorfor tror du at producenterne udvikler stadig kraftigere og kraftigere billedbehandlingschip til sådanne funktioner (det ville jo være fuldstændigt unødvendigt hvis de ikke brugte andre end benævnte meget regne-lette algoritme) og hvorfor tror du f.eks. at de mest entusiastiske videophiler går efter at udnytte GPU assisterede opskaleringsalgoritmer med brug af graftige GPU'ere via madVR på en HTPC f.eks? Det er naturligvis for at udnytte hardwarekræfterne til nogle langt mere komplekse og regne/hardwaretunge algoritmer der slutteligt giver dem et langt bedre opskalerings resultat end uden brugen af de mere regnetunge algoritmer.

Det er dét jeg mener med at være realist og i forbindelse med forhold som netop lige præcis opskalering (og tonemapping for den sags skyld). De er nemlig uundgåelige og kræver forskellige billedmanipulerende algoritmer for at give de bedste billed resultater.

Nu vi er ved madVR, så har det i øvrigt også demonstreret at det gør det bedre end mange TV's egen HDR tonemapping i shootouts - lige som med tonemappingen i Panasonic BluRay afspillere som også gerne giver bedre resultater end udelukkende brug af et TV's alenestående tonemapping.

Så i forbindelse med lige netop opskalering og tonemapping kan man være nok så meget idealist, men på netop de to områder er det i praksis umuligt at være rendyrket idealist. Det er den vilde vesten og man er grundet kompleksiteten tvunget til at være realist og først og fremmest bedømme resultatet på skærmen - for der i modsætning til mange andre billedbehandlinger tale om en helt nødvendig billedbehandling hvor idealismen ikke finder applikation, slår til og finder sin kompromisløse anvendelse, lige som den f.eks. bedre gør i forbindelse med f.eks. kalibrering af SDR til referencerne - Det er i øvrigt også derfor jeg finder de 2 højeste settings på Shielden er ubrugelige, da de netop øger kontrasterne i billedet markant og får det til at se kunstigere ud - Men heldigvis har man jo 3 andre valgmuligheder.

Hvis du mener at inklusionen af AI opskaleringsalgoritmerne på Shielden anullerer den som streamingboks, så er du først og fremmest også nødt til helt at undgå og stryge TV fra bl.a [men overhovedet ikke begrænset til] både Sony, Pioneer og Samsung m.fl. som ALLE benytter billedmanipulerende algoritmer der både tilføjer og ændrer på billedparametrene i forbindelse med både opskalering og posterization. På Shielden har du i det mindste selv et brugervalg at kunne gøre dig imellem 5 forskellige opskaleringsprofiler og kan som kompromisløs idealist dér, i modsætning til med et TV, sagtens få lov til at benytte den aller simpleste setting med færrest algoritmer (stadig i flertal), som netop har været brugt tidligere på de ældre Shields, men som af netop samme grund ikke været kendt for at have lige så god opskalering som f.eks. ovennævnte TV med flere mere komplekse algoritmer med manipulationer af de opskalerede pixels og deres overgange i forhold til hinanden ud over en klump af 4 (1080p) eller mere komplekst 9 pixels (720p) med fuldstændigt samme værdier som f.eks. den 1080p pixel de er opskaleret fra.

Igen: For meget og for lidt fordærver for tit. Man er nødt til at applicere idealismen på forhold hvor den overhovedet kan finde applikation, anvendelse og berettigelse (som f.eks. i tilstræbelsen af referencefarver) og være realistisk i forhold til områder hvor idealismen i praksis ikke kan finde nogen reel applikation. Hvis man i den forbindelse ikke er realistisk, men insisterer på en kompromisløs idealisme, så står man enten tilbage uden muligheder i praksis overhovedet eller hvis man insisterer på idealismen og var var i stand til at finde den appliceret i det specifikke tilfælde hvor dens applikation grundet virkelighedens kompleksistet ikke er valid, ville sidde tilbage med et væsentligt ringere resultat. Den balance og de differentieringer er man simpelthen tvunget til at gøre sig på grund af virkelighedens konstitution og kompleksiteter, hvis man skal være i stand til at navigere substantielt i forhold til virkelighedens produkter.
#306952
Det er stadig billedbehandling og ikke opskalering :) Jeg tror, at det du tænker på ift. Vincents kommentarer om Sony er deres 'smooth gradation', der kan udglatte gradueringer. Det er en særskilt indstilling - ikke en del af opskalerings-passet - og er billedbehandling. Funktionen har sine fordele, men er ikke uden ulemper. Det er en form for støjreduktion, som samtidig fjerner detaljer i billedet. Ved billedhandling ændrer man altid på noget og det fører ofte noget andet med sig. Visse andre producenter har noget lignende. Se f.eks. vores test af LG C9 for en evaluering af, hvordan LGs ditto har rykket sig fra 2018 til 2019-generationen.

Med al respekt for Vincent, som jeg har kendt i mange år og som i øvrigt er flittig læser af FlatpanelsHD, så tror jeg, at du skal passe på med at betragte hans holdninger som sandheden. Den perfekte skærm findes ikke, så vi har alle vores egne holdninger til, hvad der er det bedste kompromis. Vi har en Slack-gruppe sammen med bl.a. Vincent, Rtings-gutterne, David fra CNET, Chris fra Wirecutter m.fl. Lad os bare sige det sådan, at vi bestemt ikke er enige om alle emner omkring billedkvalitet. Og det er fint nok :-)
Brugeravatar
Af TBC
#306967
Jeg tænker på bl.a. Vincents kommentarer om BÅDE Sony (og for den sags skyld Panasonics) algoritmer forbundet med posterization (hvis kommercielle navn så er "smooth gradation" hos Sony) <> OG så forskelligt derfra Sony såvel som bl.a. Samsungs AI-baserede opskalering som to forskellige og seperate ting. "Smooth gradation" (jeg hader at skulle bruge komercielle navne) er en billedbehandling der handler om at procesere og håndtere kildematerialets posterization, mens alle de forskellige og komplementerende opskalerings algoritmer forbundet med opskalering handler om at få en vellykket opskalering.

Og Igen: Det er jo IKKE tilfældet at der ikke allerede er hvad vi så for min skyld godt kan kalde enhancement algoritmer i brug i opskaleringerne på de forskellige producenters TV der manipulerer, ændrer på OG differentierer de forskellige pixels i hvad man åbenbart forestiller sig skulle være fuldstændigt overforsimplede opskalerede blokke af identisk udseende 4, 9 eller 20 pixels, således at et 720p signals ene pixel, ikke bare opskaleres til 9 fuldstændigt identiske pixels og 1080p signalets ene pixel ikke bare bliver til 4 identiske pixels i en 4K opskalering osv. Det ville se direkte rædsom ud, den slags grove interpolation regnes som den ringest eksisterende af alle opskalering algoritmer der findes og er noget man næppe finder i et produkt fra dette årtusinde. Så der benyttes allerede i vid udstrækning algoritmer der ændrer på og skruer på de forskellige pixels nuancer og indbyders forhold i hvad der således er det opskalerede signals billedmanipulerede blokke af mere end blot helt simpelt opskalerede pixels. Hvad forestiller man sig ellers alle processorkræfterne i et TV's videoprocessor skulle bruges til i forbindelse med opskalering - eller store GPU'er skulle regne på i forbindelse med GPU acceleration af opskaleringer med madVR? I får det til at lyde som om det helt grundlæggende nødvendige fænomen med at en opskalering også indebærer pixelmanipulerende behandlinger og tilpasninger af det opskalerede signals pixels er noget fremmed og nærmest ondt som det først var AI algoritmerne der som de eneste skulle være både først og alene om at gøre. Men det er jo IKKE tilfældet. AI-algoritmerne er blot seneste skud på stammen af en vifte af algoritmer der ALLE manipulerer med de opskalerede pixels indbyrders relation og nuancegrader. https://en.wikipedia.org/wiki/Compariso ... algorithms /
https://www.researchgate.net/figure/Com ... _261244360

AI-deep learning skal som det seneste skud på stammen i den forbindelse bare gerne være mere fleksibel, dynamisk, intelligent, effektiv og slet og ret bedre ud i det end de forrige opskaleringsalgoritmers og de tidligere tidligere opskalerings generationers manipulation og ændring af de opskalerede pixels ud over blot at være en fuldstændigt ensfarvet klat af sammenhængende 4, 9 eller 20 pixels på en 4K skærm. Det er selve formålet med den jo eller unødvendigt datatunge deep-learnings og dens egentlige eksistensberettigelse.

Som alt andet godt kan det naturligvis både bruges og misbruges. Personligt syntes jeg de to højeste settings på Sheild 2019 går over gevind og misbruger det, mens de lavere settings giver gode resultater i praksis, fuldstændigt lige som jeg syntes at mit Sony-TV's AI baserede opskalering også gør et bedre stykke opskaleringsarbejde end f.eks. både mit ATV og min Projektor. Shielden bliver således en god partner til min projektor, bedre en ATV'et var det, men mindre nødvendig i forhold til mit Sony TV end i forhold til min projektor.

Og jeg er i øvrigt helt enig i denne pointe du fremsætter: Naturligvis er der ingen ultimative sandheder når der som oftest reelt er tale om hvad man kan betragte som en balancegang angående de bedste tilgange vs deres kompromiser. Med hensyn til opskalering er det slet og ret en balancegang man overhovedet ikke kan komme eller styre uden om. Forestillingen om den helt simple opskalering er en myte, for den fungerer rædsomt i praksis.

Jeg sagde ikke at Vincents udsagn var at betragte som eneste sandhed, jeg blot at jeg havde stor respekt for mange af han skarpe og ofte meget grundige iagttagelser - Det har jeg nu også for mange af dine.

Personligt finder jeg blot at de seneste mere datatunge algoritmer også giver de bedste resultater, også når det kommer til opskalering, sålænge implementeringen er indstillet og udført med rette balance naturligvis.
https://1.bp.blogspot.com/-Cx1rkmV1NuA/ ... rmance.png
#306973
Det er rigtigt, at der efterhånden bruges en del billedforbedringsalgoritmer i samme led som videokædens opskalerings-pas. Disse opskalerer bare ikke, men foretager i stedet primært objekt-baseret billedanalyse. Det er her betegnelsen "AI" kommer ind, selvom det blot er maskinlæring. Man holder simpelthen billedet op imod en database med f.eks. billeder af ansigter, billeder af natur, billeder af blomster. Jo tidligere i processen man kan lave denne objekt-baserede analyse, desto bedre kan den foretages uden at tilføje for meget forsinkelse på signalet.

Ud fra disse referencebilleder kan man lave nogle algoritmer, som kan genkende netop ansigter, blomster, kanter og andre former og konturer. Når denne objekt-baserede analyse er foretaget, så kan man tilføre kunstig skarphed med sort eller hvide pixelrækker omkring kanter eller konturer. Man kan booste gamma lokalt i billedet for at give et indtryk af bedre kontrast. Man kan booste mætning i farver for at give indtryk af et mere levende billede. Det er alt sammen noget, som sker i TV-skærme, og det har intet med opskalering af opløsning at gøre - uanset om TV-producenter eller anmeldere kalder det det.

Det er rigtigt, at der findes forskellige tilgange til opskalering, f.eks. 'nearest neighbour', men det er et andet emne end det vi taler om her.

Det er også rigtigt, at der findes ret avancerede AI-algoritmer til at restaurere - eller farvelægge - et billede, hvor man bl.a. tager et GaN i brug. Her har man tiden på sin side. Der er TV slet ikke endnu. Husk på, at alt i et TV skal ske i realtid og med så lav forsinkelse som muligt - maximum omkring 100-150 ms.

Maskinlæring til objekt-baseret billedanalyse har været brugt i TV siden før 4K. Bl.a. i Sony TV. I nogle tilfælde kan f.eks. kunstig skarphed slet ikke slås helt fra (selvom alle billedhåndtag sættes i 0) i visse TV-modeller, hvorfor nogle seere får denne opfattelse af, at et TV gengiver et skarpere billede. Lige indtil man sætter sig ned med en referenceskærm og undersøger. Så begynder man at lægge mærke til, at der bare er pixelfnidder om kanter og lignende artefakter. Når man først ser det, så kan man ikke se bort fra det og så ser det sjældent godt ud længere. Men det tager noget tid at træne sit øje til at spotte det.

Jeg synes, at det er svært at snakke om, hvilken af disse algoritmer, der gør det "bedst", når man ikke har defineret hvad målet er. Mit mål er, at billedbehandling ikke sker i afspiller eller TV. Jeg synes ikke, at Nvidia's nødvendigvis algoritme er dårlig. Jeg synes, at det er forkert overhovedet at tage den i brug i en afspiller.

Grunden til, at du oplever en gavnlig effekt på din projekter er formentlig, at projektorer jo har flere analoge led. Når først lyset rammer lærredet, så har du ikke længere et 'digitalt' billede. Du har ikke længere præcis 1920x1080 eller 3840x2160 pixels. Det er rigtig nok den opløsning som skydes ud (diverse projector-tricks til opløsning glemt for en stund), men på vejen får du blandet lyset. Der er ikke 100% digital separering og derfor vil kunstig skarphed måske visuelt kunne bidrage til at få det hele til at se bedre ud. På en digital skærm er det nogle lidt andre forhold, der er gældende.

Det er hele snakken om Darbee om igen, f.eks. i de tidligere Oppo-dage. Og før Darbee en masse andre systemer, som kom og gik. Heldigvis døde Darbee i takt med at folk fik øjnene op for disse billige tricks, men så kommer noget nyt jo bare til. Jeg har hørt sangen fra de varme lande flere gange end de fleste i branchen, tør jeg godt love, og den bliver desværre ikke bedre med tiden :-)

PS: Jeg forstår godt, hvis jeg er meget frustrerende at diskutere med, Torben, idet jeg ikke rykker mig en tøddel. Jeg har bare haft disse diskutioner så mange gange før, både på den ene og anden side af hegnet, på dansk og på engelsk, inklusiv med de folk, som designer nogle af de her algoritmer og systemer i TV-skærme. Og når man får skubbet marketingholdet til side og får fat i ingeniørerne, så får man som regel en reel snak om op og ned. Flere af de ting, som du ser pointeret i videoer på YouTube, kommer f.eks. fra ingeniørerne ifbm. tekniske seancer eller head-to-head sammenligninger. Det ved jeg fordi jeg ved flere lejligheder har stået lige ved siden af et par uger før videoen om det givne emne lægges op.

Men uagtet, så vil jeg gerne takke for en spændende og god debat. Det er altid en fornøjelse.
Af lennon
#306988
Barren er sgu sat lidt højt i denne tråd . Er vi derhenne,hvor det i bedste fald er subjektivt om Shields upscale er bedre end feks AppleTV4k ?
Af ThomasA
#307000
Jeg ved ikke denne tråd også er til spørgsmål og svar, but here it goes :-)

Jeg skal have anskaffet mig en 4K medieafspiller til afspilning af MKV-filer med ekstern SRT-undertekster. Afspilning skal foregå fra NAS. Jeg har søgt (næsten overalt) og synes det er svært at finde et entydigt svar - eller et svar jeg kan forstå :-)

Mit spørgsmål er derfor:

1) Kan den nye Nvidia Shield afspille 4K MKV-filer med eksterne SRT-subtitles fra en NAS?

Krydser fingre for et hjælpende svar
Brugeravatar
Af TBC
#307018
Rasmus Larsen skrev: 5. dec 2019, 12:29Det er hele snakken om Darbee om igen
Ja, faktisk en meget god association med Darbee - principperne i forhold til det mennekelige syn taget i brug er slet ikke så fjerne, men i bund og grund vel bare mere komplekse end teknologien opfundet tilbage i 70'erne - der dengang vel nærmest var at regne som forud for sin tid må man sige.

Man kan også sige at det er lidt som snakken om Panasonics Chromaopskalering om igen - Den har sine fordele og sine ulemper, sine fortalere (Vincent Theo f.eks) og sine modstandere (glemt navnet, men bl.a. en bruger i forum her og recordere)

Rasmus Larsen skrev: 5. dec 2019, 12:29 PS: Jeg forstår godt, hvis jeg er meget frustrerende at diskutere med, Torben, idet jeg ikke rykker mig en tøddel. [..]
Men uagtet, så vil jeg gerne takke for en spændende og god debat. Det er altid en fornøjelse.
I lige måde. Det har bestemt været en sand fornøjelse med en god og kvalificeret debat - Målet er jo bestemt heller ikke at nogen part skal rykke sig for at en debat er vellykket, men at perspektiver brydes til forståelse af hinanden, til pluralistisk gavn og evt. ligefrem horisont-udvidelser.

lennon skrev: 5. dec 2019, 16:35 Barren er sgu sat lidt højt i denne tråd . Er vi derhenne,hvor det i bedste fald er subjektivt om Shields upscale er bedre end feks AppleTV4k ?
Der har sagen vel været fra start og vil vel også altid være det. Siden der, som i tråden angivet, ikke er nogen vej uden om pixel manipulerende algoritmer i forbindelse med opskalering - og at det heller ikke ville være ønskeligt (ellers ville man have et ret dårligt jaggy upscale) er det i sidste ende altid subjektivt hvilke algoritmer man kan have præference for. Personligt kan jeg så godt lide at man for det første overhovedet som bruger har 5 forskellige valg på Shielden og jeg syntes ofte meget godt om den laveste AI-upscale setting på Shielden - Såfremt kildematerialet ellers er godt - Ellers finder mit personlige temperament at den må den slås fra til ringe opløst og/eller ringe komprimeret kildemateriale (som beskrevet på tidligere sider her i tråden) - Andre ville kunne have andre præferencer. Men det er den samlet set bedste opskalering jeg efter eget temperanent endnu har set af en god kilde som f.eks. 1080p BluRay. På en stor skærm (og via 3-chip 4K D-ILA projektor som også beskrevet af Rasmus) er det virkeligt noget der sparker liv, dybde og detalje i en 1080p BluRay på 123 tommer. Skulle jeg rate mine egne enheders opskaleringsevner efter mit temperament ville det være i følgende rækkefølge: Shield 2019, madVR (PC), Sony AF8, Panasonic DMR-UBC80, JVC-N7/ATV/ChromeCast (3 sidste i uafklaret rækkefølge, jeg har ikke fået differentieret)

ThomasA skrev: 5. dec 2019, 17:47 Mit spørgsmål er derfor:

1) Kan den nye Nvidia Shield afspille 4K MKV-filer med eksterne SRT-subtitles fra en NAS?

Krydser fingre for et hjælpende svar
Ja. Når du har valgt filen du vil afspille i Kodi, kan du frit selv vælge imellem enten teksterne eventuelt allerede i selve MKV-containeren, eksterne SRT (mv.) subtitles filer på samme (eller anden) lokal netværks placering - eller via en bredere vifte af Subtitles add-ons i Kodi hente dem direkte til den aktuelt valgte titel på boksen fra steder ala subscene, open titles ect. ...Jeg meeener også [sådan fra fri hukommelse - hæng mig ikke op på det] at Plex kan noget tilsvarende, hvis man hellere vil bruge det til sine MKV filer i stedet for Kodi.

Edit: Mens Kodi kan det hele - som ovenstående inkl. selv søge og hente direkte fra indholddatabaser på nettet, så kan Plex i det mindste benytte teksterne i selve MKV folderen eller fra seperate SRT filer i samme folder som MKV filen. Tekster direkte fra indholdsdatabaser på nettet kræver angiveligt vis Plex pass, hvilket jeg aldrig har haft, så dybden og bredden af mulighederne der må jeg lade være usagt.