HDR10+: Samsung stringe accordi con Qualcomm, ARM, Hisense e TCL

23 Dicembre 2018 31

Samsung ha trovato nuovi partner per l'ecosistema HDR10+. Sono ora 45 le compagnie che sostengono (in varie forme) il formato "aperto" (non si pagano royalty) nato come alternativa al Dolby Vision. HDR10+ si differenzia da HDR10 per l'utilizzo dei metadati dinamici. Queste informazioni possono variare da fotogramma a fotogramma e consentono di ottimizzare la resa delle immagini, intervenendo su alte o basse luci. I metadati statici non offrono questa possibilità: sono infatti sempre uguali per tutta la lunghezza del video.

HDR10+ sarà supportato dai SoC Qualcomm Snapdragon 855 e dai chipset integrati realizzati in collaborazione con ARM. Anche il mercato mobile si aprirà quindi al nuovo formato. Per quanto riguarda i contenuti, Samsung ricorda che i titoli in HDR10+ sono disponibili su Amazon Prime Video già dal 2017 (tramite lo streaming sui TV Samsung). All'espansione del catalogo contribuirà anche Warner Bros., che ha già approntato oltre 70 film e che ne renderà disponibili più di 100 nel 2019 tramite la distribuzione digitale. Nella prima metà del 2019 si aggiungerà anche Rakuten TV, già presente in precedenti annunci e ormai pronta a distribuire film con HDR10+ tramite la rete.


La strategia del colosso coreano prevede anche un maggior coinvolgimento di altri produttori di elettronica. Per raggiungere questo scopo verrà costruito un centro in Cina con la collaborazione di TIRT, un ente che gestisce la fase di test per l'elettronica di consumo sul territorio nazionale. Il centro faciliterà la certificazione dei prodotti e aiuterà produttori come TCL, Hisense (terzo e quarto produttore al mondo di televisori) e Konka.

Ricordiamo infine che HDR10+ è già supportato su alcuni TV Samsung e Panasonic, è stato adottato anche da Philips, da Amazon per la Fire TV Stick 4K, sui lettori Ultra HD Blu-ray Panasonic e a breve anche Pioneer e Oppo. I primi dischi sono disponibili da dicembre negli Stati Uniti. Hyogun Lee, Executive Vice President of the Visual Display Business presso Samsung Electronics, ha dichiarato:

Mentre HDR si afferma con una delle tecnologie più importanti per l'altissima qualità dell'immagine, il formato HDR10+ di Samsung sta ottenendo un riconoscimento sempre più importante. HDR10+ è stato già accolto con favore da compagnie di spicco. Samsung continuerà a investire per consolidare la propria leadership negli standard HDR e per mantenere una presenza importante nel mercato TV globale.

Fotocamera al top e video 4K a 60fps con tutta la qualità Apple? Apple iPhone XS è in offerta oggi su a 850 euro oppure da Amazon a 1,099 euro.

31

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Davide

era molto semplice fare qualcosa di sensato. Bastava creare un marchio commerciale tipo Dolby e appiopparci un numero di versione tipo Dolby 1, Dolby 2 ecc. così era immediatamente chiaro a quale generazione una TV appartenesse.
Le novità tecniche le nascondevi all'interno del numero e non con cinquantamila sigle diverse

Davide

bah, io aggiungerei ancora un paio di sigle, non sia mai che possa essere tutto ancora troppo chiaro.

Nicola Buriani

Figurati :-) .

Developer

come sempre dipende dalla tv.
ci vuole 10bit vero e un nits alti.
insomma su tutti gli entrylevel sotto i 700€ é marketing puro...una resa scandalosa e una gestione software non all'altezza. la situazione migliora in fascia piú alta ma non é ancora perfetta

d4N

Ma per chi realizza poi un contenuto compatibile con HDR10+ o Dolby Vision, deve seguire due flussi di lavoro completamente diversi o si parla semplicemente di quale bollino scelgono di adottare?

SirTampax
SirTampax
Nicola Buriani

Basta la 2.0b.

GianL

eh, vabbuo' tutti e due per Ars cominciano...

GianL

"in natura ci proteggiamo con gli occhiali da sole dalle scene ad alto contrasto" quindi sei uscito dal grembo materno indossando un paio di Ray-Ban? :-P

Francesco

QUALCUNO SA CHE HDMI CI VUOLE??

VERSIONE DISPLAYPORT COMPATIBILE???

Nicola Buriani

HDR10 e HDR10+ devono il loro nome al fatto che lavorano sui 10-bit.
Dolby Vision supporta i 12-bit ma contenuti al momento non mi risulta ce ne siano (del resto sarebbe anche poco utile: mancherebbero i prodotti su cui vederli).
Una copertura pari almeno al 100% del DCI-P3 sarebbe decisamente eccessiva, praticamente nessuno arriverebbe a soddisfare quel requisito.

Nicola Buriani

La resa dei colori è direttamente legata anche alla luminosità.
Un rosso ferrari (per riprendere l'esempio che ha correttamente riportato Alex) al sole di mezzogiorno non è uguale allo stesso rosso visto alle sette di sera.
Più in generale HDR è semplicemente il cambiamento più consistente nel mercato video da anni ed anni.
É sbagliato legarlo solo a picchi altissimi di luminosità, che sono invero piuttosto rari.
Molti film hanno una media tutt'altro che alta.
Blade Runner 2049 mi pare stia sui 400 nits.
Difficile quindi che la visione in HDR arriva ad essere fastidiosa a meno di non aver regolato male il TV.
Poi ovviamente HDR è solo uno strumento, quindi può anche essere usato male, ma non è di certo la regola (per capirci: un film o una serie TV in HDR non acceca continuamente lo spettatore).
La vera differenza tra SDR e HDR è data dal fatto che viene meno la compressione della gamma dinamica.
In SDR deve rientrare tutto in 100 cd/m2 e tante cose si vanno a perdere (bianchi bruciati ad esempio, oppure basse luci alzate per mostrare qualcosa di più all'altro estremo della scala).
É come un MP3 (SDR) confrontato con un formato audio lossless (HDR).

FraFra91

Mi sembra di rivivere la stessa guerra ai tempi dell’HD-DVD VS Blu Ray. Io ancora non ho capito comunque se qualitativamente parlando il dolby vision sia migliore rispetto all’HDR10+

SirTampax

Il realismo dei colori penso lo diano la profondità e lo soazio colore, hdr da solo fastidio imho, ti piacerà mica essere accecato quando giochi o guardi un film?

Alex

I 10bit sono già attualmente utilizzati e diffusi, i 12 bit ci vorrà ancora un po' di tempo. Si ma non è solamente questione di luminosità e alto contrasto ma anche realisticità dei colori. Esempio il rosso Ferrari (quello vero) non l'ho mai visto così reale come guardando The Grand Tour, idem tutto il resto. Il sole che ti acceca se lo guardi dritto con gli occhi su Battlefield v, il cielo, i paesaggi, tutto. Riesce a farti avvicinare molto di più alla realtà, tra un po ci sarà da mettersi gli occhiali da sole per guardare la tv.

Squak9000

Secondo me... c’è solo tanta confusione

daniele

Trovo che sia l'esatto contrario

Ansem The Seeker Of Darkness

Esatto. Anche per me la differenza principale è che finalmente 10 e 12 bit diventeranno uno standard

SirTampax

Le potenzialità le avrenno i 10 e 12 bit di colore, l'hdr con i suoi picchi di luminosità non fa altro che dare fastudio, in natura ci proteggiamo con gli occhiali da sole dalle scene ad alto contrasto...

Alex

è evidente che non hai mai visto le potenzialità dell'HDR. A mio parere è una delle tecnologie più importanti implementante negli ultimi anni nei display, più importante anche della

Rocky

Hdr lo vedi sopra ttutto nei film

Filippo Rossano

La differenza non la fa tanto il 4K quanto il fatto che nessuna trasmissione è mai stata a 1080p e questo soprattutto nello sport fa tutta la differenza del mondo per quanto riguarda artefatti e pulizia d'immagine.

Frazzngarth

che io sappia 10 bit e 1000 nits per avere un risultato ottimale, però potrei sbagliarmi

noncicredo

Per l'HDR bastano i 10bit

Flyn

Guarda non sono informatissimo ma so che per ora l’unico standard vero e proprio è quello di VESA. Per chiamarlo hdr mi sembra basti arrivare a 400nits

momentarybliss

Il 4K fa certamente la differenza rispetto all'HD, basta guardare una partita di calcio su Sky Q per rendersene conto, ma l'HDR a me sembra più che altro una questione di marketing

Scusatemi ma un display per riprodurre effettivamente l'HDR non deve essere nativamente almeno a 12Bit e supportare almeno il 100% del gamut DCI-P3?
Mentre i dispositivi attualmente in commercio sono a 10Bit e non arrivano a coprire tutto il P3

gioboni

Io invece voglio contenuti DV! Datemi più BD UHD HDR di film registrati nativamente in 4K.
P.S. Contenuti di QUALITÀ, non l'inutile streaming quattlocappa...

DAVIPRO

Piuttosto grave allora, suppongo

Mark

Nota curiosa, il logo di Ars Technica è un errore grafico dell'addetto alla realizzazione del banner, in realtà la partnership è con ARS Pro, uno studio di produzione russo, e non il sito tecnologico.

Recensione TV Sony KD-65AF9: OLED e Android TV ai massimi livelli

Recensione TV Ultra HD Sony KD-65ZF9 Dolby Vision: Android TV finalmente vola

LG UltraWide e UltraGear: nuovi monitor per produttività e gaming | Video Anteprima

Recensione proiettore BenQ TK800, Ultra HD e HDR luminoso per l'intrattenimento