Tutti i prezzi sono validi al momento della pubblicazione. Se fai click o acquisti qualcosa, potremmo ricevere un compenso.

A cosa servono i pannelli a 10 bit sulle TV: guida di HDblog.it

10 Agosto 2015 80

Il mercato TV sta subendo molte evoluzioni: oltre all'aumento della risoluzione, portato dai TV Ultra HD, vi sono due novità che porteranno cambiamenti consistenti, per quanto riguarda la qualità delle immagini. Ci riferiamo all'avvento degli Ultra HD Blu-ray e all'HDR. A legare i nuovi supporti ottici e l'High Dynamic Range è una caratteristica molto importante: l'introduzione di contenuti a 10 bit (attualmente anche i Blu-ray sono realizzati a 8 bit).

Per poter sfruttare i 10 bit utilizzati dalle nuove tipologie di contenuti, sarà necessario un TV dotato di un pannello a 10 bit. Questa tipologia è ancora molto poco diffusa (un esempio sono i TV SUHD Samsung) e pochissimi sono anche i produttori che dichiarano il reale funzionamento dei pannelli. E' infatti bene sapere che i 10 bit (o dati anche superiori) riportati nelle specifiche non sono necessariamente riferiti ai pannelli, bensì all'elaborazione effettuata internamente dall'elettronica (in seguito vedremo alcuni esempi e quali risultati possono portare).

Cosa indicano gli 8 bit riferiti ad una TV

Accuratezza nel riprodurre le gradazioni di colore a 8 e 10 bit

Il numero dei bit, riferito ad un pannello, indica il numero di sfumature che possono essere riprodotte. 8 bit equivalgono a 256 livelli, per tutte le componenti cromatiche primarie (256 per il rosso, 256 per il verde e 256 per il blu). Il numero massimo di colori riproducibili ammonta a circa 16,8 milioni (256 sfumature da moltiplicare per ciascuna delle componenti RGB). In realtà l'intervallo utilizzabile è più ridotto, almeno in campo video. La raccomandazione ITU-R BT.709 ha imposto lo standard attualmente in uso: il livello minimo, corrispondente al nero, è fissato a 16, mentre il bianco è fissato a 235. In ambito informatico si può utilizzare la gamma RGB completa.

Questo intervallo è molto importante, poiché, anche in fase di regolazione delle TV, contrasto e luminosità si impostano in modo da poter fissare i valori di nero e bianco a quelli summenzionati. Le impostazioni vengono effettuate ad occhio, con l'ausilio di due schermate di test (una per la luminosità, una per il contrasto) chiamate Pluge. I livelli 16 - 235 sono, quindi, l'intervallo all'interno del quale opera un pannello a 8 bit. Sono sufficienti per riprodurre tutto ciò che vediamo nel mondo reale? La risposta è no e rendersene conto è molto semplice.

Quando su una TV vengono riprodotte gradazioni di colore, come ad esempio il tramonto del Sole all'orizzonte, si può notare come la transizione da una tinta all'altra non avvenga sempre gradualmente, ma con passaggi a volte troppo netti. Nei casi più evidenti si può notare la presenza di bande con uno stacco evidente, il cosiddetto color banding.

Scale di grigio rappresentate a 8 e 10 bit

L'immagine posta qui sopra fornisce una rappresentazione schematica, utile per dare un'idea della differenza tra 8 e 10 bit. La limitazione riguarda l'accuratezza con cui le gradazioni di colore possono essere riprodotte a video. In sostanza la transizione tra un colore ed un altro è più netta ed imprecisa a 8 bit, divenendo più sfumata e graduale quando si opera a livelli superiori.

I cambiamenti introdotti dai pannelli a 10 bit

Il passaggio da 8 a 10 bit implica, dunque, un aumento nel numero di sfumature riproducibili. Abbiamo visto che 8 bit equivalgono a 256 livelli per ciascuna componente RGB. Con i 10 bit si ottiene la possibilità di visualizzare 1.024 livelli, con un numero massimo di colori fissato a 1,07 miliardi (1.024 sfumature da moltiplicare per ciascuna delle componenti RGB). Anche in questo caso si è scelto di non utilizzare l'intera gamma. Il livello del nero è fissato 64, mentre il bianco corrisponde a 940. Questo significa che un pannello a 10 bit può operare su un intervallo quattro volte maggiore, a livello di sfumature riproducibili.

La diretta conseguenza è quella che abbiamo già menzionato: un pannello a 10 bit è in grado di riprodurre le gradazioni di colore con una precisione sensibilmente maggiore. Non si tratta dell'unico vantaggio: anche l'HDR trae notevole beneficio dall'utilizzo di pannelli a 10 bit. Prima di affrontare questo argomento, facciamo un passo indietro, prendendo in considerazione non i pannelli a 10 bit, ma l'elettronica dei TV, capace di operare sui segnali ad un livello superiore agli 8 bit.

L'elaborazione video

Lo schema di funzionamento della "Gradazione uniforme" sui TV Sony

In apertura abbiamo menzionato "l'equivoco" che spesso si nasconde dietro l'indicazione del numero di bit, nelle specifiche delle TV. Se infatti i pannelli a 10 bit sono davvero pochissimi, altrettanto non vale per l'elettronica: sono molto diffusi i modelli che elaborano il segnale a 10 bit o superiori. Un esempio è costituito dai televisori Sony dotati della funzione denominata "Gradazione uniforme".

Questa funzionalità opera una "riquantizzazione" delle sfumature, simulando una riproduzione simile a quella che si otterrebbe con un pannello a 14 bit (che corrisponderebbe a 16.384 livelli). Il risultato è effettivamente apprezzabile: se si visualizza una scala di grigio, attivando e disattivando Gradazione uniforme, si nota immediatamente la tendenza a passare da una riproduzione più imprecisa e netta ad una più graduale e realmente uniforme (come indica il nome stesso).

Le elaborazioni che permettono di simulare una maggior quantità di sfumature sono numerose: essenzialmente ci si basa sul dithering, una soluzione che "inganna" il cervello, in modo da indurlo a percepire una quantità di colori superiore a quella realmente presente. Gli algoritmi utilizzabili sono molteplici, ma i principali sono il dithering spaziale ed il dithering temporale. Il dithering spaziale consiste nell'assegnare, a due pixel contigui, colori tali da generare l'impressione che quello rappresentato sia un terzo colore. Il dithering temporale, come il Frame Rate Control (spesso si trova indicato nelle specifiche dei monitor, con diciture come "8 bit + FRC"), ricorre ad un sistema simile, ma anziché utilizzare pixel contigui, alterna rapidamente i colori a video (sempre per rappresentarne un terzo). Ovviamente l'efficacia di elaborazioni di questo tipo è comunque limitata, rispetto a quanto offerto da un pannello nativo a 10 bit.

HDR ed i pannelli a 10 bit

Rappresentazione della differenza tra High Dynamic Range e Standard Dynamic Range

Se si parla tanto di pannelli a 10 bit, in quest'ultimo periodo, non è solo per merito dell'Ultra HD Blu-ray, ma anche per l'arrivo di HDR. L'High Dynamic Range è considerata la novità più importante, tra quelle in arrivo in campo video. Il suo scopo è incrementare la dinamica delle immagini, aumentando la luminosità, il livello di dettaglio nelle scene molto chiare o molto scure ed anche il rapporto tra i due estremi (e di conseguenza il rapporto di contrasto).

Per sfruttare l'HDR sono necessari vari requisiti: un pannello in grado di assicurare una luminosità decisamente superiore alla media, ingressi HDMI 2.0a per le sorgenti esterne (le applicazioni per lo streaming, come Amazon e Netflix, sono ovviamente escluse) e possibilmente un pannello a 10 bit. Quest'ultimo permette di abbinare l'incremento della dinamica al maggior numero di sfumature, in modo da riprodurre più dettagli a video.

Un esempio può essere costituito da un'immagine che ritrae una stanza buia con una finestra che mostra un esterno molto luminoso. Utilizzando la Standard Dynamic Range (SDR) si può scegliere se privilegiare l'esterno luminoso, a scapito dell'interno (che diverrà troppo scuro e poco intelligibile), oppure il contrario, rappresentando accuratamente l'interno buio e rendendo l'esterno troppo luminoso (le alte luci vengono "bruciate"). Con HDR, invece, si possono preservare entrambi gli estremi. Il contributo dei 10 bit è importante, poiché consente di sfruttare l'intervallo quattro volte più ampio, rispetto agli 8 bit, mettendo pienamente a frutto il maggior numero di sfumature nativamente supportate.

Confronto trai livelli associati a pannelli a 8 e 10 bit

Conclusioni

Per arrivare ad una diffusione capillare dei TV con pannelli a 10 bit occorrerà tempo. Fino ad oggi l'utilità di questa tipologia di prodotti era molto marginale, poiché i contenuti erano (e sono) realizzati a 8 bit. L'arrivo dei contenuti a 10 bit, oltre all'HDR, spingerà progressivamente verso l'adozione di pannelli a 10 bit, con benefici evidenti, per quanto riguarda la qualità video. Come abbiamo visto è il maggior numero di sfumature a determinare l'incremento, con vantaggi anche per HDR, che potrà sfruttare questa caratteristica al meglio, data la superiore dinamica, soprattutto sulle alte luci. I possessori di TV a 8 bit (la stragrande maggioranza) non devono però disperarsi: i contenuti saranno pienamente compatibili, anche se ovviamente non sarà possibile utilizzare tutti i miglioramenti.


80

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
DragOne

Ottimo articolo, complimenti!
Lascio due domande per qualche anima pia che si troverà a passare da qui e ne sappia qualocosa:
1. Si sa con più sicurezza, ad oggi, se il TV Samsung 55JS8000 del 2015 abbia o meno il pannello a 10 bit?
2. Se un TV non presenta HDMI 2.0a, si può bypassare il tutto via usb tramite un rip del disco e godersi lo stesso l'HDR del suo bluray?

claudiomonza

"si può notare come la transizione da una tinta all'altra non avvenga sempre gradualmente, ma con passaggi a volte troppo netti"
Forse perche' la compressione e' mega, perche il sistema colonre non e' rispettato o semplicemente perche' il cinokorea e', come al solito, con i colori a palla solarizzati?

L'unica cosa certa e' che non e' per la mancanza del HDRqualcosa.

Marco Marchiori

Se non ricordo male la sigla, già nel 2007 SONY proponeva il 32D2500 hdready con pannello a 10bit. Io poi optai per l'acquisto del 32W4000 (8bit) perché era FullHD e per il design più ricercato ed anche perché il D2500 stava uscendo di produzione, però all'epoca era considerato il miglior 32"...

FedeC6603Z

in questo caso è l'unico modo per far comprendere il concetto, perchè a meno che te non abbia un pannello a 14 bit (nel caso del sony) ti ritroveresti a guardare 2 immagini uguali..

FedeC6603Z

spero che in un anno qualcuno ti abbia tolto i dubbi. perchè vedo troppa confusione in questo commento

Svasatore

Sempre, il nero è proprio scarsino.

Ste

anche io ho lg ma questo problemi con i neri quando vi appare?

Dario De Candia

Ma chi possiede una tv UHD con pannello a 8 bit potrà vedere lo stesso i film in 4k nelle sue massime potenzialità? Oppure si vedranno i colori sfalzati?

Davide Polez

Tutte tecnologie attuate per diminuire il gap prestazionale tra i led ed i bensì più performanti OLED, ma non bastano. ;)

Imparziale

Aggiungo che spesso accade che i pannelli a 10bit in realta' poi internamente arrotondino a 8bit denza dithering. come il mio VPR, 10bit solo supportati ma il segnale reale e' arrotondato a 8bit. ci se ne accorge con i pattern test dedicati dove si nota il banding.
Siccome con i video a 8bit il dithering e' necessario per avere una buona qualita video, non e' detto che un pannello true 10bit fornisca un segnale video migliore di un 8bit, anzi..

Gianluca Olla

è un 4K ma con caratteristiche superiori alle TV 4K di fascia inferiore, quindi per Samsung è un un Super Ultra HD.

tito

Tutto questo ...articolone per 'sta frase qua ( cit.) : " Questa tipologia è ancora molto poco diffusa (un esempio sono i TV SUHD Samsung ". Picolo......spazio.....PUBLICITA...come dice Blasco :)

Matteo Pozza

a me pare che sta cosa degli schermi TV ci sta sfuggendo di mano

PierrNickever

è un marchio samsung per i suoi ultimi tv

mUSOITA

Se vi interessa saper che pannello usa il vostro monitor scaricate il gratuito Monitor Asset Manager

Svasatore

Te l'ho scritto perchè anch'io ho un LG e i neri non sono proprio il suo forte.

mattia

Ciao a tutti, per quanto riguarda la gamma OLED della lg i pannelli sono a 10 bit o superiore ??
Essenso una tecnologia completamente diversa, con pixel a 4 colori auto illuminanti...mi chiedevo se essendo OLED hanno per natura una gamma di colori più ampia e quindi supportano HDR e HFR o se ampliano il gamut usando l'elettronica tipo la sony ??
La LG usa la Triluminos Color per l'ampliamento del gamut, ma viene usata solo sulla loro gamma Super UHD o anche negli OLED? Riassumendo, gli OLED hanno per natura il gamut ampliato o viene usata l'elettronica ??

grazie in anticipo

Giulio D'Antoni

Grazie mille!

Nicola Buriani

Ciao, diamoci pure del "tu" (se non è un problema) :).
Sugli LG si è detto un po' di tutto: inizialmente sembravano a 10 bit, poi c'è stata un'apparente retromarcia, alla fine non si è più capito (perché ufficialmente non mi pare siano stati fornite le specifiche).
Posso provare ad informarmi (potrebbe volerci un po', visto anche il periodo).

Nicola Buriani

Scusa, non avevo capito :).
L'elaborazione ad un livello di bit superiori serve più che altro per evitare errori e per la riquantizzazione delle sfumature, diciamo anche che non è un qualcosa che pubblicizzano o ti fanno pagare di più, in generale, perché su molti modelli si fa da anni.

glukosio

io le ho sempre viste come Samsung UHD perchè mi pare sia l'unica a farle.

Macs

e' quello che ho detto. l'elaborazione a 10bit mi sembra un po' troppo marketing e poca sostanza, mentre quando arriveranno piu' diffusi i pannelli a 10bit (con relativo mateiale e sorgenti ) allora se ne puo' riparlare e valutare i prezzi.

Nicola Buriani

Cerca, qui su HDblog, "anteprima SUHD", c'è la nostra anteprima, con anche il video e tutte le informazioni (scusa se non ti rispondo direttamente, ma diversamente dovrei scriverti un papiro).

Body123

Scusate mi sono perso. Cosa sarebbero queste tv SUHD ? Io ero rimasto a quelle UHD (=4k)

Nicola Buriani

Attenzione: l'elaborazione a 10 bit (o anche di più) la si trova su tantissimi modelli, sono i pannelli a 10 bit ad essere decisamente più rari e quelli non elaborano il segnale, lo visualizzano proprio in maniera nativamente differente.
E' anche fuor di dubbio che un pannello a 10 bit, senza contenuti a 10 bit o HDR, avrebbe un'utilità molto marginale, come infatti è scritto nell'articolo.

Macs

saraà ma l'articolo non mi convince. Coretto tecnicamente ma utilizzare delle immagini enfatizzate per far comprender eil concetto sembra esattamente quello che fanno nel marketing per vendere nuove funzionalita dei TV. Si ingenerano aspettative negli utenti per delle prestazioni non realmente riflesse nella realta', magari spendendo un paggo di soldi. Se da un lato il pannello a 10bit porteraà dei concreti vantaggi con le opportune fonti di qualita' equivalente, la sola elaborazione a 10bit non mi sembra un passo cosià grande da giustificare alcuni prezzi, Se poi arrivera' come feature base in tutti i modelli senza sovrapprezzo allora benvenga.

Giulio D'Antoni

Gentile Nicola, avrei una domanda da porle.
ho recentemente acquistato un LG 55UG870V e in merito ai bit color ovviamente sul sito della Lg non è menzionato nulla... seppur è classificato come un SuperUHD.
Sa nulla se questo modello rientra nei 10bit color o ne ha clamorosamente solo 8?

IlRompiscatole

Esatto, avevo preso un 58" Philips ma aveva il grigio chiaro al posto del nero :-D
Allora sono andato sull'lg. (dovrebbe essere lo stesso pannello della serie 7900 philips tra l'altro.. ma non mi piaceva android sul televisore)

Nicola Buriani

Non sono ancora disponibili infatti (per questo dicevo che bisogna ancora attendere).
Ovviamente li testeremo non appena possibile.

peyotefree

La gamma 2015 uhd oled di Lg nei negozi non se ne vede ancora l ombra.. Almeno dalle mie parti.

ern89

Altrimenti non potremmo notare le gradazioni di marrone-nero di Carlo Conti!!

Nicola Buriani

La questione del gamut c'è, ma non è legata alle sfumature, quanto, piuttosto, alla necessità di compensare l'aumento delle luminosità con una maggiore saturazione (cosa che infatti si fa a mano, quando si regola una TV per la visione in ambienti luminosi).
La questione dei 10 bit, quando si parla di HDR, è legata al fatto che l'incremento della dinamica è molto più efficace se abbinato ad un maggior numero di sfumature, onde riprodurre immagini più dettagliata, da questo punto di vista, scongiurando (il più possibile) l'insorgenza di color banding.
In teoria l'HDR dovrebbe venire ripreso e riprodotto a 10 bit (teoricamente si potrebbe arrivare anche a 12 in futuro), senza alcuna elaborazione atta ad aggiungere informazioni.
E' comunque possibile (almeno sulla carta) elaborare un segnale per realizzare un HDR più artificioso.

Svasatore

Per forza dalla descrizione avrai preso un LG.

sardanus

in pratica se si parla di hdr nativo nella ripresa, i 10 bit non servono a nulla, averli o no non farebbe differenza a meno che il filmato non sia a 10bit nativalmente.
se si parla di hdr postprocessato dal tv prima di mostrarlo allora uno spazio colore maggiore aiuterebbe. Ma la domanda è: si tratterebbe di interpolazione di colori così come si fa per i frame e i millemila hz?
Ho capito bene?

Nicola Buriani

Grazie a te per la bella chiacchierata :).

Matteo Saporiti

No, sta giustamente parlando di encoder, ci sono parecchi paper che dimostrano che encodare il flusso video a 10 (ma anche a 12, il guadagno però si riduce molto all'aumentare dei bit) garantisce una maggiore qualità a parità di bitrate, anche se l'output è poi in realtà a 8bit.
Anche perché tolto l'HDR non credo che nessuno sia realmente capace di distinguere un 10 bit da un 8bit con dither fatto bene (d'altronde abbiamo avuto monitor TN a 6bit più dither per anni, e non mi ricordo di chissà quali battaglie contro il banding), in compenso un encoding fatto in modo non perfetto a 8bit (penso ai vari streaming, dove non c'è né il bitrate né il livello di controllo di un BD) può mostrare un banding a volte anche molto elevato.
A 10bit la cosa si riduce in modo molto notevole.

IlRompiscatole

Oh! Finalmente una persona preparatissima in materia!
Bene, allora aspetto l'articolo sul Panasonic :-)
Grazie dei chiarimenti :-)

Nicola Buriani

Ma figurati :).

Parto dal gamma perché hai centrato il punto: si, è diverso e non si chiama nemmeno più gamma ma EOTF (Electro-Optical Transfer Function), e in realtà bisognerebbe parlare anche di Perceptual Quantizer (a 10 e 12 bit) di Dolby e del BT.1886.

Sarà assolutamente compatibile con tutti i tipi di segnale (Technicolor ha un sistema per la conversione che sembra molto efficace).
In pratica cambiano tante cose (sto semplificando tantissimo, ma se non lo facessi lo spazio non mi basterebbe mai: scriverò qualcosa di più in merito a breve, parlando dei nuovi Panasonic).
Come esempio reale non immaginare un estremo come la luce diretta del Sole: pensa se, anziché accecarti, fosse semplicemente una fonte di luce forte che entra da una finestra. Con una TV SDR hai la classica coperta corta: o privilegi le basse luci o le alte.
Non puoi fare entrambe correttamente perché il TV a quei livelli non arriva, se provi a forzarlo ti mostrerà semplicemente aree eccessivamente luminose dove non distingui più nulla, perché sei oltre i livelli che può visualizzare.

Nicola Buriani

Sono in arrivo, anche un OLED (non l'Ultra HD però: per quello bisogna attendere ancora un po') :).

IlRompiscatole

(scusa in anticipo per il papiro sottostante)

Boh, non mi torna il funzionamento / l'utilità :-D
Cioè.. nella realtà se sono in una chiesa bua e guardo verso una finestra luminosa la luce mi accecherà. Gli occhi si adatteranno alla luce ma a quel punto l'occhio sottoesporrà il resto, facendomi vedere i contorni della finestra ed il resto molto scuro.

Ora, come ti dicevo, sono abituato a guardare la forma d'onda durante la color correction per evitare eventuali errori di gamma del monitor, dovendo restare tra 0% e 100% (nero e bianco assoluti) l'unica cosa che puoi cambiare è la curva gamma. Schiacciando la gamma (o usandone una logaritmica) come si fa in fase di registrazione per avere più stop di gamma dinamica avremo però delle immagini con pochissimo contrasto.

Quindi...
E' differente la curva gamma usata da questi televisori?
L'HDR sarà compatibile con il segnale broadcast?
O per avere più informazioni sulle alte luci i file HDR andranno sopra il 100% (standard EBU)?
Come funzionerà la registrazione dell'HDR?
Se riproducessero (tanto) più accuratamente le alte luci non funzionerebbero meglio dell'occhio umano e quindi perderebbero in realismo?
Ma soprattutto: sto scrivendo cose sensate? :-)))

Scusa di nuovo per il muro di testo ma sono cose che mi chiedo dal primo momento in cui ho sentito parlare di televisori HDR :-)

efremis

Bell'articolo. Ci vorrebbero anche più recensioni a TV (magari una nuova LG OLED UHD di quest'anno) ;)

G.Rossi

No l'errore di cui parli tu lo limiti con l'elettronica che infatti lavora sempre con profondità superiore, infatti sono anni che ci sono 10, 12 o anche 14 bit da quel punto di vista.

Nicola Buriani

Grazie :).
L'immagine è enfatizzata, come scritto, per dare l'idea della differenza (ovviamente la rappresentazione reale non è così).
Il motivo è semplice: su una TV non avrei difficoltà a rendere evidente lo stacco (come si fa, ad esempio, per la funzione Gradazione uniforme) per via delle dimensioni. Con un'immagine, che magari viene vista su dispositivi mobile, rischierei di generare l'impressione che la differenza quasi non si veda (ho sperimentato di persona con amici), considerando anche che molti potrebbero non aprire l'immagine a tutto schermo (e questo renderebbe la differenza reale meno percepibile, se non i calcasse un po' la mano) ed alcuni la vedranno su dispositivi che potrebbero operare una riquantizzazione delle sfumature (appiattendo le differenze).
In sostanza quello è praticamente l'unico modo sicuro per essere certo che la differenza sia tangibile per tutti, ben sapendo che è enfatizzata.

LivioPap

Complimenti per la guida informativa

Nicola Buriani

Ti interessano le discussioni tra utenti?
Per le prove, perdona l'auto-referenzialità, ma visto che frequenti HDblog, ti consiglio di continuare a seguirci (e ti ringrazio per il supporto già ora), perché sono in arrivo varie prove (la prima dovrei metterla in settimana: TV Android Philips, poi arriverà un OLED) :).
Avrei voluto portarvele un po' prima, ma ho preferito attrezzarmi al meglio per darvi contenuti migliori (spero che la formula che proporrò vi piaccia: ovviamente valuterò con attenzione i vostri pareri in merito).

Se7ev

Ciao Nicola, visto che mi sembri un persona informata in ambito di televisori, volevo chiederti se hai siti, forum, blog da consigliarmi (anche english no problem) dove posso informarmi in tale ambito. Danke ;)

Emanu_lele

Approfitto dell'argomento per chiedere se le schede video moderne (Radeon r9) sono già in grado di produrre output a 10bit? Non so, penso ai giochi, programmi di foto editing e video (ovviamente penso agli 8bit "upscalati" dal software). Inoltre vedremo mai i 120 hz (in 2d) sulle tv? Insomma questi pannelli tv sono ormai super spremuti; ma nessuno pensa ai videogiocatori?

Nicola Buriani

Il problema è che faresti fatica: per molti modelli non lo dichiarano.
Ad esempio: per quelli usciti nel 2015, fascia alta, è sicuro che gli SUHD Samsung montino pannelli a 10 bit, per gli altri...Praticamente non si sa, a parte Panasonic che ha dichiarato di utilizzare pannelli a 8 bit, il che implica anche che altri utilizzeranno pannelli a 8 bit (dato che il produttore è il medesimo e la fascia è alta).
Il fatto che molti indichino i bit relativi all'elettronica e che non abbiano mai chiarito la natura dei pannelli, io lo trovo piuttosto indicativo (ma non c'è nemmeno nulla di male: i contenuti a 10 bit ancora non li abbiamo).

Matt

Appunto: gran parte della fascia alta monta pannelli 10 bit.

E' il tuo campo e sicuramente sei più informato e non ho le forze per spulciare tutte le specifiche tecniche dei modelli usciti da 2007 ad oggi, incrociarle con i dati di vendita (almeno zona Euro) e scoprire quanti dei top di gamma venduti hanno pannello 10 bit.

Quindi, anche senza HDR, vado a guardarmi un po' di TV, probabilmente vecchie puntate dei Simpson.

Nicola Buriani

Cosa non ti torna?

Recensione Fujifilm X100VI: la regina delle compatte è tornata | VIDEO

Tra i Mega Schermi, l’IA e i display trasparenti del CES di Las Vegas | VIDEO

Che anno sarà il 2024? Le nostre previsioni sul mondo della tecnologia! | VIDEO

HDblog Awards 2023: i migliori prodotti dell'anno premiati dalla redazione | VIDEO