Sí, es cierto que el Color Volume juega su papel muy importante en el HDR, y en este sentido creo que los LED (RGB) lo hacen mejor que los OLED (wRGB), que llegados a cierto número de nits, los highlights dejan de tener color en estos últimos.
Lo que pasa, es mi simple opinión, que como bien has dicho, Aquaman y The Meg son dos contenidos muy puntuales que han sido masterizados a +1000 nits, mientras que el 99,99% del resto de contenido actual, máxime con el auge (y su consiguiente declive en calidad de vídeo y audio) del streaming, es masterizado con un brillo ajustado a todos los TVs que hay en el mercado.
Si el contenido actual en su totalidad, o casi su totalidad, fuese masterizado al nivel de The Meg, es obvio, máxime que la mayoría de usuarios no tiene una batcueva, sino salas de medio iluminadas hacia iluminadas totalmente, los LED le darían un buen repaso en contenido HDR al OLED. Pero es que salvo ciertos y puntuales highlights, seguimos en "niveles SDR" en cómputo general, y ahí el OLED es el jefe.
Si hubiesen TVs LED de 4000 nits de pico máximo, y contenido masterizado a ese brillo highlights, y los OLED siguiesen estancados en 700 nits, creo que sí habrían diferencias claras a favor del LED en contenido HDR.
Quizá el MicroLED sea la tecnología que se abra paso entre el OLED y el LED, porque ya se ha visto que estas dos últimas tienen Pros excelentes, pero Contras muy difíciles de solventar (brillo/volumen color y negros puros respectivamente). Mientras pasen esos años y el MicroLED se establezca, se masterize a 4000 nits, o incluso 10000 nits de forma más habitual, y además el streaming y los nuevos codecs permitan tasas de bits mucho más altas.