Odio eterno para los que comprimen el material audiovisual con rar y la mejor compresión y no se dan cuenta de que la están cagando a base de bien.

Demo UHD de LG (sobre 1 GB de tamaño) sin compresión:
a2l5xLt.png


El mismo fichero comprimido con la mejor compresión:
Ld3qvYd.png


Comprobamos que en este caso el rar ocupa más que el mkv original y, si aumentamos el tamaño del fichero, podemos llegar a encontrarnos que un fichero de 50 GB comprimido, ocupa hasta 2 GB más.

Hasta ahí no habría problema, pero a la hora de descomprimir en un PC normalito, ya llega el acabose:

[14/10/2018 22:04:46] [PAR2&Unrar] "test_fast.part1.rar" unrar started
[14/10/2018 22:04:48] [PAR2&Unrar] "test_fast.part1.rar" unrar finished

2 segundos uno, versus

[14/10/2018 22:05:53] [PAR2&Unrar] "test_best.part1.rar" unrar started
[14/10/2018 22:06:06] [PAR2&Unrar] "test_best.part1.rar" unrar finished

13 segundos el otro.

Y con el unrar sin posibilidad de usar multihilo en una box con un chip ARM, ya es para pegarse un tiro :facepalm
 
Odio eterno para los que comprimen el material audiovisual con rar y la mejor compresión y no se dan cuenta de que la están cagando a base de bien.

Demo UHD de LG (sobre 1 GB de tamaño) sin compresión:
a2l5xLt.png


El mismo fichero comprimido con la mejor compresión:
Ld3qvYd.png


Comprobamos que en este caso el rar ocupa más que el mkv original y, si aumentamos el tamaño del fichero, podemos llegar a encontrarnos que un fichero de 50 GB comprimido, ocupa hasta 2 GB más.

Hasta ahí no habría problema, pero a la hora de descomprimir en un PC normalito, ya llega el acabose:



2 segundos uno, versus



13 segundos el otro.

Y con el unrar sin posibilidad de usar multihilo en una box con un chip ARM, ya es para pegarse un tiro :facepalm
Efectivamente, las descargas de tropecientos gigas cuando meten compresión agradecen un procesador potente.
 
Pero es que si la metieran porque sirve de algo (para comprimir) pues perfecto, pero es que lo único que consiguen es el efecto contrario (expandir).
 
Ya pero, a caballo regalado...

Nos tenemos que adaptar a ellos, no ellos a nosotros.
 
Buena intención tienen, porque les supone una pérdida de tiempo importante comprimir al "máximo" un pedazo de fichero, pero da rabia que por desconocimiento terminen cagándola, cuando sería mejor para todos compresión cero.

Y en lo de desconocimiento me meto yo también, porque hasta que no he hecho las pruebas, no me imaginaba ni por asomo que sería así :sudor @actpower: ilumínanos con tu conocimiento del tema códecs.

De todas formas, he conseguido un unrar multihilo para ARM, así que ni tan mal :)
 
Yo hace tiempo comprendí que algo comprimido no puede comprimirse más (sin pérdida). Por ejemplo, ZIPeo mis DCPs para cine pero SIN compresión alguna (store), porque no gano absolutamente nada, y va todo en un solo paquetito que además si hay fallo de transferencia sabes que está mal al extraer los archivos.

Las veces que he probado a comprimir estos archivos, me ha tardado Un HUEVO, todo para no lograr absolutamente nada (y hablo de JPEG2000, que es ultraeficiente en ese aspecto).

Es complicado convencer a este "mundo" por lo fragmentado, esotérico y dificil de hablar directamente con los uploaders.

Es como tratar de convencer a algunos que comprimir un archivo de Bluray a HEVC 10 bits no va a garantizar nada, porque de donde no hay no se puede sacar, la calidad como máximo será "casi" idéntica (recomprimir un archivo siempre origina pérdida, aunque sea al mismo bitrate).

Aún recuerdo esa prueba loca de ver cuantas generaciones aguantaba un archivo de MiniDV sobre sí mismo...a partir de la tercera la degradación era visible, pero en la quinta aquello montaba una masa informe asquerosa de pixeles que no había forma de ver. H264 y HEVC aguantan más, pero aún así...mala idea.
 
Más cosillas, ayer descubrí que es muy bonito descargar a 600 pero por ejemplo con la opción direct unpack activada la velocidad empieza a bajar rápidamente al cabo de un par de minutos ya que es demasiada caña para Hdd's normales.

En caso de velocidad tan elevada se recomienda o bien desactivar el direct unpack y que descomprima al finalizar o bien usar un SSD para la descarga y poner como opción que al finalizar el proceso lo mueva automáticamente al HDD que queramos. Voy a ver si eso es eficiente teniendo varias cosas en la cola de descarga.
 
Hum, vale, por eso me pegó a mí el bajón...entonces es mejor desactivar esa opción, porque a la postre los dos archivos que me descargué al final se descomprimieron igualmente (de hecho me clonó dos veces uno de ellos, una marcianada rara)...
 
Por cierto, que ya descargo a 600mb (a veces a 700), poniendo 30 conexiones simultáneas. Descargar "piedras" de 50GB en 15 minutos es una maravilla...
 
Éste fin de semana he estado mirando un poco, y por lo que veo / entiendo no es más que lo que algunos hacíamos en la época de las conexiones con modem de 56K para descargar cd's en varias partes, pero ahora con conexiones rápidas. Vamos, con el flashget de toda la vida :D

A mi me da un poco de pereza, la verdad, aunque tiene pinta que hay mucha cosa.
 
Pues a mí me está dando problemas para sostener la velocidad.

Ahora estoy probando otro proveedor que me da una semana de prueba...
 
Éste fin de semana he estado mirando un poco, y por lo que veo / entiendo no es más que lo que algunos hacíamos en la época de las conexiones con modem de 56K para descargar cd's en varias partes, pero ahora con conexiones rápidas. Vamos, con el flashget de toda la vida :D

A mi me da un poco de pereza, la verdad, aunque tiene pinta que hay mucha cosa.
La principal diferencia es que no es P2P ni está el material alojado un servidor concreto, todos pueden acceder a todo una vez que tengan acceso a la Red.
 
Éste fin de semana he estado mirando un poco, y por lo que veo / entiendo no es más que lo que algunos hacíamos en la época de las conexiones con modem de 56K para descargar cd's en varias partes, pero ahora con conexiones rápidas. Vamos, con el flashget de toda la vida :D

A mi me da un poco de pereza, la verdad, aunque tiene pinta que hay mucha cosa.

Bueno, lo de trocear los archivos siempre se ha hecho, desde esa época. Digamos que es más cómodo porque si uno de ellos no se sube bien o está mal, no tienes que subir/descargar todos...

Y no es que haya mucha cosa, es que está TODO (hay que saber luego buscar, claro)

Lo de King no se porqué será, he estado haciendp pruebas y me va a 60-70MB sostenidos del tirón. También es cierto que es muchísima tralla y el más mínimo fallo de cualquier cosa o algna descarga paralela de otros dispositivos lo puede jode...
 
También puede ser...descargar todo a 600mb siempre lo veo un poco utopía, la verdad. Pero vamos, que sobre el papel, es así.
 
En Hitnews puedes crearte una cuenta de prueba de 3 días (que supongo que estará limitada en el número de GB que puedes descargar) sin necesidad de dar datos, más allá del nombre y un correo.

Sigue los pasos del primer post, disfruta de Sanctuary y, si te gusta esto de usenet, píllate una subscripción anual en uno de los proveedores recomendados.
 
Espero que sea eso, glups!. Porque vaya tela, haber pagado el acceso a usenet y la dificultad de encontrar UHDs en Español...
 
Arriba Pie