Trasteando con contenedores (Docker)

Tim

Miembro habitual
Mensajes
34.350
Reacciones
26.174
He renombrado el hilo porque creo que voy a aprovechar alguna investigación más que estoy haciendo con Docker para comentarlo en un sitio centralizado.

Aprovechando el Docker que ya tenía en la RaspberryPi4, instalé aplicaciones para descargar torrents pero hoy he ido un paso más allá: navegar desde la Raspberry en remoto. Lo cuento en los siguientes posts.










Salvo dos cosas puntuales que descargué los últimos años usando una máquina virtual, ni recuerdo cómo va todo el tema de las descargas. En previsión de darme de baja de alguno de los servicios de streaming, que mi hijo me comenta animes que no sé ni dónde verlos... y también en parte por el cacharreo (hace demasiado mal tiempo como para hacer bricolaje por fuera), os quería preguntar qué tengo que configurar. Tengo una RaspberryPi4 con 8GB de RAM en la que apenas tengo 7-8 contenedores Docker con los que recojo los datos de aparatos de domótica, los guardo en una base de datos y visualizo dashboards. Aún así tengo como 3GB ocupados de memoria. La CPU sí que va sobradísima.

He visto por encima un par de vídeos:







En el primero usan software para aburrir: Sonarr, Transmission, Jackett, Plex...
Todos pueden meterse en Docker.

¿Vale la pena instalar tanta historia? Una duda que me surge por puro desconocimiento es: ¿cómo buscas contenido? Como decía, las veces que descargué algo fue en otra máquina, porque entrar en ciertas páginas es mortal entre posibles popups y malware.

Se me olvidaba: en la RaspberryPi ya doy por hecho que he de usar almacenamiento externo.
 
Última edición:
¿cómo buscas contenido?

En su día para automatizar búsquedas y descargas usaba Jackett pero pasó a mejor vida tras volver a Usenet con el indexador innombrable y el Olimpo para torrents.

Yo uso rclone con webdav de OneDrive y GoogleDrive, busco el nzb que descarga el contenido multimedia en la nube y uso TinyMediaManager para renombrarlo, conseguir las imágenes y la info para que se quede añadido a la biblioteca de Kodi.

Ese último paso podría automatizarlo pero para la cantidad que uso no me merece la pena ni calentarme la cabeza.
 
Cuando compré la raspberry, había imágenes de Docker que necesitaba que no tenían imagen para ARM64. Y ahora estoy viendo que algunas de las imágenes que necesito para montar esto ya no las hay para 32 bits. Creo que voy a aprovechar para migrar a 64 bits.
 
Docker es la peste. Sólo ver lo que consume de memoria y disco me entran ganas de matar y siempre termino desistalándolo :queteden
 
En su día para automatizar búsquedas y descargas usaba Jackett pero pasó a mejor vida tras volver a Usenet con el indexador innombrable y el Olimpo para torrents.

Yo uso rclone con webdav de OneDrive y GoogleDrive, busco el nzb que descarga el contenido multimedia en la nube y uso TinyMediaManager para renombrarlo, conseguir las imágenes y la info para que se quede añadido a la biblioteca de Kodi.

Ese último paso podría automatizarlo pero para la cantidad que uso no me merece la pena ni calentarme la cabeza.
No he entendido una mierda :facepalm
 
Docker es la peste. Sólo ver lo que consume de memoria y disco me entran ganas de matar y siempre termino desistalándolo :queteden

¿Docker? Consume lo que consuman los contenedores.
Gracias a Docker, instalé el sistema operativo de Raspberry con su instalador en otra SD. Tenía documentado cómo instalar todo, pero además, al estar en docker, las carpetas que tienes mapeadas para guardar configuraciones y demás, con copiarlas a la nueva SD, ya hizo que todo funcionase.
Así que ya tengo la raspberry con los dashboards de grafana, configuración de nodered, mosquitto, etc. funcionando en 64 bits. En muy poco tiempo, maravilloso.

1699193841680.png


Cuando tenga tiempo a por el resto de cosas para los torrents.
 
¿Docker? Consume lo que consuman los contenedores.

Claro y consumen una hartá. Como compilar e instalar no hay nada y por supuesto que la gente preferirá instalar y olvidarse pero eso no es para alguien como yo, que escribe top en el terminal y se pone enferno al ver ese desperdicio.
 
Jajajajaja. Para mí es mil veces mejor docker, porque tienes el sistema operativo limpico. Pero reconozco que tiene su complicación, como lo de mapear ciertas carpetas para mantener los archivos que hacen falta, que si los puertos...
 
Para lo único que me ha molado es para poder crear un proxy a partir de una VPN, ya que se aprovecha de que al estar aislado puedo montar los que quiera al mismo tiempo sin preocuparme de nada.
 
Listo, pues ya tengo Jackett, Radarr y Transmission. En realidad con Jackett y Transmission de sobras. Añado trackers a Jackett, hago la búsqueda desde su web, hago un click y empieza a descargarse con Transmission. Ahora a por Plex.
 
Ayer ya monté Plex y vimos la de Misterio en Venecia conectando la tele contra el servidor. Todo perfecto. Radarr me da un mínimo fallo, pero en realidad he visto que ni me hace falta, pues desde Jackett se pueden hacer búsquedas sin mayor problema.
 
docker run -d \
--name=transmission \
-e PUID=1000 \
-e PGID=1000 \
-e TZ=Europe/Madrid \
-p 9091:9091 \
-p 51413:51413 \
-p 51413:51413/udp \
-v /docker/transmission/config:/config \
-v /mnt/usb1/descargas:/downloads \
-v /docker/torrents:/watch \
--restart unless-stopped \
lscr.io/linuxserver/transmission:latest




docker run -d \
--name=radarr \
-e PUID=1000 \
-e PGID=1000 \
-e TZ=Europe/Madrid \
-p 7878:7878 \
-v /docker/radarr/config:/config \
-v /mnt/usb1/library:/movies \
-v /mnt/usb1/descargas:/downloads \
--restart unless-stopped \
lscr.io/linuxserver/radarr:latest




docker run -d \
--name=jackett \
-e PUID=1000 \
-e PGID=1000 \
-e TZ=Europe/Madrid \
-e AUTO_UPDATE=true \
-p 9117:9117 \
-v /docker/jackett/config:/config \
-v /docker/torrents:/downloads \
--restart unless-stopped \
lscr.io/linuxserver/jackett:latest

Aquí los tres comandos que usé para montar toda esta parte en Docker. Desde Jackett se añaden los trackers, se hace una búsqueda desde ahí y se le dice que se mande a lo que llaman blackhole. En la configuración que sale en la página inicial hemos de indicar que Blackhole se ubica en /downloads.
 
Yo de estos temas ni idea, pero el otro día estuve en reunión donde se decía respecto a Docker "Vete cambiando de tecnología porque es ya casi casi deprecated en favor de Kubernetes"

No te fíes más del que dijo esa frase, porque vaya tela 🤣🤣🤣🤣🤣🤣

Por hacer un símil que podamos entender todos:
Docker son los coches. Diseñas uno, lo clonas tantas veces como quieras, son todos iguales.
Kubernetes son los semáforos y la gestión del tráfico. Kubernetes, usando su palabra exacta, es un orquestador.

Así que quien te dijo esa frase sabe de contenedores como yo de programación 🤣🤣🤣

Cuando montas Kubernetes, por defecto trae por debajo un motor de contenedores. Pero le da igual cuál usar, porque Docker no es el único que existe. Ahora, Kubernetes es una cosa y Docker, containerd o CRI-O son otra. Hay algo seguro: puedes jugar con Docker a solas en tu equipo, pero Kubernetes, por pura lógica, no existiría sin un motor por debajo.

Este es el problema de las plataformas en Cloud. Que le das a dos clicks y montas una plataforma de Kubernetes. Sin saber lo que hay por debajo. Y luego pasa lo que pasa a nivel de gestión y de seguridad, claro.
 
Y para el Heavy Metal.

Me ha dado por buscar SACD y hay bastante material. Ordenado por fuentes, los primeros resultados:

1699354798486.png


Lo bueno de tener un servidor dedicado es que lo dejas conectado 24 horas y da igual que tarde días porque tarde o temprano se descargará.
 
Hay compositores clásicos con más y mejor melena que muchos heavys. Está todo inventado.
 
Estaba dando vuelta a cómo navegar, en caso de querer buscar algo en páginas que tengan popups y basura a tutiplén, de la forma más segura. Hasta ahora a veces usaba una máquina virtual en la que si se colaba algo, así fuese una extensión basura, no me importase. Pero es incómodo.

Así que estuve buscando opciones y di con una que es perfecta: navegadores metidos en contenedores a los que nos conectamos por el famoso VNC usando una URL. Como mejor ejemplo, lo que estoy haciendo ahora mismo:

1699367313181.png


He hecho una primera prueba con este contenedor:

Ejecutando un comando sencillo, sin mapear ninguna carpeta siquiera, aunque en cuanto tenga un rato lo haré.

docker run -d --name=firefox -e PUID=1000 -e PGID=1000 -e TZ=Europe/Madrid -p 30000:3000 -p 30001:3001 --shm-size="1gb" --restart unless-stopped lscr.io/linuxserver/firefox:latest

Si nos conectamos desde un navegador a la IP del equipo donde ejecutemos Docker y al puerto 30000 (el original es el 3000 pero ya lo estaba usando), nos encontramos una conexión remota a un Firefox. Esto lo hacen por detrás con una aplicación que desconocía, llamada KasmVNC.

¿Qué consigo con esto?
- Para empezar, navegar en un entorno aislado. No estoy mapeando nada y como mucho será la carpeta de config de Firefox. Así que no podré hacer descargas. Veré si a futuro añado esa parte.
- Otra opción, que no se me había ocurrido, pero que ha sido la primera que he probado porque me ha pillado justo ahí, es navegar por donde me de la gana desde el equipo del trabajo. No es algo que necesite, pero como curiosidad diré que al estar navegando desde la Raspberry, si queremos tener el foro, WhatsApp o lo que se nos ocurra, de esta forma el equipo de trabajo únicamente verá conexiones a una IP local y a un puerto, esa navegación es completamente anónima.
 
¿Qué tramas, moreno?

Pues básicamente poder entrar en páginas de torrents u otras de ese palo y que si me salen 20 popups, me quiere instalar extensiones basura o cambiar cosas como ocurre en Chrome.

Lo de usarlo desde el trabajo lo pongo por curiosidad, porque yo con teletrabajo como si tengo otro ordenador al lado.
 
Arriba Pie