Das heisst, Du hast PiHole unter Docker im "network_mode: host" eingerichtet?
Nachtrag:
Gerade wiedergefunden: pihole und lokale Hostnamen
Das heisst, Du hast PiHole unter Docker im "network_mode: host" eingerichtet?
Nachtrag:
Gerade wiedergefunden: pihole und lokale Hostnamen
Möchte meinen Pi 3 als Vpn Server nutzen...d.h. alle verbindungen laufen über den Pi über Proton VPN.
Ich verstehe das so, daß der PI hier kein VPN-Server sein soll, sondern ein Proxy, der alles über Proton VPN rausleitet.
Nicht über Wlan sondern über Lan.
Das habe ich nicht verstanden.
Ich kann aber leider meine kdbx-Datei aus dem WebDAV-Speicher nicht laden.
Woran liegt das?
Wenn ich die Datei dort entpacken möchte, bekomme ich aber eine Fehlermeldung bzgl. Schreibrechten.
Zeige mal die Ausgabe von "ls -la /usr/lib/Keepass/Plugins" (in einem Codeblock).
Also ich habe noch keine LED's, aber meine Vorstellung sollte sein, das mein kleiner Server PC (Ubuntu) etwas macht, und ich möchte mir einen Status anzeigen lassen.
...
Wie willst Du denn die LEDs ansteuern? Hat Dein "kleiner Server PC" GPIOs?
Schick den Status doch auf MQTT und lass das dann vom Raspi verarbeiten und anzeigen.
... mein neuer Raspberry Pi 5 stürzt oft ab, laggt ziemlich ...
Zeige doch mal (in einem Codeblock) die Kernel-Meldungen zu der betreffenden Zeit:
sudo journalctl -k --since="2026-01-01 00:00" --until="2026-01-01 12:00"
Datum und Zeit natürlich passend anpassen.
Wenn da nichts steht, dann "-k" weglassen und die anderen Meldungen untersuchen.
... und hat andere Probleme.
Verrätst Du welche?
Wetterstation ist schon ein Stichwort...
Interessiert Du Dich für Funk? Dann könnte RTL-SDR etwas für Dich sein. S. Wie Du mit eine RTL-SDR und einem RaspberryPI Amateurfunk hören kannst – Amateurfunk Itzehoe.
Damit kannst Du auch die Daten von gängigen Wetterstationen abfangen und z.B. mit WeeWX sammeln und darstellen.
Mit eigenen Sensoren anreichern geht auch.
Andere lesen mit RTL-SDR die Transpondersignale überfliegender Flugzeuge und und und ...
/usr/bin/ssh-copy-id: ERROR: failed to open ID file '/home/pi/.ssh/id_rsa.pub': No such file
Als Benutzer pi "mkdir -p /home/pi/.ssh; chmod 700 /home/pi/.ssh" und nochmal probieren.
Du schreibst oben von winscp und in #5 geht es um rsync.
Was denn nun?
3) Overhead
Nehmen wir wieder paperless. Dafür laufen 5 Container, die DB, Tika, Gotenberg, Redis und der Webserver. Sind diese Container jetzt 5 einzelne oder ein einziger? Das sind 5 eigene. Ich kann jeden unabhängig von den anderen starten stoppen, löschen ...
Das heißt, dass alleine für paperless 5 Trixie Kernels auf meinem Pi laufen? Auch wenn diese mit Load 0 vor sich hindümpeln, brauchen diese Resourcen. Wo der Crossover liegt, d.h. wo der Aufwand für n Container größer ist als eine einzige VM mit allen Diensten ist sicher schwer zu sagen. Oder läuft da doch nur ein Kernel?
Nein, Docker benutzt den Kernel des Wirtssystems. Die Container sind ausgesprochen schlank und enthalten nur das Nötigste (was i.W. sonst auch installiert werden würde).
Solange Du Dich nicht mit Docker beschäftigst und Dir wenigstens die Grundlagen aneignest, machen diese Diskussionen einfach keinen Sinn.
Mir gefällt nicht, wenn Leute Sachen schlechtreden, wenn sie noch nicht einmal deren Grundlagen kennen.
Irgendwie erinnert mich das an die gleichen leidigen Diskussionen um VEnv.
Liest Du überhaupt, was wir Dir hier schon geschrieben haben?
letzte Nachfrage(n):
Wenn die Container keinen Zugriff auf den Host haben, wie wird dann folgendes bewerkstelligt
- Lese/Schreibe-Zugriffe auf das Filesystem des Hosts
- Lesen und Schreiben in den TCP, UDP Stack, USB, Bluetooth
- Übergabe von Mausbewegungen und Tastendrücken vom Host zum Container
- Ändern des Mauszeigers von Standard auf Wait und umgekehrt durch Aktionen im Container.
- etc. pp.
Prinzipiell stoßen Aktionen im Container Reaktionen im Host an und umgekehrt. Die Schnittstelle zwischen Host und Container ist Docker. Ständig werden Daten zwischen allen dreien ausgetauscht. So ein Container läuft nicht frei hängend im Luft leeren Raum. Und im Übrigen ist es ein beliebter Zeitvertreib unter Hackern, zu versuchen aus vermeintlichen Sandboxen auszubrechen. Ja, das geht, da ist Docker nicht außen vor.
Für Docker gilt wie für alle Komponenten in der IT, Holzauge sei wachsam und uneingeschränktes Vertrauen ist nicht angebracht. Mehr will ich nicht gesagt haben.
Das sollte Docker-Grundwissen sein.
zu 1.
Erst einmal garnicht!
Wenn das gewollt ist, werden dazu "volumes"-Einträge gemacht. Das hatte ich Dir schon in #7 beschrieben.
zu 2.
Docker setzt eigene interne Netzwerk-Schnittstellen auf. Die sind vom Wirts-Netzwerk komplett getrennt.
Ist Kommunikation zwischen Docker-Container gewollt, wird das über "networks"-Direktiven eingerichtet.
In Deinem Fall nehme ich mal wieder die docker-compose.postgres.yml aus #7.
Über
wird da (ähnlich wie Dateien/Verzeichnisse über "volumes") gezielt nur der Port 8000 vom Docker-Container auf den Port 8000 des Netzwerks des Wirt-Systems abgebildet.
zu 3.
Garnicht!
Wenn Du damit meinst, daß Du über Port 8000 das GUI vom papereless-ngx bedienst, dann bist Du auf dem Webserver innerhalb des Containers.
zu 4.
Das habe ich nicht verstanden. Vermutlich geht es da um 3.
zu 5.
etc. pp. kann ich Dir nicht beantworten.
Da musst Du schon genauer fragen.
Es gibt offensichlich noch viel zu (er)klären!
Wird ein Container auf Windows erstellt und dann unter Linux gestartet, ...
Ja, da ist schon wieder die Falsch-Information über Docker. Docker-Container werden für das Ziel-System (und auch die Ziel-Architektur) erstellt.
Was Du schreibst, geht nicht.
Damit will ich es dann bewenden lassen.
ok.
Das sind (fast) alles Änderungen an paperless-ngx selbst und nicht am darunter liegenden System, offensichtlich Debian.
Sieh Dir den Dockerfile von paperless-ngx an. Das Image basiert auf docker.io/node:20-trixie-slim. Hier bekommst Du wieder einen Eindruck, wie gut das gepflegt wird.
node:trixie basiert wieder auf dem offiziellen Debian-13. Wie gut das gepflegt wird, siehst Du hier.
Die Aktualisierung unter Docker besteht darin, den Container herunterzufahren, zu löschen und wieder neu zu starten - vielleicht 5 Min.
Ich bin gespannt, wie Du da ohne Docker mithalten willst.
Aber, wie schon geschrieben, mache das so wie es Dir gefällt.
Ich möchte nur verhindern, dass hier ein falsches Bild von Docker verbreitet wird.
//Nachtrag:
Mit jedem Container holt man sich weitere potentielle Sicherheitslöcher ins System, die im OS selbst möglicherweise schon gefixt sind
Genau das passiert nicht, weil die Container keinen Zugriff auf den Wirt haben.
(Ja, das geht mit "privileged" oder "host". Dann ist das aber auch gewollt.)
Unter Admins haben Docker, Snap, Flatpak etc. nicht unbedingt viele Freunde.
Wo hast Du das denn her?
Diverse Foren und Mailinglisten.
Ja, es gibt viele Foren, Experten und Admins - was auch gut und richtig ist.
Ich behaupte, daß ein RZ-Betrieb ohne Docker, Podman, Kubernetes, usw. heute gar nicht mehr möglich ist. (Und ich kenne viele Admins!)
Unter Releases · paperless-ngx/paperless-ngx · GitHub kannst Du sehen, in welchem Takt die Community neue Fixes herausbringt.
Ich bin gespannt, wie Du da ohne Docker/Podman mithalten kannst.
Aber das soll auch jeder so handhaben, wie er sich damit wohl fühlt.
... weil libs z.B. mehrfach auf dem System vorhanden sind. In diesem Fall muss man ein Auge auf jeden verwendeten Container haben und nicht auf *ein einzelnes* System.
Das ist doch gerade die Grundidee von Docker, daß alle Libs in passenden Versionen im Container liegen und das ganze damit vom System entkoppelt ist.
Viele Docker-Images kommen direkt vom "Hersteller" und werden zeitnah gepflegt - auf jeden Fall sehr viel schneller als die Linux-Distributionen.
Unter Admins haben Docker, Snap, Flatpak etc. nicht unbedingt viele Freunde.
Wo hast Du das denn her?
Auch habe ich gelesen, dass die hochgeladenen Dokumente im Docker landen und von außen gar nicht zugänglich sind. Und dann wäre da noch die interne Datenbank. Da schon eine Datenbank auf meine Pi läuft und ich gerne auch ohne Docker Zugriff auf meine Dokumente hätte, läuft das auf diese sogenannte bare metal Installation hinaus.
Erstens mag ich es nicht, wenn für mich wichtige Daten bei einer Anwendung in einem magischen schwarzen Loch verschwinden.
Ich glaube, da fehlt einiges Grundverständnis von Docker.
Daten, die einen Container überleben sollen, werden mit "volumes" "persistent" auf das Dateisystem vom Docker-Wirt "ausgelagert".
Z.B. findet sich im docker-compose.postgres.yml:
Damit liegen die PostgreSQL-Dateien ausserhalb vom "magischen schwarzen Loch" Docker-Container im Unterverzeichnis pgdata.
Sie überleben damit eine Neuinstallation vom Container, z.B. beim Upgrate/Update des Containers.
Schon alles durchdacht gemacht!
Hallo!
Mit TigerVNC kann ich problemlos eine Sitzung zum Desktop GUI des Autologin User eröffnen.
Wenn ich versuche, eine Sitzung mit einem anderen Benutzer zu eröffnen, kommt:
Bei der Kommunikation mit dem Server trat in unerwarteter Fehler auf:
Authentication failure: Invalid username or password
Username und Password habe ich natürlich richtig eingegeben.
Habe ich da ein Verständnisproblem? Gibt es nur eine GUI-Sitzung und man kann keine weiteren aufmachen?
Der Display-Manager ist LightDM.
Das ist alles der Standard bei Trixie, oder?
Das sieht mir danach auch, als ob LibreElec beim "sauberen" Runterfahren noch Daten in Konfig-Dateien schreibt. Beim harten Steckerziehen funktioniert das nicht.
...
Schalte ich wie in den letzten vielen Jahren meinen Hauptschalter Steckerleiste auf aus und wieder an, nehme also alles vom Strom, ...
Das hat ein hohes Risiko für ein kaputtes Filesystem. Daher wird immer wieder davon abgeraten.