Posts by AlexIsTrying

    1und1 bietet mir da nur die Möglichkeit eine http oder eine frame Weiterleitung bei den Domain-Einstellungen zu machen.

    -> Ok, gerade nochmal nachgesehen! Unter dem Punkt DNS-Einstellungen kann ich für die Subdomain auch CNAME benutzten.

    Mögt ihr mich aufklären?
    Was ist das, was kann das, und wie stelle ich das ein? :D
    Automatisch zusammengefügt:
    Ich hab gerade einfach mal unter dem CNAME geheim.ddns.net eingetragen, und das funktioniert! :D

    Die http weiterleitung bringt mir jetzt noch was?

    Moin Leute, ich verzweifel gerade daran, mich via Domain auf meinen Pi zu verbinden.

    Folgender Aufbau:
    Raspberry Pi hat den Port 50001 für SSH freigegeben, im lokalen Netz auch absolut kein Problem.
    In der Fritzbox ist der Port 50001 auf den Pi durchgeschliffen. Verbinde ich mich mit putty über die öffentliche IP der Fritzbox und dem Port 50001 komme ich auch auf den Pi.
    Ich habe einen Account bei no-ip.com, damit ich mir die IP nicht jeden Tag wieder merken muss :D.
    Verbinde ich mich über die Domain "geheim.ddns.net" und meinen Port 50001 komme ich auch auf den Pi.


    Und jetzt die Problemsstelle:

    Ich habe eine Domain "alexistrying.de", weil ich halt nicht immer ddns und ggf. Ports eingeben möchte.
    Diese hat die Subdomain "pi.alexistrying.de" welche auf "http://geheim.ddns.net" weiterleitet. Wieso kann ich mich jetzt nicht auf meinen Pi verbinden?
    Was muss ich einstellen, damit ich mit SSH über http auf meinen Pi komme?

    "http://geheim.ddns.net:50001" habe ich auch schon probiert, aber auch das brachte mich nicht zum Erfolg.

    Hoffe ihr könnt mir helfen,
    Alex

    So, die "umschiffte" Variante bringt nicht nur Nachteile.

    Habe jetzt eine Bash Datei geschrieben, die im crontab jeden Tag um 02:00 Uhr ausgeführt wird, und mir meine HDD mit rsync auf den NAS sichert.
    Dort wird auch der mount Befehl ausgeführt. Hat den Vorteil, dass mein NAS nicht ständig vom Raspberry wieder aktiviert wird, weil er wissen möchte ob alle Mounts noch da sind ;)

    Für diejenigen, die wissen wollen, wie ich das jetzt gemacht habe:

    crontab:

    Code
    0 2 * * * /root/sync.sh >> /root/sync.log

    sync.sh:

    Damit kann dieses Thema geschlossen werden ;)

    Im rc.local steht folgendes drinne:

    Code
    sudo mount -t cifs //192.168.158.28/Backups /home/seafile/NAS/Backups -o user=Benutzer,passwd=geheim


    Für "Benutzer" und "geheim" sind natürlich die richtigen Daten eingegeben. Habe dies auch nochmal überprüft, ist alles richtig.

    Im fstab hab ich folgendes eingetragen:

    Code
    //192.168.158.28/Backups        /home/seafile/NAS/Backups       cifs username=Benutzer,passwd=geheim 0  0


    Auch hier habe ich "Benutzer" und "geheim" doppelt überprüft ;)

    Bei dem NAS handelt es sich um ein Drobo 5N mit Samba Freigabe

    Entschuldige für die späte Antwort, hatte viel zu tun.

    Vorab, /home/ ist nicht gleich home/, da stimme ich dir vollkommen zu, jedoch funktioniert der Befehl auch mit home/...
    Merkwürdig.

    Es handelt sich um eine Samba Freigabe durch Nutzer und Passwort Eingabe geschützt.


    Ich habe das Problem jetzt erst einmal umschifft, indem ich den Aufruf in der rc.local vornehme.
    Im fstab hab ich es einfach nicht hinbekommen. Da will er mir den NAS einfach nicht mounten.
    Oder hat einer von euch noch eine Idee?

    Ansonsten danke ich euch erstmal, da die Cloud jetzt steht. Sämtliche Daten werden auf der HDD gespeichert, die SD Karte habe ich per dd auf eine 2. Karte "kopiert" und kann jetzt ohne Probleme zwischen den beiden Karten hin und her wechseln.

    Letzte Aufgabe ist es jetzt nur noch, die Daten auf der HDD mit dem NAS per rsync zu sichern. So muss man im Notfall nur eine neue HDD anschließen, die Daten zurückkopieren, und alles steht wieder.

    Noch eine kurze Frage meigrafd, die mir gerade aufgekommen ist:
    Was mache ich in dieser Code-Zeile falsch?

    Ich habe versucht unter /etc/fstab den NAS direkt zu mounten

    Code
    //192.168.158.28/Backups        /home/seafile/NAS/Backups       cifs username=Benutzer,passwd=geheim 0  0

    Im Terminal funktioniert diese Zeile perfekt

    Code
    sudo mount -t cifs //192.168.158.28/Backups home/seafile/NAS/Backups -o user=Benutzer,passwd=geheim

    blkid gibt folgendes aus:

    Code
    pi@raspberrypi /root $ blkid
    /dev/mmcblk0p1: LABEL="RECOVERY" UUID="7B46-00F4" TYPE="vfat"
    /dev/mmcblk0p3: LABEL="SETTINGS" UUID="a9fecd38-7b67-4a2d-b523-d4106cf14238" TYPE="ext4"
    /dev/mmcblk0p5: SEC_TYPE="msdos" LABEL="boot" UUID="0359-6566" TYPE="vfat"
    /dev/mmcblk0p6: LABEL="root" UUID="18812534-1b69-4fd1-8668-896cfeae61af" TYPE="ext4"

    und es scheint, als würde es jetzt funktioniert haben...

    [71628.057756] usb 1-1.3: new high-speed USB device number 5 using dwc_otg
    [71628.200113] usb 1-1.3: New USB device found, idVendor=174c, idProduct=55aa
    [71628.200154] usb 1-1.3: New USB device strings: Mfr=2, Product=3, SerialNumber=1
    [71628.200175] usb 1-1.3: Product: USB 3.0 Device
    [71628.200193] usb 1-1.3: Manufacturer: Intenso
    [71628.200211] usb 1-1.3: SerialNumber: 31700000000000000D0C
    [71628.209792] usb-storage 1-1.3:1.0: USB Mass Storage device detected
    [71628.214718] usb-storage 1-1.3:1.0: Quirks match for vid 174c pid 55aa: 400000
    [71628.218724] scsi host0: usb-storage 1-1.3:1.0
    [71629.218994] scsi 0:0:0:0: Direct-Access Intenso USB 3.0 Device 0 PQ: 0 ANSI: 6
    [71629.222692] sd 0:0:0:0: [sda] 312581808 512-byte logical blocks: (160 GB/149 GiB)
    [71629.223728] sd 0:0:0:0: [sda] Write Protect is off
    [71629.223775] sd 0:0:0:0: [sda] Mode Sense: 43 00 00 00
    [71629.224756] sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
    [71629.287232] sd 0:0:0:0: Attached scsi generic sg0 type 0
    [71632.403255] sda: sda1
    [71632.409114] sd 0:0:0:0: [sda] Attached SCSI disk
    pi@raspberrypi ~ $


    Den NTFS Treiber hab ich eingentlich schon mit:
    sudo apt-get -y install ntfs-3g hfsutils hfsprogs exfat-fuse
    installiert?!

    *Sarkasmus* NEIN? Eine 3,5" Festplatte braucht eine externe Stromversorgung? :P
    Spaß beiseite, diese Antwort habe ich heute gefühlt in jedem Thread gelesen, der sich mit dieser Thematik beschäftigt, also verzeich mir...

    Muss ich die maximale Strombegrenzung auch bei einer extern versorgten Festplatte ativieren?

    Da ich neu in der Thematik Linux bin, was sagt mir dmesg? Wonach soll ich da suchen? :rolleyes:

    Du hast vollkommen recht. Geplant war auf der SD nur das Betriebssystem zu haben und alle sich ändernde Daten wie die Daten der Cloud, die SQL Datenbank, etc. auf eine 160 GB Seagate NAS HDD auszulagern.

    Dann sollte die SD Karte einmal "richtig" geklont werden, sodass man hier 2 SD Karten liegen hat, eine auf der das System läuft, und eine als Ersatz.
    Gesichert werden müsste dann nur die HDD, falls diese mal ausfällt, und da würde ein rsync mit meinem NAS vollkommen ausreichen.

    Und da kam das große Problem auf. Ich war/bin zu dumm die HDD zu mounten. im Grunde kann das ja nicht so schwer sein, es ist eine NTFS formatierte Festplatte in einem gekauften 3,5" USB 3.0 Gehäuse.

    Nur ließ sich die HDD nicht mittels blkid finden. Ich hab sie angesteckt und nichts passierte. Ich hab sie an einem anderen Port angesteckt, auch da nichts. Dann hab ich nen 8 GB FAT32 USB Stick genommen, wurde sofort unter blkid aufgelistet.
    Die Festplatte läuft unter Windows ohne Probleme, an USB 3.0 wie auch an USB 2.0...

    Wenn du mir bei diesem Problem helfen könntest, würde das ursprüngliche Problem gleich halb so groß sein :D

    Nach kurzer Durchsicht muss ich sagen, dass klingt erstmal nicht schlecht!

    Mal ein paar kurze Fragen dazu...

    1. Kann ich mit dem rsync Backup die gesamte SD Karte inkl. aller Partionen synchronisieren?

    2. Habe ich das richtig verstanden, dass mir rsync am Ende eine Ordnerstruktur mit allen Daten erzeugt?

    3. Wird bei dd, ddz, tar und tgz immer eine komplett neues Image erstellt, oder kann man auch das bereits erstellte Image mit dem aktuellen Systemzustand vergleichen?

    4. Muss man zwangsläufig die aktiven Tasks beenden?

    5. Was würde passieren, wenn man während des Backups eine Datei über die Cloud hinzufügen würde?

    und dazu dann halt die Frage,
    6. Wie schaffe ich es, dass mein Pi das backup startet, und die seafile-cloud dabei immernoch erreichbar ist?

    Oder wie machen die "Großen" das? Man müsste ja theoretisch 2 server parallel laufen lassen, und wenn der eine eine Backup macht, ist der andere immernoch erreichbar.

    1 MegaByte ;)
    danke sei meinem Upload von 10.00 kbit :D

    Deine Lösung hatte ich auch schon im Auge, jedoch soll der Pi das ohne, ich nenne es mal menschliches Eingreifen, erledigen können.
    Sonst wäre das ja am ende wie eine 1zu1 Kopie mit dd oder dcfldd...

    Was ich bräuchte wäre eine Lösung, die das Image auf meinem NAS mit der SD Karte auf meinem Pi vergleicht und nur die Änderungen kopiert.

    Moin Leute,
    ich habe jetzt schon einiges probiert, aber das gewünschte Ergebnis ist noch nicht zum greifen nahe.

    Ein kurzer Umriss, was ich habe, und was ich vorhabe:

    Derzeitig läuft auf meinem Pi B eine Seafile-Cloud Version 4.2.2. Diese ist über das Internet erreichbar und auch sonst sehr performant. (Up- und Download liegen bei ca. 1MB/s)
    Einzig die Weboberfläche ist ein wenig träge, aber der PI 2 ist schon bestellt, um auszuprobieren, ob diese dann schneller läuft.


    Jetzt würde ich gerne (täglich oder wöchentlich ist erstmal egal) ein Backup der gesamten 64 GB SD Karte machen. Mit dd und dcfldd habe ich das auch schon hinbekommen, jedoch ist die Übertragung auf meinen NAS mit 4,5MB/s doch etwas zu langsam um diese Lösung als sinnvoll anzusehen. 4 Stunden für ein Backup ist einfach zu lange! Der NAS ist dabei im übrigen nicht das Nadelöhr, über meinen PC hab ich Übertragungsgeschwindigkeiten von 60 MB/s.

    Daher jetzt die Frage, gibt es eine Möglichkeit ein Backup zwischen einem Image und der PI SD Karte zu machen? Somit könnte man einmal ein Image erstellen, und anschließend werden nur noch geänderte Dateien/Sektoren, wie auch immer, übertragen.
    Am Ende sollte aber ein Image mit allen Partitionen vorhanden sein, um im Fall der Fälle nur das Image auf eine SD Karte schreiben zu müssen, und dann weiterarbeiten zu können.

    Hoffe ihr könnt mir weiterhelfen,
    Alex