NUC

Heute ist Stammtischzeit:
Jeden Donnerstag 20:30 Uhr hier im Chat.
Wer Lust hat, kann sich gerne beteiligen. ;)
  • Ich frage deshalb, weil normale GBit Switche keine Lüfter brauchen.

    Die Modelle TL-SG32xx sind managebare Switche, die haben einen Lüfter, der ständig läuft.

    Aufgrund der Funktionsvielfalt ist die Leistungsaufnahme eben auch höher.

    Ich habe hier den TL-SG3216, der nimmt locker so um die 10-16W, je nachdem, wieviel Ports verwendet werden.

    ==> Der Switch wird vermutlich dein Hauptverbraucher da unten im Keller sein...

    Wenn du diese Funktionalität nicht nutzt, wäre ein simpler 16-Port GB-Switch eine weiter Möglichkeit, Strom zu sparen...

    nur mal so angemerkt...

  • Die Modelle TL-SG32xx sind managebare Switche, die haben einen Lüfter, der ständig läuft.

    Aufgrund der Funktionsvielfalt ist die Leistungsaufnahme eben auch höher.


    Ich habe hier den TL-SG3216, der nimmt locker so um die 10-16W, je nachdem, wieviel Ports verwendet werden.

    ==> Der Switch wird vermutlich dein Hauptverbraucher da unten im Keller sein...

    Tja, ich habe den damals gekauft ohne wirklich Ahnung zu haben und ohne das mir die Bedeutung "managed" bewusst gewesen ist. Ich habe gerade mal nachgesehen, was es für einer ist....: TL SG1016. Und der Lüfter ist für den Wohnbereich mittlerweile unakzeptierbar laut. Aber laut Datenblatt ist er nicht "managed". Interessant ist, dass es den immer noch gibt. Lohnt es sich, den in nächster auszumustern? Oder besser einfach laufen lassen?

    BTW, ich bin jetzt fertig mit dem NUC. Es läuft jetzt ein Basic-Debian Stretch drauf, ohne jegliche grafische Unterstützung. Als Ersatz für den zweiten bisher permanent laufenden JDL2-RPi habe ich eine headless laufende "Virtualbox" auf der SSD installiert, ebenfalls nur mit einem Basic-Debian vom Installer und ebenfalls ohne GUI. Von Hand habe ich dann in der VM den Xserver, Openbox, xterm und openjdk nachinstalliert. Gestartet wird die VM auf dem Server via SSH, ich wollte keinen Automatismus, weil die VM ohne aktive Jobs nicht laufen soll. Erreichbar ist die VM also via SSH im Bridgemode über eine eigene IP, was sicherstellt, dass das nicht mit den "ziemlich scharf" eingestellten Paketfilter auf dem Server (NUC) kollidiert. Im Bridgemode geht der Pakete-Traffic tatsächlich vor dem Paketfilter des NUC zur VM. Und die VM ist natürlich auch via RDT mit xfreerdp von meinem PC (Client) aus erreichbar.

    Warum ich das jetzt schreibe...?... wegen einer interessanten Erkenntnis... die VM mit JDL verbraucht im Ruhemode ~5 Watt ... also wenn auf den Scheduler gewartet wird oder wenn die zuvor gelaufenen Jobs durch sind. Mit aktiven Jobs sieht das natürlich wieder ganz anders aus... aber das ist ja bei dem Speed eher immer nur kurzweilig der Fall. Also wirklich nix ist umsonst... *fg*... ich denke, das wird unterm Strich also nicht wirklich schlechter sein, als der zuvor mitlaufende zweite "extra" Pi.... nur lässt es sich jetzt bedienen, als liefe es direkt auf meinem PC... da kommt Freude auf. Da war der zweite Pi doch ein wenig träger.

    2 Mal editiert, zuletzt von WinterUnit16246 (3. November 2018 um 20:21)

  • Lohnt es sich, den in nächster auszumustern? Oder besser einfach laufen lassen?

    Wenn das Gerät ansonsten deinen Anforderungen genügt und funktioniert, nein:

    Im Zweifelsfall mal mit einem Verbrauchsmessgerät den wirklichen Verbrauch messen und abschätzen, wie lange man den noch laufen lassen kann, bevor die Stromkosten die Kosten eines neuen Switches übersteigen bzw. wann sich dieser amortisiert.

    Als Ersatz für den zweiten bisher permanent laufenden JDL2-RPi habe ich eine headless laufende "Virtualbox" auf der SSD installiert,

    Warum VMs und keine ressourcenschonenden Docker-Container für sowas?

    Wenn du nichts zu sagen hast, sag einfach nichts.

    2 Mal editiert, zuletzt von llutz (3. November 2018 um 20:51)

  • Lohnt es sich, den in nächster auszumustern? Oder besser einfach laufen lassen?

    Nein, lohnt nicht, laufen lassen, das Lüftergeräusch stört ja nicht und wenn der Lüfter ausfällt, kann man den wechseln...

    Die ggf. eintretende Energieeinsparung mit einem aktuellen Switch rechnet sich nicht ggü. dem Neuanschaffungspreis.

  • Danke für die Einschätzung mit dem alten TPL... ich lass ihn dann mal laufen, bis er den Weg aller Elektronik geht. :thumbup:

    Warum VMs und keine ressourcenschonenden Docker-Container für sowas?

    Ich habe lange drüber nachgedacht.... tagelang .... und viel drüber gelesen... und mich letztlich aus persönlichen Gründen dagegen entschieden.... Gründe, die nicht den Anspruch erfüllen wollen, einer wirklich-fachlichen Gegenüberstellung standhalten zu müssen/wollen (siehe Pkt. 5).

    1. Docker sind auch nur chroot-Umgebungen, also eine Virtualisierung ohne echte Virtualisierung zu sein. Und Docker-Container sind im Vergleich zu echten VMs ähnlich einzuschätzen, wie VMs zu dedizierter physischer Hardware.... was ich für meine Ansprüche als Nachteil betrachte.
    2. ich habe Virtualbox ganz gut im Griff... soll heissen, minimaler Aufwand für mich, maximales Ergebnis
    3. ich kann die VMs mit einem Debian nach meinen Anforderungen bauen, also eben genau so, dass sie effektiv und punktgenau ausgerichtet sind und deshalb auch ressourcenschonend sind
    4. Bevor ich eigene Docker-Container erstellen kann, also nicht auf fertige Scripte und Images von Fremden zurückgreifen muss, habe ich vermutlich hohen Lernaufwand, ohne am Ende sicher zu sein, dass ich den Container so absichern kann,wie mir das mit der VM möglich ist.
    5. mit der richtigen VM habe ich ein rundrum gutes Gefühl, mit einer Chroot-Umgebung hätte ich die mangels Sachkenntnis nicht.

    :conf:

    1. Docker sind auch nur chroot-Umgebungen, also eine Virtualisierung ohne echte Virtualisierung zu sein. Und Docker-Container sind im Vergleich zu echten VMs ähnlich einzuschätzen, wie VMs zu dedizierter physischer Hardware.... was ich für meine Ansprüche als Nachteil betrachte.

    Nein, so einfach ist das nicht :)

    Docker basiert auf LXC und dessen "userspace"-Mechanismus.

    Wenn du mit deiner VBox-Virtualisierung glücklich bist, dann nimm sie und gut. :)

    Mich "ärgert" immer die Zeit zum Aufsetzen und Aktuellhaltung einer VM, Datenbackups eingeschlossen (aber da muss man sich bei D-Container auch drum kümmern).

    Ja, Docker benötigt ein bisschen Einarbeitung, wenn man sich "handgestrickte" Images/Container bauen will.

    Ich fummle da gerade an so etwas herum (Icinga-Docker-Image Umbau von debian auf alpine-Basis), aber eigentlich auch nur zum Lernen.

    Es gibt für extrem viele Applikationen fertige und stabile Images, die meisten Quellen geben auch die Bauvorschrift an (Dockerfile), so dass man sehen kann, was da passiert.

    Für mich entscheidend ist etwas anderes:

    Ich kann mit den Docker-Containern problemlos 5-10 Dienste (vermutlich noch mehr) parallel auf einer VM isoliert voneinander betreiben. Ggf. auch längere Zeit ohne Updates, da ich die Interface der Container definiere und diese ggf. über einen reverseProxy präsentiere.

    Und: Ist ein Dienst überflüssig geworden, ist der innerhalb von wenigen Sekunden restlos von der Basis-VM entfernt (Container + Image löschen).

    Aber ich will nicht missionieren, mach weiter so, wie du dich dabei am wohlsten fühlst und alles ist gut :) :lol::thumbup:

  • Warum VMs und keine ressourcenschonenden Docker-Container für sowas?

    Es gibt diverse Unterschiede zwischen Virtualisierungs SW a la VMware, Virtualbox oder HyperV und Docker.

    VMs haben diverse Zusatzfunktionalitäten die Docker nicht hat. Docker spielt seine resourceschonenden Eigenschaften aus wenn viele Container laufen. Viele VMs benoetigen immer wieder das gesamte OS - nicht so Docker. Deshalb ist z.B. Docker die Basis fuer Kube.

    @ThomasL Bleib bei VB. Ich wuerde zwar VMware nehmen aber das ist Geschmacksache :) Wenn Du mehr als 10 VMs mit identischem OS laufen laesst solltest Du vielleicht langsam ueber Dockerization nachdenken. Dann sparst Du wirklich Resources.

  • Nein, so einfach ist das nicht :)

    Docker basiert auf LXC und dessen "userspace"-Mechanismus.

    Doch eigentlich isses einfach. Im Grundsatz ist es nichts anderes als eine Chroot-Umgebung, die über Namespace und CGroups dafür sorgt, dass die Prozesse vom restlichen System isoliert laufen. Aber dennoch laufen alle Prozesse im eigentlichen System. Das ist bei einer VM anders. Und ja, ich habs natürlich auch gelesen, ganz ursprünglich geht es wohl auf LXC zurück, aber heute ist Docker mittlerweile 'mehr' und hat jetzt eigene API's.

    Ich will das auch gar nicht abwerten oder akribisch nach Nachteilen suchen... ganz im Gegentgeil, wenn ich mehrere solcherart relevanten Jobs hätte, würde ich wirklich darüber nachdenken. Aber ich habe nicht mehrere solcher Jobs. es werden dauerhaft nur diese 2 sein.... einmal der JDL und einmal der FTP-Server für meine Webcams. Ich scheue deswegen auch den Lern-Aufwand und glaube, das bei meinen Anforderungen Aufwand und Nutzen nicht in optimalen Verhältnis bestehen.... zumal ich Virtualbox quasi zum Nulltarif bekomme ... :cool: ... ich kenns seit langem. Deswegen sehe ich es wie framp.

  • Äehh. ich wollte mit meiner Frage niemanden bekehren, nichts abwerten, nichts in Frage stellen o.ä.

    Mich interessierte lediglich, warum @ThomasL sich für diese Lösung entschieden hat. Reine Neugierde - keine Wertung.

    framp mir sind die Unterschiede durchaus bewusst.

    Ich empfinde nur den Overhead durch das Laufen lassen diverser (derzeit 2) kompletter OS in Virtualbox-VMs für diese Tasks als nicht wirklich ressourcenschonend. ymmv

    Wenn du nichts zu sagen hast, sag einfach nichts.

  • llutz

    Äehh. ich wollte mit meiner Frage niemanden bekehren, nichts abwerten, nichts in Frage stellen o.ä.

    Hatte ich auch so nicht verstanden :)

    Ich empfinde nur den Overhead durch das Laufen lassen diverser (derzeit 2) kompletter OS in Virtualbox-VMs für diese Tasks als nicht wirklich ressourcenschonend. ymmv

    VirtualisierungsSW managed i.d.R. CPU & Memory sehr effizient. D.h. bei ein paar VMs ist es primaer der benoetigte Diskspace der verglichen mit Docker Resourcen verschlingt. @ThomasL hat ja auch noch andere Gruende genannt warum er VB nimmt (kennt er, liebt er, Docker muss er sich erst einarbeiten).

  • Äehh. ich wollte mit meiner Frage niemanden bekehren, nichts abwerten, nichts in Frage stellen o.ä.

    Hatte ich ebenfalls nicht so verstanden... :) ... ganz im Gegenteil... ich empfinde das trotz unterschiedlicher Standpunkt eals total entspannten Meinungsaustausch.

    Ich empfinde nur den Overhead durch das Laufen lassen diverser (derzeit 2) kompletter OS in Virtualbox-VMs für diese Tasks als nicht wirklich ressourcenschonend.

    Tja... was ist Overhead? Ich denke, das ist in diesem Fall relativ. Framp hats mit dem Hinweis auf Diskspace schon gesagt, die beiden VMs verbrauchen natürlich mehr Platz als ein Container, jede etwa 2 GB auf der SSD. Vor dem Hintergrund, dass auf der SSD alles zusammen (einschließlich dem NUC-Debian) in Summe ~7GB belegt ist und von der 120-GB-Partition auf der SSD somit 113 GB ungenutzt sind, muss ich mir über Ressourcen-Knappheit bis auf weiteres keine Gedanken machen.

    Wenn beide VM's laufen (etwa 1 Minute nach Start) dümpeln alle 4 Kerne des NUC zwischen 2% und 6% fluktuierend vor sich hin. Der htop-Einzelwert liegt bei ~6% CPU-Last. Also auch hier nichts, was mir Sorgen bereiten müsste.

    Tja, und was den Aufwand der Inbetriebnahme meiner VM angeht.... ich habs gerade mal bei der FTP-VM 'beobachtet'. Der Web-Installer von Debian 9.5 war in 15 Minuten fertig.... wieder ein Setup ohne GUI. War heute flotter, denn heute lief der Debian-HTTP-Spiegel anscheinend störungsfrei (vorgestern hat er fürs gleiche bei der ersten VM über 'ne Stunde gebraucht). Eine 3/4-Stunde später hatte ich ein fertig eingestelltes Debian eingerichtet, mit Dienste installieren, entfernen und einrichten, Netzwerk mit networkd und resolved und timesyncd einrichten, IPv6 einrichten, restriktiven Paketfilter via IPtables einrichten, upgraden und meine Basis-Apps installieren ... alles zusammen in ungefähr 'ner Stunde.

    Weniger Ressourcenverschwendend (also auch meine Zeit) ist mir mit meinen Kenntnissen nicht möglich. :conf:

  • Egal wie effizient moderne Hypervisoren CPU- und Memorylast steuern, erzeugen die eigentlich (hier vom "Wunschprozess" jd2/ftpd) gar nicht benötigten Prozesse eines kompletten OS zusätzliche Last, weil auch sie CPU-Zyklen benötigen. Da sehe ich die evtl. "Ressourcenverschwendung", wenn man sich vorher schon Gedanken über 1-2W Energieeinsparung mehr oder weniger macht.

    Diskspace spielt heute im Freizeitbereich keine große Rolle mehr, Manpower ist da ohnehin nicht aufrechenbar - Hobby halt.

    </erbsenzaehlmode>

    Wenn du nichts zu sagen hast, sag einfach nichts.

  • ...gar nicht benötigten Prozesse eines kompletten OS zusätzliche Last, weil auch sie CPU-Zyklen benötigen. Da sehe ich die evtl. "Ressourcenverschwendung", wenn man sich vorher schon Gedanken über 1-2W Energieeinsparung mehr oder weniger macht.

    Auch wenn ich die 1-2 W möglicherweise als verspottend gedacht interpretiere, zieh ich mir den Schuh trotzdem nicht an. Es geht nicht allein um 1-2 Watt momentaner Energieeinsparung eines speziellen Rechners, sondern um die Aufmerksamkeit bei der Aufsummierung vieler 1-2 Watt-Mehrverbraucher im Laufe eines Jahres. Ich bin durch meinen alten Windows-7-Server gebranntes Kind... und heute aufmerksames Kind ... denn diese alte Möhre hatte einen Durchschnittsverbrauch von regelmäßig 100-120 Watt. Aufgrund einer vermutlich irgendwo im System bestehenden Schwäche (oder Fehler) hat der sich aber auch schon mal bei permanent 170 Watt 'festgefressen', was sich nur durch einen Kaltstart beheben ließ. Die Kosten haben mich damals genauso wenig interessiert, wie sie mich heute interessieren würden. Bei mir hat sich mit dem Älterwerden nur das Denken an sich geändert. Bei mir hört die Perspektive eben jetzt nicht mehr an der Feststellung auf, dass das Schnitzel aus der Truhe kommt und der Strom aus der Steckdose. Diese Ignoranz habe ich irgendwann auf meinem Weg verloren... und bedauerlicherweise macht es das Leben nicht einfacher. Jedenfalls nicht wegen der Energiekosten habe ich den Wechsel von dem einen Extrem zum anderen Extrem (dem Niedrig-Strom-RPi) vollzogen, sondern wegen dem Energieverbrauch. Und ja, ich habe lustigerweise beim NUC sogar darüber nachgedacht, dass ein niedrig getakteter 4-Kerner stromsparender ist, als ein leistungsmäßig gleichwertiger mit 2 höher getakteten Kernen und das dann auch in meine Auswahl einbezogen.

    Was die Ressourcenverschwendung angeht... *hmmm*.. ich halte eine solch willkürlich selektive Fokussierung auf einen einzelnen pauschalen Aspekt für unzureichend. Verschwendung von CPU-Ressourcen sind es meiner Meinung nach erst dann, wenn durch die Verschwendung andere Prozesse aufgrund von "Mangelerscheinungen verhungern" und deshalb ihren Job nicht richtig ausüben können. Genau das Problem hatte ich bei meinem PI und habe dem mit PI2 und PI3 entgegengewirkt.... was in Summe wiederum unwirtschaftlich war. Wenn ich aber mit 2 VMs gerade mal 6% CPU-Last verursache ... und das vor dem Hintergrund, dass die CPU im sonstigen Jahresmittel sowieso nie zu mehr als 1-2% ausgelastet ist, dann hat diese Verschwendung faktisch Null Auswirkung. Außerdem scheint es mir sehr gewagt, wegen jährlicher Mehrkosten von 1,31 $ durch diese 6% von Ressourcenverschwendung zu sprechen. Man kann diese Werte zur CPU bei CPU-Benchmark eingeben und das Ergebnis ablesen.

    Bei meiner Entscheidung versuche ich eben nicht fokusmäßig auf einen einzelnen Aspekt zu schauen, sondern versuche mich über ein Gesamtbild aller Aspekte einer Entscheidung anzunähern. Ein Faktor ist eben auch die Abwägung bei Verschwendung von CPU-Zeit und Verschwendung von (zu kurzer) Lebenszeit. Und speziell bei dieser Entscheidung hatte ich keinen Zweifel.

    jm2c

  • Hi Zentris,

    Ich nur die Anforderungen, dass ein File Server drauf laufen soll (openmsdiavault oder freenas). Auf dessen wird dann ein Plex DLNA Server drauf laufen. Mehr eigentlich nicht. Dafür soll es eben ausreichend schnell sein, eventuell Boot eines Raspberrys per LAN.

    Wenn's brennt 112 hilft weiter!

  • Ich nur die Anforderungen, dass ein File Server drauf laufen soll (openmsdiavault oder freenas). Auf dessen wird dann ein Plex DLNA Server drauf laufen. Mehr eigentlich nicht. Dafür soll es eben ausreichend schnell sein, eventuell Boot eines Raspberrys per LAN.

    Ich denke, dass er dafür reicht.... wobei ich kein openmedaivault verwenden würde, sondern lieber die benötigten Dienste selber installieren würde. Ich betrachte das ganz ähnlich wie NOOBS... deckt alles ab, aber nur schwer individualisierbar ... und macht möglicherweise zu viel mit zu viel unnötigen Diesten, die vielleicht gar nicht gebraucht werden.. Wenn ich mir die Liste der Funktionen ansehen, dann drängt sich mir der Gedanke auf, das das mittlerweile ne fette alte Lady geworden ist, die zu schwer zum leichtfüssigen Tanzen geworden ist. :fies: Aber ich bin da ja kein Maßstab.... sondern eher der etwas merkwürdige Purist... ich würde ja auch nie ein fertiges Linux-Betriebssystem einsetzen, sondern immer nur meine Custom-Desktops.

    Und zu dem ASUS... ich habe den mal mit meiner ersten Wahl verglichen, die durchaus auch preislich zueinander passt.... ich persönlich würde anstatt des ASUS liebe den Intel-NUC Celeron nehmen, zumindest bietet der einen Einbaurahmen für eine normale SSD. Für den ASUS hätte ich eine neue SSD im M2-Format kaufen müssen. Und der Celeron hat laut Benchmark auch bessere Werte.

    Aber eigentlich ist es so, dass man nur schwerlich einen Rat geben kann.... ich denke, die Entscheidung liegt letzlich bei Dir... und dann natürlich auch die Konsequenzen... so oder so... 8)

  • Auch wenn ich die 1-2 W möglicherweise als verspottend gedacht interpretiere

    Du interpretierst falsch, das war überhaupt nicht spöttisch gemeint. Denn nur im Rahmen eines solch geringen Stromverbrauchs spielen o.g Dinge eine Rolle. Der Overhead relativiert sich mit dem Gesamtverbrauch des Systems.

    Was die Ressourcenverschwendung angeht... *hmmm*.. ich halte eine solch willkürlich selektive Fokussierung auf einen einzelnen pauschalen Aspekt für unzureichend. Verschwendung von CPU-Ressourcen sind es meiner Meinung nach erst dann, wenn durch die Verschwendung andere Prozesse aufgrund von "Mangelerscheinungen verhungern"

    Wenn andere Prozesse darunter leiden, wäre es keine Ressourcenverschwendung sondern falsch dimensionierte Hardware.

    Wenn du nichts zu sagen hast, sag einfach nichts.

  • Bzgl. openmediavault kenne ich mich nicht aus:

    Kein Plan, ob die ggf. eine Formatumrechnung "on the fly" machen oder ob die Mediadaten ausgeliefert werden wie sie vorliegen...

    Ich würde ebenfalls für einen NUC plädieren, aber aus einem anderen Grund:

    Die NUCs sind "eingefahren", da gibt es viele, die solche Geräte haben und ggf. Ratschläge und Hilfe geben können...

    Beim ASUS-Gerät ist man ggf. allein (So ergeht es mir derzeit mit einem "Cube" aus dem Jahr 2016... - wobei dieser Vergleich hinkt).

    Von diesen "Mini-PCs" gibt es "hunderte" Modelle...

    .m2 - SSDs empfinde ich inzwischen eher als Vorteil als als Nachteil:

    Diese Bauform ist sehr kompakt, hat in meinen Augen eine ausreichend Speicherdichte (1TB käuflich) und kann überall eingesetzt werden:

    (Ich hatte mal eine 500GB - .m2-SSD als portablen USB-3-Stick (per Adaptergehäuse) => Sehr schnell (wesentlich schneller als alle USB3-Sticks, die ich habe...), recht klein.)

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!