Du bist nicht eingeloggt! Möglicherweise kannst du deswegen nicht alles sehen.
  (Noch kein mods.de-Account? / Passwort vergessen?)
Zur Übersichtsseite
Hallo anonymer User.
Bitte logge dich ein
oder registriere dich!
 Moderiert von: mercury, Schalentier


 Thema: Der Linux-Thread 100 != 0x24 ( Ein Kernelupgrade später... )
« erste « vorherige 1 ... 182 183 184 185 [186] 187 188 189 190 ... 216 nächste » letzte »
erste ungelesene Seite | letzter Beitrag 
[KdM]MrDeath

mrdeath2
jo, ala mach nen dir in das du einzelne shell executables reinpackst du den nen jeweiligen status checken und lass das mir run-parts laufen.
15.03.2021 21:35:43  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
hoschi

hoschi
Danke an Rats. Ich teile deinen Eindruck, das Diagramm ist überladen. Da ich sicher nicht kompetent genug bin ein neues Diagramm zu machen, werde ich mal sehen ob ich die Fehler korrigeren kann. Ich frage aber auf der mm-list nach, die können mir dann auf die Finger hauen - es soll ja besser werden, nicht schlechter.



Monitoring&Alerting:
Ich habe mal ein einfache Monitoringserver gefunden und wohl den Link nicht gespeichert. Falls ihr da etwas habt, was selbst per HTTP oder Shellscripts die Informationen sammelt wäre das nett.

Cabot war es nicht.
Optionaler SMS Versand wäre wirklich fein.
15.03.2021 22:17:34  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
hoschi

hoschi
Hey! Das wollte ich doch machen Wütend

// edit
Wenigstens Unterhaltung?


Nächste Woche ist dann wieder was anderes dran. Mit Logo, aber dann für Linux fröhlich
Wobei hier eher die Begleitumstände für Irritationen sorgen. Die Schlussfolgerung des Admins die Verantwortung komplett an Microsoft zu deligieren ist auch lustig.
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von hoschi am 16.03.2021 17:09]
16.03.2021 10:44:17  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Oli

AUP Oli 21.12.2018
 
Zitat von [KdM]MrDeath

jo, ala mach nen dir in das du einzelne shell executables reinpackst du den nen jeweiligen status checken und lass das mir run-parts laufen.


Prometheus und alertmanager und pushover funktioniert gut.
17.03.2021 19:16:29  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
[KdM]MrDeath

mrdeath2
geb ich dir recht, das hört sich nach ner nicen toolchain an.
der initiale aufwand dafür ist aber halt vorhanden und die pflege bedeutet mehr als nur "eneue scripte dafür schreiben".

wie sicherst du prometheus so ab?
17.03.2021 19:36:54  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Oli

AUP Oli 21.12.2018
Wieso pflege? Set up and forget.

Das Monitoring System selbst auch nochmal absichern kommt dann, wenn es das erste mal ausgesetzt hat. verschmitzt lachen
17.03.2021 19:43:47  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
[KdM]MrDeath

mrdeath2
ich mein nicht absichern safety wise sondern security wise Augenzwinkern
17.03.2021 20:19:58  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Oli

AUP Oli 21.12.2018
Der Prometheus spricht mit der mailcow API (http, token) und pushed per http an pushover. Da ist außer ssh gar kein Port offen.
17.03.2021 20:22:50  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
hoschi

hoschi
Archlinux hat GNOME 40 in die stabilen Repositories verschoben, mit Ausnahme der gnome-shell selbst. Zusätzlich fehlt noch das C++ Interface gtkmm4 (hier im AUR). Wie es bei den anderen Language-Bindings aussieht weiß ich nicht.

Das scheint tatsächlich zur kompletten Umgebung kompatibel zu sein, offenbar funktioniert die gnome-shell-3.38 wunderbar mit der neuen Umgebung. Ist gut so. Aber unintuitiv und unerwartet. Zusätzlich dürften die Maintainer bei Archlinux wohl die meiste Last bei der Adaption tragen, Fedora hat GNOME 40 noch nicht in die kommende Version aufgenommen. Würde mich interessieren, wieso der Maintainer die gnome-shell zurück hält und alles andere freigegeben hat.

// edit
Mein Fehler. Fedora stellt bereits um. Sind nur noch nicht alle Pakete abgearbeitet.
[Dieser Beitrag wurde 3 mal editiert; zum letzten Mal von hoschi am 29.03.2021 12:12]
29.03.2021 11:32:44  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
statixx

AUP statixx 14.11.2023
 
Zitat von hoschi

Fedora hat GNOME 40 noch nicht in die kommende Version aufgenommen.


Oo

Ist doch drin in 34?
29.03.2021 11:34:57  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
hoschi

hoschi
Sicherlich. Ist mein Fehler, ich habe nur gnome-terminal im Blick wegen den Patches für die Hintergrundtransparenz. Bei Nautilus und gnome-shell haben sie schon umgestellt.


Die letzte Meldungen besagen, das Ubuntu zunächst bei GNOME 3.38 verbleiben wird um später auf 40 wechseln. Ist wenig verwunderlich, weil Ubuntu viel Eigenbau integriert und stur mit fixen Terminen arbeitet. Fedora hat kein Problem damit ein Release zu verschieben, wenn es erforderlich* ist.
Wobei Canonical jetzt auch noch mit Flutter kokettiert. Ubuntu hat zuletzt wieder erhebliche Arbeit in GNOME und Gtk gesteckt, vor allem bei der Leistung. Das war gut für alle. Flutter gibt es ja schon länger und Google verfolgt damit seine Interessen. Liest sich sich als ob man da Electron gerne verdrängen würde. Google sollte damit durchaus Erfolg bei Entwicklern haben - die über mehrere Systeme hinweg Android, Linux, Windows, ChromeOS und iOS bedienen müssen. Passt dann auch zu Snap auf der Seite von Ubuntu.
Canonical hat dagegen eine Historie an gescheiterten Projekten oder Gegenprojekten. Den Installer wieder neu zu schreiben macht kaum Sinn, außer als Demo. Die Reaktion in den Foren bei Phoronix war dann auch eher negativ.

// edit
Ich habe irgendwie Qt außer acht gelassen. Für die Firma dahinter ist Flutter wohl ein Konkurrent.


* Immer?
[Dieser Beitrag wurde 7 mal editiert; zum letzten Mal von hoschi am 29.03.2021 15:02]
29.03.2021 12:08:48  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
hoschi

hoschi
Signal hat(te) ein Problem und verliert Daten:

https://github.com/signalapp/Signal-Desktop/issues/4513 (https://news.ycombinator.com/item?id=26292299)
https://bugs.archlinux.org/task/69990
https://gitlab.gnome.org/GNOME/tracker-miners/-/issues/161#note_1058976

Wenn der letzte verlinkte Post zutrifft (Issue hat originär nichts mit dem Thema zu tun), erklärt das, warum das unwillkürlich unter jedem System passieren kann. Hat MacOS unter bestimmten Bedingungen auch SQLite-Chiper am laufen?

Signal hat beim Thema Backups ein Schwäche. Unter Android kann man eines auf das lokale Dateissystem speicher und wieder importieren, mit einem langen Schlüssel. Unter iOS ist ein Dateisystemzugriff nicht möglich. Die Clipboardübergabe an andere Apps wir bei der Datenmenge keine Option sein. Bleibt die iCloud, das sind Server Dritter und sie müssen sowieso vorher selbst verschlüsseln, aber das FBI hat Zugriff.
Zumindest mit der Desktopversion wäre das lösbar. Sollte ich mir ein Android zulegen, sind auch wieder alle Chats weg. Das kennt man von WhatsApp auch?

// edit
Hier geht es weiter:
https://github.com/sqlcipher/sqlcipher/issues/385
Ich denke dabei kann ich etwas lernen.

// edit
Videobearbeitung
Wenn ich schon mal hier bin. Ich habe ein ActionCam bekommen für das Rennrad. Die Kamera ist von Sony, die ActionCam ist gut, aber die Apps von Sony sind qualitativ schlecht. Ich habe gedacht ich könnte mir mit der "Clips" App von auf dem iPhone behelfen, scheint dafür nicht zu passen.

Ich möchte das Video schneiden, vor allem Beschleunigen (Faktor 32 oder mehr, also Vorspulen) oder mal Zeitlupe nutzen, auch mal ein Foto anzeigen. Dazu habe ich auch GPS Daten von meinem Garmin, dazu habe ich schon eine Lösung, genannt GPS-Overlay-On-Video. Was kann ich für die Bearbeitung nehmen? Pitivi? Kdenlive? Flowblade? Ich habe keine Ahnung vom Videobearbeitung. Und was meinen die mit nicht linear?
[Dieser Beitrag wurde 5 mal editiert; zum letzten Mal von hoschi am 29.03.2021 18:26]
29.03.2021 17:22:59  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
AcidPils

AcidPils
Ich hab heute entdeckt das Lutris jetzt ne direkte Importfunktion für gog hat.
Das ist echt mal Liebe
Muss mann nimmer fummeln oder auf den gog client für Linux warten.

Acid
29.03.2021 18:12:55  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
hoschi

hoschi
Habe mal Pitivi genommen. Nachdem ich verstanden habe, dass ich die Abschnitte des Videos in unterschiedliche Layer ablegen muss war es relativ einfach zu schneiden und die Geschwindigkeit zu ändern:
Normal -> Fast Forward (ohne Audiospur) -> Normal -> Fast Forward (ohne Audiospur) -> Normal



Dann noch als MP4/h264 codiert, so sind 6 GB zu etwa 50 MB geworden. Was mich erst gewundert hat war, dass ich das Video 40xmal schneller laufen lassen kann, Audio aber nur 10xmal schneller und getrennt davon. Macht aber Sinn, das wäre bei der Geschwindigkeit ungefähr so beruhigend wie ein Sturm auf dem Saturn.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von hoschi am 31.03.2021 17:51]
31.03.2021 17:50:57  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Farbkuh

farbkuh
Ich habe noch mal zwei Fragen:

Ich habe einen Strato -V-Server. Jetzt habe ich mehrfach gelesen, dass es sinnvoll ist, SSH nur über Key und nicht über Passwort zuzulassen. Verstehe ich das richtig, dass ich dann die Schlüsseldatei auf meinem Rechner in den richtigen Ordner packen muss, damit ich per SSH auf den Server komme? Was passiert, wenn die Datei irgendwie "mal wegkommt"? Sollte nicht passieren, ist klar, aber trotzdem.

e: Und vor allem: Wie gehe ich am besten vor, wenn ich das umsetzen möchte?

Zum zweiten: Ich kann im Terminal (Tilix) nicht mehr hochscrollen. Das ging mal. Meine auch hier mal was darüber gelesen zu haben. Ich habe leider keine Option gefunden. Ich nutze bash
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Farbkuh am 05.04.2021 11:38]
05.04.2021 11:37:06  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
[KdM]MrDeath

mrdeath2
What year is it?
https://www.xinuos.com/xinuos-sues-ibm-and-red-hat/
05.04.2021 12:04:28  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
[KdM]MrDeath

mrdeath2
 
Zitat von Farbkuh

Ich habe einen Strato -V-Server. Jetzt habe ich mehrfach gelesen, dass es sinnvoll ist, SSH nur über Key und nicht über Passwort zuzulassen. Verstehe ich das richtig, dass ich dann die Schlüsseldatei auf meinem Rechner in den richtigen Ordner packen muss, damit ich per SSH auf den Server komme? Was passiert, wenn die Datei irgendwie "mal wegkommt"? Sollte nicht passieren, ist klar, aber trotzdem.



privatekey = passwort, d.h. wennde den verlierst dann kommst du nichtmehr rein (ausser dein anbieter bietet dir ne möglichkeit sowas wie nen live linux zu booten wo du dann selbst von aussem im dateisystem rumpfuschen kannst und nen neuen key reinlegen).

ernst gemeinter praxistip von mir:
wenn du eh der einzige bist der den v-server benutzt leg ssh auf nen anderen port (z.b. 922) und gib einem eigenen benutzer(!) ein hinreichend gutes passwort. login für root dann nur noch per key zulassen
 
Code:
PermitRootLogin without-password


damit fährst du denke ich am besten, besonders wenn die ganze privatekey geschichte für dich ungewohnt ist.

Für ganz paranoide fälle ein fail2ban und nach ~5 erfolglosen passwortversuchen ip bannen und email an dich rausschicken.
die größere gefahr geht dann sicherlich von irgendwelchen nicht geupdatetem kruscht aus der da noch so drauf läuft.
05.04.2021 12:08:34  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
FuSL

AUP FuSL 22.06.2012
Sollte die Datei mal wegkommen: Meistens haben die V-Server-Interfaces die Möglichkeit, über VNC / VNC im Browser noch auf den Server zugreifen zu können. In so einem Fall könntest du dann notfalls über VNC und mit lokalem root-/sudo-Passwort darüber auf den Server und z.B. einen neuen Key-Fingerprint als valide hinterlegen.

Zur Umsetzung: Grundsätzlich werden Keys in ~/.ssh/ erwartet. Man kann aber beim SSH-Aufruf mit -i auch direkt eine Schlüsseldatei angeben.

Möglicher Ablauf also: mit ssh-keygen -t ed25519 (ed25519 wäre 'ne moderne Variante: https://en.wikipedia.org/wiki/Curve25519) den Schlüssel erstellen. Mit Default-Pfad landet der dann in ~/.ssh/id_ed25519 sowie ~/.ssh/id_ed25519.pub. Der Inhalt von ~/.ssh/id_ed25519.pub (der Fingerprint) kommt dann auf dem Server beim jeweiligen Account in ~/.ssh/authorized_keys, also z.B. /home/lokalerbenutzer/.ssh/authorized_keys oder /root/.ssh/authorized_keys.

Dann prüfen, ob die Anmeldung damit klappt (z.B. ssh lokalerbenutzer@deinserver.de – sollte dann nach dem key-pw fragen oder, wenn noch cached, direkt rein. oder explizit: ssh -i /pfad/zur/id_ed25519 lokalerbenutzer@deinserver.de ).

Auf dem Server dann die /etc/ssh/sshd_config aufmachen; `PasswordAuthentication no` setzt die Voraussetzung für alle, `PermitRootLogin prohibit-password` (sollte default sein) nur für root.

Angemerkt sei: Bei komplexeren Auth-Setups mit PAM kann es sein, dass PAM dazwischenfuhrwerkt und weiterhin Password-Auth zulässt. Das würde hier aber ein bisschen zu weit führen – sollte man merken bzw. wissen, wenn's so ist fröhlich

Variationsmöglichkeit: Man kann in der sshd_config auch `AuthorizedKeysFile /etc/ssh/authorized_keys/%u` setzen. Das führt dazu, dass die authorized_keys-File in ~/.ssh/authorized_keys nicht verwendet wird, sondern man (im nur durch root beschreibbaren Pfad) in /etc/ssh/authorized_keys/root, /etc/ssh/authorized_keys/lokalerbenutzer etc. erstellen muss und dort die authorized_key-Daten reinkommen – so kann jemand, der irgendwie 'ne session eines nicht-root-users hijackt nicht einfach so seine Fingerprints als "damit darf ich rein" in ~/.ssh/authorized_keys packen, sondern braucht dazu root- oder sudo-Rechte.

Und zum Abschluss: Ich bin bei sowas der größtmögliche Fan von Yubikeys (oder Nitrokeys oder selbstgefrickelten GnuK-Sticks): Darauf kann man PGP-Keys sicher speichern (und/oder erstellen) und diese als SSH-Keys verwenden, die so niemals den HW-Stick verlassen. Das ist einmal aus Sicherheitsaspekten super, und obendrein ist's nicht 'ne Datei, die man mal verlieren kann (sondern ein HW-Stick, den man verlieren kann ).

Mittlerweile kann man übrigens auch (einige, afaik z.B.: SoloKey, Nitrokey, Yubikey) U2F/FIDO2-Sticks zur OpenSSH-Authentifizierung verwenden. Das ist 'ne gute Sache, wenn man z.B. keinen "großen" Yubikey (mit mehr als U2F/FIDO) hat, z.B. – benötigt aber auf beiden Seiten aktuelle OpenSSH-Versionen (>= 8.2), was je nach Server-OS oft nicht gegeben ist – dann ginge's mit z.B. 'ssh-keygen -t ecdsa-sk'.

/edit

Pöh. Zwischenposter haben die Kontrolle über ihre Schlüssel verloren

/edit

Ah, kurz war ich verwirrt, aber:
 
If this option is set to prohibit-password (or its deprecated alias, without-password)

[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von FuSL am 05.04.2021 12:13]
05.04.2021 12:10:36  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Oli

AUP Oli 21.12.2018
Einfach ssh auf nen anderen Port legen und Passwort auf 12345, maximum security.
05.04.2021 13:15:48  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
hoschi

hoschi
 
Zitat von [KdM]MrDeath

What year is it?
https://www.xinuos.com/xinuos-sues-ibm-and-red-hat/



 
St. Thomas, U.S. Virgin Islands, March 31, 2021



Ich habe da aufgehört zu lesen. Okay so?
06.04.2021 10:13:26  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
[KdM]MrDeath

mrdeath2
dachte auch zuerst an einen aprilscherz aber dem ist wohl angeblich nicht so.
bin immer noch nicht 100%ig überzeugt.
06.04.2021 13:57:59  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
hoschi

hoschi
Die GNOME-Shell 40 ist in Archlinux nachgerückt, zu den bereits vorhandenen Paketen. Der Maintainer ist konservativ vorgegangen. Das Dash unten ist für mich gewöhnungsbedürftig, aber die Tastatursteuerung funktioniert weiterhin sehr gut.



Die Wetteranwendung ist wesentlich besser und hübscher geworden. Perfekt wären natürlich Wetterdaten vom DWD, aber die haben meines wissens keine konkrete API, sondern stellen große Datensätze bereit. Die Tabs in Epiphany lassen sich bequemer verwenden, der Webbrowser fühlt sich auch fluffiger an. Die Path-Completion bei manueller Eingabe in Nautilus ist erweitert worden. Dazu sind die Fortschrittsanzeigen zuverlässiger und die Erstellungszeitstempel können auch angezeigt werden. Bis jetzt ist alles stabil.
07.04.2021 20:21:42  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
GandalfDerPinke

GandalfDerPinke
Alles anders. Alles doof. Wütend

//Die ersten beiden Punkte die auffallen, sind die virtuellen Bildschirme die nicht mehr übereinander liegen, sondern nebeneinander und der nicht ganz so glatte Übergang aus dem Übersichtsmodus zurück. (Der Modus in den man kommt, wenn man die Windowstaste drückt)

Die nebeneinander liegenden virtuellen Desktops stören mich besonders, da ich immer eine Erweiterung genutzt habe, die beim scrollen auf der Topbar durch die Screens gegangen ist. traurig Schade.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von GandalfDerPinke am 08.04.2021 8:45]
08.04.2021 8:30:41  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
hoschi

hoschi
Veränderung ist immer doof verschmitzt lachen
Du brauchst deine Extension zurück, richtig?

Die horizontale Anordnung der virtuellen Desktops kann ich nachvollziehen, lehnt sich an die typische Anordnung externe Monitore an. Die hohe Präsenz von virtuellen Desktops in Overview wundert mich etwas, weil die GNOME-Shell hervorragend ohne funktioniert. Von daher nehme ich an, dass starke Nutzer von virtuellen Desktops das begrüßen? Die Overview könnte auch größer ausfallen, wenn man die virtuellen Desktops optional machen würde.

Ich wähle Anwendung und Fenster immer mit der Eingabe des Namens aus der Overview aus, es ist schnell und intuitiv. So findet man die Anwendung direkt und muss nicht suchen. Und falls die Anwendung nicht läuft, wird sie gestartet. Klassiches Alt+Tab ist schnell, aber bei vielen offenen Anwendung aufwendiger.

Bisher konnte man auch mit den Pfeiltasten ein Fenster in der Overview auswählen, dazu muss man jetzt vorher mit der Maus über ein Fenster fahren. Vielleicht mache ich dazu einen Issue auf.

// edit
Ich war zu langsam und jemand hat schon heute Nacht einen Issue geöffnet.
[Dieser Beitrag wurde 3 mal editiert; zum letzten Mal von hoschi am 09.04.2021 13:33]
08.04.2021 10:53:06  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Oli

AUP Oli 21.12.2018
Ich hab mein unmanaged Billigswitch zu Hause durch ein MikroTik RB4011 ersetzt. "Das ist doch ein Router?", fragt ihr euch - ja, stimmt, weil ich ihn irgendwann vielleicht mal als solchen einsetze, jetzt soll er erstmal nur Switch mit ein paar schönen Features sein. Übrigens gefällt mir MikroTik ganz gut, eine billige Alternative zu Ubiquiti für jemanden, der keine Angst davor hat ein bisschen mehr Aufwand in die Konfiguration zu stellen.

Anyway. Ein paar Fragen kriege ich online nicht raus, vielleicht kennt ihr euch da ja aus.

1. Das Gerät hat zwei RTL8367 switch chips. Laut dieser Tabelle hier (https://wiki.mikrotik.com/wiki/Manual:Interface/Bridge#Bridge_Hardware_Offloading) können die kein STP/RSTP für die Bridge, die ich ja erstellen muss, damit alle Ports switchen. Stimmt es, dass ich mir ein Software Switch erstellt habe, wenn ich RSTP auf der bridge aktiviert habe?

1.a. Braucht man STP/RSTP? Ohne das könnte ich das Switching von der Hardware erledigen lassen.

1.b. Ist es schlimm, wenn die Software das macht, für mein low-throughput Heim-Network?

2. Ich will für zwei Endgeräte Link aggregation machen. Das geht auch sehr einfach, aber die Tabelle oben deutet darauf hin, dass "bonding" sowieso nicht hardware offloading unterstützt. Zählt dazu auch statisches bonding, mittels balance-xor?

2.a. Für mein synology NAS klappt das bonding super: ich habe im NAS und bei den beiden Ports in Switch ein bonding interface erstellt, beide mit balance-xor layer 2-3. Ich kriege jetzt von zwei unterschiedlichen Clients gleichzeitig GBit speed zum NAS. Für meinen Heimserver mit zwei NICs geht es nicht. Da läuft ein Proxmox, wo ich auch alles korrekt konifguriert habe (ziemlich sicher), aber ich kriege keine 2GBit/s bei zwei Clients. Irgendwie scheint der Traffic nur über ein NIC zu laufen. Wie könnte ich das debuggen?

2.b. Wer hält mich davon ab, völlig unnötigerweise noch ein richtiges Switch dazu zu kaufen? traurig
09.04.2021 20:25:24  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
GarlandGreene

Mod GIGN
Spanning Tree wird halt für redundante Verbindungen benutzt. Switche ohne STP/RSTP mögen es nicht so sehr, wenn man sie redundant miteinander verbindet (oder versehentlich einen Loop baut).
09.04.2021 20:40:41  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Oli

AUP Oli 21.12.2018
Wenn ich aber nur einen Switch hab, ist das doch egal, oder?
09.04.2021 21:08:09  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
rABBI

Arctic
 
Zitat von GarlandGreene

Spanning Tree wird halt für redundante Verbindungen benutzt. Switche ohne STP/RSTP mögen es nicht so sehr, wenn man sie redundant miteinander verbindet (oder versehentlich einen Loop baut).


Nee. Redundante Verbindungen macht man über Link Aggregation, also normalerweise LACP. xSTP nimmt man für Loop Prevention.
09.04.2021 21:12:57  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
rABBI

Arctic
 
Zitat von Oli

Ich hab mein unmanaged Billigswitch zu Hause durch ein MikroTik RB4011 ersetzt. "Das ist doch ein Router?", fragt ihr euch - ja, stimmt, weil ich ihn irgendwann vielleicht mal als solchen einsetze, jetzt soll er erstmal nur Switch mit ein paar schönen Features sein. Übrigens gefällt mir MikroTik ganz gut, eine billige Alternative zu Ubiquiti für jemanden, der keine Angst davor hat ein bisschen mehr Aufwand in die Konfiguration zu stellen.


Wenn du die kleinen Geräte von Mikrotik nimmst, dann haben die häufig unerwartete Schwächen. UBNT ist da im Allgemeinen konsistenter. Wenn die billig sind, dann sind sie auch komplett Kacke und nicht nur irgendwo in der Mitte. Aber du machst damit erstmal keine großen Fehler. Das ist gutes Zeug für den Preis.

 
1.a. Braucht man STP/RSTP? Ohne das könnte ich das Switching von der Hardware erledigen lassen.


Du nicht. Wenn bei dir irgendwann Leute ankommen und ihre Rechner ungefragt an irgendwelchen Ports anschließen und Netzwerkkabel rumliegen lassen und einfach irgendwo irgendwas anstecken, dann ja. Aber du hast daheim kein Büro. In einem Coworkingspace oder Büro oder einer Fabrik will man das.

 
1.b. Ist es schlimm, wenn die Software das macht, für mein low-throughput Heim-Network?


Nö, ist nur langsam aber nicht giftig. Wahrscheinlich nichtmal das, sondern nur ineffizient.

 
2.a. Für mein synology NAS klappt das bonding super: ich habe im NAS und bei den beiden Ports in Switch ein bonding interface erstellt, beide mit balance-xor layer 2-3. Ich kriege jetzt von zwei unterschiedlichen Clients gleichzeitig GBit speed zum NAS. Für meinen Heimserver mit zwei NICs geht es nicht. Da läuft ein Proxmox, wo ich auch alles korrekt konifguriert habe (ziemlich sicher), aber ich kriege keine 2GBit/s bei zwei Clients. Irgendwie scheint der Traffic nur über ein NIC zu laufen. Wie könnte ich das debuggen?


Nicht. Das XOR ist normalerweise nicht das was man für Bonding nimmt. Was dein Proxmox vermutlich wöllte ist ein gemanagter Active-Active-Link. Viele Geräte können aber nur Active-Passive. Und normalerweise erfolgt die Aufteilung der Pakete nicht immer abwechselnd, sondern anhand eines Hashs auf MAC oder IP der Beteiligten. Das sorgt dafür dass die Pakete einer Verbindung alle über die gleiche NIC kommen. Sonst geht die Hardware Beschleunigung normalerweise nirgends, und nicht immer ist so ein Bond direkt zwischen 2 Geräten - das kann auch mal ein komischer Graph sein. Wirklich ausgelastet wird so ein Bond normalerweise erst statistisch, wenn ausreichend diverse Verbindungen für alle Hashmappings da sind.

 
2.b. Wer hält mich davon ab, völlig unnötigerweise noch ein richtiges Switch dazu zu kaufen? traurig


Niemand außer dir und deinem Budget. Und die Tatsache, dass andere Switches auch nicht wirklich besser sind. Nur anders.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von rABBI am 09.04.2021 21:25]
09.04.2021 21:24:36  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Oli

AUP Oli 21.12.2018
Wow, vielen Dank für die Antworten! Hauptsächlich lerne ich durch das Spielzeug was und mache mich zu Hause unersetzbar.
09.04.2021 21:42:41  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
 Thema: Der Linux-Thread 100 != 0x24 ( Ein Kernelupgrade später... )
« erste « vorherige 1 ... 182 183 184 185 [186] 187 188 189 190 ... 216 nächste » letzte »

mods.de - Forum » Linux » 

Hop to:  

Thread-Tags:
gnu  linux 
| tech | impressum