|
|
|
|
immer, wenn IP nicht klappt (immer! IMMER!), Name aber schon, ist das irgendein blöder Fehler beim Einrichten der IPv4-Adresse, und im Hintergrund trödelt die IPv6-Adresse rum, die per DNS auflöst und dann auch noch erreichbar ist. Ich hab mich schon so oft gefragt, warum irgendwas mit Adresse nicht geht, mit Name aber schon, und nach nslookup kam dann "ach f*ck...".
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von GarlandGreene am 12.02.2020 7:35]
|
|
|
|
|
|
Danke dir.
So ein Sondermüll
|
|
|
|
|
|
|
*gnihihi* ich liebe solche gefixten probleme, die einen total überraschen aber bei dem es garantiert einen gibt der das schon zig mal hatte und direkt den punkt trifft...
|
|
|
|
|
|
|
2020: Man ärgert sich darüber, dass IPv6 einfach so funktioniert.
|
|
|
|
|
|
|
von wegen. Hab mich vor kurzem gefreut, dass ich ne alte Sophos UTM 110 mit aktueller XG-Software und ziemlich guten APs nach Hause nehmen kann, damit ich damit ein bisschen rumspielen kann. Eingerichtet, läuft prima, und gestern abend wollte ich auch IPv6 wieder einrichten. Stellt sich raus, Sophos kann auf der XG bis heute kein DHCP-PD. Nicht jeder hat eine feste v6-Adresse, ihr Spaten. Also doch opnsense und irgendwas anderes fürs Wifi.
|
|
|
|
|
|
|
Sophos XG: Kotz
Die SGs sind so tolle Geräte. Da dacht ich mir: "Ha! die XG Geräte sind sicher noch toller. Weil Sophos einen ja sicher nicht umsaonst "drängt" darauf umzusteigen."
Aber Nein. Es ist ein riesen Haufen Scheisse. Nichts funktioniert. Das Logging ist ein schlechter Witz. Funktionen, welche unter SG super funktioniert haben und man sich daran gewöhnt hatte (zum Beispiel so "exotische" Sachen wie ein NTP Server) sind entweder gar nicht implementiert oder funktionieren nicht.
¤: Ach und viel Spass: Die Rückkehr auf die SG UTM Software wird von Sophos aktiv verhindert, obwohl die Hardware die gleiche ist.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von [NBG]HLord am 12.02.2020 11:27]
|
|
|
|
|
|
ach leute, so ein protokoll kann doch nichts für die inkompetenz von hard-/softwareberstellern.
sophos, also der laden der letztens, mal wieder, etwas unrühmlich aufgefallen war?
AVM kann sich da auch mit einreihen, die boxen können IPv6 auch nicht richtig. nicht das cisco das nicht auch sehr lange nicht auf die reihe bekommen hatte...oder microsoft.
|
|
|
|
|
|
|
streng genommen sind die UTMs ursprünglich von Astaro entwickelt worden, Sophos hat den Laden vor einigen Jahren gekauft. Vielleicht kann die alte UTM deshalb auch mehr als die neuere Sophos-Eigenentwicklung XG. Und läuft schneller auf derselben Hardware, obwohl der XG-Kram fancy Html5 und Javascript ist, also viel Aufbereitung auf dem Client machen müsste.
Logging speziell in der Firewall ist in der alten wie der neuen UTM ziemlicher Müll, wenn man mal ein vernünftiges Loggingsystem gesehen hat. Unsere Forcepoint ist da schon ziemlich klasse.
|
|
|
|
|
|
|
Ein Anwendung ist mir unter MacOS wochenlang undefiniert abgestürzt. Meistens sofort mit Segfault, wenn die Planetenkonstellation gestimmt hat konnte das Ding stabil laufen und nichts konnte einen Absturz auslösen.
Heute habe ich die Ursache gefunden. CLANG linkt unter bestimmten Umständen mehrere aufeinandere verweisende Bibliotheken von einer Drittfirma (kein pkg-config) nicht. Das stört den Loader von Darwin/MacOS offenbar nicht
|
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von hoschi am 12.02.2020 18:20]
|
|
|
|
|
|
Delay loading + es wurden nicht immer Funktionen von den betreffenden Libraries aufgerufen?
--
Debian 8->9 Upgrade...
...
...
...
network-manager (1.6.2-3+deb9u2) wird eingerichtet ...
Neue Version der Konfigurationsdatei /etc/NetworkManager/dispatcher.d/01ifupdown wird installiert ...
Neue Version der Konfigurationsdatei /etc/dbus-1/system.d/org.freedesktop.NetworkManager.conf wird installiert ...
Created symlink /etc/systemd/system/network-online.target.wants/NetworkManager-wait-online.service → /lib/systemd/system/NetworkManager-wait-online.service.
insserv: warning: current start runlevel(s) (empty) of script `network-manager' overrides LSB defaults (2 3 4 5).
insserv: warning: current stop runlevel(s) (0 1 2 3 4 5 6) of script `network-manager' overrides LSB defaults (0 1 6).
... über SSH
e: Und das hat irgendwie die Netzwerkkonfiguration überraschend nachhaltig zerlegt
# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq master br0 state UP group default qlen 1000
link/ether 20:47:47:7d:f7:a8 brd ff:ff:ff:ff:ff:ff
inet 192.168.1.234/24 brd 192.168.1.255 scope global eth0
valid_lft forever preferred_lft forever
Aber dennoch
# ping 192.168.1.1
PING 192.168.1.1 (192.168.1.1) 56(84) bytes of data.
From 192.168.1.234 icmp_seq=1 Destination Host Unreachable
Dann möchte man sich anschauen, ob es vielleicht eine Netzwerkbrücke gibt zu der eth0 gehört und ob die richtige Route für diese Verbindung existiert.
Edit:
Jetzt wirft der CUPS auf der Kiste nur noch ein "Can't detect file type"-Fehler, wenn man versucht zu drucken. Augenscheinlich ein Fehler der "Cleanreinstallthentrywindows"-Klasse.
Hier das vollständige(!) Debug(!!)-Log(!!!) zu dem Fehler:
E [12/Feb/2020:20:31:51 +0100] [Job 405] Can\'t detect file type
E [12/Feb/2020:20:31:51 +0100] [Job 405] loadFile failed: temp file: not a PDF file
E [12/Feb/2020:20:32:00 +0100] [Job 405] Job stopped due to filter errors; please consult the error_log file for details.
...
Hint: Try setting the LogLevel to "debug" to find out more.
Das sind alle Details zu dem Fehler. Kann mich bitte jemand erschießen?
-
-> Neustart Drucker: Keine Änderung
-> Neustart CUPS: Keine Änderung
-> Neustart Maschine: Keine Änderung
-> Sich einmal im CUPS-Webinterface durch "Modify printer" durchklicken und einfach alle aktuellen Einstellungen unverändert lassen: Magische Sofortheilung
Computer sind ja so lächerlich.
|
[Dieser Beitrag wurde 4 mal editiert; zum letzten Mal von csde_rats am 12.02.2020 20:48]
|
|
|
|
|
|
sophos... die haben ja vor jahren hier astaro in karlsruhe gekauft und sind seitdem konstant dabei die leute rauszuschmeissen. erst letztes jahr wieder die halbe entwicklermannschaft.
alles wird konsequent nach indien verlagert, da wundern mich eure stories null, krieg da ab und zu interne alte geschichten erzählt...
|
|
|
|
|
|
|
Kein Delayed Loading. Wir schicken, speziell beim Start, die gleichen Kommandos - und dann sollte es immer direkt hinfallen.
Ich werde morgen mal versuchen die tatsächlich Hintergründe herauszufinden, also warum der Linker nur einen Teil der Arbeit erledigt hat und wieso MacOS nicht beim Laden der Executable hochgegangen ist. Workaround ist fein, die Ursache der Ursache kennen besser. Zumal ich keine Lust habe manuell mit Clang zu bauen. Ist sicher eine peinliche Feinheit im Syntax.
Jetzt muss der Geschäftspartner nur noch einen Fehler in einer Funktion für Linux beheben und den Memory Leak. Dazu habe ich aber einen hübschen Trace vom AddressSanitizer aus dem GCC. Seit ein paar Tagen scheint es wohl eine neue Preview für Windows mit dem AddressSanitizer geben. Ich hatte aber auch angenommen es gibt wenigstens Valgrind für Windows. Tut es nicht.
|
[Dieser Beitrag wurde 5 mal editiert; zum letzten Mal von hoschi am 12.02.2020 21:58]
|
|
|
|
|
|
Tatsächlicher Hintergrund:
• AddressSanitizer hat keine Erkennung von Leaks auf MacOS
• -fsanitize=address führt dazu, dass Bibliotheken (zumindest unter MacOS) aus dem Current-Working-Directory automatisch geladen werden
• Meine Anwendung stürzt nur unter MacOS mit einem Segfault ab
• Meine Anwendung nutzt unter MacOS CLANG, sonst GCC/MinGW
• Meine Anwendung stürzt nicht ab, wenn ich mit -fsanitizer=address kompiliere
Kompiliere ich ohne -fsanitize=address bekomme ich schnell einen SEGFAULT im USB-Stack (IO-Kit) von MacOS. Frage an euch: Wie kann ich mehr Informationen zu einem Segfault unter MacOS bekommen? Sind euch solche Nebenwirkungen des AddressSanitizer bekannt?
Der AddressSanitizer legt sich zwischen die Speicheranforderungen und Speicherfreigaben. So verwunderlich finde ich Nebenwirkungen also nicht, aber dass die Anwendung dadurch stabil wird und mir der Sanitzier zugleich keine Fehler ausgibt lässt mich mit offenen Fragen zurück.
Und dass der Sanitizer irgendwie Bibliotheken reinlädt, hmm. Ja, okay. Ist jetzt kein Problem für die Anwendung, aber schon sehr merkwürdig.
Verrückte Lösung: Wir liefern die Anwendung mit LIBASAN aus
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von hoschi am 14.02.2020 16:19]
|
|
|
|
|
|
|
|
|
|
Wahlcomputer gibt es doch lediglich um Informatikern Demut zu lehren und die Grenzen der Machbarkeit aufzuzeigen? Ohne physischen Beweis ist Sicherheit nicht möglich.
|
|
|
|
|
|
|
|
|
|
|
| Zitat von hoschi
Wahlcomputer gibt es doch lediglich um Informatikern Demut zu lehren und die Grenzen der Machbarkeit aufzuzeigen? Ohne physischen Beweis ist Sicherheit nicht möglich.
| |
Da bin ich einverstanden, jedenfalls insoweit, dass man sich davon verabschieden sollte, Sicherheit als etwas absolutes zu sehen. Ich habe im Militär noch analoge Verschlüsselung gerlernt, und was es bedeutet analogen Funk zu entschlüsseln. Irgendwie wird Verschlüsselung gegen aussen immer als absolute Sicherheit verkauft, was aber nunmal nicht der Realität entspricht.
Sind Papierwahlen absolut sicher? Nein. Natürlich sind sie das nicht. Aber die Systeme die, wohl gemerkt unsere Länder, inzwischen etabliert haben funktionieren ziemlich gut. Es ist ja nicht so, dass Papierwahlen anderenorts genau so reibungslos funktionieren. Kann also digitales Wählen funktionieren? Wahrscheinlich schon, aber nicht im Sinne, dass es absolut anwendbar ist.
Gleichzeitig muss man sich auch eingestehen, dass Wahlmanipulation bei uns bestimmt auch schon passiert, einfach in einem anderen Masse. Bei uns sind Fälle bekannt, bei denen Wahlunterlagen im Altenheim gemoppst wurden und dann die Unterschriften eingefordert wurden. Das ist natürlich ein viel kleinerer Angriffsvektor, aber trotzdem möglich. Inklusive physischem Beweis.
Ich denke die digitalen Wahlsysteme brauchen noch eine ganz lange Evolution, bis man am gleichen Punkt ankommt, wo Manipulation nur noch in marginalen Fällen möglich ist. Komplett ausschliessen lässt sich aber auch dann nichts.
¤: Das ist natürlich losgelöst von diesem spezifischen Fall, da wurde einfach massiv gepfuscht. Ich meine das eher als allgemeine Wertung digitaler Wahlsysteme: es sollte genau so manipulationsresistent, oder besser resistenter, sein als bestehende Systeme. Man darf sich dabei aber nicht die Illusion erlauben, bestehende Systeme wären perfekt. Völlig losgelöst von den technischen Problemen.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von SwissBushIndian am 15.02.2020 14:12]
|
|
|
|
|
|
Bitwarden: Sieht soweit sehr gut aus. bitwarden_rs fühlt sich schon fast ein bisschen frech an, funktioniert aber recht gut, auch wenn es irgendwo ein bissl komisch ist, dass die "vernünftige" Deploymentmethode (als systemd-Service) auf einer fünf Jahre alten Go Binary (systemd-docker) fußt, die so gar nicht mehr funktioniert. Ein paar Feinheiten sind nicht so gut dokumentiert (-e DOMAIN=https://... ist für FIDO wichtig, funktioniert ansonsten aber auch so, selbst ohne Protokollangabe), aber funktionieren tut es dann gut. Zertifikate kommen von Let's Encrypt, per DNS-01-Verifikation und Wildcard läuft das über einen nginx für alles. Der Web-Vault gibt sich auch mit Plain-HTTP zufrieden, aber die Clients bestehen auf HTTPS.
Die Firefox-Erweiterung funktioniert gut. Ergonomisch nicht so 100 % toll, dass man quasi vom Login-Feld bis in die Ecke mit den Erweiterungssymbolen muss und dann wieder zurück, da ist das bei KeepassXC imho ein bisschen schöner gelöst (Drop-Down direkt unterm Login-Namensfeld). Ich weiß aber nicht inwiefern das Sicherheitsimplikationen hat - bei KeepassXC kommt dann standardmäßig ein Nachfrage-Popup; vermutlich weil dieses Drop-Down im Kontext der Website existiert.
Persönlich fände ich es angenehmer, wenn das (bitwarden_rs) nicht mit Docker wäre, sondern per snap, weil snap echt gut funktioniert und sich schön ins System einfügt. Außerdem hat snap ein augenscheinlich brauchbares System für Konfiguration und nicht "docker stop bitwarden; docker rm bitwarden; docker run ...". Bei "snap set ..." werden automatisch die betroffenen Services neugestartet und snap erzeugt automatisch eine systemd-Unit.
Damit fließender Übergang zu Wekan, so einem Trello-Nachbau. Setup ist ultra-einfach mit snap. Das gefällt sehr. Das Berechtigungssystem ist nicht so 100 % klar, z.B. können Admins nicht alle Boards sehen, sondern müssen ebenfalls zu Boards eingeladen werden; jeder kann anscheinend immer Boards anlegen; es gibt pro Nutzer und Board jeweils nur eine simple Rollenzuweisung zu vorher festgelegten Rollen. Nix mit ACLs oder benutzerdefinierten Rollen (scheint im Code festgelegt zu sein, wenn man ein bischen im Issue-Tracker querliest).
Die Kiste ist recht flexibel, aber selbst im Intranet ist der erste Aufruf eher behäbig (>3 MB JS wollen geparsed werden). Danach ist das aber SPA und geht recht zügig. Das eingebaute Regelsystem hat ein bisschen ein unintuitives System zum Anlegen und Regeln können nicht bearbeitet werden, funktionieren aber, sofern sie etwas können (z.B.: Karten verschieben geht, man kann aber nicht beliebige Felder zuweisen oder so). Funktioniert aber sonst wie Trello mit mehr Optionen.
Es gibt auch Custom Felder, die wahlweise in der Übersicht angezeigt werden können. Das ist ziemlich nice. REST API hat es auch. Es gibt wohl eine Möglichkeit Logins per LDAP zu handeln, anscheinend sogar AD-Kompatibel. Mal sehen.
|
|
|
|
|
|
|
|
|
|
|
| Zitat von csde_rats
Damit fließender Übergang zu Wekan, so einem Trello-Nachbau.
| |
Interessant, muss ich mir mal anschauen. Trello ist datenschutztechnisch doch ein bisschen gruselig...
|
|
|
|
|
|
|
VPN mit WireGuard
The Systemd Way
VPN hier: Ich verbinde mich mit einem Client mit einem VPN-Server und kann dann auf alle IPs im Netzwerk des VPN-Servers zugreifen. Etwa für Remote-Administration.
Server:
/etc/systemd/network/wg0.netdev
[NetDev]
Name=wg0
Kind=wireguard
Description=Wireguard VPN server
[WireGuard]
PrivateKey=...
ListenPort=...
[WireGuardPeer]
PublicKey=... vom Client
PresharedKey=... (wg genpsk, kann für jeden Peer anders sein)
AllowedIPs=10.87.71.10/32 <- AllowedIPs für Peers: Welche IPs der Peer annehmen darf.
/etc/systemd/network/wg0.network
[Match]
Name=wg0
[Network]
Address=10.87.71.1/24
IPMasquerade=yes
IPForward=yes
Das "IPMasquerade" ist wichtig, weil das NATting für diesen Link anschaltet. Nur deswegen kann man auf das Netzwerk zugreifen. Dieses Detail ist ein kleiner Stolperstein, den ich nirgends im Kontext von Wireguard gesehen habe. Vermutlich, weil jeder unter "VPN" einen leicht anderen Anwendungsfall im Kopf hat.
client.conf (für wg-quick)
[Interface]
Address=10.87.71.10/24
PrivateKey=...
[Peer]
PublicKey=... vom Server
PresharedKey=...
AllowedIPs=10.87.71.0/24,192.168.10.0/24 <-- 192.168.10.0 wäre das Netz, was für einen geNATted wird. Die Bedeutung ist in die gleiche wie oben, nur ist der Effekt schlicht, dass alle IPs die hier gelistet werden über das wg0 Interface geroutet werden. Würde man hier 0.0.0.0/0 angeben, würde alles darüber gehen.
Endpoint=vpn.example.com:1234
|
|
|
|
|
|
|
Geil rats, das mache ich heute Abend auch mal. Ich ergänze dein tutorial dann um android.
Die online community jizzt ja herum wie sonst was wegen wireguard.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Oli am 16.02.2020 15:35]
|
|
|
|
|
|
"Die Windows VM da drüben, die ist so langsam irgendwie"
Gehen wir die Konfiguration mal mit äußerster Sorgfalt durch!
# edit mssqlsrv
...
<disk...>
<target dev='hda' bus='ide'>
</disk>
...
<interface>
<model type='rtl8139'>
...
-> RTL8139 ist eine 100 MBit/s Karte, die von Windows auch nur mit 100 MBit/s genutzt wird. Anscheinend können Linux-Gäste damit trotzdem Gigabit+, Windows-Gäste aber nicht.
VirtIO Treiberpaket als ISO runterladen, ISO bereitstellen und installieren. Dann den abgesicherten Modus per bcdedit aktivieren, herunterfahren, Festplatte auf 'virtio' stellen und Netzwerkkarte ebenfalls (neue MAC scheint zwingend erforderlich zu sein). Da die Kiste jetzt bestenfalls noch DHCP mit der neuen Netzwerkkarte macht, wird RDP eher nicht drin sein. Also über VNC drauf... aber die Verbindung friert nach einer Weile immer ein und kann danach nicht wiederhergestellt werden. Nani?
Naja stellt sich raus, neben dem <graphics type='vnc'> Eintrag war da noch ein <graphics type='spicevmc'> Eintrag. Die kommen sich anscheinend nach ~60 Sekunden in die Haare und VNC verliert. Also spicevmc durch vga <graphics> ersetzt und die restliche SPICE-Konfiguration (<channel> und Co) rausgelöscht. Aha, schon ist die VNC-Verbindung stabil und plötzlich in Vollfarbe, statt 8-Bit. Netzwerk umkonfigurieren, zackbumm.
SMB-Dateien rumkopieren läuft jetzt mit 130-150 MB/s (der VirtIO-Netzwerkadapter meldet sich mit fluppigen 100 GBit/s in Windows), die virtuelle Festplatte scheint ebenfalls ein ganzes Stück schneller geworden zu sein. SQL Server Backup allerdings nach wie vor sacklahm (50 MB/s oder so, Datenbank hat 15 GB).
|
|
|
|
|
|
|
Ja, "einfach alles virtio" scheint wohl in den meisten Fällen das Sinnvollste zu sein, habe ich auch schon gemerkt.
|
|
|
|
|
|
|
naja, wenn man bedenkt, wieviel Kompatiblitätsrummel in den Windows-Treibern rumschwirren wird, verwundert das wohl nicht.
|
|
|
|
|
|
|
| Zitat von Oli
Geil rats, das mache ich heute Abend auch mal. Ich ergänze dein tutorial dann um android.
Die online community jizzt ja herum wie sonst was wegen wireguard.
| |
Läuft. Dann kann ich ja mein fritzbox vpn abschalten. Danke für die Config.
|
|
|
|
|
|
|
Gern
Zu der TLS-im-Intranet-Geschichte da oben: DNS-01 ist zwar etwas fummeliger in Sachen Konfiguration (API vom DNS-Provider besorgen, in meinem Fall hat der Provider eine API, aber API-Tokens gibt es nur durch "formlosen Antrag" beim Support und es war halt Samstag -- also ein Skript zusammengehackt, was das einfach direkt per Kundenselbstverwaltungstool macht) im Vergleich zur HTTP-Verifikation (~"ich copy-paste das in meine nginx-Config"). Der riesige Vorteil ist aber, dass man weder die Dienste Richtung Internet verfügbar machen muss oder einen gemeinsamen Reverse Proxy nutzt, der dann zumindest für /.acme-challenge/ aus dem Internet Anfragen beantwortet oder einen Split-Horizon DNS einrichten muss. Klar, wenn man seine Intranet-Hosts in seine example.com Zone einträgt, dann sind die internen IPs im Prinzip öffentlich (DNS Zone Enumeration sollte es zwar nicht mehr geben, aber trotzdem), aber das sollte im Normalfall kein Problem darstellen (nicht mehr als es ohnehin schon ein Problem ist Webbrowser, die Feindcode ausführen, hinter der Firewall zu haben). Split-Horizon DNS ist halt irgendwie... sehr unschön. Gerade, wenn man vielleicht noch ein VPN nutzen möchte, weil dann die Nutzung des VPNs zwangsläufig erfordert, dass man den Resolver jeweils umbiegt.
Wer TLS intern haben möchte, und seine Hostnamen geheim halten möchte, sollte btw. nur Wildcard-Zertifikate nutzen (was ohnehin DNS-01-Verifikation erfordert bei Let's Encrypt), weil alle Hostnamen von ~allen TLS-Zertifikaten in Certificate Transparency Logs auftauchen. In meinem Fall ist ~alles hinter einem nginx. Hosts Einzelzertifikate zu geben, die nicht in CT Logs auftauchen, geht m.E. nur mit einer eigenen, internen CA, was imho extrem hässlich ist aus der Sicht praktischer Sicherheit:
1.) Name Constraints (also die interne CA auf meinefirma.example.net beschränken) werden afaik nach wie vor nicht in der Fläch unterstützt
2.) Fummelig und aufwendig
3.) Funktioniert nur auf Firmengeräten und man muss auf jedes Gerät die CA einspielen
4.) lol x509
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von csde_rats am 17.02.2020 0:22]
|
|
|
|
|
|
| Zitat von csde_rats
Split-Horizon DNS ist halt irgendwie... sehr unschön. Gerade, wenn man vielleicht noch ein VPN nutzen möchte, weil dann die Nutzung des VPNs zwangsläufig erfordert, dass man den Resolver jeweils umbiegt.
| |
ich rate jetzt mal, dass du dir noch nicht den powerdns recursor oder generell powerdns angeschaut hast.
ist jetzt nicht so, als wenn das dingen out of the box split horizon macht, aber es bringt alles mit, was dafür notwändig ist. es ist ausserdem nicht so ein gewaltiger inkonsistent bzw. nicht dokumentierter pseudo reference kram wie bind oder andere isc "produkte".
|
|
|
|
|
|
|
Ich würde gerne bei einem KDE 2 Keyboards mit jeweils eigenen Layouts anschließen. Kennt ihr dafür eine elegante Lösung?
Ich finde zu dem Thema nur uralte Tickets in diversen Trackern. Das sollte doch mittlerweile möglich sein
|
|
|
|
|
|
|
In einem KDE, also explizit nicht Multi-Seat?
Zwei Mauszeiger möchtest du aber nicht
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von hoschi am 17.02.2020 10:07]
|
|
|
|
|
Thema: Der Linux-Thread 100 != 0x24 ( Ein Kernelupgrade später... ) |