Du bist nicht eingeloggt! Möglicherweise kannst du deswegen nicht alles sehen.
  (Noch kein mods.de-Account? / Passwort vergessen?)
Zur Übersichtsseite
Hallo anonymer User.
Bitte logge dich ein
oder registriere dich!
 Moderiert von: mercury, Schalentier


 Thema: Der Linux-Thread 100 != 0x24 ( Ein Kernelupgrade später... )
« erste « vorherige 1 ... 159 160 161 162 [163] 164 165 166 167 ... 216 nächste » letzte »
erste ungelesene Seite | letzter Beitrag 
Farbkuh

farbkuh
 
Zitat von a1ex

Wieso ist das Thinkpad e14/e15 nicht dabei?



E-Serie ist der aktuelle Shit? Was ist da der USP?

Wenn ich jetzt mal von dem hier ausgehe: https://www.notebooksbilliger.de/notebooks/lenovo+notebooks/lenovo+business/thinkpad+e+serie/lenovo+thinkpad+e15+amd+g2+20t8000tge+667164

Ist der nicht viel anders als das Ideapad 5. Thinkpad hat dafür keinen Kartenleser, aber aufrüstbaren RAM und wechselbaren Akku. Und der Unterschied zum HP sind im Prinzip auch nur die CPU und der Kartenleser. Dafür kostet aber das Thinkpad fast 200,- mehr. Oder hab ich was übersehen? Der Nippel ist für mich nicht relevant Breites Grinsen
Ich weiß, dass die Thinkpads immer weider empfohlen werden, ich hab aber nie genau verstanden warum peinlich/erstaunt

Ich lasse mich aber natürlich gerne eines besseren belehren peinlich/erstaunt
03.09.2020 20:56:44  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
hoschi

hoschi
ThinkPads haben wirklich gute Tastaturen und ein ordentliche verarbeitetes Gehäuse*. Man bekommt für fünf Jahre Ersatzteile. Und sie sind bei Entwicklern weit verbreitet, deswegen ist die Unterstützung mit Linux meist gut. Bei einer Tastatur mit Nippel kann man beide Hände auf der Tastatur lassen, wenn man das Zehn-Fingersystem beherrscht ist das häufig eine natürliche Anpassung. Die Maus nimmt man dann für grafiklastige Sachen.

Wie viel darf das Gerät den Kosten und was muss es im Arbeitseinsatz leisten? Die E Serie ist wohl die Büroarbeit und Homeoffice gedacht. Aber ich habe noch nie eines benützt, hier ist alles X oder T. Verlöteter RAM lässt sich wohl kaum noch vermeiden, ich verbinde damit nur Nachteile.

Dein Bedürfnis nach einem Kartenleser kann ich gut nachvollziehen. USB ist ja nett, aber die meisten Geräte benützen als Datenträger Speicherkarten, weil die praktisch sind und im Gehäuse aufgenommen werden. Und man kann die Dinger beschriften.


* Das schlichte Design mit einem Farbton ist ein recht großer Bonus, zumal die Geräte ja teuer sind. Und so sehr ich Alufahrräder mag, Alugehäuse fühlen sich unangenehm an.

PS: Falls ich unter den den drei bisherigen Modellen wählen müsste, wer es das mittlere IdeaPad. Weil es keine Nvidiagrafikkarte hat, dafür einen Kartenleser und den neueren Prozessor als das HP. Das HP hätte die Möglichkeit den Hauptspeicher zu erweitern, aber das Display ist nicht sonderlich hell. Und das ist sehr wichtig.

Ich darf jetzt auch ein Laptop für meinen Stiefvater suchen, wegen Gemeinderatssitzungen. Die machen jetzt auch mehr digital. Geld gibt es dafür womöglich keines von der Gemeinde, aber wenn er das jede Woche herumträgt sollte es schon ein bisschen was aushalten und für Videokonferenzen taugen. Gebrauchtes ThinkPad verringert meine Aufwände, aber IdeaPad wäre auch neu drin. Eher ThinkPad, T4xx und fertig. Welche Händler sind da verlässlich? Thinkspot und?
[Dieser Beitrag wurde 4 mal editiert; zum letzten Mal von hoschi am 03.09.2020 23:20]
03.09.2020 22:55:09  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
[NBG]HLord

Mods-Gorge
Also wenn ein HP Probook 455 mit Ryzen, dann doch gleich das G7 oder? Weil die haben dann auch schon Ryzen 4000er.

Zum Beispiel: https://www.notebooksbilliger.de/hp+probook+455+g7+1b7u0es+664591/eqsqid/6a12e16c-c3f5-428b-ab87-e02628815da5
04.09.2020 8:01:47  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Farbkuh

farbkuh
 
Zitat von hoschi

ThinkPads haben wirklich gute Tastaturen und ein ordentliche verarbeitetes Gehäuse*. Man bekommt für fünf Jahre Ersatzteile. Und sie sind bei Entwicklern weit verbreitet, deswegen ist die Unterstützung mit Linux meist gut. Bei einer Tastatur mit Nippel kann man beide Hände auf der Tastatur lassen, wenn man das Zehn-Fingersystem beherrscht ist das häufig eine natürliche Anpassung. Die Maus nimmt man dann für grafiklastige Sachen.

Wie viel darf das Gerät den Kosten und was muss es im Arbeitseinsatz leisten? Die E Serie ist wohl die Büroarbeit und Homeoffice gedacht. Aber ich habe noch nie eines benützt, hier ist alles X oder T. Verlöteter RAM lässt sich wohl kaum noch vermeiden, ich verbinde damit nur Nachteile.

Dein Bedürfnis nach einem Kartenleser kann ich gut nachvollziehen. USB ist ja nett, aber die meisten Geräte benützen als Datenträger Speicherkarten, weil die praktisch sind und im Gehäuse aufgenommen werden. Und man kann die Dinger beschriften.


* Das schlichte Design mit einem Farbton ist ein recht großer Bonus, zumal die Geräte ja teuer sind. Und so sehr ich Alufahrräder mag, Alugehäuse fühlen sich unangenehm an.

PS: Falls ich unter den den drei bisherigen Modellen wählen müsste, wer es das mittlere IdeaPad. Weil es keine Nvidiagrafikkarte hat, dafür einen Kartenleser und den neueren Prozessor als das HP. Das HP hätte die Möglichkeit den Hauptspeicher zu erweitern, aber das Display ist nicht sonderlich hell. Und das ist sehr wichtig.

Ich darf jetzt auch ein Laptop für meinen Stiefvater suchen, wegen Gemeinderatssitzungen. Die machen jetzt auch mehr digital. Geld gibt es dafür womöglich keines von der Gemeinde, aber wenn er das jede Woche herumträgt sollte es schon ein bisschen was aushalten und für Videokonferenzen taugen. Gebrauchtes ThinkPad verringert meine Aufwände, aber IdeaPad wäre auch neu drin. Eher ThinkPad, T4xx und fertig. Welche Händler sind da verlässlich? Thinkspot und?



Kostenrahmen hab ich mir selbst bei ca. 800,- gesteckt.
Ich werde das Gerät fast nur privat nutzen und da gehts vorwiegend um Office, Web, Email, Minecraft (und vielleicht etwas neuere Titel, weil geht ja dann). Nichts außergewöhnlich anspruchsvolles.
Soll halt lange halten und mich nicht ärgern.
SD-Kartenleser muss halt sein wegen Kamera und Raspberries.
Ich denke es wird tatsächlich eher ein E15. Mein jetziger ist auch ein Lenovo und mit dem war ich auch immer zufrieden.
Kann mir kurz wer die Systematik bei den CPUs erklären?
Also Ryzen 5/7 und die 4-stellige Nummer dahinter? Hängt das mit den Kernen zusammen? Das verwirrt mich peinlich/erstaunt

e: Bin noch mal in mich gegangen. Das Ideapad wirds. Das E15 hat keinen Kartenleser und ist mir dann doch etwas zu teuer. Das Ideapad hat wohl bei Tests auch gut abgeschnitten bis auf irgendwas mit Farbraum, aber das ist für mich wohl eher nicht relevant. Zumal alles besser ist, als mein jetziger Bildschirm Breites Grinsen

Danke euch für die Tipps!
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Farbkuh am 04.09.2020 10:38]
04.09.2020 9:52:00  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
hoschi

hoschi
Dann viel Freude damit. Boote gleich nach Erhalt ein frisches Fedora von einem Stick oder Karte, wenn die Grundfunktionen korrekt funktionieren - behalten. Ist mein Schnelltest ohne langes Gefrickel.
04.09.2020 12:56:30  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Farbkuh

farbkuh
 
Zitat von hoschi

Dann viel Freude damit. Boote gleich nach Erhalt ein frisches Fedora von einem Stick oder Karte, wenn die Grundfunktionen korrekt funktionieren - behalten. Ist mein Schnelltest ohne langes Gefrickel.


Jo, muss erst mal alles abgewickelt werden, da gehen bestimmt zwei Wochen ins Land Breites Grinsen
Werd ich aber so machen. Also das mit dem Bootstick.
04.09.2020 13:17:39  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
[KdM]MrDeath

mrdeath2
wie gnome sich gegen einen patent troll gewehrt hat
inklusive kompletten agreement veröffentlicht wegen einer lücke, nice
04.09.2020 18:04:23  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
csde_rats

AUP csde_rats 04.09.2021
144 Hz Windows: Funktioniert einfach. Desktop ist minimal smoother ggü. 60 Hz, Unterschied merke ich eigentlich nur beim Scrollen. (Und natürlich dem Mauszeiger, aber damit hat ja der Desktop nichts zu tun)

144 Hz Linux: (nVidia/proprietär). Adaptive Sync ist standardmäßig an, HDR wird nicht unterstützt (30 bit Farbe kann X11, aber der Rest eher nicht so). SDDM/Loginbildschirm of all things benutzt Adaptive Sync, weil's eine QML-Anwendung im exklusiven Vollbildmodus ist (d.h. es rendert nur wenn sich was ändert und die Hardware wiederholt einfach das letzte Bild, wenn die Framerate unter das Adaptive Sync Minimum fällt... wodurch es so aussieht, als ob das mit ungefähr 30 Hz laufen würde Breites Grinsen [1]). KDE/KWin lockt alles auf 60 Hz, auch wenn der einzige Bildschirm am System mit 144 Hz läuft. verschmitzt lachen Workaround: Wahlweise RefreshRate und MaxFPS auf 144 setzen (KWin-Maintainer sagt das soll man nicht tun, weil dann ja die automatische Detektion nicht mehre funktioniere, aber die funktioniert ja offensichtlich ohnehin nicht) oder im nVidia-Treiber "Force Full Composition Pipeline" ankreuzen und VSync in KWin auf "never" stellen. Firefox unter Linux braucht die Option "layout.frame_rate", Standard ist -1, unter Linux gibts aber anscheinend keine automatische Detektion = Default ist 60 Hz. Mit den Änderungen fühlt sich KDE mit 144 Hz ungefähr so an wie Windows mit 60 Hz. Sonst ist das eher Kinofeeling. Aber! Es gibt kwin-lowlatency. Und damit fühlt es sich dann wie Windows an.

Mit kwin-lowlatency gibt es auch ein paar mehr Optionen. z.b. diese hier:



Die Anzahl der Hopes, Maybes und Horrible Hacks in Verbindung mit "glFinish als VSync"[2] lassen gutes erahnen Breites Grinsen

(Oder man schaltet den Compositor einfach aus)

[1] Potenzielles Usability-Problem mit Adaptive Sync Monitoren, die bis auf ein paar Hz runter gehen.
[2] glFinish hat nix mit VSync zu tun, weil das letztendlich zwei... drei Dinge tut: (1) Es tut einen Fence in den Command Buffer (2) Es submitted alles was noch nicht submitted ist zur GPU (3) Es blockt bis die GPU den Fence signalled (="Ich bin fertig und an der Stelle im Command Buffer angekommen wo du mir gesagt hast ich soll dir Bescheid geben"). Aber wenn man jetzt natürlich hingeht und das glFinish() samt Bufferswap relativ zum VSync-Zeitpunkt händisch (per Timer) synchronisiert... ja... ja dann ist glFinish plötzlich für VSync da Breites Grinsen Also ich nehme mal an das die das an der Stelle so machen.
glFinish ist auch mal wieder so ein OpenGL-Problemkind, weil früher Treiber sehr tiefe Queues zwischen CPU und GPU erlaubt haben, aber OpenGL einem nicht ermöglicht zu sagen, wie tief diese Queue maximal sein soll. Im Treiber gibt es das als Option und heißt dann sowas wie "Maximum prerendered frames". Tiefe Queue ist gut für Durchsatz (=> mehr FPS), aber schlecht für die Latenz. Wenn die Queue so acht bis zehn Frames lang ist, dann hat man da bei 60 fps mal easy peasy 150 ms extra Latenz. Ich glaube der nVidia-Default war früher acht und drei bis vor kurzem, inzwischen ist es glaube ich eins (wegen AMD-Dingen oder so).
[Dieser Beitrag wurde 3 mal editiert; zum letzten Mal von csde_rats am 06.09.2020 17:48]
06.09.2020 12:56:00  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
hoschi

hoschi
Äh. Okay
GNOME versucht auch wieder die Dinger noch glatter zu machen.
07.09.2020 16:33:14  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
B0rG*

Gordon
Ist dieser Schmerz mit Wayland weg? Oder haben die Entwickler in bester Farbprofil-Manier irgendwann mal beschlossen dass Wayland nur 60Hz kann?
07.09.2020 16:39:46  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
csde_rats

AUP csde_rats 04.09.2021
Gnome/Mutter hat wohl genau das gleiche Problem, dass es bei Mixed Refresh halt auf den niedrigsten Refresh lockt, weil wohl der ganze Desktop mit einem Framebuffer abgefrühstückt wird. Entsprechend kann man genau wie bei X11 keine gemischten Refresh-Rates haben, ohne immer Tearing irgendwo in Kauf zu nehmen.

Eigentlich wundert es mich schon fast, dass man auch mit 60 Hz auf zwei Bildschirmen angeblich kein Tearing hat, weil die Grundannahme "Mehrere Monitore (mit 60 Hz) == VSync gleichzeitig" schon falsch ist. Mehrere Displayausgänge laufen nicht synchron.

Andererseits hatte ich unter X11 immer Tearing, egal ob mit oder ohne Compositor verschmitzt lachen


 
Zitat von hoschi

Äh. Okay
GNOME versucht auch wieder die Dinger noch glatter zu machen.



Sehe ich das richtig, dass die da versucht haben sich Triple Buffering diesseits des OpenGL-Treibers selber zusammenzupfuschen? fröhlich
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von csde_rats am 07.09.2020 21:30]
07.09.2020 21:25:54  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
SwissBushIndian

AUP SwissBushIndian 07.11.2011
Ich hatte ehrlichgesagt noch nie ein gutes Erlebnis mit Anzeigescheisse unter Linux. Es ist immer so ein unglaublicher Arschschmerz. Vor ~15 Jahren war es "ach du möchtest verschiedene Multimonitorsachen betreiben? Fick dich mein Junge". Vor ~10 Jahren war es "ach du möchtest docken mit mehreren Monitoren?", vor ~5 Jahren "hochaufgelöst? LEL", und jetzt ist es "Ah du hast diese Dockingstation da von deinem Arbeitgeber? Ja dafür gibt es nur Debiantreiber die halt nicht funktionieren".

Und wie immer ist es die gleiche Geschichte: Linuxdesktop funktioniert nur, wenn man es sich gibt.

¤: Und ja, sowohl Windows wie macos kriegen das hin. Und zwar problemlos.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von SwissBushIndian am 07.09.2020 21:32]
07.09.2020 21:30:32  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
csde_rats

AUP csde_rats 04.09.2021
Das ist leider absolut wahr. Der eigentliche Witz ist, dass der eigentlich schwierig klingende Teil - 3D - inzwischen überall einfach so (mehr oder weniger *husthust) läuft. Aber alles drumherum... läuft mal so gar nicht.

Ich verstehe z.B. überhaupt nicht, also wirklich, nicht im Ansatz, was das Problem bei Mixed DPI ist. X11 trackt dir nicht welche DPI dein Fenster hat? Who-fucking-cares. Die Toolkits machen doch sonst auch alles selber. Was einem X11 sagen kann ist, welche Pixels die jeweiligen Monitore haben, und von wo bis wo sie gehen, und wo das eigene Fenster ist (und er sagt einem auch, wie groß die Anzeige ist und hokuspokus —das stimmt sogar!). Und dann kann man hingehen und rausfinden, auf welchem Monitor man sich gerade rumtreibt und ausrechnen, was für nen Faktor von Pixels zu Nutzerpixels man gerade benutzen möge.


e: Dafür kann Windows auch nicht mit Wide Gamut umgehen. Obwohl die Infrastruktur da ist? Color me confused.
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von csde_rats am 07.09.2020 21:44]
07.09.2020 21:38:01  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
SwissBushIndian

AUP SwissBushIndian 07.11.2011
stimmt, 3D habe ich in die Rechnung gar nicht mehr aufgenommen, weil ich einfach aufgegeben habe. Das ist nochmal eine absolut herzzerreissende Geschichte für sich, die aber tatsächlich inzwischen... erstaunlicherweise einfach läuft (hust).

Bei mixed DPI hingegen fange ich einfach an zu kochen, meine Fresse. How hard can in be. Vor allem wenn es halt sonst einfach funktioniert. Surface an die Dock, 1x konfigurieren, fertig, über alle 3 Bildschirme normellst nutzbar. X1 an die Dock: enter a world of pain.

Mir wäre usability für den normalen Desktopuser ja echt scheissegal, aber wenn die grundlegenden Sachen nicht im Ansatz funktionieren verstehe ich jeden, der innert Kürze aufgibt.

 
Zitat von csde_rats

Color me confused.



I (don't) see what you did there.
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von SwissBushIndian am 07.09.2020 21:46]
07.09.2020 21:45:05  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
SwissBushIndian

AUP SwissBushIndian 07.11.2011
Ich kann da in meiner Entwicklerbubble sogar noch einen Rant hinterherschieben. Als "Cloudentwickler" interessiert die Desktopoberfläche selbst Poweruser immer weniger, ehrlichgesagt einen Scheiss, da alles massivst konvergiert. Office? Das was man braucht kann Office 365 im Browser. Ich brauche ein taugendes Terminal? Kann inzwischen Windows genau so wie Macos dank WSL(2). Alles was man an IDE oder "Editor-mit-Plugins" braucht ausser VS läuft Platformunabhängig. Alles an Config was nicht im Editor läuft, ist Browserbasiert. Slack/Discord/Teams, you name it: Electron.

Was also wählen die meisten Leute? Der Scheiss, der einfach fucking funktioniert. Und zwar nicht funktioniert mit "ja du musst hier maken und dann dieses Kernelmodul laden, dann mit einem Reboot und nach dem Login den USB Stecker einstecken", sondern "Du steckst hier USB rein, und es geht". Natürlich machen das die meisten (quasi alle), weil es halt einfach funktioniert. Am Ende des Tages will man einfach seinen Scheiss erledigt bekommen.

Finde ich das gut? Nein. Kann ich es verstehen? Jede Sekunde in der ich mit meinem linksversifften Herzen ein Kernelmodul von Hand baue. Niemals wird der Scheiss Mainstream werden, ausser es funktioniert einfach für jeden. Immer.

¤: Neuste Dockerversion installieren? Am einfachsten mit Windows. Funktioniert es? Immer. Es ist grausam, aber es ist nunmal so. Und Microsoft macht es mit Azure sogar noch einfacher, weil es einfach gut integriert.

¤: Und ich meine auch nicht unfähige Leute, sondern durchweg die, die mehr auf dem Kasten haben als ich. Was in den Weg kommt, ist Müll, ausser man interessiert sich dafür. Und keiner interessiert sich für irgendwas, was in den Weg kommt, wenn man eigentlich anderes im Sinn hat.
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von SwissBushIndian am 07.09.2020 22:15]
07.09.2020 22:09:40  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
[KdM]MrDeath

mrdeath2
doppelrant in zwei unterschiedlichen threads?
komm sach an, wat hat heute nicht funktioniert dass du so frustriert bist? :x
07.09.2020 23:13:24  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
SwissBushIndian

AUP SwissBushIndian 07.11.2011
Hm?

¤: War aber bestimmt Linux :>
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von SwissBushIndian am 07.09.2020 23:49]
07.09.2020 23:46:49  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
[KdM]MrDeath

mrdeath2
 
Zitat von SwissBushIndian

Hm?

¤: War aber bestimmt Linux :>


ah, sorry Breites Grinsen
zwei tabs von mir, einmal mit dem stand vom thread von vor ner stunde und ein aktueller.
ergab in meinem kopf zwei threads Breites Grinsen
08.09.2020 0:11:07  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
csde_rats

AUP csde_rats 04.09.2021
Apropos Basics, die nicht funktionieren, macOS ist wohl das einzige Betriebssystem, dass Farbmanagement auf eine nicht völlig dämliche Weise macht, weil in macOS Quartz, also der Compositor, das macht. Und man halt einfach seine Surfaces mit dem entsprechenden Farbraum taggt und das gesamte GUI mit drei fucking Zeilen Code funktionierendes Farbmanagement hat. Komisch wie nah die macOS API an rats' naive Vorstellung von vor ein paar Wochen ist, dass man doch eigentlich nur seinen Framebuffer/Surface mit nem Colorspace taggen müsste und dann kann das System ez pz für eine korrekte Darstellung sorgen.

Microsoft scRGB (~0-1 ist sRGB, aber der Wertebereich geht von -irgendwas bis +sonstwo) ist einfach nur eine Nebelkerze, weil das nur für color-managed Anwendungen ist, die das aber wiederrum im Grunde gar nicht brauchen. DWM beherrscht kein color-management, wenn einem die Farben vom Bildschirm also zu dies- oder zu das-stichig sind, dann kann man da anscheinend auch mit einem 200 ¤ Kalibrator nix dran ändern, weil Windows und Linux schlicht unfähig sind. Bzw. kann man halt hingehen und wie ein fucking Höhlenmensch jedes verschissene Theme von allen möglichen Anwendungen anpassen, damit man keine Kopfschmerzen vom Fucking LG-Blaustich kriegt.

Ich dachte die Leute sind einfach nur zu dumm ein paar Checkboxen anzukreuzen als alle davon gefaselt haben, dass mit nem Wide Gamut Bildschirm einen alle Farben an jeder Ecke abseits vom Webbrowser nur so Ankotzen mit Sättigung (und mal ehrlich, holy shit, wie kann man das mögen?), weil CLEARLY Windows Farbmanagement damit ja wohl umgehen kann? xDDDDDD Windows Farbmanagement kann offensichtlich einen Scheißdreck außer nen glorifizierter Kackordner für ein Haufen ICC-Files zu sein mit denen sich dann Anwendungen selber ihre Pixel zusammenkacken.

Da ist mir Wayland gleich viel sympathischer, die Lügen wenigstens nicht rum und tun so als könnten sie was anderes als sRGB.

Spoiler - markieren, um zu lesen:
Vulkan hat ja auch eine ähnliche API, wo man halt auch einfach sagt "so, dieser Framebuffer ist Rec.2020", nachdem man geprüft hat, dass man den Space presenten darf. Das taucht mit HDR-Bildschirm (nur unter Windows) auch auf:



Preisfrage- tut das auch windowed? Wohl eher nicht... Tut das überhaupt das richtige, oder ist das nur das "10-Bit Ausgabe" Flag und es wird einfach an die Wand geworfen? Ja, wahrscheinlich... oder vielleicht ist nVidia ja auch hingegangen und das schaut dann in dem ICC-Ordner nach, was da so fürs Display drinliegt.
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von csde_rats am 08.09.2020 0:32]
08.09.2020 0:23:07  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
hoschi

hoschi
Ich fürchte viel Schmerz würde sich in Wohlgefallen auflösen, wenn wir jeweils mit aktuellen System auf fünf Jahre alter Hardware leben würden. Die Mischung aus spätem Zugriff auf Hardware und "ich selbst brauch das nicht" ist nicht förderlich. Dafür läuft bei mir alles erstaunlich angenehm, auch mit dem ThinkPad und HiDPI über DisplayPort.

Wo man die Probleme bemerkt ist FreeSync. Warum nur X11? Wieso nicht Wayland zuerst? Wieso muss ich die xorg.conf anpassen? Wieso ist das nicht ordentlich dokumentiert (weil die Entwickler in Ingenieure auf dem Wissen sitzen und es beim Windowstreiber passend hingebastelt haben)? Warum muss ich mir überlegen ob jetzt VSYNC oder hartes FPS Limit besser wäre?

Dagegen war heute mein Erstkontakt mit dem Microsoft App Store eine Katastrophe. Was für ein widerlicher Dreck. Drei DOS Fenster zum start, verschiedene Loginfehler wechseln willkürlich durch, inklusive 0x0008001 und dann löst ein Klick auf "iTunes" im Hintergrund parallel das Herunterladen von 24 [sic!] weiteren App Updates aus - ohne Hinweis. Das System ist auf aktuellem Stand, ich habe nur noch nie diesen App Store verwendet . Nachdem ich das Loginproblem dadurch umgangen habe, meine Emailaddresse nicht zu verwenden - sondern einen Aliasnamen - hat ein Reboot die meisten Problem gelöst. Sollte ins Windowsforum, ja.

Dafür war ich gestern Abend zum wiederholten mal positiv angetan von GNOME Software und Flatpak. Es zeigt schon vorab rot markiert an, wenn eine Flatpak seine Rechte ausweiten möchte (Signal kann wohl bald Videochats am Computer). Manuelle Einzelupdates oder Gruppenupdates oder automatische Updates sind prominent wählbar, Versionsnummern direkt sichtbar. Speichern von Flatpaks zur lokalen Weitergabe ist möglich. Was mir immer noch fehlt sind ein einbinden fremder Repositories per UI und eine Pakethistorie. Und damit auch Downgrades.
Aber das macht auch mal Spaß auf sowas wie "Zeal"zu klicken und ich kann das mal ausprobieren. In drei Jahren kann man Flatpak wohl auf Endanwender loslassen?

// edit
In iOS sind jetzt die aktuellsten Bilder unten. Sortierreihenfolge kann ich nicht ändern. Wer will sowas? Und wenn ich mehrere Bilder selektiere wird der Papierkorb ausgegraut. Haben Programmierer keine Ehtik?
[Dieser Beitrag wurde 3 mal editiert; zum letzten Mal von hoschi am 08.09.2020 17:11]
08.09.2020 17:03:54  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
SwissBushIndian

AUP SwissBushIndian 07.11.2011
 
Zitat von hoschi

wenn wir jeweils mit aktuellen System auf fünf Jahre alter Hardware leben würden



Ich verzichte.
08.09.2020 19:17:31  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
GandalfDerPinke

GandalfDerPinke
Einfach Hardware ohne Software nehmen. peinlich/erstaunt



Ist aber ähnlich lästig zu debuggen.
08.09.2020 19:53:13  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
schmeisses

AUP schmeisses 10.03.2015
Ist debuggen da noch wörtlich zu verstehen? peinlich/erstaunt
08.09.2020 20:38:22  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
AcidPils

AcidPils
 
Zitat von GandalfDerPinke

Einfach Hardware ohne Software nehmen. peinlich/erstaunt

https://abload.de/image.php?img=mobile.5hsjxr.jpeg https://abload.de/image.php?img=mobile.4sckpx.jpeg

Ist aber ähnlich lästig zu debuggen.



Oh, i smell classic HP vintage there
Would like to have.

Da fällt mir ein, im Keller steht noch so ne "kleine" SUN peinlich/erstaunt
Die könnt ich auch endlich mal wieder in "Betrieb" nehmen.

Acid
08.09.2020 20:41:37  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
GandalfDerPinke

GandalfDerPinke
 
Zitat von AcidPils

 
Zitat von GandalfDerPinke

Einfach Hardware ohne Software nehmen. peinlich/erstaunt

https://abload.de/image.php?img=mobile.5hsjxr.jpeg https://abload.de/image.php?img=mobile.4sckpx.jpeg

Ist aber ähnlich lästig zu debuggen.



Oh, i smell classic HP vintage there
Would like to have.

Da fällt mir ein, im Keller steht noch so ne "kleine" SUN peinlich/erstaunt
Die könnt ich auch endlich mal wieder in "Betrieb" nehmen.

Acid


Ich hab noch nen bisschen anderen Kram von HP, Fluke und Rohde und Schwarz. Ich mache mal Fotos.

 
Zitat von schmeisses

Ist debuggen da noch wörtlich zu verstehen? peinlich/erstaunt


Es fiel beim Saubermachen der ein oder andere Käfer raus, aber daran liegt der Fehler wohl nicht. Breites Grinsen
08.09.2020 22:40:02  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
hoschi

hoschi
Die App von JP Morgan Chase beim ersten Login unter iOS:


Erklärung ist, dass das ein Bug/Feature ist wenn man das Telefon wechselt. Auch von Android auf iPhone


 
Zitat von csde_rats

Gnome/Mutter hat wohl genau das gleiche Problem, dass es bei Mixed Refresh halt auf den niedrigsten Refresh lockt, weil wohl der ganze Desktop mit einem Framebuffer abgefrühstückt wird. Entsprechend kann man genau wie bei X11 keine gemischten Refresh-Rates haben, ohne immer Tearing irgendwo in Kauf zu nehmen.




Dieser Blogeintrag könnte Rats interessiere, besonders Split Frame Clock. Unredirect bzw. Compositor Bypass ist ein altes und wichtiges Feature, was sich deutlich auswirken kann bei Spielen. Ich hatte angenommen, dass das unter Wayland schon immer genutzt worden ist. So täuscht man sich. Mit X11 macht das GNOME schon einige Jahre.

 

That’s because changing the number of icons per page would potentially incur losing the customizations made to the app grid.



Auf dieses alte Desktop Feature von Windows verzichte ich nur zu gerne
GNOME ist sowieso sehr tastaturorientiert, ich gebe beinahe alle Programme und generell Namen mit der Tastatur ein. Über die Jahre habe ich mir angewöhnt sogar auf die Art zwischen den Programmen hin- und her zu schalten. Overview ist toll und Alt+Tab auch, aber so muss ich das Programmfenster nicht mehr finden.


Ich bin mir nicht sicher bezüglich des Triple Bufferung. Triple Buffering glättet die Darstellung und verhindert Tearing, mit dem Nebeneffekt der höhere spürbaren Latenz (schwammiges Gefühl in Shootern). Der Hintergrund ist aber wohl, dass sie die Firmware oder Treiber mit Triple Buffering - bei Bedarf - in ein höheren Leistungsmodus bringen wollen (wohl mit IDLE, PRESENTING_MAX und PRESENTING gemeint) und eine flüssige Darstellung zu garantieren. Das dürfte eine der vielen kleinen Optimierungen sein, die spezielle angepasste Treiber unter Windows mitbringen.
[Dieser Beitrag wurde 8 mal editiert; zum letzten Mal von hoschi am 09.09.2020 14:20]
09.09.2020 12:14:04  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
csde_rats

AUP csde_rats 04.09.2021
Apropos Compositor Bypass für Borderless Fullscreen, Microsoft hat sich ja dieses multiplane overlay Feature in GPUs einbauen lassen. Das ist quasi eine Anweisung an die GPU, dass sie beim Scanout andere Framebuffer ins Bild an bestimmten Stellen einbaut, d.h. DWM kann damit (laut MS) 3D-Anwendungen, die in ganz normalen Fenstern laufen in den meisten Lebenslagen ohne Compositing des Framebuffers (und der dadurch verursachten Latenz) auf den Bildschirm bringen. (Angeblich).

 
Zitat von hoschi

Ich bin mir nicht sicher bezüglich des Triple Bufferung. Triple Buffering glättet die Darstellung und verhindert Tearing, mit dem Nebeneffekt der höhere spürbaren Latenz (schwammiges Gefühl in Shootern). Der Hintergrund ist aber wohl, dass sie die Firmware oder Treiber mit Triple Buffering - bei Bedarf - in ein höheren Leistungsmodus bringen wollen (wohl mit IDLE, PRESENTING_MAX und PRESENTING gemeint) und eine flüssige Darstellung zu garantieren. Das dürfte eine der vielen kleinen Optimierungen sein, die spezielle angepasste Treiber unter Windows mitbringen.



Ne

Double Buffering: Es gibt zwei Framebuffer. Aus einem wird der Bildschirm bedient (~98 % der Zeit, die 2 % sind hochdeutsch die vertikale Austastlücke, also quasi die Lücke zwischen der letzten sichtbaren Zeile des aktuellen Bildes zur ersten sichtbaren Zeile des nächsten Bildes), der andere wird von der Grafikkarte beschrieben. In der v. Austastlücke werden die beiden Buffer getauscht.
Problem: Sobald die Grafikkarte den Buffer beschrieben hat, kann sie kein weiteres Bild rendern, ohne den Monitor potenziell dazu zu zwingen das aktuelle Bild nochmal auszugeben. Und wenn die FPS kleiner sind als die Hz, wiederholt der Bildschirm ständig Bilder.

Effektiv: FPS == Hz, es sei denn die Perforamance reicht nicht, dann ist es grauselig.

+-----------+               +----------+
|           | +-----------> |          |
|   Front   |               |   Back   |
|           | <-----------+ |          |
+-----------+               +----------+
              Flip mit Vsync


Triple Buffering: Es gibt drei Framebuffer. Einer bedient den Monitor (Front), zwei werden abwechselnd von der Grafikkarte beschrieben (Back). Der Swap vom aktuellsten(!) vollständigen Backbuffer zum Frontbuffer ist an den Monitor gekoppelt. FPS und Hz werden effektiv entkoppelt. Weil die GPU immer Rendern kann, solange sie von der CPU versorgt wird, steigen die FPS-Zahlen ganz weit hoch und die GPU kann immer ausgelastet werden.

Alternative Namen: Bei nVidia "VSync (fast)". Von OpenGL nicht unterstützt (nur per Treibereinstellung).

Weil die GPU damit immer ausgelastet wird (Versorgung durch die CPU vorrausgesetzt), ja, kriegst du damit auch mit einer trivialen 2D GUI die Karte in hohe Boostzustände. Ich nehme mal an die Mutter-Leute haben sich das ungefähr so gebastelt:

- Sie haben einen Timer, der so ungefähr synchron zum VSync läuft
- Zwei Rendertargets
- Es wird die ganze Zeit abwechselnd in eins davon gerendert
- Wenn der VSync naht, rendert man schnell das neueste Target in den Backbuffer (OpenGL kann ja nur Double Buffering, deswegen der Aufstand), ruft glFinish und Swapbuffers auf (was dann das detaillierte Timing zum VSync erledigt)
- Und immer so weiter.

                                    +------------+
                                    |            |
                                    |  Renderer  |
                                    |            |
                                    +------+-----+
                                           |
                                  +--------v-------+
                                  |                |
                                  |                |
+-----------+               +-----v-----+    +-----v----+
|           |               |           |    |          |
|   Front   |               |   Back    |    |   Back   |
|           |               |           |    |          |
+-----+-----+               +-----------+    +----------+
      ^
      |                          +                 +
      |                          |                 |
      |                          | Frischester Back|
      |                          | Buffer wird zum |
      |                          | VSync geflippt  |
      |                          |                 |
      +--------------------------+<----------------+


Swapchain mit drei (oder mehr) Buffern: Eine dumme Idee, effektiv äquivalent zu Frame Queuing, aber auf der Ausgabeseite statt der Eingabeseite der Grafikkarte. Erhöht die Latenz grundsätzlich um indestens einen Frame gegenüber Double Buffering. Der Backbuffer wird zum VSync in den mittleren Buffer geswapt, und der mittlere zum Frontbuffer, und der Frontbuffer zum Backbuffer.
Der Grund warum Triple Buffering als schlecht angesehen wird, weil viele Spiele dieses Verfahren als Triple Buffering bezeichnet haben.

Von OpenGL nicht unterstützt (nichtmal per Treibereinstellung, warum würde man das auch wollen).

Effekt: Identisch zu Double Buffering, aber mit mehr Latenz.


+------------------------------------->-------------------------------------+
|                            Flips mit VSync                                |
|                                                                           |
|    +-----------+               +----------+               +-----------+   |
|    |           |               |          |               |           |   |
+----+   Front   | <-----------+ |          | <-----------+ |   Back    | <-+
     |           |               |          |               |           |
     +-----------+               +----------+               +-----------+
[Dieser Beitrag wurde 4 mal editiert; zum letzten Mal von csde_rats am 09.09.2020 19:02]
09.09.2020 18:51:34  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Farbkuh

farbkuh
Ich verstehe hier echt immer nur so ca. 2% der Beiträge. Bin echt beeindruckt was man alles wissen und behalten kann, wenn man so tief in der Materie steckt, wie ihr hier. Mal aus Neugier: ihr macht das vorwiegend hauptberuflich oder? Also nerden meine ich peinlich/erstaunt
09.09.2020 19:04:49  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
SwissBushIndian

AUP SwissBushIndian 07.11.2011
Ja. Wobei sich leider ziemlich wenig davon mit dem hier überschneidet.
09.09.2020 21:38:24  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Oli

AUP Oli 21.12.2018
Ja und ich versteh nur 1%. *shrug*
09.09.2020 21:42:50  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
 Thema: Der Linux-Thread 100 != 0x24 ( Ein Kernelupgrade später... )
« erste « vorherige 1 ... 159 160 161 162 [163] 164 165 166 167 ... 216 nächste » letzte »

mods.de - Forum » Linux » 

Hop to:  

Thread-Tags:
gnu  linux 
| tech | impressum