|
|
|
|
Es war besser als Eclipse. Aber Apache Incubator bedeutet wohl, verwaistes Projekt dessen Urheber sich einen Dreck darum kümmern.
|
|
|
|
|
|
|
Richtig, Eclipse ist der gleiche Krebs. Deswegen nutzt man auch IntelliJ. Mit Eclipse habe ich wegen OSGI Projekten die Equinox wollen mehr Kontakt als ich gerne hätte, aber das geht zum Glück alles, ohne tatsächlich Eclipse installieren zu müssen.
Und es gibt wirklich keinen Grund kein IntelliJ zu nutzen, nicht mal dass man keine Lizenz hat. Die Community Edition reicht komplett aus (Weil man sie dank Apachelizenz nutzen kann wie man lustig ist).
|
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von SwissBushIndian am 29.10.2018 21:29]
|
|
|
|
|
|
Ich werde das mit meinen Chefs - nicht diskutieren. Sondern einfach probieren
Golem macht mir etwas mehr Hoffnung - in einem tiefgreifenderen Kommentar - als Heise.
|
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von hoschi am 30.10.2018 9:56]
|
|
|
|
|
|
Letzte Woche hab ich auf meine alte SSD nen Linux fürs Home-Office installiert und fröhlich und zufrieden den Tag lang gearbeitet. Heute wollte ich es wieder starten und merke, dass ein signifikanter Teil meiner Daten weg ist, das Dateisystem ist hinüber und alles ist kaputt. Diese alten SSDs haben echt keine vernünftige Lebenszeit gehabt
|
|
|
|
|
|
|
CommitPush often, commitpush early.
Oder so.
|
|
|
|
|
|
|
OCZ?
|
|
|
|
|
|
|
Ich habe erst dieses Jahr meine allererste Intel SSD endgültig in Rente geschickt, als der HTPC ganz oft nicht mehr booten wollte
¤: Von 2008 rum dürfte die sein. Hab's noch nicht über mein Herz gebracht die zu entsorgen
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von SwissBushIndian am 30.10.2018 14:53]
|
|
|
|
|
|
Und ich hab vor kurzem meine alte OCZ meinen Eltern in den PC gesteckt.
|
|
|
|
|
|
|
Jap. 10 Jahre alt oder so.
| Zitat von Phillinger
CommitPush often, commitpush early.
Oder so.
| |
Das sowieso. Ich wechsle ja zwischen dem Arbeits-Desktop und dem Home-Office hin und her, da sind eh alle Daten irgendwo und werden bei Bedarf gesaugt.
Das Installieren und Arbeiten lief problemlos, aber nach ein paar Tagen sind die Daten halt weg
|
|
|
|
|
|
|
Ahjo, OCZ Daten-Vortex
|
|
|
|
|
|
|
| Zitat von audax
Letzte Woche hab ich auf meine alte SSD nen Linux fürs Home-Office installiert und fröhlich und zufrieden den Tag lang gearbeitet. Heute wollte ich es wieder starten und merke, dass ein signifikanter Teil meiner Daten weg ist, das Dateisystem ist hinüber und alles ist kaputt. Diese alten SSDs haben echt keine vernünftige Lebenszeit gehabt
| |
Intel Postville hier im Einsatz seit 2009, ohne Probleme. Gutes Geld, hat sich gelohnt
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von hoschi am 30.10.2018 15:38]
|
|
|
|
|
|
Dann hast du noch ein Jahr
|
|
|
|
|
|
|
Wenn es klappt, reiche ich die mit meinem Rechner weiter an meinen Stiefvater. Die halten schon
|
|
|
|
|
|
|
Also meine OCZ Vertex Plus hab ich auch erst vor zwei Monaten nach sechs/sieben Jahren treuer Dienste aus Kapazitätsgründen ausgemustert. Jetzt muss die MX500 erstmal zeigen was sie so kann. Platz hatse auf alle Fälle schonmal.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Was für eine komische Datumsrechnerei macht eigentlich Gitlab? Heute ist der 3. November und Commits von Anfang August werden als "two months ago" umschrieben. Ist das Javaskriptonische Rundung, 2,99 Monate = 2,00 Monate?
|
|
|
|
|
|
|
Ja. Ich weiß jetzt nicht, wie Gitlab das genau handhabt, aber von anderen Seiten her vermute ich, dass bei unter einem Monat die Zeit noch in Tagen angezeigt wird und danach wird das so gerechnet um zu vermeiden, dass der Zeitraum "vor 1 Monat" nur 15 Tage lang ist, alles andere aber ein ganzer Monat.
|
|
|
|
|
|
|
| Zitat von csde_rats
Was für eine komische (...) macht eigentlich Gitlab?
| |
Warte bis mindestens morgen bevor du weitere Gedanken dran verschwendest. Die haben so regelmäßig "quirky" Sachen in prod, dass man da mit der Zeit echt eine eigene Form der Geduld entwickelt.
|
|
|
|
|
|
|
Ist ein Gitlab von irgendwem auf irgendeinem Server irgendwo
TIL:
|
Fun facts:
The reserved names are things like "COM" and "LPT" followed by a digit... or at least, a thing that Unicode recognises as a digit, so "COM²" is just as broken as "COM2". | |
F. F. S.
|
|
|
|
|
|
|
https://techcrunch.com/2018/10/30/apple-t2-security-chip-microphone-eavesdropping/
| According to its newest published security guide, the chip comes with a hardware microphone disconnect feature that physically cuts the device’s microphone from the rest of the hardware whenever the lid is closed. | |
Nice. Nicht so gut wie damals die Thiccccpad-Schiebeschalter, die einen Seitenschneider betätigen, der Mikrofon und WLAN-Kabel durchtrennt, aber ... nice.
|
|
|
|
|
|
|
|
|
|
|
die Minuspunkte bei AMD stimmen ja so halbwegs, zumindest Punkt 2 und 3, aber daß Intel kaum echte Pluspunkte für die eigenen Produkte finden konnte, ist schon etwas enttäuschend. "Architected for the Data Center" kann man auch mit "overpriced and we rape your ass for every flop we add" übersetzen.
Das Ökosystem ist allerdings tatsächlich noch besser, aber das kann sich derart schnell ändern, daß ich das als weniger relevant ansehe. Das ist eher so ein "kauft das bloß nicht, damit die Hauptkritikpunkte auf der Folie beim nächsten Mal wiederverwendet werden können".
|
|
|
|
|
|
|
was die punkte da auf intels seite angeht, den ersten kann man ganz gut widerlegen, die innovation war die letzen ~10 jahre eher so nicht da, dass war im prinzip jeweils nur den strukturverbesserungen geschuldet, dass die da irgendwas schnelleres oder „besseres“ geliefert haben.
was die performance angeht, kann ich mich noch gut an zeiten erinnern, wo das nicht so war.
das „architected for data center“ gegen das „inconsistend performance from 4 glued-together desktop die“ ist schon ein wenig weit hergeholt. die neueren grösseren, non ap, chips von intel haben die gleichen probleme, die man halt durch mehr cores und nen mesh network bekommt. das die software für solche chips halt auch korrekt mit numa umgehen können muss, sollte klar sein, dass ist bei multi socket system auch nie anders gewesen.
bei den vor nen paar tagen „gelaunchten“ AP chips, aka dem 48 core chip, kann intel dann auch nichts mehr von dem punkt für sich verbuchen, weil das dann zwei zusammen geklebte 24 core chips sind, bei dem niemand weiss, wie die performance wirklich aussieht. das ist durch die zwei chips pro package auch nen numa chip, der dann aber gleich zwei numa domains mit mehreren segmenten hat.
den zweiten punkt contra amd, können sie sich auch selber zuschreiben, amd kann liefern, intel nicht. intel bekommt es ja nichtmal hin, konkrete aussagen dazu zu machen, was jetzt der atatus der 10nm fertigung ist, noch, wann die neuen chips denn mal in masse erhältlich sind, also sowohl die server, als auch desktop chips.
da bleibt dann also nur noch das ecosystem über, was auf der software seite vorhanden ist und bei der hardware halt daran liegt, dass sie lange nicht in dem bereich in der grösse vorhanden waren, dass sich das für die „partner“ gelohnt hätte. alle grösseren, sind gerade massiv dabei dieses hardware ecosystem für amd zu schaffen, weil intel halt nicht liefern kann.
|
|
|
|
|
|
|
Soll das wirklich eine Folie sein, die Intel verwendet? Billig beschreibt es kaum gerecht. Und das "Glued-Together" ist ein Pluspunkt für AMDs Fertigungsstrategie imm Modulsystem. Der zweite Punkt hält nur fest, das Intel seit 2008 keine Konkurrenz mehr hatte und die Kunden deswegen überhöhte Preise bezahlen müssen für vergleichsweise wenig Fortschritt. Ökosystem folgt aus dem zweiten Punkt, wer mehr Auswahl haben will und langfristig denkt kann den Punkt gerne ignorieren.
Ist immer wieder erschreckend, wie die IT-Industrie belegt, dass sie immer noch genau so schmutzig ist wie vor zwanzig Jahren. Produkt schnellstmöglich auf den Markt bringen, die kritische Masse als Erster erreichen, Kunden einsperren, Sogwirkung der Kundenmasse nutzen um die restlichen Kunden zu binden und - wenn alles nichts nützt - Konkurrenz mit F.U.D. bekämpfen.
Intel hat über Jahre nichts getan und im Gegensatz zu AMD eine hochkrätige eigene Chipfertigung. Kaum war AMD da, schon hat Intel auf einmel doch vier Kerne in richtigen Laptopchips. Ich habe allerdings vor zwei Jahren erwartet, dass Intel lediglich die 10nm breit einführt und so permanent die Distanz zu AMD aufrecht erhält, gerade so, dass die Kartellbehörden und eine staatliche China Produktion nicht gefährlich werden. TSMC kann sich freuen, so oder so.
Nur Schade das AMD so viele Fehler gemacht hat mit Bulldozer, sonst hätten sie auch Entwicklungskapazitäten übrig gehabt. Etwa um mit Coreboot gegen UEFI-Bloat noch Extrapunkt einzusammeln. Das wäre bei großen Auftraggebern wie Google oder staatlichen Stellen jetzt wohl noch eine Sahnehäubchen. Und Punkt 2 und 3 wären komplett invalide.
|
[Dieser Beitrag wurde 5 mal editiert; zum letzten Mal von hoschi am 06.11.2018 15:43]
|
|
|
|
|
|
mal ernsthaft, Dell ist nicht ohne Grund größter Serverhersteller. Die breite Masse ist einfach nur blöder 08/15-Serverkram, der irgendwo hingestellt wird und 6 Jahre die Klappe halten soll. Daß Intel da besser vertreten ist als AMD liegt primär daran, daß Intel halt über ne ganze Zeit lang vorhersehbar kleine Verbesserungen brachte, die vom Serverhersteller jetzt keine Quantensprünge an Eigenleistung verlangt haben. Da war nie die Frage, ob der nächste Xeon denn was ist, der war halt 3% besser als der davor. Wenn Serverhersteller keine guten Gründe haben, AMD-Server zu bauen, dann haben Kunden auch nicht wirklich die Wahl. Und Kunden schreien nicht spezifisch nach AMD, die interessiert das eigentlich die Bohne was genau da drin läuft.
Im Prinzip muss AMD jetzt nur 4-5 Jahre lang immer brauchbare Prozessoren in dem Umfeld liefern, ohne sich nochmal so nen Aussetzer zu leisten oder ganz revolutionäre Wege zu gehen. Dazu dann noch unproblematische Chipsätze und die Serverhersteller werden sich freuen, Intel mal an den Verhandlungstisch locken zu können.
|
|
|
|
|
|
|
Dito.
Und dann kommt auch das nötige Geld herein um Investitionen in Entwicklung und Fertigung sicher tätigen zu können.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von hoschi am 06.11.2018 17:43]
|
|
|
|
|
|
https://www.heise.de/developer/artikel/CogniCrypt-Kryptografie-richtig-nutzen-4211551.html
Wow, das erste Listing ist wirklich auf allen Ebenen phänomenal schlecht.
Das tl;dr zum Projekt ist "Crypto-Codegenerator with a twist: Macht Codeanalyse um zu sehen, ob man den generierten Code verpfuscht hat".
e: Die Antwort auf die Frage "wieso Entwickler kryptografische Bibliotheken großflächig falsch benutzen" ist 60/40, dass Crypto-APIs fast durch die Bank Scheiße sind und zum falsch benutzt werden einladen und die anderen 40 % sind eine Mischung aus "wir implementieren hier halt einen kaputten Standard / Interop" und "mein Name ist Hase". Letzteres ist jetzt ebenfalls nicht zwingend der Entwickler Schuld.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von csde_rats am 07.11.2018 1:01]
|
|
|
|
|
|
ich nutze keine cryptosuppe, die ich nicht selber vergeigt habe!
|
|
|
|
|
|
|
"Wir haben unsere eigene Krypto geschrieben"
ist so ungefähr der Satz mit dem ein Produkt direkt auf meine Abschussliste kommt. Noch vor: "Ja den Connector haben wir in Free Pascal geschrieben, war dass einzige was wir auf allen Plattformen zum laufen bekommen haben."
|
|
|
|
|
|
Thema: Der Linux-Thread 100 != 0x24 ( Ein Kernelupgrade später... ) |