|
|
|
|
| Zitat von hoschi
weil ich IBM nicht für so blöd halte.
| |
Junge habe ich da schlechte Neuigkeiten für dich.
|
|
|
|
|
|
|
IBM ist die Firma mit eine ganzen Reihe von dummen Entscheidungen
Irgendwann muss man dochmal begreifen, dass der nächste kurzfristige Gewinn...oder nicht?
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von hoschi am 04.08.2020 12:13]
|
|
|
|
|
|
Vergiss es. IBM ist ausschliesslich eine gut geölte Gelddruckmaschine mit meist vernachlässigbarem R&D Anteil.
|
|
|
|
|
|
|
Ich werde IBM immer vorwerfen, dass sie die Computersparte verkauft haben. Da muss man wirklich produzieren und bekommt zuverlässig ein Einkommen und Kunden kaufen nunmal Hardware oder eine Leistung die sie haben möchten. Software ist eher der unsichtbare Teil, der alles zusammenfügt. Und wer die Hardware liefert, hat schonmal eine Fuß beim Kunden in der Tür. IBM war immer auf Geschäftskunden fokussiert, Apple hat das dagegen mit Privatkunden sogar perfektioniert.
Wie war die Begründung damals? Der Zugang zum chinesischen Markt? Die Dinger sind sowieso in China gefertigt worden. Andere werden wahrscheinlich wegen Lotus verärgert sein. Wobei ich das auch nur noch 2008 erlebt habe.
Hat wer wehmütige Geschichten über Mainframes, z/OS und Lochkarten?
|
[Dieser Beitrag wurde 3 mal editiert; zum letzten Mal von hoschi am 04.08.2020 12:40]
|
|
|
|
|
|
IBM hat den schwindenden Onprem Markt gut antizipiert, bei der Alternative aber völlig versagt. Und das letzte was ich dafür empfinde, vor allem z/OS, ist Wehmut
Und IBM macht nicht mit Software Geld, sondern mit Supportverträgen, weil "nobody gets fired for buying IBM". IBM outsourct ja sogar das meiste der Softwareentwicklung, übernimmt dafür aber das Consulting.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von SwissBushIndian am 04.08.2020 12:56]
|
|
|
|
|
|
Im Geschäftskundenbereich sind die Supportverträge - wie du schreibst - das Gold. So machen wir das hier ja auch. Der NotOnprem Markt braucht auch Server. Wobei ich mehr an die ThinkPads gedacht habe. Ich bin allerdings auch immer ein Freund von breit aufgestellten Geschäftsbereichen. Kann es sein, dass IBM irgend einen Dienstleister für VW vor einigen Jahren übernommen hat? Bei Kassel?
Bei uns war das Geschäft mit Lenovo naheliegender Weise gekoppelt, wer die Server liefert, liefert auch die Laptops. So hätte das dann auch über Cloud und Red Hat erweitert werden können. Hätte.
|
[Dieser Beitrag wurde 5 mal editiert; zum letzten Mal von hoschi am 04.08.2020 14:07]
|
|
|
|
|
|
wo ihr von ibm redet, ich hatte da ja letztens so einen satz rack systeme gekauft, die waren auch ehemals von ibm. also spezifischer softlayer, der ibm cloud arm. alles supermicro geräte.
|
|
|
|
|
|
|
| Zitat von hoschi
Kann es sein, dass IBM irgend einen Dienstleister für VW vor einigen Jahren übernommen hat? Bei Kassel?
| |
Meinst du ¤: Vielleicht lieber per PM, wenn ich mir das so überlege. Aber ja, da gab es einen Fall.
| Zitat von hoschi
Bei uns war das Geschäft mit Lenovo naheliegender Weise gekoppelt, wer die Server liefert, liefert auch die Laptops. So hätte das dann auch über Cloud und Red Hat erweitert werden können. Hätte.
| |
Ja, hätte. Aber ich glaube IBM hat an dem Business einfach kein Interesse mehr, respektive den Einstieg einfach derbst verkackt.
| Zitat von Traxer
alles supermicro geräte.
| |
Nach PowerPC hat IBM ja sowieso hauptsächlich noch eingekauft und ein blaues Label draufgeklatscht.
|
[Dieser Beitrag wurde 3 mal editiert; zum letzten Mal von SwissBushIndian am 04.08.2020 14:33]
|
|
|
|
|
|
| Zitat von SwissBushIndian
Vergiss es. IBM Autodesk ist ausschliesslich eine gut geölte Gelddruckmaschine mit meist vernachlässigbarem R&D Anteil.
| |
|
|
|
|
|
|
|
Bin ich doof oder kann brauch ich für nen Renesas RX63N Micro wirklich deren GCC Version?
Acid
|
|
|
|
|
|
|
Es ist zumindest irgendeine Form von RX-Support in den GCC-Repos drin, aber selbst wenn der funktioniert, müsstest du dir ja den GCC als Crosscompiler dafür selber bauen. Deren fertiges Binärpaket geht bestimmt schneller.
|
|
|
|
|
|
|
Die wollen mich verarschen, oder?
|
Code: |
Downloads ./gcc-8.3.0.202002-GNURX-ELF.run
GCC for Renesas RX 8.3.0.202002-GNURX Toolchain Installer
Launch date: 30th of April, 2019
Copyright (c) 2015-2020 by CyberTHOR Studios Ltd. All Rights Reserved.
Get FREE worldwide support at [URL]https://gcc-renesas.com[/URL]
The toolchain will be installed in /home/acid/toolchains/gcc_8.3.0.202002_gnurx-elf
Please make sure that you have permissions to write to the /home/acid/toolchains/gcc_8.3.0.202002_gnurx-elf folder
before continuing the installation process.
Are you sure you want to continue? [y/n] (default 'n') y
Attempting to install toolchain in /home/acid/toolchains/gcc_8.3.0.202002_gnurx-elf...
Permissions have been verified.
To be able to continue the installation, you will need to enter
your email and activation code. To receive your activation code,
please register FREE for an account at [URL]https://gcc-renesas.com.[/URL]
Upon registration, you will receive your activation code by e-mail.
Please enter your e-mail:
|
|
Acid
Edit: Ah, der war in der Bestätigungsmail die ich nach der Regiostrierung für den Download bekommen hab...
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von AcidPils am 05.08.2020 16:27]
|
|
|
|
|
|
Die Free Software Foundation hat endlich neues Personal.
Geoffrey Knauth wird neuer Präsident nach Richard Stallman und Odile Bénassy ist ins Direktorium aufgenommen worden.
Und Dave Airlie (Red Hat) lehnt einen Haufen Patches von von Chris Wilson (Intel) ab. Ich denke es nicht so sehr die einzelnen Patches sondern der Summe und Zusammenwirken. Intel findet die Ursache einer Performance Regression nicht und Airlie möchte erstmal die Ursache gelöst haben oder wenigstens identifiziert - für den Fall das Intel dafür nicht verantwortlich zeichnet. Wilson verschleppt die Probleme dadurch, dass er versucht allgemein die Performance an vielen Stellen zu verbessern. Das Verschleppen halte ich in der Tat für gefährlich. Andererseits sollte man deswegen valide Fehlerbehebungen für identifizierte Probleme nicht zurückhalten. Die Patches enthalten wohl beides, Fehlerbehebungen und Verbesserungen.
NAK heißt vermutlich Not Acknowledged.
|
[Dieser Beitrag wurde 4 mal editiert; zum letzten Mal von hoschi am 06.08.2020 14:37]
|
|
|
|
|
|
TIL: Upowerd linkt gegen libplist. Weil letztere veraltet war, ging die Batterieanzeige von meinem Laptop länger nicht. Was erlaube Gnome?
|
|
|
|
|
|
|
|
|
|
|
der schlimme Teil der Nachricht: Scientists use Excel.
|
|
|
|
|
|
|
| Excel doesn’t offer the option to turn off this auto-formatting, and the only way to avoid it is to change the data type for individual columns. Even then, a scientist might fix their own data, but as soon as someone else opens the same spreadsheet in Excel without thinking, errors will be introduced all over again. | |
uff mich wundert es bei so Meldungen immer wieder warum der Laden in Redmond noch nicht angezündet wurde
|
|
|
|
|
|
|
| Zitat von GarlandGreene
der schlimme Teil der Nachricht: Scientists use Excel.
| |
Der Scheiss lebt von Excel. Der einzige Grund warum mein Name auf einem Paper rumschwirrt ist, weil ich in letzter Sekunde noch Excelscheisse gerettet habe
|
|
|
|
|
|
|
ich versteh ja eh nicht, warum man bei manchen Sachen nicht einfach die Daten in einen SQL-Server schießt und dann von da Excel nur noch als Aufbereitungstool nutzt. Schlimmstenfalls, wenn die Eingangsdaten auch alle nur Excel sind, einfach einen ETL-Prozess davorhängen, der auch problematische Daten sauber in die Datenbank übernimmt.
|
|
|
|
|
|
|
Weil es meistens scheissegal ist. Das schreibt alles keine Paper, und tragischerweise zählt das am meisten. Es ist selbst bei Informatikern oft schrecklich wie gearbeitet wird. Ausserhalb kümmert es keinen und interessiert praktisch niemanden.
|
|
|
|
|
|
|
sind das dann alles so fire&forget-Sachen? Weil bei lang laufenden Analysen (also nicht "komplexe Query", sondern eher "wir brauchen den Bericht die nächsten 5 Jahre wöchentlich") ist so eine Datenbank ja einfach viel stressfreier und schneller. Der Erstaufwand ist höher, aber das zahlt sich hintenraus 10fach aus. Aber wenn man da nur Adhoc-Analysen mit ständig wechselnden Datenstrukturen macht, kann ich zumindest verstehen, warum man da nicht jedes mal ein Datenmodell aufmalen möchte.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von GarlandGreene am 07.08.2020 8:59]
|
|
|
|
|
|
| Zitat von GarlandGreene
sind das dann alles so fire&forget-Sachen?
| |
Oft ist das so, aber auch wenn nicht interessiert es niemanden, etwas daran besser zu machen. IT ist nur im Weg von der echten Forschung und so.
| Zitat von GarlandGreene
Der Erstaufwand ist höher, aber das zahlt sich hintenraus 10fach aus.
| |
Würde man meinen, aber die Einsicht hat irgendwie niemanden.
Ich durfte die Misere 7 Jahre lang aus nächster Nähe mitverfolgen, bei Doktorarbeit + Postdoc meiner Freundin (Pharmazeutische Neurowissenschaften). Und was ich von anderen Bekannten so höre, sieht es in anderen Gruppen nicht besser aus, und das irgendwie Querbeet durch die Fachbereiche. Lustigerweise ist das Positivbeispiel bisher aus den Geisteswissenschaften. Bei meiner Freundin aber, war das alles eine einzige Katastrophe. Superaufwändige Analysen und Bilder wurden mit etlichen externen Harddisks und USB Sticks "backupped" weil man der IT "nicht traut". Als meine Freundin ein paar R-Kurse belegt hat um ihre Statistiksachen besser auswerten zu können meinte ihr Betreuer nur so "ja aber das gibst du mir schon als Excel, sonst kann ich das nicht nachvollziehen?". Korrekturen konnten nicht an einem PDF gemacht werden, sondern man musste den Rotz mit Pandoc zu einem Worddokument machen weil "ich sonst nicht korrigieren kann". Jetzt stell dir mal vor was passiert, wenn man vorschlägt die Daten irgendwie sinnvoll abzulegen...
Ich wurde ziemlich oft mett wenn ich gehört habe wie gearbeitet wird.
¤: Und klar, das ist rein anekdotisch, aber es ist nunmal sehr bezeichnend wenn man fast ausschliesslich sowas hört.
¤: Und was soll ich sagen, ich kenne bisher nur Grosskonzerne, die auch so funktionieren
|
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von SwissBushIndian am 07.08.2020 9:36]
|
|
|
|
|
|
ich hab vor einiger Zeit mal einen JRE-Podcast mit Sean Carroll geschaut, der hat auch ganz interessante Aussagen gemacht. Unter anderem, dass Quantenphysiker aktuell in der Philisophie viel besser aufgehoben sind als in der Physik, weil man da mit der ganzen Nachdenkerei nichts anfangen kann.
|
|
|
|
|
|
|
Ich musste jetzt länger als ich zugeben möchte überlegen, wass das mit dem Java Runtime Environment zu tun hat.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von SwissBushIndian am 07.08.2020 10:30]
|
|
|
|
|
|
| Zitat von GarlandGreene
ich hab vor einiger Zeit mal einen JRE-Podcast mit Sean Carroll geschaut, der hat auch ganz interessante Aussagen gemacht. Unter anderem, dass Quantenphysiker aktuell in der Philisophie viel besser aufgehoben sind als in der Physik, weil man da mit der ganzen Nachdenkerei nichts anfangen kann.
| |
Das stimmt so nicht. Also erst mal ist "Quantenphysiker" ein sehr wischiwaschi Begriff, denn Quantenphysiker bin ich auch, aber ich wäre in der Philosophie sicher nicht "viel besser aufgehoben". Was richtig ist, ist, dass das Funding in der Teilchenphysik stetig sinkt, was aber daran liegt, dass das in der Mitte des letzten Jhd. einfach unglaublich riesig war, und jetzt wieder eher auf ein normales Level schrumpft. In der Philosophie gibt es aber sicherlich noch weniger Mittel. Auf der anderen Seite gibt es für Quanteninformations und -optik im Moment eher mehr Geld, weil der Quantencomputer plötzlich realisierbar erscheint.
Bezüglich der Diskussion davor muss man natürlich sagen, dass wir uns hier die experimentellen Disziplinen, in denen es ein großes Spektrum von Datenverarbeitungsmethoden gibt. Große, langfristig angelegte Projekte haben feste Datenstrukturen und potente Auswertungsmethoden. Das CERN hat sich ja extra ihr C++ Interpreter Framework ROOT ausgedacht, um mit den gewaltigen Datenmengen ihrer Detektoren klarzukommen.
Bei uns ist es so, dass wir ständig neue Methoden entwickeln und daher unsere Datenauswertungen sich monatlich ändern. Die Rohdaten, die von unseren Bilddetektoren anfallen (das sind so ca ein paar GB pro Tag) speichern wir inzwischen in standardisierten Containern (hdf5 mostly), aber ich hab auch Kollegen die noch in csv oder selbst ausgedachten binärformaten speichern.
Wenn man aber Experimente macht, dessen Daten man auch noch per Hand in ein Buch schreiben könnte und nicht sehr savy mit Computern ist, dann wird man zur Auswertung entweder zu Excel oder zu etwas spezialisierteren Programmen (Origin, Igor Pro) greifen und ich finde dem ist jetzt auch nicht unbedingt was entgegenzusetzen. Dann ist aber klar, dass das jetzt nicht unbedingt die Leute sind, die verstehen warum Excel aus ihrem Gen-Code ein Datum macht.
|
|
|
|
|
|
|
Ich denke der grosse Unterschied kommt daher, dass es ohne die Technologie gar nicht möglich wäre, die Experimente durchzuführen, oder wie du sagst, mit den Daten klarzukommen. Da wird es dann plötzlich wichtig.
|
|
|
|
|
|
|
| Zitat von RichterSkala
Das stimmt so nicht. Also erst mal ist "Quantenphysiker" ein sehr wischiwaschi Begriff, denn Quantenphysiker bin ich auch, aber ich wäre in der Philosophie sicher nicht "viel besser aufgehoben". Was richtig ist, ist, dass das Funding in der Teilchenphysik stetig sinkt, was aber daran liegt, dass das in der Mitte des letzten Jhd. einfach unglaublich riesig war, und jetzt wieder eher auf ein normales Level schrumpft. In der Philosophie gibt es aber sicherlich noch weniger Mittel. Auf der anderen Seite gibt es für Quanteninformations und -optik im Moment eher mehr Geld, weil der Quantencomputer plötzlich realisierbar erscheint.
| |
soweit ich weiß ist Sean Carroll Theoretiker, wird vermutlich also eher wenig experimentieren. Die Argumentation ging so in die Richtung, dass das von der Tätigkeit her schon deutlich näher an der Philosophie liegt als an der Physik und die Philosophen da auch noch offener für neue Theorien sind.
|
|
|
|
|
|
|
| Zitat von RichterSkala
Wenn man aber Experimente macht, dessen Daten man auch noch per Hand in ein Buch schreiben könnte und nicht sehr savy mit Computern ist, dann wird man zur Auswertung entweder zu Excel oder zu etwas spezialisierteren Programmen (Origin, Igor Pro) greifen und ich finde dem ist jetzt auch nicht unbedingt was entgegenzusetzen. Dann ist aber klar, dass das jetzt nicht unbedingt die Leute sind, die verstehen warum Excel aus ihrem Gen-Code ein Datum macht.
| |
Ich finde schon, dass man den Einsatz schlechter Werkzeuge auch bei wenigen Daten kritisieren darf. Einerseits gibt es ja genug Beispiele warum Datenanalysen wegen "Automagie" in Excel kaputt gehen (wie das Datum-Parsing). Andererseits begrenzt ein Werkzeug schon auch immer den Rahmen des Denkbaren. Ich wage zu behaupten wer in Excel Analysen macht macht mit hoher Wahrscheinlichkeit kaputte Statistik. Weil nich-kaputte Statistik machen in Excel wirklich gar nicht so einfach ist. Die Tatsache, dass auch alle anderen kaputte Statistik machen und es deswegen ja nicht Auffällt ist auch nicht wirklich ermutigend. Unterhaltsamer Talk dazu.
|
|
|
|
|
|
|
| Zitat von GarlandGreene
der schlimme Teil der Nachricht: Scientists use Excel.
| |
Als Informatiker der in einem Institut für Biologie gearbeitet hat, kann ich dir sagen: Die Situation ist schlimm. Nicht nur, dass die Leute nicht mit Computern um gehen können, sie lernen es nicht und wollen es auch nicht lernen. Natürlich gibt es Ausnahmen, aber viele Biologen älteren Jahrgangs sehen Informatik nur als Mittel zum Zweck. Dass es ohne Informatik kein High-Throughput-Sequencing und keine moderne Genetik gäbe ist denen nicht klar. Alles ein ziemlich frustrierendes Umfeld.
|
|
|
|
|
|
|
Der 20 GB Intel Drop ist ja gut getrollt, das sind mindestens zur Hälfte öffentlicher und quasi-öffentlicher Krimskrams, inkl. Software (z.B. Performance Maximizer) und Treiber (diverse Chipsettreiber, Firmware-Images), die man auch einfach so runterladen kann. Und so richtig brisanter Shice wie äh... die Referenzbeschaltung vom i219 LAN-Chip! Oder ein Haufen NDAs!1
@Excel, xlsx->CSV (per Excel), Rest in SQLite, das versteht CSV ganz gut und sowas wie JOINs etc. geht einfach viel angenehmer als in Excel.
|
|
|
|
|
|
Thema: Der Linux-Thread 100 != 0x24 ( Ein Kernelupgrade später... ) |