Du bist nicht eingeloggt! Möglicherweise kannst du deswegen nicht alles sehen.
  (Noch kein mods.de-Account? / Passwort vergessen?)
Zur Übersichtsseite
Hallo anonymer User.
Bitte logge dich ein
oder registriere dich!
 Moderiert von: Irdorath, statixx, Teh Wizard of Aiz


 Thema: pOT-lnformatik, Mathematik, Physik XXIII
« erste « vorherige 1 ... 21 22 23 24 [25] 26 27 28 29 ... 51 nächste » letzte »
erste ungelesene Seite | letzter Beitrag 
Oli

AUP Oli 21.12.2018
Alles, was sich exponentiell verhält sollte logarithmisch dargestellt werden. Daraus lässt sich Wachstumsrate vergleichen und ablesen, der wichtigste Parameter bei solchen Daten.
03.10.2020 12:55:59  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Wraith of Seth

wraith_of_seth
Und wie hältst du es mit der Gitterlinie?

Go for the eyes Boo, GO FOR THE EYES!! RrraaaAAGHGHH!!!
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Wraith of Seth am 03.10.2020 12:58]
03.10.2020 12:58:49  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Oli

AUP Oli 21.12.2018
Jede nte zehnerpotenz.
03.10.2020 13:25:02  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
B0rG*

Gordon
 
Zitat von Oli

Alles, was sich exponentiell verhält sollte logarithmisch dargestellt werden. Daraus lässt sich Wachstumsrate vergleichen und ablesen, der wichtigste Parameter bei solchen Daten.



Unter der Maßgabe, dass man exponentielles Wachstum interpretieren kann und weiß was es bedeutet exponentielle Wachstumsraten zu vergleichen würde ich zustimmen. Ich weiß aber nicht ob ich behaupten würde ich habe ein Gefühl dafür was für Auswirkungen eine (kleine) Änderung einer exponentiellen Wachstumsrate hat. Aber kommt bestimmt auf die Anwendung an.

@WoS: Ah, mir war nicht klar, dass es dir spezill um die Gitterlinien geht. Ich finde es gut lineare Hilfslinien einzuzeichnen (die ja dann wie du sagst im logarithmischen Plot so gestaffelt sind), weil es ohne auf Achsen schauen zu müssen betont, dass der Plot eben nicht linear ist. Ich würde wohl die Potenzen kontrastreicher als die Hilfslinien einzeichnen.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von B0rG* am 03.10.2020 14:02]
03.10.2020 14:02:00  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
R

Arctic
Gitterlinien überladen schnell den Plot. Ticks reichen imho, gerade, weil man mit den abgelesenen Werten aus dem Graphen meist nicht weiterrechnet...

Für Physiker als Adressaten müssen selbst Ticks nicht unbedingt sein, da diese eigentlich oft genug log. Plots gesehen haben sollten (!) und lineare Ticks nicht so üblich sind.

-> Pro log. Scala. Mit lin. Ticks, wenn du das Publikum magst.
03.10.2020 14:23:53  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
PutzFrau

Phoenix Female
Eine Frage, 3 Antworten, 10 Meinungen. Plots sind echt eine komplizierte Angelegenheit (kein Sarkasmus versteckt hier)

03.10.2020 14:48:55  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
csde_rats

AUP csde_rats 04.09.2021
In der Elektronik hat man ja sehr häufig semilog-Plots, die sind zu 99 % mit Gitter (dicke Linie bei der Zehnerpotenz, alle 10 % gestrichelt), dann sieht man direkt, dass es semilog ist und es ist leicher abzulesen.

 
Zitat von B0rG*

Ich finde logarithmische Graphen sind ein wunderbares Mittel um sich selbst zu belügen und falsche Intuition aufzubauen. Es gibt Ausnahmen die sich von Natur aus logarithmisch verhalten (Audio vielleicht?), aber in den meisten Fällen finde ich logarithmische Skalen eher schlecht als gut. Aktuelles Beispiel: COVID-Fallzahlen in logarithmischen Plots halte ich für eine sehr blöde Idee, speziell wenn man darin dann noch Vergleiche (wie etwa zwischen Ländern) anstellt.



Ich glaube die meisten Sinnesreize verhalten sich logarithmisch.
- Auge / Helligkeit: Definitiv
- Lautstärke: Definitiv
- Taktiler Druck: Auch, oder? Man kann ja z.B. mit den Fingerspitzen die kleinste Berührung fühlen, aber auch mit x-Kilo zudrücken.
- Geschmack: Ähh... Breites Grinsen
- Geruch: Winzige Konzentrationen, starke Gestänker. Klingt log-isch.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von csde_rats am 03.10.2020 14:55]
03.10.2020 14:54:39  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Wraith of Seth

wraith_of_seth
Ja, das ist das Weber-Fechnersche Gesetz.

Aber das heißt nicht, dass wir das verstehen. Ich glaube, ich gehe nach Rs Argument, dass eh kaum noch wer aus dem Graphen Werte zur Verarbeitung ablesen wird und packe das offensichtlich Logarithmische von Hilfsgittern in die Ticks.

...und behalte den Code, nur zur Sicherheit, weil Mathematica einfach grausig zu lesen ist. Lieber was auf Halde als noch mal drüber "nachdenken"* müssen.

*) Unverstandenes trial-and-error bis es klappt.

 
Zitat von csde_rats

- Geschmack: Ähh... Breites Grinsen


Das ist zwar irgendwo zwischen Geschmack und Wärmeempfinden, aber die Scoville-Skala ist auch logarithmisch.

It is written with the zeal of a missionary preaching to cannibals.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Wraith of Seth am 03.10.2020 15:39]
03.10.2020 15:18:15  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
RichterSkala

AUP RichterSkala 31.12.2010
 
Zitat von B0rG*

Ich finde logarithmische Graphen sind ein wunderbares Mittel um sich selbst zu belügen und falsche Intuition aufzubauen. Es gibt Ausnahmen die sich von Natur aus logarithmisch verhalten (Audio vielleicht?), aber in den meisten Fällen finde ich logarithmische Skalen eher schlecht als gut. Aktuelles Beispiel: COVID-Fallzahlen in logarithmischen Plots halte ich für eine sehr blöde Idee, speziell wenn man darin dann noch Vergleiche (wie etwa zwischen Ländern) anstellt.


Funny, denn bei der R-Zahl wäre vielleicht eine log. Skala sinnvoller als die lineare...


Bei mir sind log, semilog, log-colorscales und symlog-colorscales Gang und Gebe, aber es geht ja auch um Signale...
03.10.2020 18:28:35  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
B0rG*

Gordon
 
Zitat von RichterSkala

Funny, denn bei der R-Zahl wäre vielleicht eine log. Skala sinnvoller als die lineare...



In welcher Form?
03.10.2020 18:37:51  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
RichterSkala

AUP RichterSkala 31.12.2010
Denke ln(R) gibt die aktuelle Infektionsdynamik besser wieder als R alone.
03.10.2020 19:24:25  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Wraith of Seth

wraith_of_seth
...
Da es woanders ja schon auftauchte, auch hier nochmal: Mit Roger Penrose hat mathematische Relativitätstheorie einen Nobelpreis bekommen - das ist ziemlich cool und für mich unerwartet.

Ich hoffe, dass das trotz COVID positive Auswirkungen auf meine Jobchancen haben könnte...peinlich/erstaunt

Das sind jetzt schon zwei bis drei ART-verwandte Nobelpreise in relativ wenigen Jahren.\o/

Being the only child of an evil corporate overlord has a few very distinct advantages.
07.10.2020 1:43:02  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Wraith of Seth

wraith_of_seth
Frage
Gibt es eine Art Kriterium/Regel, wann man asymptotische Reihen gefahrlos verketten kann?

Sagen wir, ich habe zwei Funktionen f und g, und betrachte f(g(x)). Wann ist die (ggf. asymptotische) Reihenentwicklung von f(g(x)) um ein x_0 die gleiche wie die, wenn ich f(asymptotische Reihe von g(x)) betrachte? Solange ich eine echte Taylorreihe habe, x im Konvergenzradius für g ist und g(x) in dem von f, sollte das einfach eine (aufwändige) Folge der Kettenregel sein. Aber wenn ich jetzt eben keine Taylorreihe habe, sondern etwas allgemeineres? Mein Gefühl sagt mir, dass man da höllisch aufpassen muss, aber ich habe noch kein gutes Gegenbeispiel gefunden... Oder garantiert mir Proposition 7.3.1 hier, was ich mache?

Yes Boo, I agree. This group could do with a swift kick in the morals.
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von Wraith of Seth am 09.10.2020 6:26]
09.10.2020 6:22:53  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
b4ckspin

tf2_medic.png
Computer Scientists Break Traveling Salesperson Record

 
Code:
...though they were only able to subtract 0.2 billionth of a trillionth of a trillionth of a percent. 
Yet this minuscule improvement breaks through both a theoretical logjam and a psychological one. 
Researchers hope that it will open the floodgates to further improvements.


Neat
09.10.2020 11:26:14  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
PutzFrau

Phoenix Female
Nice nice! TSP ist schon sehr cool.

Wenn ich richtig verstehe, ist mir der "shortest" tree als Minimum spanning tree bekannt.

10.10.2020 17:03:45  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
red

AUP Redh3ad 11.10.2009
Für die Leute, die öfter mit Jupyter-Notebooks arbeiten, könnte das hier interessant sein: https://datalore.jetbrains.com/

Mehr als den Einführungsblogpost hab ich aber auch nicht gelesen.
https://blog.jetbrains.com/pycharm/2020/10/datalore-by-jetbrains-online-jupyter-notebooks-editor-with-pycharm-s-code-insight/
12.10.2020 21:09:38  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
homer is alive

AUP homer is alive 14.03.2022
 
Zitat von red

Für die Leute, die öfter mit Jupyter-Notebooks arbeiten, könnte das hier interessant sein: https://datalore.jetbrains.com/

Mehr als den Einführungsblogpost hab ich aber auch nicht gelesen.
https://blog.jetbrains.com/pycharm/2020/10/datalore-by-jetbrains-online-jupyter-notebooks-editor-with-pycharm-s-code-insight/


Ich frage mich, ob das nicht eine ziemliche Datenkrake ist. Irgendwie muss ja die Smart-Coding-Assistance auch gefüttert werden.

@borg: benutzt du zufällig pyro oder numpyro? oder pymc4?
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von homer is alive am 13.10.2020 15:32]
13.10.2020 15:31:12  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
B0rG*

Gordon
Nein, benutze nichts davon produktiv und habe auch keine Meinung zu glaube ich. Wenn ich jetzt ein MC-Framework bräuchte, dann würde ich sie wohl in der Reihenfolge PyMC4 > NumPyro > Pyro ausprobieren, aber das liegt nur an meinen Vorurteilen und daran dass ich ein Tensorflow-Guy bin.
13.10.2020 17:20:05  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
homer is alive

AUP homer is alive 14.03.2022
Tensorflow probability?

Mein Problem ist, dass ich ein Feature (Proportion zwischen 0,1/zusammengesetzt aus observations und successes, die ich beobachten kann, also binomial) mit einem Beta-Prior glätten möchte. Leider sind meine means/map estimates

(alpha+successes)/(alpha+beta+observations) bzw mit -1/-2 in Nenner und Zähler

immer noch nicht ausreichend glättend, gerade bei Low-frequency-Problemen (z.b. 1 success bei 1 Observation, normal ist mein p=0.02 oder so) bekomme ich Werte um die 0.9. Meine priors leite ich aus den Daten ab (Moment matching). Jetzt wollte ich mit pymc3 und mcmc ein hierarchischens Modell mit partial pooling machen, aber es ist so brutal langsam, dass ich es gleich sein lassen kann. Ich habe mindestens mal 100000 Datenpunkte in 400 Clustern und das ganze noch 50-mal, aber schon bei 10000 Beobachtungen laufe ich aus dem Speicher. Ich dachte an variational inference. Oder hast du eine bessere Idee?
13.10.2020 23:23:52  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Wraith of Seth

wraith_of_seth
...
Die wirklich wichtigen Dinge sind auch mit der Unreal Engine drin: https://twitter.com/OverdrawXYZ/status/1316066431684030464

_______________


Ich lass auch das mal hier:


Freedom is just another word for nothing left to lose.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Wraith of Seth am 16.10.2020 9:13]
15.10.2020 6:42:28  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Aminopeptid

Arctic
Heute drüber gestolpert: http://www.aistudy.co.kr/paper/aaai_journal/AIMag06-01-003.pdf

Faszinierend.
16.10.2020 23:46:11  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
B0rG*

Gordon
 
Zitat von homer is alive

Tensorflow probability?

Mein Problem ist, dass ich ein Feature (Proportion zwischen 0,1/zusammengesetzt aus observations und successes, die ich beobachten kann, also binomial) mit einem Beta-Prior glätten möchte. Leider sind meine means/map estimates

(alpha+successes)/(alpha+beta+observations) bzw mit -1/-2 in Nenner und Zähler

immer noch nicht ausreichend glättend, gerade bei Low-frequency-Problemen (z.b. 1 success bei 1 Observation, normal ist mein p=0.02 oder so) bekomme ich Werte um die 0.9. Meine priors leite ich aus den Daten ab (Moment matching). Jetzt wollte ich mit pymc3 und mcmc ein hierarchischens Modell mit partial pooling machen, aber es ist so brutal langsam, dass ich es gleich sein lassen kann. Ich habe mindestens mal 100000 Datenpunkte in 400 Clustern und das ganze noch 50-mal, aber schon bei 10000 Beobachtungen laufe ich aus dem Speicher. Ich dachte an variational inference. Oder hast du eine bessere Idee?



Also das bisschen das ich mit pymc3 rumgespielt habe war meine Erfahrung auch, dass es langsam und ein wenig unzuverlässig ist. Aber ich bin auch nicht gut in MC-Voodoo. Ich habe ein paar kleine HMC-Sachen in Tensorflow-Probability direkt implementiert und würde sagen es ist schon sehr Bare-Bones, also man muss recht viel Code schreiben und schon wissen was man will. In deinem Fall kannst du aber vielleicht auch mit Edward weiterkommen, das ist ja mittlerweile auch Teil von Tensorflow-Probability.

Bezüglich der Algorithmik ein ad-hoc Gedanke: Kannst du variationale Annahmen zur Unabhängigkeit machen, um das Problem vielleicht aufzuteilen in mehrere kleienre Inferenzprobleme? Wenn du über Cluster (oder Daten) faktorisieren kannst hilft das bestimmt. Aber das ist jetzt schon sehr allgemeines Handwaving, konkrete Vorschläge kann ich dir leider keine machen.
17.10.2020 1:13:02  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
BulletTime

Arctic
Noch nie damit befasst aber bevor ich jetzt einfach blind ausprobiere:
Mag jemand Software für Reference Management empfehlen? Sollte mit Linux klar kommen.
19.10.2020 10:42:39  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Irdorath

AUP Irdorath 08.12.2020
Hab früher Zotero benutzt und war zufrieden. Mittlerweile hab ich nur noch ein literature.bib file, mit doi2bib ist ein Eintrag so schnell erzeugt, dass ich keine zusätzliche Software mehr brauche.
19.10.2020 10:47:46  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Aminopeptid

Arctic
Ich nutze JabRef, das es für Linux gibt und bin damit sehr zufrieden. Richtig cooles Ding. Das zusammen mit TexStudio lässt mir bei mir keine Wünsche offen.

https://www.jabref.org/



// Ich hab auch eine Frage: Weiß jemand, mit welchen Tools/Frameworks man so coole Webmaps hinbekommt, wie das Zeit-Online hier gebaut hat? https://www.zeit.de/wissen/gesundheit/coronavirus-echtzeit-karte-deutschland-landkreise-infektionen-ausbreitung

Besonders faszinierend finde ich, dass wirklich jeder Landkreis an seinen Grenzen entlang interaktiv bedienbar ist. Oder haben die da einfach selbst massig Webentwicklung reingesteckt und das ist was Eigenes?
[Dieser Beitrag wurde 3 mal editiert; zum letzten Mal von Aminopeptid am 19.10.2020 11:15]
19.10.2020 10:54:19  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
homer is alive

AUP homer is alive 14.03.2022
Wenn du Python programmieren kannst, ist es relativ einfach.

Du musst an die Datenzuordnung von Landkreis zu Fällen die Locations joinen (pandas merge) und dann geht es mit Plotly:
https://plotly.com/python/bubble-maps/

Ich vermute, die größere Schwierigkeit ist, die Daten zu bekommen.

Plotly kannst du übrigens direkt als HTML exportieren.
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von homer is alive am 19.10.2020 11:30]
19.10.2020 11:21:59  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Aminopeptid

Arctic
Krass. Wenn ich das richtig sehe, kommen da sogar die Länderdaten mit den Kreisgrenzen usw. auch schon mit. unglaeubig gucken
19.10.2020 11:29:24  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
homer is alive

AUP homer is alive 14.03.2022
 
Zitat von Aminopeptid

Krass. Wenn ich das richtig sehe, kommen da sogar die Länderdaten mit den Kreisgrenzen usw. auch schon mit. unglaeubig gucken


Ich glaube, du bekommst folgendes:

Landkreise: https://www.destatis.de/DE/Themen/Laender-Regionen/Regionales/Gemeindeverzeichnis/Administrativ/Archiv/GVAuszugQ/AuszugGV3QAktuell.html

PLZ zu Koordinaten: https://public.opendatasoft.com/explore/dataset/postleitzahlen-deutschland/table/

Covid-Fälle pro Landkreis: https://www.arcgis.com/home/item.html?id=f10774f1c63e40168479a1feb6c7ca74
19.10.2020 11:39:27  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
B0rG*

Gordon
 
Zitat von Irdorath

Hab früher Zotero benutzt und war zufrieden. Mittlerweile hab ich nur noch ein literature.bib file, mit doi2bib ist ein Eintrag so schnell erzeugt, dass ich keine zusätzliche Software mehr brauche.



Zotero beschde. Benutze das um Ordnung zu halten bei meinen Referenzen und dank Synchronisierung auch nicht nur die Referenz sondern auch das Paper (oder Fachbuch) selbst immer zur Hand zu haben. Dank automatischem biblatex-Export muss ich auch nie in der Bibliographie von Latex rumdoktorn und die Dinge sind schön konsistent. Cooles Tool!
19.10.2020 12:50:02  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
homer is alive

AUP homer is alive 14.03.2022
 
Zitat von B0rG*

 
Zitat von homer is alive

Tensorflow probability?

Mein Problem ist, dass ich ein Feature (Proportion zwischen 0,1/zusammengesetzt aus observations und successes, die ich beobachten kann, also binomial) mit einem Beta-Prior glätten möchte. Leider sind meine means/map estimates

(alpha+successes)/(alpha+beta+observations) bzw mit -1/-2 in Nenner und Zähler

immer noch nicht ausreichend glättend, gerade bei Low-frequency-Problemen (z.b. 1 success bei 1 Observation, normal ist mein p=0.02 oder so) bekomme ich Werte um die 0.9. Meine priors leite ich aus den Daten ab (Moment matching). Jetzt wollte ich mit pymc3 und mcmc ein hierarchischens Modell mit partial pooling machen, aber es ist so brutal langsam, dass ich es gleich sein lassen kann. Ich habe mindestens mal 100000 Datenpunkte in 400 Clustern und das ganze noch 50-mal, aber schon bei 10000 Beobachtungen laufe ich aus dem Speicher. Ich dachte an variational inference. Oder hast du eine bessere Idee?



Also das bisschen das ich mit pymc3 rumgespielt habe war meine Erfahrung auch, dass es langsam und ein wenig unzuverlässig ist. Aber ich bin auch nicht gut in MC-Voodoo. Ich habe ein paar kleine HMC-Sachen in Tensorflow-Probability direkt implementiert und würde sagen es ist schon sehr Bare-Bones, also man muss recht viel Code schreiben und schon wissen was man will. In deinem Fall kannst du aber vielleicht auch mit Edward weiterkommen, das ist ja mittlerweile auch Teil von Tensorflow-Probability.

Bezüglich der Algorithmik ein ad-hoc Gedanke: Kannst du variationale Annahmen zur Unabhängigkeit machen, um das Problem vielleicht aufzuteilen in mehrere kleienre Inferenzprobleme? Wenn du über Cluster (oder Daten) faktorisieren kannst hilft das bestimmt. Aber das ist jetzt schon sehr allgemeines Handwaving, konkrete Vorschläge kann ich dir leider keine machen.


Danke für die Antwort. Leider komme ich auf keinen grünen Zweig. Ich versuche es dann lieber weiter über Moment Matching und sortiere die Daten aus, aus denen ich die Momente berechne. Ich muss ja nichts veröffentlichen, hauptsache es funktioniert peinlich/erstaunt
19.10.2020 13:43:45  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
 Thema: pOT-lnformatik, Mathematik, Physik XXIII
« erste « vorherige 1 ... 21 22 23 24 [25] 26 27 28 29 ... 51 nächste » letzte »

mods.de - Forum » Public Offtopic » 

Hop to:  

Thread-Tags:
pimp 
Mod-Aktionen:
19.11.2021 15:40:37 Atomsk hat diesen Thread geschlossen.
05.04.2020 13:23:20 red hat diesem Thread das ModTag 'pimp' angehängt.

| tech | impressum