Du bist nicht eingeloggt! Möglicherweise kannst du deswegen nicht alles sehen.
  (Noch kein mods.de-Account? / Passwort vergessen?)
Zur Übersichtsseite
Hallo anonymer User.
Bitte logge dich ein
oder registriere dich!
 Moderiert von: Irdorath, statixx, Teh Wizard of Aiz


 Thema: pOT-lnformatik, Mathematik, Physik XXIII
« erste « vorherige 1 ... 13 14 15 16 [17] 18 19 20 21 ... 51 nächste » letzte »
erste ungelesene Seite | letzter Beitrag 
Virtus

Arctic
Ist das eines der Ergebnisse beim Betrieb des Large Hardon Colliders?

¤: Auf der Heide kollidieren nur Panzer.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Virtus am 05.08.2020 20:20]
05.08.2020 20:19:22  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Wraith of Seth

wraith_of_seth
Aufgrund der kosmischen Zensur darf ich mich nicht dazu äußern.traurig

The great thing about physical intuition is that it can be adjusted to fit the facts.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Wraith of Seth am 05.08.2020 20:52]
05.08.2020 20:51:37  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
horscht(i)

AUP horscht(i) 14.09.2014
 
Zitat von Wraith of Seth

Aber ich weiß nicht mal, ab wann was nur noch Molekül ist und wann es schon Nanoteilchen ist. Wiki half mir da nicht. Die Paper sind meist auch mehr "Guck wie geil wir sind!"-Kondensierte-Materie/Chemie-Name-Dropping-Schwanzvergleiche als hilfreiche Einführungen.


Da gibt's auch keine allgemein anerkannte Regel..."Nano" ist als Begriff einfach marketingversucht. Und selbst, wenn das betrachtete Objekt eher Mikro oder gar meso ist, wird doch sicher auf der Oberfläche irgendein Effekt beobachtbar sein, der irgendwie bei Nano spielt. Und schwupps, auch "Nano".

Schreib dein Paper, freu dich über die Likes und zieh dir ein Bier.
06.08.2020 23:47:39  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Irdorath

AUP Irdorath 08.12.2020
https://spie.org/conferences-and-exhibitions/spieonline/career-advancement?SSO=1

 
Delivering Your Presentation Remotely with Jean-luc Doumont

The Career Development Webinar Series dives into meaningful issues impacting optics and photonics careers across academia, government agencies, and the private commercial sector. For one hour several times each month, join an interactive virtual chat on specific topics to help drive your career forward.

When circumstances oblige you to deliver your presentation remotely from your office, your home, or even a hotel room, you face additional challenges, technological and otherwise. This remote lecture discusses and demonstrates the necessary adaptations to your tools, your environment, and your delivery so as to focus the attention of the audience, minimize distractions, and get your message across optimally.

In this webinar, you will learn:
• How to decide what (not) to share through the videoconference platform,
• How to rearrange your work environment for a high signal-to-noise ratio,
• How to adapt your verbal, vocal, and visual delivery for remote presentations.



Heute abend um 18 Uhr CEST. Kostenlos, aber man muss sich vorher registrieren. Der Talk ist wohl ne verkuerzte und angepasste Version seines Praesentationstrainings, was Kollegen schon hochgelobt haben. Hab selbst bei ihm ein Webinar zu Posterdesign gemacht, das war richtig gut. Kann man mal reinklicken.
13.08.2020 10:32:37  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Zwiebelgerd

Ball
I am pleased to inform you that your manuscript has been accepted for publication.  

Würd euch das Paper gerne zeigen, insbesondere dem 3D-Drucker-Thread, weil da von mir zu Hause gedruckte Teile eine tragende Rolle spielen, aber dann kennt ihr meinen vollen Namen Breites Grinsen
13.08.2020 10:54:35  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
SwissBushIndian

AUP SwissBushIndian 07.11.2011
Du heisst nicht Gerd Zwiebel? Erschrocken
13.08.2020 11:01:07  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
B0rG*

Gordon
 
Zitat von Zwiebelgerd

I am pleased to inform you that your manuscript has been accepted for publication.  



Glückwunsch
13.08.2020 12:18:30  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Der Büßer

AUP Der Büßer 06.12.2019
 
Zitat von SwissBushIndian

Du heisst nicht Gerd Zwiebel? Erschrocken



Eigentlich heißt er Giebel Zwerd.

Ähnlich raffinierter Deckname also wie bei Treblig.
13.08.2020 19:31:30  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
statixx

AUP statixx 14.11.2023
 
Zitat von SwissBushIndian

Du heisst nicht Gerd Zwiebel? Erschrocken


Wie sonst?

13.08.2020 19:58:05  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Der Büßer

AUP Der Büßer 06.12.2019
Statixx heißt ja auch im echten Leben Siegfried Rauschmeier.

Ich dachte alle Nicknames hier (außer Seconds natürlich) müssen Bezug zum echten Namen aufweisen.

Assfly jedenfalls heißt Augustus Aschflege.
14.08.2020 7:10:13  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Gurkenhans

Arctic
 
Zitat von Der Büßer

Ich dachte alle Nicknames hier (außer Seconds natürlich) müssen Bezug zum echten Namen aufweisen.



!
14.08.2020 10:23:05  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Der Büßer

AUP Der Büßer 06.12.2019
Hallo Johannes!
14.08.2020 16:36:26  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Wraith of Seth

wraith_of_seth
Wenn man dem hier Glauben schenken darf, sollten matplotlib-Farbpaletten für SageMath nutzbar sein. Ich kann sie auch laden, bekomme aber nur RGBA-Listen (4-Tupel) zurück statt 3-Tupeln, wie Sage sie will.

Übersehe ich was? Perfiderweise gibt es zumindest eine Funktion rainbow() in Sage, die eine RGB-Farbliste (von Strings) von Länge des Arguments liefert - nur ist das NICHT das selbe wie colormaps.rainbow(), was für jede Zahl als Argument EINE Farbe zurückgibt. In RGBA. Hässlon

Ist da einfach der Farbraum von Matplotlib irgendwann geändert worden und Sage machte nicht mit?

Wie bekomme ich jetzt am elegantesten meine RGB-Listen die mit rainbow() kompatibel sind?

Beispiel:
 
Code:
colormaps.rainbow(5)
rainbow(5)
-> (0.4607843137254902, 0.061560906133942835, 0.9995257197133659, 1.0)
-> ['#ff0000', '#cbff00', '#00ff66', '#0066ff', '#cc00ff']

[/code]

Where Wikipedia leads, I follow. BAAAAAH.
19.08.2020 4:56:29  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
csde_rats

AUP csde_rats 04.09.2021
"#%02X%02X%02X" % (int(0.46 * 255), ...)

%02X => "Mit 0en bis 2 Stellen aufgefüllt, heXadezimal".
19.08.2020 12:46:41  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Wraith of Seth

wraith_of_seth
...
Danke! Das verstehe ich ja sogar.Breites Grinsen

...was für eine Scheiße, ey.

Du gewinn den Nobelpreis und halt den Schnabel
19.08.2020 13:31:49  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Wraith of Seth

wraith_of_seth
https://paulmasson.github.io/webxr-worlds/functions/

Jetzt will ich ein VR-Headset.traurig

Well, nobody's perfect!
21.08.2020 4:51:07  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
PutzFrau

Phoenix Female
Hatte kürzlich gepostet, dass mein alter Boss Leute sucht für Machine Learning/Computer Vision im Neuroscience Kontext. Arbeitsort ist in Northern Virginia, USA, aber, zumindest bis die Corona (und orange-farbene) Lage besser ist, remote/home office möglich. Ausgeschrieben sind zwei Stellen, Post Doc und Software Engineer. Bei Interesse PM an mich und ich teile die Links.

24.08.2020 15:15:53  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Wraith of Seth

wraith_of_seth
Mist, eine Stelle auf die ich mich bewerben wollte, entpuppt sich nach kurzer Recherche als Katastrophe: Der Mensch, mit dem man zusammenarbeiten würde, hat sich auf Konferenzen wiederholt als Bullshit-Artist erster Güte entpuppt, mit einem Bein fest im Crackpot-Territorium. traurig Dabei wäre das Forschungsinstitut an sich renommiert und bekannt - nur auf meinem Gebiet tummelt sich nur diese Person dort.traurig

Proposal concept #30: You propose at a close friends funeral. - Next.
25.08.2020 6:38:10  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Irdorath

AUP Irdorath 08.12.2020
Ich brauche erschreckend elementare Hilfe mit Fehlerfortpflanzung. Breites Grinsen

Ich habe eine Messgroesse, nennen wir sie, in Einklang mit dem Wikiartikel,
A
.
Ich kann (dank Monte Carlo Simulation)
Var(A)
gut schaetzen, mich interessiert die Standardabweichung von
f(A) = 1 - A + A^2
.
Die Funktion f ist nicht linear, also first order Taylor draufballern um einen Expansionspunkt
y
:
f(A) ~= f(y) + d/dA f(y) * (A-y)

und folglich
Var(f(A)) ~= (d/dA f(y))^2 * Var(A) = (-1+2y)^2 Var(A)
.

Eine Abhaengigkeit vom gewaehlten Expansionspunkt ist okay, da ich damit die Guete der First Order Taylor Expansion kontrolliere. Aber wie baue ich das sinnvoll zusammen, offensichtlich krieg ich mit
y=0
den kleinsten Fehlerterm, aber zum einen finde ich
Var(1-A)= Var(1-A+A^2)
merkwuerdig, und zum anderen haette ich intuitiv den kleinsten Fehler bei Expansion um
y=E[1-A+A^2]
erwartet?

/Achso, ich kenn natuerlich nicht die Verteilung von A (bzw.
Cov[A,A^2]
), sonst wuerde ich
Var(f(A))
natuerlich einfach ausrechnen.
//Ich koennte die Kovarianz natuerlich auch aus meiner MC Simulation ziehen, aber ich hab noch weitere nicht-lineare Funktionen
f
, spaetestens da braeuchte ich dann wieder Hilfe.
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von Irdorath am 25.08.2020 13:27]
25.08.2020 13:20:26  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
B0rG*

Gordon
Wenn du eine nichtlineare Funktion linear approximierst wird die Varianzschätzung auch linear sein. Diese "Gleichheit" ist der Fehler den die Taylor-Approximation macht. Linearisierung ist ziemlich oft ziemlich fies falsch.

Ich würde entweder vorschlagen durch die Funktion einfach durchzusamplen, wenn du eh schon Monte Carlo machst gibt es keinen Grund gerade da aufzuhören vermutlich. Alternativ, wenn es dir wirklich nur um die Varianz geht, dann sieht das irgendwie so einfach aus dass man da eine bessere Näherung als Linearisierung angeben könnte. Wie du vorschlägst zum Beispiel indem du die Kovarianz der Terme in f schätzt.
25.08.2020 14:04:01  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
horscht(i)

AUP horscht(i) 14.09.2014
 
Zitat von Irdorath

Ich brauche erschreckend elementare Hilfe mit Fehlerfortpflanzung. Breites Grinsen

Ich habe eine Messgroesse, nennen wir sie, in Einklang mit dem Wikiartikel,
A
.
Ich kann (dank Monte Carlo Simulation)
Var(A)
gut schaetzen, mich interessiert die Standardabweichung von
f(A) = 1 - A + A^2
.
Die Funktion f ist nicht linear, also first order Taylor draufballern um einen Expansionspunkt
y
:
f(A) ~= f(y) + d/dA f(y) * (A-y)

und folglich
Var(f(A)) ~= (d/dA f(y))^2 * Var(A) = (-1+2y)^2 Var(A)
.

Eine Abhaengigkeit vom gewaehlten Expansionspunkt ist okay, da ich damit die Guete der First Order Taylor Expansion kontrolliere. Aber wie baue ich das sinnvoll zusammen, offensichtlich krieg ich mit
y=0
den kleinsten Fehlerterm, aber zum einen finde ich
Var(1-A)= Var(1-A+A^2)
merkwuerdig, und zum anderen haette ich intuitiv den kleinsten Fehler bei Expansion um
y=E[1-A+A^2]
erwartet?

/Achso, ich kenn natuerlich nicht die Verteilung von A (bzw.
Cov[A,A^2]
), sonst wuerde ich
Var(f(A))
natuerlich einfach ausrechnen.
//Ich koennte die Kovarianz natuerlich auch aus meiner MC Simulation ziehen, aber ich hab noch weitere nicht-lineare Funktionen
f
, spaetestens da braeuchte ich dann wieder Hilfe.


Der Wiki Artikel führt einen Punkt "Simplification" auf. Die dort aufgeführte Gleichung müsste Gaußsche Fehlerfortpflanzugn sein und führt dich sehr simpel zur Varianz von f.
Da du keine zweite Variable angibst, sind Korrelationen zwischen Variablen vermutlich kein Problem

TeX: s_f = \sqrt{ \left(\frac{\partial f}{\partial x}\right)^2 s_x^2 + \left(\frac{\partial f}{\partial y} \right)^2 s_y^2 + \left(\frac{\partial f}{\partial z} \right)^2 s_z^2 + \cdots}
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von horscht(i) am 25.08.2020 15:04]
25.08.2020 15:01:44  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
B0rG*

Gordon
Das ist Linearisierung.
25.08.2020 15:09:09  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
horscht(i)

AUP horscht(i) 14.09.2014
Hups.
26.08.2020 8:41:58  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Wraith of Seth

wraith_of_seth
Ich mag (nicht), wie jeder Physiker eigentlich nur Gaußsche Fehlerfortpflanzung jemals lernt, als wäre es, wie Fehlerfortpflanzung halt exakt funktioniert...traurig

...man kann sich ja schon glücklich schätzen, wenn man mal die nicht diagonale Form gesehen hat.traurig

I am over 18 and clicking a button.
26.08.2020 9:08:40  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
horscht(i)

AUP horscht(i) 14.09.2014
Ich habe tatsächlich mal ein kleines Buch zu Fehlerrechnung gelesen.

Aber ja, unterm Strich gab es im Studium und allen Praktika Gaußfehler und Maximalfehlerabschätzung und fertig.
26.08.2020 10:21:47  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Oli

AUP Oli 21.12.2018
verschmitzt lachen
Ich habe heute eine standardabweichung aus drei Punkten ermittelt. Would do again.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Oli am 26.08.2020 10:23]
26.08.2020 10:23:02  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Wraith of Seth

wraith_of_seth
Ok, ML macht es noch schlechter, keine Kunst.verschmitzt lachen

Punchline... Forming...
26.08.2020 10:34:47  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
B0rG*

Gordon
 
Zitat von horscht(i)

Aber ja, unterm Strich gab es im Studium und allen Praktika Gaußfehler und Maximalfehlerabschätzung und fertig.



Ich verstehe nicht so recht, warum das Konzept "Fehlerfortpflanzung" überhaupt gesondert existiert. Habe ich so auch bisher nur in der Physik gesehen. Hat das historische Gründe? Man macht da (einfache und approximative) Bayesianische Statistik, gibt dem aber dann einen verschleiernden Namen. Wie wird das im Studium denn eingeführt?

#Team3PunktStatistik
26.08.2020 11:38:23  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Irdorath

AUP Irdorath 08.12.2020
Die Bezeichnung als Linearisierung war sehr hilfreich, also so fuer die Intuition. Wenn ich nur den Linearteil behalte, sollte ja eigentlich klar sein, was passiert. Breites Grinsen

Ich hab meinen Post so genannt, um die Physiker hinterm Ofen vorzulocken und weil ich es als Buzzword im Hinterkopf hatte. Kam damit im Studium nicht in Beruehrung, im Grunde sind es ja nur irgendwelche Momentschaetzer?
Womit es dann auch ein wenig fucky wird, dann eigentlich will ich das erste Moment
E[exp(-A)]
approximieren. Auf diese Approximationen werden jetzt also irgendwelche Schaetzer ihres zweiten Moments geworfen, ich sollte sehr vorsichtig mit meiner Notation sein. peinlich/erstaunt
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Irdorath am 26.08.2020 11:54]
26.08.2020 11:52:47  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
B0rG*

Gordon
 
Zitat von Irdorath

Ich hab meinen Post so genannt, um die Physiker hinterm Ofen vorzulocken und weil ich es als Buzzword im Hinterkopf hatte. Kam damit im Studium nicht in Beruehrung, im Grunde sind es ja nur irgendwelche Momentschaetzer?



Ja, das sind nur Monte-Carlo Approximationen von Integralen. Im Allgemeinen ist Unsicherheitspropagation schwierig und sehr schnell nicht lösbar. Es gibt den schönen Spezialfall dass Normalverteilungen unter affinen Transformationen abgeschlossen sind und man eine schöne geschlossene Form angeben kann, deshalb ist es sehr beliebt, das auch zu tun. Looking at you, Kalman-Filter.

Ich als Bayesianer würde die Integrale hinschreiben, die ich gerne ausrechnen möchte und dann statt Schätzern von (approximativen) Inferenzalgorithmen (Monte Carlo zum Beispiel) oder von einer variationalen Approximation sprechen. Kommt aber sicherlich am Ende auf's selbe raus. Nachdem es Generationen von Leuten gab und gibt, die sich mit Sampling-Algorithmen beschäftigen, würde ich mal schauen ob es tolle spezialisierte Algorithmen gibt, für sowas wie
E[exp(-A)]
würde ich fest davon ausgehen dass es ne coole Abkürzung gibt. Weiß allerdings gerade keine schöne Quelle :/.
26.08.2020 13:18:11  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
 Thema: pOT-lnformatik, Mathematik, Physik XXIII
« erste « vorherige 1 ... 13 14 15 16 [17] 18 19 20 21 ... 51 nächste » letzte »

mods.de - Forum » Public Offtopic » 

Hop to:  

Thread-Tags:
pimp 
Mod-Aktionen:
19.11.2021 15:40:37 Atomsk hat diesen Thread geschlossen.
05.04.2020 13:23:20 red hat diesem Thread das ModTag 'pimp' angehängt.

| tech | impressum