|
|
|
|
Ist das eines der Ergebnisse beim Betrieb des Large Hardon Colliders?
¤: Auf der Heide kollidieren nur Panzer.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Virtus am 05.08.2020 20:20]
|
|
|
|
|
|
Aufgrund der kosmischen Zensur darf ich mich nicht dazu äußern.
The great thing about physical intuition is that it can be adjusted to fit the facts.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Wraith of Seth am 05.08.2020 20:52]
|
|
|
|
|
|
| Zitat von Wraith of Seth
Aber ich weiß nicht mal, ab wann was nur noch Molekül ist und wann es schon Nanoteilchen ist. Wiki half mir da nicht. Die Paper sind meist auch mehr "Guck wie geil wir sind!"-Kondensierte-Materie/Chemie-Name-Dropping-Schwanzvergleiche als hilfreiche Einführungen.
| |
Da gibt's auch keine allgemein anerkannte Regel..."Nano" ist als Begriff einfach marketingversucht. Und selbst, wenn das betrachtete Objekt eher Mikro oder gar meso ist, wird doch sicher auf der Oberfläche irgendein Effekt beobachtbar sein, der irgendwie bei Nano spielt. Und schwupps, auch "Nano".
Schreib dein Paper, freu dich über die Likes und zieh dir ein Bier.
|
|
|
|
|
|
|
https://spie.org/conferences-and-exhibitions/spieonline/career-advancement?SSO=1
| Delivering Your Presentation Remotely with Jean-luc Doumont
The Career Development Webinar Series dives into meaningful issues impacting optics and photonics careers across academia, government agencies, and the private commercial sector. For one hour several times each month, join an interactive virtual chat on specific topics to help drive your career forward.
When circumstances oblige you to deliver your presentation remotely from your office, your home, or even a hotel room, you face additional challenges, technological and otherwise. This remote lecture discusses and demonstrates the necessary adaptations to your tools, your environment, and your delivery so as to focus the attention of the audience, minimize distractions, and get your message across optimally.
In this webinar, you will learn:
• How to decide what (not) to share through the videoconference platform,
• How to rearrange your work environment for a high signal-to-noise ratio,
• How to adapt your verbal, vocal, and visual delivery for remote presentations. | |
Heute abend um 18 Uhr CEST. Kostenlos, aber man muss sich vorher registrieren. Der Talk ist wohl ne verkuerzte und angepasste Version seines Praesentationstrainings, was Kollegen schon hochgelobt haben. Hab selbst bei ihm ein Webinar zu Posterdesign gemacht, das war richtig gut. Kann man mal reinklicken.
|
|
|
|
|
|
|
I am pleased to inform you that your manuscript has been accepted for publication.
Würd euch das Paper gerne zeigen, insbesondere dem 3D-Drucker-Thread, weil da von mir zu Hause gedruckte Teile eine tragende Rolle spielen, aber dann kennt ihr meinen vollen Namen
|
|
|
|
|
|
|
Du heisst nicht Gerd Zwiebel?
|
|
|
|
|
|
|
| Zitat von Zwiebelgerd
I am pleased to inform you that your manuscript has been accepted for publication.
| |
Glückwunsch
|
|
|
|
|
|
|
| Zitat von SwissBushIndian
Du heisst nicht Gerd Zwiebel?
| |
Eigentlich heißt er Giebel Zwerd.
Ähnlich raffinierter Deckname also wie bei Treblig.
|
|
|
|
|
|
|
| Zitat von SwissBushIndian
Du heisst nicht Gerd Zwiebel?
| |
Wie sonst?
|
|
|
|
|
|
|
Statixx heißt ja auch im echten Leben Siegfried Rauschmeier.
Ich dachte alle Nicknames hier (außer Seconds natürlich) müssen Bezug zum echten Namen aufweisen.
Assfly jedenfalls heißt Augustus Aschflege.
|
|
|
|
|
|
|
| Zitat von Der Büßer
Ich dachte alle Nicknames hier (außer Seconds natürlich) müssen Bezug zum echten Namen aufweisen.
| |
!
|
|
|
|
|
|
|
|
|
|
|
Wenn man dem hier Glauben schenken darf, sollten matplotlib-Farbpaletten für SageMath nutzbar sein. Ich kann sie auch laden, bekomme aber nur RGBA-Listen (4-Tupel) zurück statt 3-Tupeln, wie Sage sie will.
Übersehe ich was? Perfiderweise gibt es zumindest eine Funktion rainbow() in Sage, die eine RGB-Farbliste (von Strings) von Länge des Arguments liefert - nur ist das NICHT das selbe wie colormaps.rainbow(), was für jede Zahl als Argument EINE Farbe zurückgibt. In RGBA.
Ist da einfach der Farbraum von Matplotlib irgendwann geändert worden und Sage machte nicht mit?
Wie bekomme ich jetzt am elegantesten meine RGB-Listen die mit rainbow() kompatibel sind?
Beispiel:
|
Code: |
colormaps.rainbow(5)
rainbow(5)
-> (0.4607843137254902, 0.061560906133942835, 0.9995257197133659, 1.0)
-> ['#ff0000', '#cbff00', '#00ff66', '#0066ff', '#cc00ff'] |
|
[/code]
Where Wikipedia leads, I follow. BAAAAAH.
|
|
|
|
|
|
|
"#%02X%02X%02X" % (int(0.46 * 255), ...)
%02X => "Mit 0en bis 2 Stellen aufgefüllt, heXadezimal".
|
|
|
|
|
|
|
Danke! Das verstehe ich ja sogar.
...was für eine Scheiße, ey.
Du gewinn den Nobelpreis und halt den Schnabel
|
|
|
|
|
|
|
|
|
|
|
Hatte kürzlich gepostet, dass mein alter Boss Leute sucht für Machine Learning/Computer Vision im Neuroscience Kontext. Arbeitsort ist in Northern Virginia, USA, aber, zumindest bis die Corona (und orange-farbene) Lage besser ist, remote/home office möglich. Ausgeschrieben sind zwei Stellen, Post Doc und Software Engineer. Bei Interesse PM an mich und ich teile die Links.
|
|
|
|
|
|
|
Mist, eine Stelle auf die ich mich bewerben wollte, entpuppt sich nach kurzer Recherche als Katastrophe: Der Mensch, mit dem man zusammenarbeiten würde, hat sich auf Konferenzen wiederholt als Bullshit-Artist erster Güte entpuppt, mit einem Bein fest im Crackpot-Territorium. Dabei wäre das Forschungsinstitut an sich renommiert und bekannt - nur auf meinem Gebiet tummelt sich nur diese Person dort.
Proposal concept #30: You propose at a close friends funeral. - Next.
|
|
|
|
|
|
|
Ich brauche erschreckend elementare Hilfe mit Fehlerfortpflanzung.
Ich habe eine Messgroesse, nennen wir sie, in Einklang mit dem Wikiartikel, A .
Ich kann (dank Monte Carlo Simulation) Var(A) gut schaetzen, mich interessiert die Standardabweichung von f(A) = 1 - A + A^2 .
Die Funktion f ist nicht linear, also first order Taylor draufballern um einen Expansionspunkt y :
f(A) ~= f(y) + d/dA f(y) * (A-y)
und folglich
Var(f(A)) ~= (d/dA f(y))^2 * Var(A) = (-1+2y)^2 Var(A) .
Eine Abhaengigkeit vom gewaehlten Expansionspunkt ist okay, da ich damit die Guete der First Order Taylor Expansion kontrolliere. Aber wie baue ich das sinnvoll zusammen, offensichtlich krieg ich mit y=0 den kleinsten Fehlerterm, aber zum einen finde ich Var(1-A)= Var(1-A+A^2) merkwuerdig, und zum anderen haette ich intuitiv den kleinsten Fehler bei Expansion um y=E[1-A+A^2] erwartet?
/Achso, ich kenn natuerlich nicht die Verteilung von A (bzw. Cov[A,A^2] ), sonst wuerde ich Var(f(A)) natuerlich einfach ausrechnen.
//Ich koennte die Kovarianz natuerlich auch aus meiner MC Simulation ziehen, aber ich hab noch weitere nicht-lineare Funktionen f , spaetestens da braeuchte ich dann wieder Hilfe.
|
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von Irdorath am 25.08.2020 13:27]
|
|
|
|
|
|
Wenn du eine nichtlineare Funktion linear approximierst wird die Varianzschätzung auch linear sein. Diese "Gleichheit" ist der Fehler den die Taylor-Approximation macht. Linearisierung ist ziemlich oft ziemlich fies falsch.
Ich würde entweder vorschlagen durch die Funktion einfach durchzusamplen, wenn du eh schon Monte Carlo machst gibt es keinen Grund gerade da aufzuhören vermutlich. Alternativ, wenn es dir wirklich nur um die Varianz geht, dann sieht das irgendwie so einfach aus dass man da eine bessere Näherung als Linearisierung angeben könnte. Wie du vorschlägst zum Beispiel indem du die Kovarianz der Terme in f schätzt.
|
|
|
|
|
|
|
| Zitat von Irdorath
Ich brauche erschreckend elementare Hilfe mit Fehlerfortpflanzung.
Ich habe eine Messgroesse, nennen wir sie, in Einklang mit dem Wikiartikel, A .
Ich kann (dank Monte Carlo Simulation) Var(A) gut schaetzen, mich interessiert die Standardabweichung von f(A) = 1 - A + A^2 .
Die Funktion f ist nicht linear, also first order Taylor draufballern um einen Expansionspunkt y :
f(A) ~= f(y) + d/dA f(y) * (A-y)
und folglich
Var(f(A)) ~= (d/dA f(y))^2 * Var(A) = (-1+2y)^2 Var(A) .
Eine Abhaengigkeit vom gewaehlten Expansionspunkt ist okay, da ich damit die Guete der First Order Taylor Expansion kontrolliere. Aber wie baue ich das sinnvoll zusammen, offensichtlich krieg ich mit y=0 den kleinsten Fehlerterm, aber zum einen finde ich Var(1-A)= Var(1-A+A^2) merkwuerdig, und zum anderen haette ich intuitiv den kleinsten Fehler bei Expansion um y=E[1-A+A^2] erwartet?
/Achso, ich kenn natuerlich nicht die Verteilung von A (bzw. Cov[A,A^2] ), sonst wuerde ich Var(f(A)) natuerlich einfach ausrechnen.
//Ich koennte die Kovarianz natuerlich auch aus meiner MC Simulation ziehen, aber ich hab noch weitere nicht-lineare Funktionen f , spaetestens da braeuchte ich dann wieder Hilfe.
| |
Der Wiki Artikel führt einen Punkt "Simplification" auf. Die dort aufgeführte Gleichung müsste Gaußsche Fehlerfortpflanzugn sein und führt dich sehr simpel zur Varianz von f.
Da du keine zweite Variable angibst, sind Korrelationen zwischen Variablen vermutlich kein Problem
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von horscht(i) am 25.08.2020 15:04]
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Ich mag (nicht), wie jeder Physiker eigentlich nur Gaußsche Fehlerfortpflanzung jemals lernt, als wäre es, wie Fehlerfortpflanzung halt exakt funktioniert...
...man kann sich ja schon glücklich schätzen, wenn man mal die nicht diagonale Form gesehen hat.
I am over 18 and clicking a button.
|
|
|
|
|
|
|
Ich habe tatsächlich mal ein kleines Buch zu Fehlerrechnung gelesen.
Aber ja, unterm Strich gab es im Studium und allen Praktika Gaußfehler und Maximalfehlerabschätzung und fertig.
|
|
|
|
|
|
|
Ich habe heute eine standardabweichung aus drei Punkten ermittelt. Would do again.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Oli am 26.08.2020 10:23]
|
|
|
|
|
|
Ok, ML macht es noch schlechter, keine Kunst.
Punchline... Forming...
|
|
|
|
|
|
|
| Zitat von horscht(i)
Aber ja, unterm Strich gab es im Studium und allen Praktika Gaußfehler und Maximalfehlerabschätzung und fertig.
| |
Ich verstehe nicht so recht, warum das Konzept "Fehlerfortpflanzung" überhaupt gesondert existiert. Habe ich so auch bisher nur in der Physik gesehen. Hat das historische Gründe? Man macht da (einfache und approximative) Bayesianische Statistik, gibt dem aber dann einen verschleiernden Namen. Wie wird das im Studium denn eingeführt?
#Team3PunktStatistik
|
|
|
|
|
|
|
Die Bezeichnung als Linearisierung war sehr hilfreich, also so fuer die Intuition. Wenn ich nur den Linearteil behalte, sollte ja eigentlich klar sein, was passiert.
Ich hab meinen Post so genannt, um die Physiker hinterm Ofen vorzulocken und weil ich es als Buzzword im Hinterkopf hatte. Kam damit im Studium nicht in Beruehrung, im Grunde sind es ja nur irgendwelche Momentschaetzer?
Womit es dann auch ein wenig fucky wird, dann eigentlich will ich das erste Moment E[exp(-A)] approximieren. Auf diese Approximationen werden jetzt also irgendwelche Schaetzer ihres zweiten Moments geworfen, ich sollte sehr vorsichtig mit meiner Notation sein.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Irdorath am 26.08.2020 11:54]
|
|
|
|
|
|
| Zitat von Irdorath
Ich hab meinen Post so genannt, um die Physiker hinterm Ofen vorzulocken und weil ich es als Buzzword im Hinterkopf hatte. Kam damit im Studium nicht in Beruehrung, im Grunde sind es ja nur irgendwelche Momentschaetzer?
| |
Ja, das sind nur Monte-Carlo Approximationen von Integralen. Im Allgemeinen ist Unsicherheitspropagation schwierig und sehr schnell nicht lösbar. Es gibt den schönen Spezialfall dass Normalverteilungen unter affinen Transformationen abgeschlossen sind und man eine schöne geschlossene Form angeben kann, deshalb ist es sehr beliebt, das auch zu tun. Looking at you, Kalman-Filter.
Ich als Bayesianer würde die Integrale hinschreiben, die ich gerne ausrechnen möchte und dann statt Schätzern von (approximativen) Inferenzalgorithmen (Monte Carlo zum Beispiel) oder von einer variationalen Approximation sprechen. Kommt aber sicherlich am Ende auf's selbe raus. Nachdem es Generationen von Leuten gab und gibt, die sich mit Sampling-Algorithmen beschäftigen, würde ich mal schauen ob es tolle spezialisierte Algorithmen gibt, für sowas wie E[exp(-A)] würde ich fest davon ausgehen dass es ne coole Abkürzung gibt. Weiß allerdings gerade keine schöne Quelle :/.
|
|
|
|
|
|
Thema: pOT-lnformatik, Mathematik, Physik XXIII |