|
|
|
|
| Zitat von -=Q=- 8-BaLL
| Zitat von -=Charon=-
Bin mal gespannt, was das "one more thing" sein wird.
| |
Ein Lidar-Nachrüstsatz.
| |
- neuer selbst entwickelter Chip, den angbelich alle aktuellen Teslas seit März haben, ansonsten Nachrüstung. Sonstige Hardware wie gehabt.
- damit voll autonom in 2020
- autonome Taxiflotte und man soll seinen eigenen Tesla autonom vermieten und damit Geld verdienen
Ambitious but rubbish?
|
|
|
|
|
|
|
Diesmal werden die Ankündigungen sicher wahr
|
|
|
|
|
|
|
|
|
|
|
| Zitat von Lucifer - neuer selbst entwickelter Chip, den angbelich alle aktuellen Teslas seit März haben, ansonsten Nachrüstung. Sonstige Hardware wie gehabt.
| |
S und X seit März (wurde auch schon von einigen Leuten bestätigt, die nach dem neuen Modul im Auto gesucht haben), 3 erst seit ein, zwei Wochen. Retrofit nur bei Hardware 2.0 und 2.5 möglich (die News ist allerdings schon älter).
|
|
|
|
|
|
|
Also Model 3 sprießen momentan aus dem Boden. In ffm sehe ich jeden Tag mehrere. Das Auto sieht aber weird aus. Aus manchen Winkeln echt gut, aus manchen echt fugly. Mal gespannt ob der hype anhält.
|
|
|
|
|
|
|
Ich bin eben bei BMW an der Ladesäule auch von nem Model 3 Fahrer angeschnackt worden. Trotz Basisfelgen und Farbe sah das auf den ersten Blick nicht so übel aus.
Hatte über Ostern nen i3s. Kann man mal machen. So einem oder doch nochmal nen M140i, schwierig. Beides macht auf seine eigene Art wahnsinnig viel Laune.
|
|
|
|
|
|
|
Uebrigens gibt es Boxster und Cayman ab 2020 als Hybrid und EV
|
|
|
|
|
|
|
Da find ich aber auf die schnelle nix dazu
Und ab und an brauch ich mal 4Sitze
|
|
|
|
|
|
|
|
|
|
|
| Zitat von Lucifer
Ich bin eben bei BMW an der Ladesäule auch von nem Model 3 Fahrer angeschnackt worden. Trotz Basisfelgen und Farbe sah das auf den ersten Blick nicht so übel aus.
Hatte über Ostern nen i3s. Kann man mal machen. So einem oder doch nochmal nen M140i, schwierig. Beides macht auf seine eigene Art wahnsinnig viel Laune.
| |
Dann aber schnell, der F20 hat IIRC im Juni Produktionsende. Dann ist es vorbei mit Reihensechser und Heckantrieb
|
|
|
|
|
|
|
|
|
|
|
Also doch frühestens 2022. Dann hast du dich oben mit "2020" vertippt?
Da in dem Artikel mal wieder die Mild-Hybrid-Ideen genannt werden, sollte man die Hybrid-Varianten wohl lieber ignorieren und dafür sich auf die BEV-Version konzentrieren.
|
|
|
|
|
|
|
| Zitat von Bullitt
| Zitat von Lucifer
Ich bin eben bei BMW an der Ladesäule auch von nem Model 3 Fahrer angeschnackt worden. Trotz Basisfelgen und Farbe sah das auf den ersten Blick nicht so übel aus.
Hatte über Ostern nen i3s. Kann man mal machen. So einem oder doch nochmal nen M140i, schwierig. Beides macht auf seine eigene Art wahnsinnig viel Laune.
| |
Dann aber schnell, der F20 hat IIRC im Juni Produktionsende. Dann ist es vorbei mit Reihensechser und Heckantrieb
| |
Deswegen überlege ich ja. Gibt schon nur noch Automatik & 5Türer. Der Rest ist schon nicht mehr bestellbar.
|
|
|
|
|
|
|
|
|
|
|
| Zitat von -=Charon=-
Also doch frühestens 2022. Dann hast du dich oben mit "2020" vertippt?
Da in dem Artikel mal wieder die Mild-Hybrid-Ideen genannt werden, sollte man die Hybrid-Varianten wohl lieber ignorieren und dafür sich auf die BEV-Version konzentrieren.
| |
Oh, das war ein Typo. Sollte 2022 heißen, ja.
|
|
|
|
|
|
|
Wer auf den ersten Vortrag zur Chip-Architektur verzichten kann und stattdessen ein paar Eindrücke zur Bilderfassung und -verarbeitung von Teslas aktueller Hard- bzw. Software gewinnen möchte, kann hier mal ab 1:51:47 reinschauen:
Direkter Timestamp
Vieles darin baut auf dem älteren Vortrag von Andrej Karpathy von Sommer 2018 auf:
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von -=Charon=- am 24.04.2019 3:22]
|
|
|
|
|
|
| Zitat von Lucifer
Ambitious but rubbish?
| |
Bis Ende 2020 eine Million vollautonome Teslas (Level 5, ohne Lenkrad) auf den Straßen, deren Eigentümer ihr Auto als selbstfahrendes Robotertaxi vermieten, wenn sie es nicht brauchen, und dadurch 30.000$ pro Jahr verdienen?
Das ist schon nicht mehr rubbish, das ist insane. Aber davon abgesehen gabs einige interessante Ansätze, fand ich.
"FSD spätestens Mittwoch!" hört man von Musk jedes Jahr in irgendeiner Form und da ändert auch das neue Hardwarekit nichts dran. Er sagte ja selbst, jetzt müsse "nur noch" die Software her. Genau dieses Problem haben alle anderen aber auch.
Ich würde sagen, Teslafahrer können sich auf ein deutliches besseres ADAS (die Kombination aus Tempomat, Spurhalte-/wechsel, Abstand) freuen, was über die Zeit nochmal besser dazu lernt. Es wird schneller mehr können und wenn es gut läuft vergrößert sich mittelfristig der Einsatzbereich (über Hghways, Autobahnen hinaus). Aber dass die Hände in Lenkradnähe und die Augen auf der Straße bleiben (müssen), daran wird sich nichts ändern. Dementsprechend wirds auch mit dem Selbstfahren erstmal nix.
|
|
|
|
|
|
|
Subaru, y u need so many cameras?
|
|
|
|
|
|
|
Mit der zweiten sieht man besser .... bzw räumlich. Dann kann man die Spur halten oder Rentner nicht über den Haufen fahren.
|
|
|
|
|
|
|
|
|
|
|
np: Golden Earring - Lidar Love
|
|
|
|
|
|
|
Kann ein Ingenieur hier Mal versuchen zu erklären, wieso für L4/5 autonomes fahren alle auf LIDAR (plus kamera, radar, Ultraschall) setzen und Tesla denkt es ginge ohne LIDAR?
|
|
|
|
|
|
|
Wenn Superbrain Musk das sagt dann ist das wohl so
|
|
|
|
|
|
|
naja, er hat ja damit nicht ganz unrecht.
siehe 2:16:45 und irgendwo bei 2:33.
|
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von Vincent am 24.04.2019 0:17]
|
|
|
|
|
|
| Zitat von Aspe
Kann ein Ingenieur hier Mal versuchen zu erklären, wieso für L4/5 autonomes fahren alle auf LIDAR (plus kamera, radar, Ultraschall) setzen und Tesla denkt es ginge ohne LIDAR?
| |
Bin kein Ingenieur, aber nach meinem Wissen (einiges davon wird auch in Karpathys Präsentation von gestern angesprochen) spielen bei Tesla folgende Aspekte eine Rolle:
- eine LIDAR-Sensor-Suite ist (noch) sehr teuer (Google/Waymo forscht schon lange damit und hat die Kosten vor knapp zwei Jahren von ehemals 75,000 USD erstmalig auf 7,500 USD pro Fahrzeug senken können), Google kann sich so was natürlich leisten, Tesla hat für die immer größer werdende Flotte aber sicher nicht die Mittel, um solche Hardwarekosten zusätzlich auf sich zu nehmen
- von Natur aus gibt es bei LIDAR viele bewegliche Teile (die natürlich auch schneller kaputtgehen können als irgendwelche fixen Kameras)
- LIDAR hat bei Regen und Schnee Probleme, bringt also hier keinen Vorteil gegenüber normalen Kameras, da es wie Kameras im sichtbaren bzw. zu nah am sichtbaren Spektrum arbeitet; als Backup bietet sich deshalb eher ein System an, das mit einer anderen Wellenlänge arbeitet, soll heißen: RADAR (knapp 4 mm Wellenlänge gegenüber irgendwo um die 800-1500 nm bei LIDAR)
- LIDAR liefert mit seiner Punktwolke und den errechneten 3D-Bildern der Umgebung schnell gute Ergebnisse, die man wiederum gut gegenüber Investoren/Aktionären verkaufen kann; mit Computer-Vision bekommt man allerdings ebenfalls ein 3D-Bild der Umgebung, zusammen mit Radar und einem NN erhält man dabei auch sehr gute 3D-/Tiefeninformationen, man braucht nur mehr Rechenpower dafür
- auf lange Sicht muss man ohnehin Computer-Vision meistern, denn LIDAR alleine reicht nicht aus für FSD; man muss auch die Aufschrift auf Straßenschildern, Spurmarkierungen, Details bei Fußgängern oder Tieren, Ampeln, Blinker und so weiter erkennen können
Teslas Schluss: Sobald man das für FSD das Monster namens Computer-Vision in den Griff bekommen hat, ist eine Redundanz durch LIDAR überflüssig.
Das dauert insgesamt länger als bei LIDAR, soll sich aber auf lange Sicht auszahlen, denn bei LIDAR erreicht man ohnehin irgendwann ein Plateau, auf dem es keinen weiteren Erkenntnisgewinn gibt (siehe Schriften, Fahrbahnmarkierungen, etc.). Man geht aktuell auch davon aus, dass Tesla das eigene NN mittels der hauseigenen Flotte deutlich besser mit all den Real-Life-Situationen trainieren kann als andere Hersteller, die nur einige Tausend Fahrzeuge testen oder ihre AI hauptsächlich im Simulator trainieren.
Mal schauen, ob die Rechnung aufgeht.
Wenn ja, dann würde sich LIDAR in Bezug auf FSD tatsächlich als eine Bitter Lesson herausstellen:
| In computer vision, there has been a similar pattern. Early methods conceived of vision as searching for edges, or generalized cylinders, or in terms of SIFT features. But today all this is discarded. Modern deep-learning neural networks use only the notions of convolution and certain kinds of invariances, and perform much better. | |
N.B.: Musk hat gestern übrigens wiederholt, dass er nicht prinzipiell gegen LIDAR ist. Für SpaceX hat er auf ein eigens entwickeltes LIDAR-System bestanden, um das Andocken von Dragon an die ISS zu ermöglichen. Nur bei Fahrzeugen findet er es halt langfristig nicht sinnvoll.
---
Noch ein ganz anderer Punkt, der beinahe untergegangen ist: In ein, zwei Jahren sollen die verbauten Akkupacks 1,6 Mio km halten, also mal locker doppelt so lange wie die aktuellen Packs. Wäre interessant zu wissen, ob das auf die Kooperation mit Maxwell und deren Fertigungsmethoden zurückzuführen ist oder noch von Panasonic kommt.
|
[Dieser Beitrag wurde 5 mal editiert; zum letzten Mal von -=Charon=- am 24.04.2019 3:32]
|
|
|
|
|
|
|
|
|
|
One more thing:
Das Model S schafft nun 370 Meilen (ca. 600 km) und das Model X 325 Meilen (ca. 525 km) unter EPA-Bedingungen - mit den herkömmlichen Akkupacks.
Motor Trend Artikel
Offizieller Blogpost
Veränderungen gibt es hauptsächlich am Motor (vorne werden nun PMSR-Motoren verwendet, ähnlich wie beim Model 3), Fahrwerk und Federung sowie den Radlagern.
An den neuen V3-Superchargern kann man S und X jetzt mit maximal 200 kW laden, an den bisherigen V2-Superchargern mit maximal 145 kW.
|
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von -=Charon=- am 24.04.2019 3:10]
|
|
|
|
|
|
| Zitat von -=Charon=-
LIDAR hat bei Regen und Schnee Probleme, bringt also hier keinen Vorteil gegenüber normalen Kameras, da es wie Kameras im sichtbaren bzw. zu nah am sichtbaren Spektrum arbeitet; als Backup bietet sich deshalb eher ein System an, das mit einer anderen Wellenlänge arbeitet, soll heißen: RADAR (knapp 4 mm Wellenlänge gegenüber irgendwo um die 800-1500 nm bei LIDAR)
| |
Stimmt so nicht ganz. Das System funktioniert auch bei starkem Schneefall sehr gut, liefert aber durch den Umstand, dass Wasser und Schnee den Lichtstrahl teilweise umlenken und dieser somit nicht reflektiert wird, weniger auwertbares Material. Jedoch ist das zu erwartende Bild noch um ein vielfaches besser als Radar oder reine Videotechnik. Beim einen fehlt die Präzision, beim andern so wichtige Angaben wie Distanz zum Messpunkt, der erst errechnet werden muss. Das Problem mit Schnee hat Radar übrigens genau so, nur wird das Bild dort verwaschen, weil zu viel zurück kommt.
|
|
|
|
|
|
|
Hier wird gerade ne Menge Technik unter wenigen Sammelbegriffen zusammengeworfen.
Zum Thema Radar und Präzision: Radar kann zur Gestensteuerung mit einzelnen Fingern verwendet werden. Andere Technik wiederum kann nix erfassen, was sich gleich schnell wie der Empfänger bewegt.
Zwei völlig unterschiedliche Technologien und Anwendungsgebiete, beides Radar.
Ich nehme mal an, was hier nachgeplappert wird, ist Radar im W-Band. Das sollte durchaus präzise genug arbeiten können für diese Anwendung. Zu den Limitierungen durch Wetter kann ich aber auch nix sagen.
|
|
|
|
|
|
|
| Zitat von Aspe
Kann ein Ingenieur hier Mal versuchen zu erklären, wieso für L4/5 autonomes fahren alle auf LIDAR (plus kamera, radar, Ultraschall) setzen und Tesla denkt es ginge ohne LIDAR?
| |
Ich mach das mal grundsätzlicher, dann wirds hoffentlich nachvollziehbarer.
Wenn man es ein bisschen generalisiert, gibt es drei Schritte, die notwendig sind, damit ein Fahrzeug sich autonom bewegen kann: Perception, Planning und Control.
Perception kann man zusammenfassen als einmal die Lokalisierung und zweitens die Wahrnehmung der Umgebung.
Erstmal muss das Auto wissen, wo es ist. Dazu nutzt es GPS für den groben Standort und gleicht seine Umgebung dann mit sogenannten HD-Maps ab. Die sehen anders aus als Google Maps, sind sehr viel genauer und darin sind zB feste Punkte verzeichnet, an denen sich das Auto orientiert. Man munkelt das sei einer der Gründe, warum du bei Recaptcha dauernd Hydranten markierst, die ändern ihre Position in der Welt in der Regel nicht. Wenn das Auto so einen sieht und weiß, wo der steht, kann es messen, wo es sich gerade relativ dazu befindet.
Parallel wird die Umgebung erfasst. Das passiert mit Kameras, Radar und meist Lidar (Ultraschall lass ich mal außen vor, weil nur im extremen Nahbereich relevant.)
Radar: erkennt Objekte plus deren Geschwindigkeit und Richtung, hat aber eine schlechte Auflösung und deshalb kann nicht sagen, was sich da bewegt. Außerdem hat es Probleme mit Objekten, die sich gar nicht bewegen.
Kameras: hervorragende Auflösung und recht großer Blickwinkel, damit lässt sich neben Fahrbahnmarkierungen oder Verkehrsschildern auch erkennen, ob der Radfahrer vor einem den Arm rausstreckt.
Noch ist aber die Herausforderung, den Arm des Radfahrers von allen anderen Dingen auf dem Bild zu unterscheiden. Sprich die Analyse des Bildes selbst und was darauf zu sehen ist funktioniert momentan nur so mittel. Deshalb hat Tesla so einen Aufstand um seine neuen Chips und das NN gemacht, weil eben diese Bildauswertung damit jetzt sehr viel besser klappen soll.
Lidar: Schafft mit mittlerer Auflösung ein Abbild der kompletten Umgebung, 360 Grad, und kann recht einfach Objekte identifizieren und deren Bewegung tracken. Es ergänzt also das Radar (Was ist es?) und die Kameras, weil es zB auch im Dunkeln Objekte identifizieren kann. Dafür hat es aber, wie hier beschrieben, Probleme unter bestimmten Bedingungen.
Jedes System hat also Vor- und Nachteile und man versucht eben, die Schwächen des einen mit den Stärken des anderen auszugleichen. Der “Stack” aus den drei Systemen hat sich dafür recht gut bewährt.
Mindestens genauso entscheidend wie die Hardware ist aber die Software, das Thema gerät immer ein bisschen aus dem Fokus. Dabei gibt es ja immer noch riesengroße Unterschiede zwischen den einzelnen Unternehmen, obwohl im Prinzip alle das gleiche Setup auf dem Dach haben.
Wenn ich weiß, wo ich bin, in welche Richtung ich mich bewege und wie es um mich herum aussieht, ist der entscheidende Punkt, die Daten der ganzen Sensoren sinnvoll zusammenzuführen und auszuwerten (Sensor fusion) und dann in die Glaskugel zu gucken: Was wird in den nächsten 5 bis 10 Sekunden rund um das Auto herum passieren und wie muss es darauf reagieren? Dafür gibt es neben den Sensordaten meist zusätzlich Verhaltensmodelle oder kinetische Modelle der erkannten Objekte, die da alle mit reinspielen.
Aus den vielen Wahrscheinlichkeiten errechnet die Software, ob das Auto Gas gibt oder bremst, mehr links fährt oder mehr rechts oder ob es die Spur wechseln kann. Das ist die “Art of prediction”, aus der sich am Ende das Planning ergibt, also der Fahrweg.
Control ist dann “nur noch” das Ausführen dessen, was der Computer errechnet hat.
Um auf Tesla zurückzukommen bleiben am Ende im Grunde zwei Fragen. Die eine ist, wie umfassend die Wahrnehmung sein muss. Die andere, damit verwoben, ist, wie gut die Software ist, die aus diesen Daten errechnet, welchen Weg das Auto nimmt.
Entscheidend ist allerdings nicht, wie viele unfallfreie Kilometer so ein Auto auf dem Highway abspulen kann, denn das ist kein sehr komplexes Szenario. Interessant und relevant sind die “edge cases”, die letzten 0,1 oder auch 0,000001 Prozent der Situationen, in die ein Auto geraten kann. Und wie es sich dann verhält. Deshalb sehen wir die meisten Fahrzeuge momentan nur in "eingezäunten" Gebieten, die sehr detailliert gemappt wurden, teils mit unterstützender Infrastruktur (kein 5G =)).
Man kann HD-Maps und Lidar aus der Rechnung streichen und sich dann überlegen, ob es spätestens Mittwoch eine Flotte selbstfahrender Teslas geben wird, die kreuz und quer durch die Welt fahren. Oder ob der “Autopilot” erstmal ein in bestimmten Teilbereichen sehr fähiges Fahrassistenzsystem bleiben wird.
|
|
|
|
|
|
Thema: Autothread ( Belt up! ) |