|
|
|
|
| Zitat von Maiszünsler
| Zitat von Lightspeed
Diese wird vom Menschen entwickelt. Das heißt, ein einziger Entwickler des APs muss niederträchtigere Absichten haben
| |
Äh, nö?
Vieraugenprinzip? Bzw. bei wichtigen System in der Praxis eher Vierzigaugenprinzip?
| |
weil das ja in der Softwareentwicklung heute ja schon so gut funktioniert. Quelloffene Software ist dank hunderter Auditoren immer fehlerfrei.
|
|
|
|
|
|
|
| Zitat von Flashhead
| Zitat von Buxxbaum
Ich halte es für naiv zu glauben ein Computer könnte alle Situationen stets korrekt bewerten, selbst wenn er teilweise falsche Werte von der Sensorik bekommt. Das ist Bullshit.
Natürlich machen Menschen Fehler, in einem so komplexen System mit fast unendlich Fehlerquellen und Szenarien ist er aber wohl immer noch adaptiver als ein Rechner.
| |
Er muss sie auch nicht stets korrekt bewerten, er muss im Schnitt nur bessere Entscheidungen treffen als ein Mensch.
Zur Sensorproblematik: Die sind doch beim Start vereist, oder? Ist das nicht eher ein Mangel in der Abfertigung am Boden, die die Maschine startklar machen müssen, als ein Fehler der eigentlichen Sensorik?
| |
Nein.
|
|
|
|
|
|
|
| Zitat von GarlandGreene
weil das ja in der Softwareentwicklung heute ja schon so gut funktioniert. Quelloffene Software ist dank hunderter Auditoren immer fehlerfrei.
| |
Open Source Software ist immer fehlerfrei?
|
|
|
|
|
|
|
that's the joke
¤: und gecavemant: du kannst da noch so viele Augen draufgucken lassen, Lücken wird man immer wieder finden. Ein paar davon wurden vielleicht auch absichtlich eingebaut.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von GarlandGreene am 26.03.2015 15:32]
|
|
|
|
|
|
| Zitat von iNorth
Da steht der Nachname.
\\Im Grunde mittlerweile ziemlich egal.
| |
Den hat der Staatsanwalt in der PK buchstabiert.
|
|
|
|
|
|
|
| Zitat von GarlandGreene
weil das ja in der Softwareentwicklung heute ja schon so gut funktioniert. Quelloffene Software ist dank hunderter Auditoren immer fehlerfrei.
| |
Jeder kennt sie, die überall vorhandenen absichtlich eingebauten Backdoors in großer, quelloffener Software.
Hab ich von Fehlern geschrieben?
|
|
|
|
|
|
|
| Zitat von GarlandGreene
| Zitat von Maiszünsler
| Zitat von Lightspeed
Diese wird vom Menschen entwickelt. Das heißt, ein einziger Entwickler des APs muss niederträchtigere Absichten haben
| |
Äh, nö?
Vieraugenprinzip? Bzw. bei wichtigen System in der Praxis eher Vierzigaugenprinzip?
| |
weil das ja in der Softwareentwicklung heute ja schon so gut funktioniert. Quelloffene Software ist dank hunderter Auditoren immer fehlerfrei.
| |
Sonst nimm doch wirklich Bereiche, bei denen Sicherheit eine große Rolle spielt. Atomkraftwerke! Fehlerfreie Software und noch nie Ziel von Hackerangriffen gewesen.
|
|
|
|
|
|
|
| Zitat von DeathCobra
| Zitat von MadSpoon
Wie gesagt, hat uns unser Schulungsleiter damals so erzählt. Ob das tatsächlich so passiert ist, habe ich nie versucht, anderweitig zu verifizieren.
| | Ist so nicht passiert.
| |
Ganz ohne ein Experte zu sein behaupte ich auch mal das ist Bullshit. Das hätte ja einen Riesenrummel gegeben da müsste man doch sofort mit Artikeln überschüttet werden wenn man nach sucht.
|
|
|
|
|
|
|
| Zitat von Maiszünsler
| Zitat von GarlandGreene
weil das ja in der Softwareentwicklung heute ja schon so gut funktioniert. Quelloffene Software ist dank hunderter Auditoren immer fehlerfrei.
| |
Jeder kennt sie, die überall vorhandenen absichtlich eingebauten Backdoors in großer, quelloffener Software.
Hab ich von Fehlern geschrieben?
| |
ist technisch dasselbe. Sieht heutzutage sogar gleich aus. Wer eine Backdoor einbaut (und ob absichtlich oder nicht), ist egal. Wer als erstes Kenntnis davon erlangt, _das_ ist die Frage.
|
|
|
|
|
|
|
| Zitat von Armag3ddon
Sonst nimm doch wirklich Bereiche, bei denen Sicherheit eine große Rolle spielt. Atomkraftwerke! Fehlerfreie Software und noch nie Ziel von Hackerangriffen gewesen.
| |
Stuxnet?
|
|
|
|
|
|
|
| Zitat von Armag3ddon
Sonst nimm doch wirklich Bereiche, bei denen Sicherheit eine große Rolle spielt. Atomkraftwerke! Fehlerfreie Software und noch nie Ziel von Hackerangriffen gewesen.
| |
Stuxnet zum Beispiel, ja. Hochkomplexer zielgerichteter Angriff auf nicht vernetzte Systeme. Und vermutlich erfolgreich.
¤: und das waren Mexikaner. MEXIKANER!
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von GarlandGreene am 26.03.2015 15:39]
|
|
|
|
|
|
| Zitat von DeathCobra
| Zitat von Flashhead
| Zitat von Buxxbaum
Ich halte es für naiv zu glauben ein Computer könnte alle Situationen stets korrekt bewerten, selbst wenn er teilweise falsche Werte von der Sensorik bekommt. Das ist Bullshit.
Natürlich machen Menschen Fehler, in einem so komplexen System mit fast unendlich Fehlerquellen und Szenarien ist er aber wohl immer noch adaptiver als ein Rechner.
| |
Er muss sie auch nicht stets korrekt bewerten, er muss im Schnitt nur bessere Entscheidungen treffen als ein Mensch.
Zur Sensorproblematik: Die sind doch beim Start vereist, oder? Ist das nicht eher ein Mangel in der Abfertigung am Boden, die die Maschine startklar machen müssen, als ein Fehler der eigentlichen Sensorik?
| |
Nein.
| |
Okay stimmt, ich hab mir den Vorgang jetzt auch angeschaut.
Wobei man sich natürlich fragen muss, warum der Airbus-Computer überhaupt ein Signal einer Staudrucksonde verarbeitet, wenn der Anzeigewert offenbar völlig stabil ist, auch nachdem der Sinkflug eingeleitet wurde. Side-note: Wir bauen Staudrucksonden und wenn das Drucksignal vollkommen insensitiv gegen Prozessänderung ist, ist die Signalleitung oder -verarbeitung im Arsch - und da hilft auch eine 2/3 Schaltung nicht. Mal abgesehen davon, dass es relativ leicht ist Staudrucksonden zu enteisen (purging, heat tracing, etc.).
|
|
|
|
|
|
|
Tamagotchies! Die sind safe! Oh, wait...
|
|
|
|
|
|
|
| Zitat von rejteN
| Zitat von TheYang
müssen sie nicht, sie müssen nur mit mehr situationen klarkommen als Menschen.
Was bei der mehrheit der menschen nicht allzu schwer ist
| |
Äh, bitte?
Ein Mensch kann Situationsabhängig Lösungen überlegen zu Problemen die vorher weder ihm noch einem System bekannt waren. Ein Computer kann das nicht.
| |
| Zitat von Buxxbaum
Ich halte es für naiv zu glauben ein Computer könnte alle Situationen stets korrekt bewerten, selbst wenn er teilweise falsche Werte von der Sensorik bekommt. Das ist Bullshit.
Natürlich machen Menschen Fehler, in einem so komplexen System mit fast unendlich Fehlerquellen und Szenarien ist er aber wohl immer noch adaptiver als ein Rechner.
| |
Hrhr. Das ist nur eine Frage der Zeit und wenn ich mir moderne autonome Steuer/Kontrollsysteme so anschaue, keine Frage von sonderlich viel Zeit. Aber wahrscheinlich wäre ein mit aktueller Technologie umgesetztes Projekt eh schon deutlich weniger fehleranfällig als ein Mensch...
|
|
|
|
|
|
|
| Zitat von Maiszünsler
| Zitat von Lightspeed
Diese wird vom Menschen entwickelt. Das heißt, ein einziger Entwickler des APs muss niederträchtigere Absichten haben
| |
Äh, nö?
Vieraugenprinzip? Bzw. bei wichtigen System in der Praxis eher Vierzigaugenprinzip?
| |
Und wenn das zweite Augenpaar auch mit involviert ist?
|
|
|
|
|
|
|
| Zitat von Lightspeed
| Zitat von Maiszünsler
| Zitat von Lightspeed
Diese wird vom Menschen entwickelt. Das heißt, ein einziger Entwickler des APs muss niederträchtigere Absichten haben
| |
Äh, nö?
Vieraugenprinzip? Bzw. bei wichtigen System in der Praxis eher Vierzigaugenprinzip?
| |
Und wenn das zweite Augenpaar auch mit involviert ist?
| |
Dann ists ja nicht mehr
| Zitat von Lightspeed
ein einziger Entwickler
| |
, oder?
|
|
|
|
|
|
|
| Zitat von Lightspeed
Und wenn das zweite Augenpaar auch mit involviert ist?
| |
Das kann man jetzt ja natürlich immer so weiterführen. Und naja, ein Restrisiko bleibt immer. Es geht aber doch gar nicht darum das auszuschließen. Es geht nur darum, besser als der Status quo zu sein.
|
|
|
|
|
|
|
| Zitat von csde_rats
Hrhr. Das ist nur eine Frage der Zeit und wenn ich mir moderne autonome Steuer/Kontrollsysteme so anschaue, keine Frage von sonderlich viel Zeit. Aber wahrscheinlich wäre ein mit aktueller Technologie umgesetztes Projekt eh schon deutlich weniger fehleranfällig als ein Mensch...
| |
Die bereits fahrenden autonomen Autos sind deutlich sicherer als die vom Menschen gesteuerten Fahrzeuge.
|
|
|
|
|
|
|
Ich bin mir ziemlich sicher, dass man durch Manipulationen an der Software auch heute schon ein Flugzeug zum Absturz bringen könnte.
|
|
|
|
|
|
|
| Zitat von Flashhead
| Zitat von csde_rats
Hrhr. Das ist nur eine Frage der Zeit und wenn ich mir moderne autonome Steuer/Kontrollsysteme so anschaue, keine Frage von sonderlich viel Zeit. Aber wahrscheinlich wäre ein mit aktueller Technologie umgesetztes Projekt eh schon deutlich weniger fehleranfällig als ein Mensch...
| |
Die bereits fahrenden autonomen Autos sind deutlich sicherer als die vom Menschen gesteuerten Fahrzeuge.
| |
Ja. Bis Skynet.
|
|
|
|
|
|
|
Jetzt wird's albern.
|
|
|
|
|
|
|
| Zitat von TheRealHawk
Ich bin mir ziemlich sicher, dass man durch Manipulationen an der Software auch heute schon ein Flugzeug zum Absturz bringen könnte.
| |
Naja, klar. Aber n A320 hat ja nicht n offenen USB-Port mit einem Schild "hier a320.img einstecken".
|
|
|
|
|
|
|
| Zitat von SirHenry
| Zitat von Lightspeed
Und wenn das zweite Augenpaar auch mit involviert ist?
| |
Und naja, ein Restrisiko bleibt immer.
| |
Genau das will ich damit sagen.
Es ist egal, ob es nun vollautomatisch fliegt oder gesteuert wird. Letztendlich gibt es immer ein Restrisiko und ein "dann machen wir auf AP" bringt auch nicht zwangsläufig bessere Sicherheit.
|
|
|
|
|
|
|
| Zitat von Maiszünsler
| Zitat von GarlandGreene
weil das ja in der Softwareentwicklung heute ja schon so gut funktioniert. Quelloffene Software ist dank hunderter Auditoren immer fehlerfrei.
| |
Jeder kennt sie, die überall vorhandenen absichtlich eingebauten Backdoors in großer, quelloffener Software.
Hab ich von Fehlern geschrieben?
| |
Dazu ein kleiner Klassiker: https://www.ece.cmu.edu/~ganger/712.fall02/papers/p761-thompson.pdf
Ausserdem werden bei solchen kritischen Systemen oft auch ganz andere Verifizierungsanstrengungen getrieben, um zu beweisen, dass sie sauber funktionieren.
|
|
|
|
|
|
|
| Zitat von SirHenry
Jetzt wird's albern.
| |
Sorry!
|
|
|
|
|
|
|
| Zitat von Lightspeed
Genau das will ich damit sagen.
Es ist egal, ob es nun vollautomatisch fliegt oder gesteuert wird. Letztendlich gibt es immer ein Restrisiko | |
Jahaa, aber es könnte ja sein, dass sich herausstellt, dass redundante Computersysteme dann am Ende doch ein geringeres Risiko aufweisen als zwei Menschen.
| Zitat von Maiszünsler
| Zitat von TheRealHawk
Ich bin mir ziemlich sicher, dass man durch Manipulationen an der Software auch heute schon ein Flugzeug zum Absturz bringen könnte.
| |
Naja, klar. Aber n A320 hat ja nicht n offenen USB-Port mit einem Schild "hier a320.img einstecken".
| |
Nicht? Kein USB-Port? – Ist wohl von Apple!
|
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von SirHenry am 26.03.2015 15:48]
|
|
|
|
|
|
| Zitat von Elkano
Ausserdem werden bei solchen kritischen Systemen oft auch ganz andere Verifizierungsanstrengungen getrieben, um zu beweisen, dass sie sauber funktionieren.
| |
Ja, siehe z.B. DO-178C
|
|
|
|
|
|
|
| Zitat von SirHenry
| Zitat von Lightspeed
Genau das will ich damit sagen.
Es ist egal, ob es nun vollautomatisch fliegt oder gesteuert wird. Letztendlich gibt es immer ein Restrisiko | |
Jahaa, aber es könnte ja sein, dass sich herausstellt, dass redundante Computersysteme dann am Ende doch ein geringeres Risiko aufweisen als zwei Menschen.
| |
Dafür muss man sicherstellen, dass das redundante Cumputersystem auch von ebenso zuverlässigen Leuten konzipiert wurde und alles rechtens lief.
|
|
|
|
|
|
|
Also, Fakten, wie viele Maschinen sind durch menschliches Versagen bzw. Sabotage abgestürzt und wie viele durch technische Fehler?
|
|
|
|
|
|
|
| Zitat von Flashhead
| Zitat von csde_rats
Hrhr. Das ist nur eine Frage der Zeit und wenn ich mir moderne autonome Steuer/Kontrollsysteme so anschaue, keine Frage von sonderlich viel Zeit. Aber wahrscheinlich wäre ein mit aktueller Technologie umgesetztes Projekt eh schon deutlich weniger fehleranfällig als ein Mensch...
| |
Die bereits fahrenden autonomen Autos sind deutlich sicherer als die vom Menschen gesteuerten Fahrzeuge.
| |
schlechter vergleich. das exception handling ist im auto deutlich einfacher, als in einem flugzeug.
|
|
|
|
|
|
Thema: pOT-News ( Armes Deutschland ) |