|
|
|
|
Jünger heißt wohl auch, dass man eher zwei Getränke gleichzeitig hat.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Aspe am 07.05.2023 18:46]
|
|
|
|
|
|
Je jünger desto mehr Getränke?
/Leider nicht
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von -=Q=- 8-BaLL am 07.05.2023 18:51]
|
|
|
|
|
|
Da kommen aber direkt solche Hipster-Gläser und Plastik-Bier zum vorschein.
|
|
|
|
|
|
|
Und stabile Wangenknochen, wurd da an nem Modelkatalog trainiert?
|
|
|
|
|
|
|
|
|
|
|
| AI machines aren’t ‘hallucinating’. But their makers are
Tech CEOs want us to believe that generative AI will benefit humanity. They are kidding themselves
Don’t worry, the AI enthusiasts hallucinate – it will be wonderful. Who likes work anyway? Generative AI won’t be the end of employment, we are told, only “boring work” – with chatbots helpfully doing all the soul-destroying, repetitive tasks and humans merely supervising them. Altman, for his part, sees a future where work “can be a broader concept, not something you have to do to be able to eat, but something you do as a creative expression and a way to find fulfillment and happiness”.
That’s an exciting vision of a more beautiful, leisurely life, one many leftists share (including Karl Marx’s son-in-law, Paul Lafargue, who wrote a manifesto titled The Right To Be Lazy). But we leftists also know that if earning money is to no longer be life’s driving imperative, then there must be other ways to meet our creaturely needs for shelter and sustenance. A world without crappy jobs means that rent has to be free, and healthcare has to be free, and every person has to have inalienable economic rights. And then suddenly we aren’t talking about AI at all – we’re talking about socialism.
Because we do not live in the Star Trek-inspired rational, humanist world that Altman seems to be hallucinating. We live under capitalism, and under that system, the effects of flooding the market with technologies that can plausibly perform the economic tasks of countless working people is not that those people are suddenly free to become philosophers and artists. It means that those people will find themselves staring into the abyss – with actual artists among the first to fall.
That is the message of Crabapple’s open letter, which calls on “artists, publishers, journalists, editors and journalism union leaders to take a pledge for human values against the use of generative-AI images” and “commit to supporting editorial art made by people, not server farms”. The letter, now signed by hundreds of artists, journalists and others, states that all but the most elite artists find their work “at risk of extinction”. And according to Hinton, the “godfather of AI”, there is no reason to believe that the threat won’t spread. The chatbots take “away the drudge work” but “it might take away more than that”.
| |
The Guardian
|
|
|
|
|
|
|
Also von diesem Video bräuchte es dringend mal eine Kurzversion, so auf vielleicht 20 Minuten zusammengefasst. Verständlich, leicht konsumierbar und am besten noch unterhaltsam präsentiert.
Denn fast alle, denen ich das Video geschickt habe, haben es bisher noch nicht gesehen. Über eine Stunde Laufzeit schreckt halt doch ab.
|
|
|
|
|
|
|
Auf x2 Tempo dauert es etwas mehr als 30 Minuten
Was zum Verbreiten geholfen hat: Erzählen, dass man's ganz gut nebenbei hören kann, die Beispiele jedoch anschaulich erklärt werden. In den Kommentaren gibt's auch Zeitstempel, die das Video übersichtlich unterteilt - so nimmt man sich vielleicht nur einen Teil vor und später den nächsten. Dass es einem wichtig ist, hilft auch. Nicht einfach nur teilen und "ist voll wichtig guck mal", sondern "mich beschäftigt das Thema sehr und ich möchte, dass du auch Bescheid weißt. Das Thema wird uns alle angehen."
|
|
|
|
|
|
|
| Zitat von Howie Hughes
Also von diesem Video bräuchte es dringend mal eine Kurzversion, so auf vielleicht 20 Minuten zusammengefasst. Verständlich, leicht konsumierbar und am besten noch unterhaltsam präsentiert.
Denn fast alle, denen ich das Video geschickt habe, haben es bisher noch nicht gesehen. Über eine Stunde Laufzeit schreckt halt doch ab.
| |
gibts keine ki die videos guckt und für einen in wenigen worten zusammenfasst?
|
|
|
|
|
|
|
Weiß nicht, ob „nebenher hören“ dem Inhalt gerecht wird. Ich habe das nebenher geschaut / gehört, und soviel ist leider nicht hängen geblieben.
- Starker Wettbewerb lässt Hemmungen sinken, KI unkontrolliert auszurollen.
- Lernkurve extrem schnell, selbstlernend schon am Start
- wird bereits kriminell missbraucht mit Stimmen-Fakes (Enkeltrick mit KI-Booster)
- unsicher, ob KI schon Bewusstsein hat (was ist Bewusstsein überhaupt?)
Vermutlich fehlen wichtige Punkte schon.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Phillinger am 12.05.2023 9:58]
|
|
|
|
|
|
Ja, zum nebenbei schauen find ich es auch gar nicht geeignet.
Und als ich mal versucht hab, jemandem aus dem Gedächtnis die wichtigsten Punkte des Videos zu nennen, habe ich es auch überhaupt nicht geschafft, die Brisanz und Dramatik, die das Video vermittelt, rüberzubringen (mir fielen aber natürlich auch nicht alle Punkte aus dem Video ein).
Das Video schafft es das Gefühl zu vermitteln, dass da etwas großes und wichtiges auf uns alle zu kommt, das man ernst nehmen muss.
Eine reine zusammefassende Auflistung der im Video genannten Fakten wird das wahrscheinlich nicht erreichen.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Howie Hughes am 12.05.2023 10:47]
|
|
|
|
|
|
Worst case: Gar nicht gucken
Best case: Gucken
Mittel case: Nebenbei gucken
Es ging ja darum, dass die Leute sich das gar nicht erst anschauen
|
|
|
|
|
|
|
|
|
|
|
porque no los dos.
Je nach Firma/ Firmenkultur beides finde ich denkbar insofern wir das nicht reguliert bekommen.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Je spezifischer die Programmier-Aufgabe/das Problem, desto unwahrscheinlicher ist es, dass AI (zumindest aktuell ChatGPT 3.5 und 4) dabei auch nur im Ansatz zuverlässig helfen kann.
Für stupide Arbeiten, die sich wiederholen oder um dem Ding Fragen zu stellen, die man sich sonst ergooglen müsste, taugt das. Aber zu mehr - zumindest aktuell - noch nicht.*
Hinzu kommt, dass jede Firma ihr Model eigentlich so trainieren müsste, dass es für sie passt. Das würde bedeuten, dass eine Firma ihr Model irgendwie von der Restwelt trennen müsste, damit die Konkurrenz nicht auch was davon hat aber dadurch lernt es ja auch nichts neues. Vllt. bin ich hier aber auch einfach als Laie zu ahnungslos, ob und wenn ja wie das machbar ist.
Aber so versteh ich auch nicht, wie auch eine Firma aktuell damit tatsächlich einen echten Menschen ersetzen kann.
* Ich hab eine eigentlich recht einfache Aufgabe für einen PHP-Funktion beschrieben und da kommt nur Müll raus. Nicht mal mit richtigen In- und Output-Beispielen wird sie richtig generiert.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Fabsn am 12.05.2023 14:54]
|
|
|
|
|
|
Ich bezweifle sehr, dass ein LLM einen menschlichen Programierer in naher Zukunft ersetzen kann, dem LLM fehlt jegliches Verständnis des Zwecks, es kann nur assoziieren was in welchem kontext am wahrscheinlichsten als nächstes im code kommt. Wenn ein Problem schon exakt so in den Trainingsdaten vorkommt kann es das Ergebnis reproduzieren, aber das ist dann auch nichts anderes als eine teurere und effizientere Durchsuchen von Stackoverflow etc, bei anderen Problemstellungen ist es mehr Zufall als alles andere ob das Ergebnis gut oder schrott ist.
Es kann damit auf jeden Fall Programierer effizienter machen, aber das tut auch eine bessere IDE.
Was ich nicht bezweifle ist, dass einige Firmen glauben werden, dass das Teil einen menschlichen Programierer ersetzen kann, OpenAIs Marketing ist sehr sehr gut. Aber mit etwas Glück fallen die damit schnell genug auf die Nase, dass es nicht den Markt als Ganzes groß beeinflusst.
Und OpenAIs Marketing spielt natürlich noch in die Hände, dass wir als Menschen grundsätzlich bereit sind in Zufall Muster zu finden und diese zu interpretieren, Muster zu erkennen ist eine Grundfunktion unseres Gehirns. Das und selection bias sind aus meiner Sicht die Hauptgründe warum eine ganze Reihe intelligenter Leute einem LLM ein Bewusstsein zuschreiben wollen. Genauso wie wir immer schon bekannte Muster und Bilder in der Form von Wolken gesehen haben, Sternbilder benannt haben und ähnliches sehen wir auch hier im Beherrschen der Form einer Sprache ein Verständnis des Inhalts und erzählen uns Geschichten darüber - vorgeprägt von existierenden Geschichten über Artificial Intelligence in Scifi Medien.
|
|
|
|
|
|
|
Wäre KI nicht hervorragend geeignet, um Anwälte zu "entlasten" (lies: arbeitslos machen)?
Mit sämtlichen Rechtsprechungen gefüttert, müsste es doch Urteile finden können, die einen Mandaten entlasten. Oder für Staatsanwälte halt anders herum.
Oder Ärzte: Könnte eine KI mit nicht sehr schnell Muster / Krankheiten erkennen? Oder zumindest Hinweise liefern?
|
|
|
|
|
|
|
| Zitat von Phillinger
.
Oder Ärzte: Könnte eine KI mit nicht sehr schnell Muster / Krankheiten erkennen? Oder zumindest Hinweise liefern?
| |
Für pathologische Gewebemikroskopie, Hautveränderungen und Identifikation von Auffälligkeiten bei MRT-Scans werden schon aktiv Systeme entwickelt, die Ärzte unterstützen sollen.
Das Problem sind hier auch Grenzfälle, multimorbide Patienten deren komplexe Erkrankungen zu ungewöhnlichen Phänotypen führen und Erkrankungen, die sich nicht unbedingt in bildgebenden Verfahren zeigen. Dazu kommen dann Probleme wie "nicht genug PoC im Trainingsdatensatz" was zu gefährlich falschen Einschätzungen führen kann.
Bevor ich meine Gesundheit einer KI anvertraue, müssen da auf jeden Fall noch ein paar sehr gute Proof of Concept Studien her.
E: viele Hausärzte sagen, sie wissen Montags um 8 eigentlich schon, was der Patient hat, wenn er drei Sätze erzählt hat, wie es ihm geht. Solche Dinger ("hab Schnupfen und Kopfweh und Husten seit drei Tagen bitte gelben Schein") könnte man sicher automatisieren und bei persistierenden Symptomen (trockener Husten geht nicht weg) oder ernsten Problem beim Blutdruck dann den Arzt hinzuziehen.
|
[Dieser Beitrag wurde 3 mal editiert; zum letzten Mal von loliger_rofler am 12.05.2023 16:30]
|
|
|
|
|
|
Falls es jemanden interessiert:
Habe seit gestern nen Beta Zugang zu Adobe Firefly. Bisher implementiert ist "Text to Image" und "Text effects".
Text effects ist ne nette Spielerei.
Die Text to Image Funktion stinkt grade im Vergleich zu Midjourney momentan noch ziemlich ab.
|
|
|
|
|
|
|
Kein Wunder denke ich, Adobe Stock vs LAION ist keinerlei Vergleich was den Umfang angeht...
|
|
|
|
|
|
|
Was mir meine Partnerin alles vom Gesundheitswesen erzählt würde ich ne KI nem Arzt vorziehen. Jedenfalls einem Klinikarzt der schon 24h wach ist, etc..
|
|
|
|
|
|
|
|
|
|
|
| Zitat von loliger_rofler
Das Problem sind hier auch Grenzfälle, multimorbide Patienten deren komplexe Erkrankungen zu ungewöhnlichen Phänotypen führen und Erkrankungen, die sich nicht unbedingt in bildgebenden Verfahren zeigen. Dazu kommen dann Probleme wie "nicht genug PoC im Trainingsdatensatz" was zu gefährlich falschen Einschätzungen führen kann.
| |
Jetzt mal ohne [Muh!]Scatman an den CT pinkeln zu wollen: Unter ganz ähnlichen Problemen leiden doch auch Patienten menschlicher Ärzte. Also klar, AI die Diagnostik zu überlassen fände ich auch weird. Unterstützend sehe ich da allerdings schon... sehr großes Potential?
|
|
|
|
|
|
|
| Zitat von Phillinger
Oder Ärzte: Könnte eine KI mit nicht sehr schnell Muster / Krankheiten erkennen? Oder zumindest Hinweise liefern?
| |
Es gab doch diese Hautkrebs(?)erkennung, wo die KI echt supi Ergebnisse geliefert hat. Gefüttert mit Bildern von Hautkrebs/kein Hautkrebs, dann neue Bilder vorlegen, Erkennung, ez.
Am Ende stellte sich raus, dass die KI sich durch das Training nicht den Hautkrebs "angeschaut" hat, sondern das Ergebnis davon abhing, ob im Bild ein Lineal zu sehen war. Weil in den Trainingsdaten bei allen positiven Befunden ein Lineal zu sehen war, in den anderen nicht.
Das Freakige dabei ist ja nicht, dass man jetzt streiten kann, ob Mensch oder Maschine oder beide hier versagt haben. Sondern dass keiner weiß, warum das Ding scharf war aufs Lineal.
|
|
|
|
|
|
|
Relativ häufig wiederkehrendes gleichmässiges Objekt, was immer wieder gleich aussieht.
Siehe die KI-Bilder, die den Getty Images Schriftzug nachahmen.
|
|
|
|
|
|
|
Hautkrebs sieht auch relativ gleich aus, kein Hautkrebs auch. Also so gleich, dass man sich dafür maschinelle Hilfe holen wollte.
|
|
|
|
|
|
|
In der Pathologie gäbe es riesiges Potential für KI. Und wahrscheinlich in den nächsten Jahren auch den Bedarf weil der Nachwuchs einfach fehlt. Viele Dinge ließen sich mega einfach trainieren und umsetzen, weil sie einfach pattern recognition sind. Das interpretieren kann dann ja ein Mensch machen, aber wenn mir die ki 20 Prostata Stanzen vorscreent und die Bereiche markiert, die sie für Krebs hält und ich muss das nur noch kontrollieren und eyeballen, ob der Prozentsatz stimmt, wäre echt nice.
/¤ alleine wenn es eine ki unterstützte Spracherkennung gäbe, die unsere hunderttausende Seiten Vorbefunde als Grundlage hätte. Geil. Die Scheisse, die Menschen da teilweise abtippen oder aktuelle Spracherkennung verwurstet ist grausam.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von niffeldi am 12.05.2023 21:17]
|
|
|
|
|
|
Jo, aber das Beispiel da oben zeigt ja, dass die Schwierigkeiten schon viel früher anfangen, weil Trainingsdaten immer irgendwie "biased" sind und man eigentlich umgekehrt sicherstellen müsste, dass sie es nicht sind, was im Prinzip unmöglich ist.
Es gibt ein ähnliches Beispiel mit der Erkennung von Schafen, da wurden ganz viele Bilder von Schafen reingefüttert und dann irgendwann nur ne grüne Wiese ohne Tiere gezeigt und die Antwort war trotzdem "Schaf!". Weil das System keine Ahnung hat, was ein Schaf ist, aber ne Wiese immer in den Daten war.
Wobei man bei Toten vielleicht ne Ausnahme machen kann. Also Tote und Shoppingempfehlungen ja, Hautkrebserkennung und Einsatzschwerpunkte für die Polizei vielleicht eher nicht so.
|
|
|
|
|
|
Thema: Ki generierte Kunst ( mindblowing ) |