|
|
|
|
Dropshipping der billigsten Sorte
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von mc.smurf am 12.01.2024 21:01]
|
|
|
|
|
|
| Zitat von DerKetzer
Ich bin immer noch begeistert und schockiert, dass nicht beim ersten AI Donald Duck oder Mario sofort eine riesige Abmahnwelle der üblichen Verdächtigen losgetreten wurde.
| |
Da wird erst gewartet was die Teile können und dann abgewatscht sobald es sich lohnt, die Technik einzusacken. mark my words.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Cherry on pOT wäre, wenn die Rezensionen auch von AI generiert wurden
|
|
|
|
|
|
|
Als Kontext:
Das schmeckt
|
|
|
|
|
|
|
"Schlechtester Paketdienst": DPD-Chatbot flucht und beschimpft eigene Firma
| Ein Kunde bringt das KI-System von DPD dazu, allen trainierten Anstand zu vergessen und ein Haiku über die Nutzlosigkeit des Zustellers zu dichten. | | | Viele moderne Chatbots verwenden generative KI auf Basis großer Sprachmodelle wie etwa OpenAIs ChatGPT oder PaLM von Google. Diese Systeme können anhand ihres Trainings reale Gespräche mit Menschen simulieren. KI-Forscher haben aber bereits "praktisch unbegrenzte" Möglichkeiten gefunden, um Schutzvorkehrungen großer Sprachmodelle automatisiert komplett zu umgehen. Schon vorher waren vielfach spezielle Abfragen über sogenannte Prompt Injections dokumentiert, die unbeabsichtigte Antworten hervorrufen können.
Als Snap im vorigen Jahr seinen Chatbot auf den Markt brachte, musste das Unternehmen Nutzer rasch vor genau diesem Phänomen warnen: Antworten könnten "voreingenommene, falsche, schädliche oder irreführende Inhalte enthalten". Erst vor rund einem Monat stimmte das einschlägige KI-System eines Autohändlers auf Betreiben eines sparsamen Kunden zu, einen Chevrolet für einen einzigen US-Dollar zu verkaufen. Der Verkäufer stellte die Chat-Funktion daraufhin rasch ein. | |
https://twitter.com/ashbeauchamp/status/1748034519104450874
|
|
|
|
|
|
|
|
|
|
|
Weiß gerade nicht, ob es noch einen passenderen Thread zum Thema KI gibt, aber ich frage mal hier:
Wenn man ChatGPT einen Text gibt und fragt "Ist dieser Text von dir?" Wie verlässlich ist die Antwort?
|
|
|
|
|
|
|
Absolut gar nicht verlässlich.
|
|
|
|
|
|
|
tl;dr: not how LLMs work. Nope.
|
|
|
|
|
|
|
Allgemein nicht, wie KNN arbeiten, sofern man nicht ihr selbst generiertes Zeug wieder als Trainingsdaten für die nächste Iteration verwendet.
Dass es den Text also in der nächsten Anfrage nicht kennt ist erst mal zu erwarten. Dass es sich innerhalb desselben Dialogs nicht daran erinnern will ist witzig; vielleicht hätte es mit was Kürzerem geklappt
|
|
|
|
|
|
|
|
|
|
|
Not how it works.
|
|
|
|
|
|
|
Halt genau wie LLMs wörken.
|
|
|
|
|
|
|
Also bei mir klappt das super.
|
|
|
|
|
|
|
Man muss nur gut prompt-intschenörn!
|
|
|
|
|
|
|
|
|
|
|
Siehr sehr cool aus, aber eher wie 3D-Trailer, da viele Details unnatürlich wirken. Und alles ist so glattgebügelt und Corporate Friendly auf der Seite.
Die Lügen sind auch dieselben wie bei den Bildmodellen.
Auf der Seite reden sie auch wieder ganz schön viel über "understand" nur um dann einzuschränken, dass das Modell links und rechts nicht unterscheiden kann und implizit überhaupt nichts versteht und keine Konzepte von Objekten und Kontinuität hat, sondern eben doch nur wieder an Trainigsdaten mit möglichst ähnlichen Tags annähert.
Die haben wirklich Angst, ehrlich zu sein über das, was die KI wirklich macht, würde Investoren vergraulen, die ihre hübschen Filmchen sonst voll beeindruckend fänden.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von loliger_rofler am 15.02.2024 22:26]
|
|
|
|
|
|
Haben wir nen allgemeinen KI-Thread?
Ich lasss das mal hier:
| In the largest survey of its kind, 2,778 researchers who had published in top-tier artificial intelligence (AI) venues gave predictions on the pace of AI progress and the nature and impacts of advanced AI systems The aggregate forecasts give at least a 50% chance of AI systems achieving several milestones by 2028 | |
https://arxiv.org/abs/2401.02843
|
|
|
|
|
|
|
| Zitat von loliger_rofler
Siehr sehr cool aus, aber eher wie 3D-Trailer, da viele Details unnatürlich wirken. Und alles ist so glattgebügelt und Corporate Friendly auf der Seite.
Die Lügen sind auch dieselben wie bei den Bildmodellen.
Auf der Seite reden sie auch wieder ganz schön viel über "understand" nur um dann einzuschränken, dass das Modell links und rechts nicht unterscheiden kann und implizit überhaupt nichts versteht und keine Konzepte von Objekten und Kontinuität hat, sondern eben doch nur wieder an Trainigsdaten mit möglichst ähnlichen Tags annähert.
Die haben wirklich Angst, ehrlich zu sein über das, was die KI wirklich macht, würde Investoren vergraulen, die ihre hübschen Filmchen sonst voll beeindruckend fänden.
| |
genau wie bei Einzelbildgeneration ein glorifzierte Plagiatsmaschine die nur nutzlosen visuellen Nonsens produziert, färbe mich überrascht
|
|
|
|
|
|
|
Aha, jetzt muss Kunst also nützlich sein oder was?
/Aber im Ernst, in letzter Zeit fällt mir so generische "stock" Musik, wie man sie in Werbevideos findet, häufiger mal unangenehm auf. Ich vermute das wird auch schon längst komplett generiert, also auch die Komposition?
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Irdorath am 16.02.2024 13:23]
|
|
|
|
|
|
Mich nervt eher, dass in den kommenden Wochen mein LinkedIn Feed nur noch aus solchem Content bestehen wird.
|
|
|
|
|
|
|
|
|
|
|
| Zitat von Aspe
Mich nervt eher, dass in den kommenden Wochen mein LinkedIn Feed nur noch aus solchem Content bestehen wird.
| |
Die haben das nicht released, die teasern das nur. Braucht wahrscheinlich auch unmengen an Compute für son 60 sec FIebertraumvideo
e/ WTF an über mir
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Poliadversum am 16.02.2024 13:27]
|
|
|
|
|
|
Wenn's nicht so traurig wäre, könnte ich über die Bilder und Beschriftungen lachen. In 1 Jahr glaubt dann die Mehrheit da draußen den Quatsch.
|
|
|
|
|
|
|
Frontiers ist aber auch kein Publisher, wo das überrascht. MDPI hat auch hohe Chancen, mit sowas aufzufallen.
Nicht, dass Springer nicht auch Journale und Editoren hat, die sowas bringen würden...
|
|
|
|
|
|
|
|
|
|
|
| 3D consistency. Sora can generate videos with dynamic camera motion. As the camera shifts and rotates, people and scene elements move consistently through three-dimensional space. | |
Das ist auch wieder gelogen.
In Sluttis Video oben sind die Leute im Hintergrund alles andere als consistent - die haben Unmengen Füße für viel zu wenige Oberkörper.
Und in dem Beispiel hier, direkt unter dem zitierten Absatz, stimmt es auch absolut nicht für die Familie im Hintergrund in den letzten Sekunden:
Bei 0:14 verschwindet die Gruppe hinter dem Pärchen und wird durch einen Kerl mit Kopfhörern ersetzt der enweder 200 Meter groß ist oder in der Luft schwebt (unter seinen Füßen ist das Flusstal). Das System plagiiert halt konsistent Elemente aus den Daten, aus denen es Zeug zusammensplicet, aber sobald es irgendwas wirklich tracken oder verstehen müsste, stößt es an seine Grenzen.
| Simulating digital worlds. Sora is also able to simulate artificial processes–one example is video games. Sora can simultaneously control the player in Minecraft with a basic policy while also rendering the world and its dynamics in high fidelity. These capabilities can be elicited zero-shot by prompting Sora with captions mentioning “Minecraft.” | |
Das hier klappt wohl auch eher nur, weil Minecraft unheimlich populär ist und es buchstäblich Millionen Stunden Let's Plays gibt. Sollen das mal mit "Die Schlümpfe Kart Racing" oder Duke Nukem 3D probieren.
| We believe the capabilities Sora has today demonstrate that continued scaling of video models is a promising path towards the development of capable simulators of the physical and digital world, and the objects, animals and people that live within them. | |
Die echte Definition von Simulation und was OpenAi eine Simulation nennen, sind doch völlig verschiedene Dinge.
Es wird eine Bildfolge generiert und nährungsweise an Trainingsdaten angeglichen, nicht erst was gerendert und dann mit Physik und Interaktion versehen.
Das unehrliche Wording alleine macht mich schon immer unzufrieden, aber dass Leute, die Laien sind, diese Widersprüche bemerken, spricht nicht gerade für den Laden.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von loliger_rofler am 16.02.2024 16:18]
|
|
|
|
|
|
Naja, im Vergleich zur 1. Generation ist das schon beeindruckend consistent:
Geht ja erstmals auch hauptsächlich um die Hauptobjekte, wenn man sich den Rest anschaut wird man noch genug lustige Dinge finden. Sagen sie ja auch selber und liefern entsprechend Videos dazu.
Warte mal noch 1-3 Jahre, dann wird das achon in die Richtung gehen.
| We believe the capabilities Sora has today demonstrate that continued scaling of video models is a promising path towards the development of capable simulators of the physical and digital world, and the objects, animals and people that live within them. | |
Das Ding ist, die jetztigen Versionen reichen schon...
Finance worker pays out $25 million after video call with deepfake chief financial officer
|
|
|
|
|
|
Thema: Ki generierte Kunst ( mindblowing ) |