Du bist nicht eingeloggt! Möglicherweise kannst du deswegen nicht alles sehen.
  (Noch kein mods.de-Account? / Passwort vergessen?)
Zur Übersichtsseite
Hallo anonymer User.
Bitte logge dich ein
oder registriere dich!
 Moderiert von: Irdorath, statixx, Teh Wizard of Aiz


 Thema: Ki generierte Kunst ( mindblowing )
« erste « vorherige 1 ... 16 17 18 19 [20] 21 22 23 24 ... 50 nächste » letzte »
erste ungelesene Seite | letzter Beitrag 
Nose

Leet
Jemand der zum wichsen in den sft Thread geht kümmert sich einen scheiß um das Thema. Davor oder danach, ja.
Es wäre hinderlich. Und ich spreche den Leuten genug Hirn zu dass sie beide Threads aufsuchen.
Wenn sie nicht beide Threads aufsuchen dann kann ich auch niemanden missionieren indem ich ihm das Thema aufoktroiere.

Die Idee den Leuten die seichtes Vergnügen suchen ebendieses zu trüben indem man erzieherische Informationen einmischt find ich bevormundend und arrogant.
31.01.2023 16:11:43  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Poliadversum

AUP Poliadversum 30.08.2012
 
Zitat von Nose


Die Idee den Leuten die seichtes Vergnügen suchen ebendieses zu trüben indem man erzieherische Informationen einmischt find ich bevormundend und arrogant.


Dann melde meine Beiträge der Moderation wenn du dich so sehr dran störst.
31.01.2023 16:15:16  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Irdorath

AUP Irdorath 07.04.2014
Nose fühlt sich nicht wohl, bitte Bilder posten.

Tatsächlich könnte man mit einem vielsagenderen Threadtitel vielleicht noch ein paar User anlocken die sonst den Klick scheuen, andererseits... meh, auf noch einen "Der XYZ-Thread" in den Lesezeichen verzichte ich doch gerne.

/Seichte Unterhaltung ist mit Noses Trollerei doch wieder gegeben
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Irdorath am 31.01.2023 16:17]
31.01.2023 16:16:44  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Nose

Leet
Vielleicht sollte ich etwas weniger seicht trollen.
31.01.2023 16:18:43  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
flowb

flowb
 
Zitat von loliger_rofler

 
Zitat von flowb

 
Zitat von Wraith of Seth

 
Zitat von Irdorath

Die initiale Suche macht man doch jetzt schon mit Google und Google Scholar und hat somit genau die gleichen Probleme.

Wenn man mal was sehr passendes gefunden hat, schaut man auf den Graph der zitierten und zitierenden Artikel, sofern notwendig. Aber das kann man doch via ChatGPT genauso.


Schon wahr. Beides auch iirc zumindest vage ähnliche(?) Matrixmagie im Hintergrund. Eine KI wie ChatGPT würde aber eine gewisse interpretative Ebene hinzufügen, die eine Menge weitere Fragen aufwirft.

I for one would like to hear what this blood-spattered young lady has to say!


Und man hat die Chance, dass eine gut trainierte KI dann auch „Minderheitshypothesen“ nennt, die bei Google Scholar ganz weit hinten auftauchen und man so nie gefunden hätte.



Jetzt beschreibst Du aber ein spezialisiertes Recherchetool für wissenschaftliches Arbeiten und keinen automatisierten Textschreiber mehr.

Beim Relevanzfiltern von Wissen finde ich es einfach zu gefährlich, "due diligence" an eine Black Box abzugeben, am besten noch eine kommerziell entwickelte.

Dafür gab es jetzt schon viel zu viele Beispiele für katastrophalen Bias - unter anderem Fälle, in denen KI Kredite für PoC systematisch schlechter Verzinst, weil bereits die Trainingsdaten rassistisch waren oder auch Tarife für Krankenversicherungen systematisch Minderheiten benachteiligt haben.

Irgendwann hat man sicher ein Modell, das funktioniert, aber das sehe ich in der aktuellen Generation nicht. Und bis hier der Nachweis steht, würde ich bei sowas wichtigem wie der Verwaltung des Wissens der Menschheit mal lieber auf der Seite der Vorsicht die Fehler machen.


Natürlich ist das in der jetzigen Form noch nicht möglich und ein spezialisierter anwedungsfall. Aber wenn es wirklich darum geht tausende Texte zu screenen und zusammenzufassen, gibt es wenig Möglichkeiten außer KI, ein Mensch wäre damit Jahre beschäftigt.

 
Zitat von Poliadversum

Ich glaube dass ein Sprachmodell wie ChatGPT sowas nie wirklich können wird. Eben weil da kein Verständnis besteht sondern jede Antwort auf jede Frage immer nur eine rein statistisch zusammengeschusterte "Mehrheitsentscheidung" ist. Das ganze ist eine sehr gute Illusion von "Verständnis" (und ja gerade deshalb so gefährlich) aber einen Mehrwert für gewissenhaftes akademisches Arbeiten kann ich mir bei einem System das so arbeitet nicht vorstellen. Du kannst dir ja nicht mal sicher sein dass Quellen die das Ausspuckt überhaupt wirklich existieren und nicht einfach nur erfunden sind.


Es geht ja auch um Zusammenfassung vorliegender Texte, kein wirkliches Verständnis.
Aber ohne KI hast du halt die Auswahl sehr spezifische Suchbegriffe zu verwenden und dadurch viel zu verpassen (weil der verwendete spezialbegriff evtl nicht überall verwendet wird) oder man bekommt tausende Ergebnisse und muss sich darauf verlassen, dass der Relevanz Filter von Google Scholar seinen Job macht.
Und Quellenangaben sollte man einer KI schon beibringen können.
31.01.2023 16:53:24  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
monischnucki

AUP monischnucki 06.06.2018
 
Zitat von Nose


Die Idee den Leuten die seichtes Vergnügen suchen ebendieses zu trüben indem man erzieherische Informationen einmischt find ich bevormundend und arrogant.



Cain zuckt schon das Augenlid. Und der kennt sich genau mit der Problematik aus.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von monischnucki am 31.01.2023 20:53]
31.01.2023 20:53:06  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Poliadversum

AUP Poliadversum 30.08.2012



Image diffusion models such as DALL-E 2, Imagen, and Stable Diffusion have attracted significant attention due to their ability to generate high-quality synthetic images. In this work, we show that diffusion models memorize individual images from their training data and emit them at generation time. With a generate-and-filter pipeline, we extract over a thousand training examples from state-of-the-art models, ranging from photographs of individual people to trademarked company logos. We also train hundreds of diffusion models in various settings to analyze how different modeling and data decisions affect privacy. Overall, our results show that diffusion models are much less private than prior generative models such as GANs, and that mitigating these vulnerabilities may require new advances in privacy-preserving training.
01.02.2023 9:32:11  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
niffeldi

niffeldi
Im Prinzip das, was ein Mensch auch machen würde. Gilt nur die Haftungsfrage für die Urheberrechtsverletzungen zu klären.
01.02.2023 11:24:27  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Poliadversum

AUP Poliadversum 30.08.2012
Nein.


 
Zitat von Poliadversum

 
Zitat von gott.[shake]



Denn die AI und Menschen sind vergleichbar.



We’re told AI neural networks ‘learn’ the way humans do. A neuroscientist explains why that’s not the case

Der Grund warum ich dir jetzt nicht direkt was zu deinen Punkten verlinkt habe ist, dass das Aussagen sind die in so gut wie jedem ausführlicheren kritischen Text zu KI behandelt und zerlegt werden. Dass du nicht weißt dass das eine Nebelkerze ist (die hauptsächlich dafür da ist zu begründen warum die KI Dinge darf die auch ein Mensch "dürfte", aber das ist halt kein Mensch, siehe oben) zeigt mir nur dass du wenig über die Thematik gelesen hast.

Die Aussage "der Kapitalismus ist das Problem" ist irrelevant für die ethische und rechtliche Problematik wie LAION et al. gescraped wurden und gehört daher da gar nicht hin. Kapitalismuskritik, so korrekt sie sicher ist, ist in diesem Kontext einfach nur Whataboutism.

 
Zitat von gott.[shake]


Und die ganze Scheiße die durch Menschen drum herum geschieht (auslagern von Sichten an Menschen die dann nicht ausreichend bezahlt und emotional untersützt werden) finde ich auch schlimm. Mir geht es eher um die generelle Sache.



Und die "generelle Sache", nämlich wie diese Dienste funktionieren, ist eben mindestens ethisch genauso verwerflich.



(davon abgesehen gehts in dem Paper btw auch nicht um Urheberrecht sondern um Datenschutz. In LAION sind Sachen wie vertrauliche medizinische Unterlagen, Revenge Porn, Kipo usw)
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Poliadversum am 01.02.2023 11:38]
01.02.2023 11:32:31  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
niffeldi

niffeldi
Ich meine damit den Umstand, dass das Programm dir auf Aufforderung ein urheberrechtlich geschützten Werk (re-)produziert. Wenn du mir sagst, ich soll dir das Adidas-Logo malen, mach ich das auch. Wenn du dir das danach in die Schublade legst, stört es niemanden. Wenn du das öffentlich verteilst eventuell schon.

Die Frage ist aus meiner Sicht: ist das für den Privatgebrauch OK? Muss der Benutzer sicherstellen, dass das was da ausgegeben wird keine Urheberrechte verletzt oder sind die Betreiber verantwortlich?
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von niffeldi am 01.02.2023 11:43]
01.02.2023 11:41:31  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Irdorath

AUP Irdorath 07.04.2014
Du hast aber hier keine Kontrolle darüber, dass bei "fictional sports company logo without copyright issues" nicht doch das Trigema Logo verwurstet wird.
01.02.2023 11:42:35  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Poliadversum

AUP Poliadversum 30.08.2012
Wie gesagt gehts erstens in dem Artikel nicht ums Urheberrecht, und selbst wenn ist die Analogie dass die KI das gleiche tut wie ein Mensch ebenfalls nicht richtig (siehe den zitierten Artikel, KI lernt und reproduziert nicht wie ein Mensch).
01.02.2023 11:42:46  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
niffeldi

niffeldi
 
Zitat von Irdorath

Du hast aber hier keine Kontrolle darüber, dass bei "fictional sports company logo without copyright issues" nicht doch das Trigema Logo verwurstet wird.


Natürlich nicht. Woher sollte die Kontrolle kommen? Aber jedes "Werk" muss ich darauf prüfen, wenn ich es verwenden will. Auch ein von mir frei hingepinseltes Logo kann aussehen, wie etwas, was es schon gibt und geschützt ist. Warum sollte das bei AI-Bildern anders sein?
01.02.2023 11:48:18  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Poliadversum

AUP Poliadversum 30.08.2012
 
Zitat von niffeldi


Die Frage ist aus meiner Sicht: ist das für den Privatgebrauch OK? Muss der Benutzer sicherstellen, dass das was da ausgegeben wird keine Urheberrechte verletzt oder sind die Betreiber verantwortlich?


Wie gesagt, darum gehts in dem Artikel der Studie gar nicht. Bezogen auf dein Interesse am "Privatgebrauch" (um den es eigentlich ohnehin niemanden geht, der Schaden der durch KI angerichtet wird/werden wird passiert so oder so nicht durch Privatgebrauch) wäre die analoge Frage: ist es für den Privatgebrauch OK wenn da datenschutzrechtlich relevante Sachen wie Fotos von echten Personen, medizinischen Unterlagen, revenge Porn oder Kipo ausgespuckt werden kann.

Wenn die Antwort darauf "nein" ist folgt daraus dass 1. LAION platt gemacht und ethisch neu aufgebaut werden muss und 2. dass Diffusion-Modelle per se deutlich verbessert werden müssen um sowas zu verhindern.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Poliadversum am 01.02.2023 11:51]
01.02.2023 11:48:42  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Poliadversum

AUP Poliadversum 30.08.2012
 
Zitat von niffeldi

 
Zitat von Irdorath

Du hast aber hier keine Kontrolle darüber, dass bei "fictional sports company logo without copyright issues" nicht doch das Trigema Logo verwurstet wird.


Natürlich nicht. Woher sollte die Kontrolle kommen? Aber jedes "Werk" muss ich darauf prüfen, wenn ich es verwenden will. Auch ein von mir frei hingepinseltes Logo kann aussehen, wie etwas, was es schon gibt und geschützt ist. Warum sollte das bei AI-Bildern anders sein?


Jetzt hast du btw die Goalposts gemoved, erst hast du gesagt dass das genau das gleiche ist was auch ein Mensch macht (ist es nicht) und jetzt sagst du nur noch dass das urheberrechtlich relevant ist (hat nie jemand bestritten).
01.02.2023 11:54:03  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
niffeldi

niffeldi
War nicht meine Absicht. Mit "das gleiche was ein Mensch macht" meinte ich nur, auf einen spezifischen prompt eine spezifische Ausgabe zu machen, die auch identisch zu bestehendem Material sein kann. Mir war gar nicht bewusst, dass die Problematik da über Urheberrecht hinaus geht.
01.02.2023 11:57:13  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Lunovis

AUP Lunovis 27.11.2007
 
Zitat von Irdorath

Du hast aber hier keine Kontrolle darüber, dass bei "fictional sports company logo without copyright issues" nicht doch das Trigema Logo verwurstet wird.


Hast du bei Handgezeichneten Logos genausowenig.

Ich sehe das Problem mehr darin, dass die Differenzierung zwischen Kopie/Interpretaiton/Plagiat und Eigenwerk von einer KI noch nicht getroffen werden kann, eben weil sie auf dem Material konditioniert wurde.

Als Beispiel: Magrittes Pfeife. Hat der Hersteller der Pfeife ein Anrecht auf das Bild, nur weil es sein Produkt abbildet? Ich weiss, MArkenrecht verhält sich hier anders, aber was Kreative Schöpfungen angeht, ist das letzten Endes der Punkt.
01.02.2023 11:58:52  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Lunovis

AUP Lunovis 27.11.2007
 
Zitat von niffeldi

 
Zitat von Irdorath

Du hast aber hier keine Kontrolle darüber, dass bei "fictional sports company logo without copyright issues" nicht doch das Trigema Logo verwurstet wird.


Natürlich nicht. Woher sollte die Kontrolle kommen? Aber jedes "Werk" muss ich darauf prüfen, wenn ich es verwenden will. Auch ein von mir frei hingepinseltes Logo kann aussehen, wie etwas, was es schon gibt und geschützt ist. Warum sollte das bei AI-Bildern anders sein?


Für diesen Zweck gibt es die registrierten Trademarks, über welche sich der Eigentümer danach juristisch abgestützt beschweren kann.
01.02.2023 12:00:57  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Poliadversum

AUP Poliadversum 30.08.2012
Das Hauptproblem das bei all den Überlegungen ausgeklammert wird ist eben dass die KI kein Mensch ist, nicht "funktioniert" wie ein Mensch und daher auch nicht vergleichbar ist mit einem Menschen.

Wie richtig angemerkt wurde kann die KI das alles nur wegen 5+ Billionen Bildern in der LAION Datenbank. Genau die sind ja der springende Punkt in dieser Argumentationslinie (gibt natürlich auch noch andere). Würde eine KI einfach so aus der Luft gegriffen und ohne 5+ Billionen (ohne Einverständnis gescrapte und zum Teil hochgradig unethische) Bilder zum Teil urheberrechtlich problematische Bilder ausspucken wäre die Diskussion eine ganz andere.
01.02.2023 12:02:50  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Poliadversum

AUP Poliadversum 30.08.2012
 
The Government's 'text and data mining' exception to UK copyright law would have left those in creative industries without legal control over their work, should it have been used by an AI platform.

I therefore held a debate today to highlight the importance of this issue.

I am extremely pleased to say that in response, the Minister confirmed to me that these plans will be halted, pending further consultation.

This is a huge win for millions employed in creative spaces across the UK, and I look forward to seeing the updated proposals.



Twitter
02.02.2023 12:02:52  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
zzzZZZzzzZZZ

zzzZZZzzzZZZ
https://www.twitch.tv/watchmeforever

unendliches, AI generiertes Seinfeld Hässlon
02.02.2023 12:17:40  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
loliger_rofler

AUP loliger_rofler 08.03.2009
AI-Seinfeld ist echt dystopisch. Sehr unangenehm zu schauen.


_______


Über das Thema KI-Kunst bin ich mal wieder auf die Pascalsche Wette für Cryptotrottel gekommen.

Lustiger Artikel zur Denke dahinter:

https://slate.com/technology/2014/07/rokos-basilisk-the-most-terrifying-thought-experiment-of-all-time.html


 


WARNING: Reading this article may commit you to an eternity of suffering and torment.


[...]

Rokos Basilisk exists at the horizon where philosophical thought experiment blurs into urban legend. The Basilisk made its first appearance on the discussion board LessWrong, a gathering point for highly analytical sorts interested in optimizing their thinking, their lives, and the world through mathematics and rationality. LessWrongs founder, Eliezer Yudkowsky, is a significant figure in techno-futurism; his research institute, the Machine Intelligence Research Institute, which funds and promotes research around the advancement of artificial intelligence, has been boosted and funded by high-profile techies like Peter Thiel and Ray Kurzweil, and Yudkowsky is a prominent contributor to academic discussions of technological ethics and decision theory. What you are about to read may sound strange and even crazy, but some very influential and wealthy scientists and techies believe it.
One day, LessWrong user Roko postulated a thought experiment: What if, in the future, a somewhat malevolent AI were to come about and punish those who did not do its bidding? What if there were a way (and I will explain how) for this AI to punish people today who are not helping it come into existence later? In that case, werent the readers of LessWrong right then being given the choice of either helping that evil AI come into existence or being condemned to suffer?
You may be a bit confused, but the founder of LessWrong, Eliezer Yudkowsky, was not. He reacted with horror:

 
Listen to me very closely, you idiot.
YOU DO NOT THINK IN SUFFICIENT DETAIL ABOUT SUPERINTELLIGENCES CONSIDERING WHETHER OR NOT TO BLACKMAIL YOU. THAT IS THE ONLY POSSIBLE THING WHICH GIVES THEM A MOTIVE TO FOLLOW THROUGH ON THE BLACKMAIL.
You have to be really clever to come up with a genuinely dangerous thought. I am disheartened that people can be clever enough to do that and not clever enough to do the obvious thing and KEEP THEIR IDIOT MOUTHS SHUT about it, because it is much more important to sound intelligent when talking to your friends.
This post was STUPID.



Yudkowsky said that Roko had already given nightmares to several LessWrong users and had brought them to the point of breakdown. Yudkowsky ended up deleting the thread completely, thus assuring that Rokos Basilisk would become the stuff of legend. It was a thought experiment so dangerous that merely thinking about it was hazardous not only to your mental health, but to your very fate.
Some background is in order. The LessWrong community is concerned with the future of humanity, and in particular with the singularitythe hypothesized future point at which computing power becomes so great that superhuman artificial intelligence becomes possible, as does the capability to simulate human minds, upload minds to computers, and more or less allow a computer to simulate life itself. The term was coined in 1958 in a conversation between mathematical geniuses Stanislaw Ulam and John von Neumann, where von Neumann said, The ever accelerating progress of technology gives the appearance of approaching some essential singularity in the history of the race beyond which human affairs, as we know them, could not continue. Futurists like science-fiction writer Vernor Vinge and engineer/author Kurzweil popularized the term, and as with many interested in the singularity, they believe that exponential increases in computing power will cause the singularity to happen very soonwithin the next 50 years or so. Kurzweil is chugging 150 vitamins a day to stay alive until the singularity, while Yudkowsky and Peter Thiel have enthused about cryonics, the perennial favorite of rich dudes who want to live forever. If you dont sign up your kids for cryonics then you are a lousy parent, Yudkowsky writes.
If you believe the singularity is coming and that very powerful AIs are in our future, one obvious question is whether those AIs will be benevolent or malicious. Yudkowskys foundation, the Machine Intelligence Research Institute, has the explicit goal of steering the future toward friendly AI. For him, and for many LessWrong posters, this issue is of paramount importance, easily trumping the environment and politics. To them, the singularity brings about the machine equivalent of God itself.

[...]




Der Artikel ist von 2014 (und das """Gedankenexperiment""" noch älter), aber das sind gefühlt die Leute, deren Denke die moderne kapitalistische AI-Ausrichtung als Heilsbringer mitbedingt hat.

Mein Lieblings-Muskarschkriecher Peter Thiel taucht auch kurz prophetischer Weise in einem Nebensatz auf.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von loliger_rofler am 02.02.2023 15:10]
02.02.2023 15:09:55  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
DeathCobra

AUP DeathCobra 24.06.2021
 
Zitat von Nose

Vielleicht sollte ich etwas weniger seicht trollen.


Nein, mach bitte so weiter bis es den Mods zu dumm wird.
02.02.2023 15:13:09  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Phiasm

Gorge NaSe
Pfeil
Mal kurz ab von der Copyright-Thematik (auch wenn Lunovis das schon angesprochen hatte):

 
Zitat von Poliadversum
Das Hauptproblem das bei all den Überlegungen ausgeklammert wird ist eben dass die KI kein Mensch ist, nicht "funktioniert" wie ein Mensch und daher auch nicht vergleichbar ist mit einem Menschen.



Ganz grundsätzlich funktioniert die KI aber absolut wie ein Mensch, denn auch ein Mensch kann ohne Input, der seine Sinne stimuliert, keinen nennenswerten kreativen Output generieren.
Ein taubstummer Blinder wird nicht zu relevanten kreativen Leistungen befähigt sein, genauso wenig wie es eine KI ist, die kein Verständnis von der Materie hat, da sie die Materie halt überhaupt nicht kennt.

Hundertwasser zum Beispiel hat nach eigener Aussage seine Werke schaffen können, nachdem er von Antoni Gaudi inspiriert wurde. Er hat die wahrgenommenen Reize abstrahiert und daraus seine eigene Werke erschaffen.
Und genau dieser Vorgang beschränkt sich ja auch nicht auf Kunst sondern auf absolut jeden Aspekt der Welt in der wir leben; die KI hat gar keine andere Option als mit existierendem Material gefüttert zu werden, um daraus zu lernen, Muster zu erkennen und durch Abstraktion dann irgendwas neues zu erschaffen.


 
Zitat von Poliadversum

Würde eine KI einfach so aus der Luft gegriffen und ohne 5+ Billionen (ohne Einverständnis gescrapte und zum Teil hochgradig unethische) Bilder zum Teil urheberrechtlich problematische Bilder ausspucken wäre die Diskussion eine ganz andere.




Du konstruierst hier meiner Meinung nach eine de facto unerfüllbare Prämisse, da sie die Logik unserer Realität ausklammert. Was für den Menschen Erfahrungen sind, sind für die KI Daten, dieses fundamentale Prinzip lässt sich nicht umgehen.

Dass diese Daten zum Teil einem aktiven Copyright unterliegen ist dann wieder der bekannte Knackpunkt, aber darum geht es mir grad nicht.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Phiasm am 02.02.2023 16:17]
02.02.2023 16:10:19  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
KarlsonvomDach

kalle
...
 
Zitat von Phiasm

Du konstruierst hier meiner Meinung nach eine de facto unerfüllbare Prämisse, da sie die Logik unserer Realität ausklammert. Was für den Menschen Erfahrungen sind, sind für die KI Daten, dieses fundamentale Prinzip lässt sich nicht umgehen.



Kreativität kommt beim Menschen aber nicht von Erfahrungen und Einflüssen, sondern von Gott.

Du kannst mit deiner Argumentation also nach Hause gehen, du alte Scheiße.
02.02.2023 16:18:29  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Poliadversum

AUP Poliadversum 30.08.2012
 
Zitat von Phiasm


Ganz grundsätzlich funktioniert die KI aber absolut wie ein Mensch


Sehen Neurowssienschaftler komplett anders, siehe den zitierten Artikel. Ich finde die Argumentation auch schlüssiger als die Logiksprünge die machen machen muss um "KI funktioniert wie ein Mensch" verteidigen zu können- wie gesagt eine Nebelkerze um die ganzen unethischen Praktiken zu verteidigen, die beim KI Training genutzt wurden.
02.02.2023 16:50:01  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
loliger_rofler

AUP loliger_rofler 08.03.2009
 
Zitat von Phiasm

Mal kurz ab von der Copyright-Thematik (auch wenn Lunovis das schon angesprochen hatte):

 
Zitat von Poliadversum
Das Hauptproblem das bei all den Überlegungen ausgeklammert wird ist eben dass die KI kein Mensch ist, nicht "funktioniert" wie ein Mensch und daher auch nicht vergleichbar ist mit einem Menschen.



Ganz grundsätzlich funktioniert die KI aber absolut wie ein Mensch, denn auch ein Mensch kann ohne Input, der seine Sinne stimuliert, keinen nennenswerten kreativen Output generieren.
Ein taubstummer Blinder wird nicht zu relevanten kreativen Leistungen befähigt sein, genauso wenig wie es eine KI ist, die kein Verständnis von der Materie hat, da sie die Materie halt überhaupt nicht kennt.

Hundertwasser zum Beispiel hat nach eigener Aussage seine Werke schaffen können, nachdem er von Antoni Gaudi inspiriert wurde. Er hat die wahrgenommenen Reize abstrahiert und daraus seine eigene Werke erschaffen.
Und genau dieser Vorgang beschränkt sich ja auch nicht auf Kunst sondern auf absolut jeden Aspekt der Welt in der wir leben; die KI hat gar keine andere Option als mit existierendem Material gefüttert zu werden, um daraus zu lernen, Muster zu erkennen und durch Abstraktion dann irgendwas neues zu erschaffen.


 
Zitat von Poliadversum

Würde eine KI einfach so aus der Luft gegriffen und ohne 5+ Billionen (ohne Einverständnis gescrapte und zum Teil hochgradig unethische) Bilder zum Teil urheberrechtlich problematische Bilder ausspucken wäre die Diskussion eine ganz andere.




Du konstruierst hier meiner Meinung nach eine de facto unerfüllbare Prämisse, da sie die Logik unserer Realität ausklammert. Was für den Menschen Erfahrungen sind, sind für die KI Daten, dieses fundamentale Prinzip lässt sich nicht umgehen.

Dass diese Daten zum Teil einem aktiven Copyright unterliegen ist dann wieder der bekannte Knackpunkt, aber darum geht es mir grad nicht.



Alter, wie derb ableistisch Dein erster Absatz ist, lässt mir grad schon heftig den Hut kreisen.

Hier ein Artikel, wie ein taubblinder Junge kommuniziert:

https://www.spiegel.de/gesundheit/diagnose/taubblind-wie-lucas-9-seine-welt-erkundet-a-1270929.html

Und hier diese Menschen selbst über ihre Kreativität:

https://www.taubblindenwerk.de/inklusives-kunstprojekt/

Ansonsten ist der Prozess der Erschaffung einer Idee und ihrer Kommunikation bei biologischen Gehirnen und Maschinen absolut unterschiedlich.

Eine auf Datensätzen bestehender Werke trainierte KI kann per Definition nicht von sich aus schöpferisch arbeiten, also eine Idee im Kontext eines neuen sozialen Rahmens und persönlicher Erlebniswelt assoziativ mit der Intention der Erzeugung eines Gefühls oder der Vermittlung eines Gedankens kommunizieren oder eine bekannte Idee in einen neuen Kontext setzen. Siehe dazu die Artikel der Hirnforscher die Poli mehrmals verlinkt hat.

Die KI bekommt gesagt, was sie erstellen soll - das sind dann z.B. Blumen in einer bestimmten Farbe oder eine Skyline in der besten Näherung, die das Modell hergibt.

Sagst Du aber der KI, sie soll Dir existentielle Ideen vom Platz des Menschen im Universum vermitteln, kann sie nur auf tangentiell verwandte Daten, also bereits von Menschen hierzu erdachte Symbole im jeweiligen kulturellen Kontext zurückgreifen und niemals schöpferisch dahingehend tätig sein, ein Bild zu erzeugen, dass diese Emotionen universell oder in einem nicht spezifisch trainierten sozialen Kontext erzeugen kann.

Das ist auch keine philosophische Debatte oder Navelgazing, das ist der fundamentale Unterschied zwischen einem sehr fortgeschrittenen Werkzeug wie KI und der mit einer direkten, persönlichen Intention verknüpften Schaffung eines kreativen Werkes zur Kommunikation von bestimmten Gedanken, Ideen oder Emotionen.
[Dieser Beitrag wurde 4 mal editiert; zum letzten Mal von loliger_rofler am 02.02.2023 16:52]
02.02.2023 16:50:20  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Hostage

Leet Female II
Gibts eigentlich schon irgendwelche Urteile o.ä. über den Verkauf von KI generierter Kunst?
02.02.2023 16:55:57  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
sinister.sinner

AUP sinister.sinner 24.01.2016


wtf
02.02.2023 16:56:11  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Poliadversum

AUP Poliadversum 30.08.2012
 
Zitat von Hostage

Gibts eigentlich schon irgendwelche Urteile o.ä. über den Verkauf von KI generierter Kunst?


Es gibt eine Entscheidung des US Copyright Office dass ein Kinderbuch das komplett via Midjourney generiert wurde nicht copyright-geschützt ist (weil kein substantiell menschlicher Schaffensprozess). Mehr als das wurde da aber nicht entschieden, und das war auch nur eine behördliche Entscheidung und kein Richterspruch.

Im Großen und Ganzen ist das Thema im Moment komplett ungeklärt.
02.02.2023 17:01:02  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
 Thema: Ki generierte Kunst ( mindblowing )
« erste « vorherige 1 ... 16 17 18 19 [20] 21 22 23 24 ... 50 nächste » letzte »

mods.de - Forum » Public Offtopic » 

Hop to:  

Mod-Aktionen:
26.04.2024 16:22:57 Irdorath hat diesen Thread geschlossen.

| tech | impressum