Du bist nicht eingeloggt! Möglicherweise kannst du deswegen nicht alles sehen.
  (Noch kein mods.de-Account? / Passwort vergessen?)
Zur Übersichtsseite
Hallo anonymer User.
Bitte logge dich ein
oder registriere dich!
 Moderiert von: Irdorath, statixx, Teh Wizard of Aiz


 Thema: Ki generierte Kunst ( mindblowing )
« vorherige 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 [36] 37 38 39 40 41 42 43 44 45 46 47 48 49 50 nächste »
erste ungelesene Seite | letzter Beitrag 
Herr der Lage

AUP Herr der Lage 16.10.2014
https://twitter.com/mrgreen/status/1656939441829605376

 
Meet Caryn Majorie.
She’s a 23-year-old Snapchat Influencer.

She made an AI version of herself “CarynAI”.
You can chat with her AI bot for $1/min.
She made $71,610 this week.
She says she could earn $5m/month.

Things are about to get weird...



CarynAI was built by@ForeverVoicesAI who used 2,000 hours of Caryn’s Youtube content to build her speech and personality engine.
Usage of CarynAI is up a whopping 2000% as of yesterday.

They also made chatbot versions of Donald Trump, Steve Jobs and Taylor Swift available for pay-per-minute conversations on Telegram:



[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Herr der Lage am 12.05.2023 22:43]
12.05.2023 22:42:48  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
-=Q=- 8-BaLL

-=Q=- 8-BaLL
Ich kenne Caryn nicht, aber das ist nicht Donald.
12.05.2023 22:44:21  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
moomaster

AUP moomaster 26.01.2016
 
Zitat von loliger_rofler

 
Zitat von Phillinger

.


Oder Ärzte: Könnte eine KI mit nicht sehr schnell Muster / Krankheiten erkennen? Oder zumindest Hinweise liefern?



Für pathologische Gewebemikroskopie, Hautveränderungen und Identifikation von Auffälligkeiten bei MRT-Scans werden schon aktiv Systeme entwickelt, die Ärzte unterstützen sollen.

Das Problem sind hier auch Grenzfälle, multimorbide Patienten deren komplexe Erkrankungen zu ungewöhnlichen Phänotypen führen und Erkrankungen, die sich nicht unbedingt in bildgebenden Verfahren zeigen. Dazu kommen dann Probleme wie "nicht genug PoC im Trainingsdatensatz" was zu gefährlich falschen Einschätzungen führen kann.

Bevor ich meine Gesundheit einer KI anvertraue, müssen da auf jeden Fall noch ein paar sehr gute Proof of Concept Studien her.

E: viele Hausärzte sagen, sie wissen Montags um 8 eigentlich schon, was der Patient hat, wenn er drei Sätze erzählt hat, wie es ihm geht. Solche Dinger ("hab Schnupfen und Kopfweh und Husten seit drei Tagen bitte gelben Schein") könnte man sicher automatisieren und bei persistierenden Symptomen (trockener Husten geht nicht weg) oder ernsten Problem beim Blutdruck dann den Arzt hinzuziehen.




Am vielversprechendsten bei hochgradig standardisierten Verfahren wie Mammographie.
Aber was tun wenn die ki falsch liegt? Wie sehr lasse ich mich durch den Vorschlag des Systems verunsichern? Aktuelle Publikation hierzu:
https://www.rsna.org/news/2023/may/ai-bias-may-impair-accuracy
13.05.2023 8:53:57  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
i pwn n00bs

AUP i pwn n00bs 28.02.2010
Beginner Mode


Intermediate Mode


Hardcore Mode
13.05.2023 10:46:18  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Q241191

Marine NaSe II
Das dritte Video: Breites Grinsen

Dabei hat der Morgen hier so schön angefangen. Breites Grinsen
13.05.2023 11:16:29  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
flowb

flowb
 
Zitat von -=Q=- 8-BaLL

Jo, aber das Beispiel da oben zeigt ja, dass die Schwierigkeiten schon viel früher anfangen, weil Trainingsdaten immer irgendwie "biased" sind und man eigentlich umgekehrt sicherstellen müsste, dass sie es nicht sind, was im Prinzip unmöglich ist.
Es gibt ein ähnliches Beispiel mit der Erkennung von Schafen, da wurden ganz viele Bilder von Schafen reingefüttert und dann irgendwann nur ne grüne Wiese ohne Tiere gezeigt und die Antwort war trotzdem "Schaf!". Weil das System keine Ahnung hat, was ein Schaf ist, aber ne Wiese immer in den Daten war.

Wobei man bei Toten vielleicht ne Ausnahme machen kann. Also Tote und Shoppingempfehlungen ja, Hautkrebserkennung und Einsatzschwerpunkte für die Polizei vielleicht eher nicht so.


Das sind dann halt in beiden Fällen ausgesprochen beschissene Trainingsdaten.
KI erkennt Unterschiede in Bildern, erkennt aber nicht, was das Objekt ist und was Hintergrund.
Dementsprechend muss man halt schon gucken, dass man einen einheitlichen Hintergrund hat. Um mal beim Beispiel vom Hautkrebs zu bleiben: da wäre es vermutlich am besten, die Fotos direkt am Anfang vom screening zu machen, vor der klassischen Hautkrebs Untersuchung. Dann hat man einheitliche Bilder und kann sie danach den Trainingsgruppen zuordnen. Aber nach der Diagnose mit Lineal neben dem Tumor ist halt ein klassisches “crap in, crap out” experiment.
14.05.2023 10:00:22  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
-=Q=- 8-BaLL

-=Q=- 8-BaLL
 
Zitat von flowb

Das sind dann halt in beiden Fällen ausgesprochen beschissene Trainingsdaten.



Ja natürlich.

Weiß man dann hinterher, weil die Ergebnisse erstmal gut aussehen.
14.05.2023 10:25:38  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
flowb

flowb
 
Zitat von -=Q=- 8-BaLL

 
Zitat von flowb

Das sind dann halt in beiden Fällen ausgesprochen beschissene Trainingsdaten.



Ja natürlich.

Weiß man dann hinterher, weil die Ergebnisse erstmal gut aussehen.



Dass ein Großteil der biomedizinischen Studien nicht reproduzierbarer Mist sind, ist jetzt nichts Neues und war schon vor KI so.

Ps: deine Aussage, “keiner weiß, wieso sich die KI aufs Lineal gestürzt hat”, ist halt auch grober unfug. Es ist ein komplett offensichtlicher Unterschied zwischen den Bildern. Wenn man die Trainings Bilder medizinischen Laien gezeigt hätte und die gebeten hätte, die zu sortieren, dann hätten sie es vermutlich auch spontan richtig gemacht. Nur die hätte man fragen können, wieso sie das gemacht haben.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von flowb am 14.05.2023 10:36]
14.05.2023 10:32:29  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
-=Q=- 8-BaLL

-=Q=- 8-BaLL
Kann zu hier dann.
14.05.2023 10:34:04  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Aspe

Aspe_Kasper
Es wurden ja nicht nur die Fotos zur Verfügung gestellt, sondern eben auch die Info: Hautkrebs/Kein Hautkrebs.

Und die Korrelation zwischen Lineal auf dem Foto und Info Hautkrebs hat die Maschine dann erkannt.

Da hat das Versagen also beim Bereitstellen der Trainingsdaten begonnen. Und sowas vorab zu vermeiden, werden halt die wirklich wertschöpfende Jobs in der Entwicklung von KI Anwendungen.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Aspe am 14.05.2023 10:43]
14.05.2023 10:42:11  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
krischan111

Arctic
golem.de - Wie ChatGPT mich zur Verzweiflung treibt

 
ChatGPT hat jetzt ein Formular, mit dem sich eigene Daten löschen lassen. Doch wie viel Unsinn kann man damit stoppen? Ein Selbstversuch.



 
Was weiß ChatGPT über mich und woher hat es seine Informationen? Diese Fragen dürften sich in den vergangenen Monaten sehr viele Nutzer gestellt und teilweise sehr merkwürdige Antworten darauf erhalten haben. Inzwischen haben die Entwickler des Chatbots, die Firma OpenAI, ein Formular bereitgestellt, um personenbezogene Daten aus dem System löschen zu lassen. Doch bei all dem Unfug, den ChatGPT zum Beispiel über mich fabriziert ("schreibt seit Jahren für heise online"), frage ich mich ernsthaft, wie das funktionieren soll.

14.05.2023 23:28:15  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Poliadversum

AUP Poliadversum 30.08.2012
EU Parlament: AI Act: a step closer to the first rules on Artificial Intelligence

Die Pro-AI-Twittersphere hasst das ganze schonmal. Aber wie das schlussendlich aussehen und sich auswirken wird weiß natürlich niemand.
17.05.2023 8:56:56  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Psyke

Psyke 12.07.2023
unglaeubig gucken


Drag Your GAN: Interactive Point-based Manipulation on the Generative Image Manifold

https://huggingface.co/papers/2305.10973
19.05.2023 18:09:26  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
dancano

dancano
verschmitzt lachen
Das ist der Teufel und nimmt all unseren Leuten alles weg.
19.05.2023 19:54:01  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
[KDO2412]Mr.Jones

[KDO2412]Mr.Jones
War das hier schon?



Adobe hat in einer öffentlichen Beta schon die KI Tools drin.

Ist noch nicht so gut wie midjourney, aber gerade in Premiere finde ich es schon beeindruckend, wie die KI Zeitaufwand reduzieren kann.
26.05.2023 22:47:06  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
-=Q=- 8-BaLL

-=Q=- 8-BaLL
Hier in kurz



/Im Nicht-PR-Video dauerts ein bisserl länger, funktioniert aber auch. Hochformat zu Querformat mit einem Klick.

[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von -=Q=- 8-BaLL am 26.05.2023 22:52]
26.05.2023 22:50:56  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Poliadversum

AUP Poliadversum 30.08.2012
 
Zitat von [KDO2412]Mr.Jones


Ist noch nicht so gut wie midjourney.


Kann und wird es auch nie sein, da Firefly nur adobe stock (und möglicherweise illegalerweise creative commons) verwendet. Merkt man auch direkt, alles was nicht stockfotoartig ist funktioniert nicht wirklich, da zu wenig trainingsmaterial.
26.05.2023 23:18:15  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Poliadversum

AUP Poliadversum 30.08.2012
AI tools like ChatGPT are built on mass copyright infringement
 
It takes enormous amounts of data to train a generative AI program like ChatGPT, and in order to build these tools cheaply and quickly, developers are committing mass copyright infringement. These datasets are largely created by combing and scraping the internet for every type of content, from articles, books and artwork to our photos and tweets. These methods give rise to some big questions: Is the use of our copyright-protected content for training generative AI models legal? Does the use of copyrighted content for training AI fall under fair-use exceptions in the United States and fair dealing in Canada? Do we have a right to compensation when our work is being fed to the machines?

As a former copyright startup founder equipped with a law degree and a long-standing career at the intersection of intellectual property (IP) law, media and tech, I know the rules broadly boil down to one central tenet: To use someone else’s original content, you must get their permission, barring some exceptions. In my opinion, using copyrighted content to train a generative AI, without permission, easily falls under copyright infringement. If you train a generative AI model on the content of a particular painter or poet’s work, or even a singer’s voice, the AI can do a pretty good job of replicating the exact content and style of those paintings, poems or vocals in the new works it creates. At its lightning speed, generative AI can train on and write a new book based on an author’s work long before the human author ever could.

Clearly, we need legal protections for authors, artists and content creators who do not want their work to be used in training AI. For now, however, it is a Wild West. Generative AI developers are showing no regard for copyrighted content, nor are they seeking consent from authors and artists to use their content, and there has certainly been no compensation offered. As a slew of recent copyright-infringement lawsuits against generative AI developers has emerged, my hope is that the protections in our copyright laws are upheld. However, relying purely on precedent in this area is risky, with two major pitfalls. First, it takes a long time for lawsuits and appeals to cycle all the way to the Supreme Court. Second, our collective IP is at stake: A weak case can set us up for failure if a precedent is not established in favour of our intellectual protections.

Thrust into this new terrain, the best way to resolve any AI legal concerns is to develop new laws and regulations rather than interpreting existing ones.

26.05.2023 23:30:17  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Poliadversum

AUP Poliadversum 30.08.2012
Supreme Court Saves the Derivative Works Right from “Transformative” Extinction; And Why AI Should Be Worried

 
The Supreme Court’s decision in Andy Warhol Foundation v. Goldsmith was a great first step in reigning in the vast over importance that Courts have been ascribing to “transformation” in fair use cases. While the majority of commentators have focused on the “common commercial purpose” aspect of the decision, to me the more important holding is the Court’s recognition and affirmation of the importance of the author’s right to prepare derivative works, a point completely avoided by the dissenting opinion. 1




 
“Nearly all data that AIs have ingested, including text and image AIs, has been without permission from the original creators. This means that AIs are built on large volumes of copyright-protected material that they are using without permission… By shifting the focus away from how transformative the use is, the Supreme Court devalued the best argument in favor of AI companies. Now, transformativeness must be contrasted with other elements, most notably how the new work competes with and/or replaces the original in the marketplace.



Dieser Fall vor dem SCOTUS ist sehr relevant für das Argument KI Training sei fair use. Es sieht im Lichte dieser Entscheidung immer mehr danach aus als wäre eine Fair Use Verteidigung in den Staaten rechtlich nicht haltbar.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Poliadversum am 26.05.2023 23:38]
26.05.2023 23:36:22  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
~Klages


https://mashable.com/article/chatgpt-lawyer-made-up-cases

wie dumm kann man bitte sein? Breites Grinsen
28.05.2023 20:28:30  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Lunovis

AUP Lunovis 27.11.2007
wundert dich das echt?
28.05.2023 20:59:02  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
~Klages


das ein anwalt der seit 30 jahren praktiziert seine fakten nicht checkt? ja.
28.05.2023 21:02:52  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Poliadversum

AUP Poliadversum 30.08.2012
Der dachte halt ChatGPT erzählt keinen Blödsinn. Naiv, fahrlässig, usw., klar.

Darauf ist ChatGPT aber ja auch ausgelegt, so auszusehen als würde es keinen Blödsinn erzählen. It's not a bug, it's a feature quasi.
28.05.2023 21:10:32  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
dblmg

AUP dblmg 20.07.2010
unglaeubig gucken
Ja ne, stimmt. Ein Textausgabefenster ist das Symbol für seriöse Fakten.
28.05.2023 21:17:19  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Poliadversum

AUP Poliadversum 30.08.2012
Die meisten Menschen sind ja schon damit überfordert zwischen seriösen Webseiten und nicht-seriösen Webseiten zu unterscheiden.
28.05.2023 21:25:55  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Lunovis

AUP Lunovis 27.11.2007
viele scheitern schon am Filtern klarer Nachrichten.
28.05.2023 21:31:22  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
-=Q=- 8-BaLL

-=Q=- 8-BaLL










https://threadreaderapp.com/thread/1662472686084268033.html
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von -=Q=- 8-BaLL am 28.05.2023 22:36]
28.05.2023 22:35:20  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Herr der Lage

AUP Herr der Lage 16.10.2014
KI findet Antibiotikum gegen multirestistentes Bakterium >

 
Forscher zeigen, dass die Hoffnungen in KI bei der Entwicklung von Medikamenten berechtigt sind. Ihre Entwicklung soll deutlich schneller werden.

29.05.2023 3:19:50  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
AJ Alpha

AUP Brot 18.02.2024
Zäsar ein bisschen grau um die Nase; man könnte meinen da wurden ein bisschen viele Marmorbüsten als Trainingsmaterial gesichtet
29.05.2023 11:17:54  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Poliadversum

AUP Poliadversum 30.08.2012
Es gibt neben Glaze von der Uni Chicago nun ein zweites tool das besonders gut gegen IMG2IMG Plagiate schützt.

Github



Leider sehr invasiv was den look der „gemisteten“ Bilder angeht.
29.05.2023 12:45:07  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
 Thema: Ki generierte Kunst ( mindblowing )
« vorherige 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 [36] 37 38 39 40 41 42 43 44 45 46 47 48 49 50 nächste »

mods.de - Forum » Public Offtopic » 

Hop to:  

Mod-Aktionen:
26.04.2024 16:22:57 Irdorath hat diesen Thread geschlossen.

| tech | impressum