|
|
|
|
https://twitter.com/mrgreen/status/1656939441829605376
| Meet Caryn Majorie.
She’s a 23-year-old Snapchat Influencer.
She made an AI version of herself “CarynAI”.
You can chat with her AI bot for $1/min.
She made $71,610 this week.
She says she could earn $5m/month.
Things are about to get weird...
CarynAI was built by@ForeverVoicesAI who used 2,000 hours of Caryn’s Youtube content to build her speech and personality engine.
Usage of CarynAI is up a whopping 2000% as of yesterday.
They also made chatbot versions of Donald Trump, Steve Jobs and Taylor Swift available for pay-per-minute conversations on Telegram:
| |
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Herr der Lage am 12.05.2023 22:43]
|
|
|
|
|
|
Ich kenne Caryn nicht, aber das ist nicht Donald.
|
|
|
|
|
|
|
| Zitat von loliger_rofler
| Zitat von Phillinger
.
Oder Ärzte: Könnte eine KI mit nicht sehr schnell Muster / Krankheiten erkennen? Oder zumindest Hinweise liefern?
| |
Für pathologische Gewebemikroskopie, Hautveränderungen und Identifikation von Auffälligkeiten bei MRT-Scans werden schon aktiv Systeme entwickelt, die Ärzte unterstützen sollen.
Das Problem sind hier auch Grenzfälle, multimorbide Patienten deren komplexe Erkrankungen zu ungewöhnlichen Phänotypen führen und Erkrankungen, die sich nicht unbedingt in bildgebenden Verfahren zeigen. Dazu kommen dann Probleme wie "nicht genug PoC im Trainingsdatensatz" was zu gefährlich falschen Einschätzungen führen kann.
Bevor ich meine Gesundheit einer KI anvertraue, müssen da auf jeden Fall noch ein paar sehr gute Proof of Concept Studien her.
E: viele Hausärzte sagen, sie wissen Montags um 8 eigentlich schon, was der Patient hat, wenn er drei Sätze erzählt hat, wie es ihm geht. Solche Dinger ("hab Schnupfen und Kopfweh und Husten seit drei Tagen bitte gelben Schein") könnte man sicher automatisieren und bei persistierenden Symptomen (trockener Husten geht nicht weg) oder ernsten Problem beim Blutdruck dann den Arzt hinzuziehen.
| |
Am vielversprechendsten bei hochgradig standardisierten Verfahren wie Mammographie.
Aber was tun wenn die ki falsch liegt? Wie sehr lasse ich mich durch den Vorschlag des Systems verunsichern? Aktuelle Publikation hierzu:
https://www.rsna.org/news/2023/may/ai-bias-may-impair-accuracy
|
|
|
|
|
|
|
Beginner Mode
Intermediate Mode
Hardcore Mode
|
|
|
|
|
|
|
Das dritte Video:
Dabei hat der Morgen hier so schön angefangen.
|
|
|
|
|
|
|
| Zitat von -=Q=- 8-BaLL
Jo, aber das Beispiel da oben zeigt ja, dass die Schwierigkeiten schon viel früher anfangen, weil Trainingsdaten immer irgendwie "biased" sind und man eigentlich umgekehrt sicherstellen müsste, dass sie es nicht sind, was im Prinzip unmöglich ist.
Es gibt ein ähnliches Beispiel mit der Erkennung von Schafen, da wurden ganz viele Bilder von Schafen reingefüttert und dann irgendwann nur ne grüne Wiese ohne Tiere gezeigt und die Antwort war trotzdem "Schaf!". Weil das System keine Ahnung hat, was ein Schaf ist, aber ne Wiese immer in den Daten war.
Wobei man bei Toten vielleicht ne Ausnahme machen kann. Also Tote und Shoppingempfehlungen ja, Hautkrebserkennung und Einsatzschwerpunkte für die Polizei vielleicht eher nicht so.
| |
Das sind dann halt in beiden Fällen ausgesprochen beschissene Trainingsdaten.
KI erkennt Unterschiede in Bildern, erkennt aber nicht, was das Objekt ist und was Hintergrund.
Dementsprechend muss man halt schon gucken, dass man einen einheitlichen Hintergrund hat. Um mal beim Beispiel vom Hautkrebs zu bleiben: da wäre es vermutlich am besten, die Fotos direkt am Anfang vom screening zu machen, vor der klassischen Hautkrebs Untersuchung. Dann hat man einheitliche Bilder und kann sie danach den Trainingsgruppen zuordnen. Aber nach der Diagnose mit Lineal neben dem Tumor ist halt ein klassisches “crap in, crap out” experiment.
|
|
|
|
|
|
|
| Zitat von flowb
Das sind dann halt in beiden Fällen ausgesprochen beschissene Trainingsdaten.
| |
Ja natürlich.
Weiß man dann hinterher, weil die Ergebnisse erstmal gut aussehen.
|
|
|
|
|
|
|
| Zitat von -=Q=- 8-BaLL
| Zitat von flowb
Das sind dann halt in beiden Fällen ausgesprochen beschissene Trainingsdaten.
| |
Ja natürlich.
Weiß man dann hinterher, weil die Ergebnisse erstmal gut aussehen.
| |
Dass ein Großteil der biomedizinischen Studien nicht reproduzierbarer Mist sind, ist jetzt nichts Neues und war schon vor KI so.
Ps: deine Aussage, “keiner weiß, wieso sich die KI aufs Lineal gestürzt hat”, ist halt auch grober unfug. Es ist ein komplett offensichtlicher Unterschied zwischen den Bildern. Wenn man die Trainings Bilder medizinischen Laien gezeigt hätte und die gebeten hätte, die zu sortieren, dann hätten sie es vermutlich auch spontan richtig gemacht. Nur die hätte man fragen können, wieso sie das gemacht haben.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von flowb am 14.05.2023 10:36]
|
|
|
|
|
|
|
|
|
|
Es wurden ja nicht nur die Fotos zur Verfügung gestellt, sondern eben auch die Info: Hautkrebs/Kein Hautkrebs.
Und die Korrelation zwischen Lineal auf dem Foto und Info Hautkrebs hat die Maschine dann erkannt.
Da hat das Versagen also beim Bereitstellen der Trainingsdaten begonnen. Und sowas vorab zu vermeiden, werden halt die wirklich wertschöpfende Jobs in der Entwicklung von KI Anwendungen.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Aspe am 14.05.2023 10:43]
|
|
|
|
|
|
golem.de - Wie ChatGPT mich zur Verzweiflung treibt
| ChatGPT hat jetzt ein Formular, mit dem sich eigene Daten löschen lassen. Doch wie viel Unsinn kann man damit stoppen? Ein Selbstversuch. | |
| Was weiß ChatGPT über mich und woher hat es seine Informationen? Diese Fragen dürften sich in den vergangenen Monaten sehr viele Nutzer gestellt und teilweise sehr merkwürdige Antworten darauf erhalten haben. Inzwischen haben die Entwickler des Chatbots, die Firma OpenAI, ein Formular bereitgestellt, um personenbezogene Daten aus dem System löschen zu lassen. Doch bei all dem Unfug, den ChatGPT zum Beispiel über mich fabriziert ("schreibt seit Jahren für heise online"), frage ich mich ernsthaft, wie das funktionieren soll. | |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Das ist der Teufel und nimmt all unseren Leuten alles weg.
|
|
|
|
|
|
|
War das hier schon?
Adobe hat in einer öffentlichen Beta schon die KI Tools drin.
Ist noch nicht so gut wie midjourney, aber gerade in Premiere finde ich es schon beeindruckend, wie die KI Zeitaufwand reduzieren kann.
|
|
|
|
|
|
|
Hier in kurz
/Im Nicht-PR-Video dauerts ein bisserl länger, funktioniert aber auch. Hochformat zu Querformat mit einem Klick.
|
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von -=Q=- 8-BaLL am 26.05.2023 22:52]
|
|
|
|
|
|
| Zitat von [KDO2412]Mr.Jones
Ist noch nicht so gut wie midjourney.
| |
Kann und wird es auch nie sein, da Firefly nur adobe stock (und möglicherweise illegalerweise creative commons) verwendet. Merkt man auch direkt, alles was nicht stockfotoartig ist funktioniert nicht wirklich, da zu wenig trainingsmaterial.
|
|
|
|
|
|
|
AI tools like ChatGPT are built on mass copyright infringement
| It takes enormous amounts of data to train a generative AI program like ChatGPT, and in order to build these tools cheaply and quickly, developers are committing mass copyright infringement. These datasets are largely created by combing and scraping the internet for every type of content, from articles, books and artwork to our photos and tweets. These methods give rise to some big questions: Is the use of our copyright-protected content for training generative AI models legal? Does the use of copyrighted content for training AI fall under fair-use exceptions in the United States and fair dealing in Canada? Do we have a right to compensation when our work is being fed to the machines?
As a former copyright startup founder equipped with a law degree and a long-standing career at the intersection of intellectual property (IP) law, media and tech, I know the rules broadly boil down to one central tenet: To use someone else’s original content, you must get their permission, barring some exceptions. In my opinion, using copyrighted content to train a generative AI, without permission, easily falls under copyright infringement. If you train a generative AI model on the content of a particular painter or poet’s work, or even a singer’s voice, the AI can do a pretty good job of replicating the exact content and style of those paintings, poems or vocals in the new works it creates. At its lightning speed, generative AI can train on and write a new book based on an author’s work long before the human author ever could.
Clearly, we need legal protections for authors, artists and content creators who do not want their work to be used in training AI. For now, however, it is a Wild West. Generative AI developers are showing no regard for copyrighted content, nor are they seeking consent from authors and artists to use their content, and there has certainly been no compensation offered. As a slew of recent copyright-infringement lawsuits against generative AI developers has emerged, my hope is that the protections in our copyright laws are upheld. However, relying purely on precedent in this area is risky, with two major pitfalls. First, it takes a long time for lawsuits and appeals to cycle all the way to the Supreme Court. Second, our collective IP is at stake: A weak case can set us up for failure if a precedent is not established in favour of our intellectual protections.
Thrust into this new terrain, the best way to resolve any AI legal concerns is to develop new laws and regulations rather than interpreting existing ones. | |
|
|
|
|
|
|
|
Supreme Court Saves the Derivative Works Right from “Transformative” Extinction; And Why AI Should Be Worried
| The Supreme Court’s decision in Andy Warhol Foundation v. Goldsmith was a great first step in reigning in the vast over importance that Courts have been ascribing to “transformation” in fair use cases. While the majority of commentators have focused on the “common commercial purpose” aspect of the decision, to me the more important holding is the Court’s recognition and affirmation of the importance of the author’s right to prepare derivative works, a point completely avoided by the dissenting opinion. 1 | |
| “Nearly all data that AIs have ingested, including text and image AIs, has been without permission from the original creators. This means that AIs are built on large volumes of copyright-protected material that they are using without permission… By shifting the focus away from how transformative the use is, the Supreme Court devalued the best argument in favor of AI companies. Now, transformativeness must be contrasted with other elements, most notably how the new work competes with and/or replaces the original in the marketplace. | |
Dieser Fall vor dem SCOTUS ist sehr relevant für das Argument KI Training sei fair use. Es sieht im Lichte dieser Entscheidung immer mehr danach aus als wäre eine Fair Use Verteidigung in den Staaten rechtlich nicht haltbar.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Poliadversum am 26.05.2023 23:38]
|
|
|
|
|
|
|
|
|
|
|
|
|
|
das ein anwalt der seit 30 jahren praktiziert seine fakten nicht checkt? ja.
|
|
|
|
|
|
|
Der dachte halt ChatGPT erzählt keinen Blödsinn. Naiv, fahrlässig, usw., klar.
Darauf ist ChatGPT aber ja auch ausgelegt, so auszusehen als würde es keinen Blödsinn erzählen. It's not a bug, it's a feature quasi.
|
|
|
|
|
|
|
Ja ne, stimmt. Ein Textausgabefenster ist das Symbol für seriöse Fakten.
|
|
|
|
|
|
|
Die meisten Menschen sind ja schon damit überfordert zwischen seriösen Webseiten und nicht-seriösen Webseiten zu unterscheiden.
|
|
|
|
|
|
|
viele scheitern schon am Filtern klarer Nachrichten.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Zäsar ein bisschen grau um die Nase; man könnte meinen da wurden ein bisschen viele Marmorbüsten als Trainingsmaterial gesichtet
|
|
|
|
|
|
|
Es gibt neben Glaze von der Uni Chicago nun ein zweites tool das besonders gut gegen IMG2IMG Plagiate schützt.
Github
Leider sehr invasiv was den look der „gemisteten“ Bilder angeht.
|
|
|
|
|
|
Thema: Ki generierte Kunst ( mindblowing ) |