|
|
|
|
Their voices are their livelihood. Now AI could take it away. | WaPo
| Advances in artificial intelligence have allowed software to recreate voices with eerie precision. The technology puts voice actors, often-nameless professionals, in a precarious position. | | | Companies clamor to use Remie Michelle Clarke’s voice. An award-winning vocal artist, her smooth, Irish accent backs ads for Mazda and Mastercard and is the sound of Microsoft’s search engine, Bing, in Ireland.
But in January, her sound engineer told Michelle Clarke he’d found a voice that sounded uncannily like hers someplace unexpected: on Revoicer.com, credited to a woman named “Olivia.” For a modest monthly fee, Revoicer customers can access hundreds of different voices and, through an artificial intelligence-backed tool, morph them to say anything — to voice commercials, recite corporate trainings or narrate books. | | | But the technology puts voice actors, the often-nameless professionals who narrate audiobooks, video games and commercials, in a particularly precarious position.
The law offers little refuge, since copyright provisions haven’t grappled with artificial intelligence’s ability to recreate humanlike speech, text and photos.
And experts say contracts more frequently contain fine-print provisions allowing a company to use an actor’s voice in Copyright law has also not matured to decide what happens when a person’s voice is mimicked for profit, leading to patchwork enforcement where celebrities can access more protections than less-known professionals.
Until recently, artificial intelligence didn’t pose much of a threat to their professions.
Several voice actors told The Post they may abandon their careers, seeing a cataclysmic future where people can obtain a voice without hiring an individual.
| |
|
|
|
|
|
|
|
Wird Zeit eine Kultur von Naming & Shaming einzuführen damit die kreative Community und Kunden wissen welche Firmen solche widerliche Scheiße abziehen.
Voice Artists dafür bezahlen mit Samples ihrer Stimme KI zu trainieren, also Opt-In mit Entschädigung, voll ok und auch eine gangbare Methode für "low budget" Produktionen oder kurze Samples die keine involvierte Performance benötigen.
Stimmen einfach klauen, nope. Kann weg.
|
|
|
|
|
|
|
Quasi eine Art Leistungsschutzrecht für Stimmen?
Moderne AI bekommt man mit wenigen Sekunden Samples schon ausreichend trainiert.
|
|
|
|
|
|
|
Leistungsschutzrecht, eventuell via Persönlichkeitsrechte analog zum Recht am eigenen Bild, sowas, ja.
Bzw. generell das maschinelle Imitieren von Stimmen via KI verbieten insofern nicht durch einen Opt-In Vertrag durch das "Stimm-Modell" erlaubt.
|
|
|
|
|
|
|
Wird aber nicht sehr einfach zwischen den Stimmen abzugrenzen. Analog dazu müsste man sich auch ansehen was AI macht mit der Aufgabe "Schreibe eine Kurzgeschichte im Stil von ..." und dazu dafür auch einen Schutz bauen. Bei Bildern da ja sowieso, da hat sich das Problem schon mehr als angekündigt.
Man könnte das Problem gleich ganz lösen indem man Content von AIs verbietet. Eine differenzierter Umgang legt die Macht sich nur wieder in die Hände derer, die Geld haben.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von audax am 26.04.2023 16:36]
|
|
|
|
|
|
Das ist gerade alles sehr im Flux. Gerade bei sowas wie LLMs wie ChatGPT ist es ja so, dass die nur das ausspucken können was sie ausspucken weil sie das gesamte Internet gecrawled haben. Ich wills ja nicht jinxen, aber es sieht schon danach aus als würde das OpenAI Datenschutzrechtlich noch auf die Füße fallen.
Bis eine KI dann durch komplett lizensiertes/ datenschutzrechtlich einwandfrei gewonnenes Material so gut ist wie ChatGPT jetzt würde sich dann so eine Frage eigentlich gar nicht erst stellen.
Weiß nicht wie das bei Stimm-KIs sind. Brauchen die 30 Sekunden um "from the ground up" diese Stimme zu erlernen oder ist das Analog wie bei LLMs und Bildgeneration, dass da scheißviel illegal gecrawlte Daten als Basis genutzt werden und die 30 Sekunden dann nur ein spezielles Modell auf Basis des Gesamt-Trainings "finetunen"?
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Poliadversum am 26.04.2023 16:48]
|
|
|
|
|
|
Letzteres, die wenigen Sekunden sind dann nur von der Target-Stimme. Natürlich können damit auch anhand anderer Kriterien Stimmen erzeugt werden.
Wer weiß, vielleicht sorgt unser Datenschutz dafür das in Europa keine LLM eingesetzt werden dürfen. Eine extra Lizenzierung der Trainingsdaten ist praktisch unmöglich, da geht das halbe freu verfügbare Internet rein. Ist für mich eine politische Entscheidung: Entweder LLM sind legal oder eben nicht. Den kompetetiven Vorteil in Europa einfach zu ignorieren könne vielleicht die Konkurrenzfähigkeit unserer Unternehmen ein klein wenig beeinflussen.
|
|
|
|
|
|
|
Mit Sicherheit letzteres. Um eine tiefes neuronales Netz als Baseline-Modell zu erzeugen, braucht man erstmal viele Daten.
|
|
|
|
|
|
|
Übrigens ist die einzige meiner Meinung nach halbwegs funktionierende Methode um personenbezogene Daten zu erkennen ein LLM. Alle anderen Ansätze sind fürchterlich. Die können auch personenbezogene Daten in Trainingsdaten anonymisierten oder entfernen.
|
|
|
|
|
|
|
| Zitat von audax
Den kompetetiven Vorteil in Europa einfach zu ignorieren könne vielleicht die Konkurrenzfähigkeit unserer Unternehmen ein klein wenig beeinflussen.
| |
Ich verfolge den Diskurs ja international und mein Eindruck ist dass die Chancen schon vorhanden sind, dass die meisten großen Player regulieren werden. Wenn auch aus unterschiedlichen Beweggründen- China beispielsweise aus Angst vor dem Potential zum Untergraben der Macht der Partei, bei der EU siehts nach Datenschutz als Aufhänger aus und ich hab die letzten Wochen mehrere US Congress Hearings gehört in denen von Seiten des DoD wegen "national security inetrests" auf Regulation gepocht wurde.
Kann natürlich auch alles anders kommen, das ist klar. Ich fürchte aber dann erleben wir noch vor den Klimawandel-Folgen Dinge die wir höchstens aus Büchern oder Katastrophenfilmen kennen...
|
|
|
|
|
|
|
Ich glaube nicht, das irgendjemand auf LLMs langfristig verzichten kann und jetwede Regulierung der Trainingsdaten in Bezug auf Lizenzierung wäre der Tod dieser Projekte. Ich sehe nur den Ansatz, wenigstens personenbezogene Daten zu anonymisieren als halbwegs realistisch. Die Monster wurden erschaffen und gehen auch nicht mehr weg, wir leben im Kapitalismus und sie geben einen massiven Vorteil.
Datenschutzprobleme reichen doch hierzulande nicht einmal dafür aus, das unsere eigene Regierung sich eine Alternative zu Office 365 sucht
|
|
|
|
|
|
|
| Zitat von audax
Datenschutzprobleme reichen doch hierzulande nicht einmal dafür aus, das unsere eigene Regierung sich eine Alternative zu Office 365 sucht
| |
Ne, ChatGPT ist in Italien bereits gesperrt und es sieht so aus als würde nach italienischem Vorbild bald EU-Weit geblockt werden. Auf den letzten Seiten habe ich ein paar Links dazu gepostet.
|
|
|
|
|
|
|
Wie wäre es denn mit einer Deutschland-KI finanziert ist öffentlich rechtlichen Mitteln? Das hätte dich Potential!
Man braucht sich nicht wundern wenn Europa in ein paar Jahren mal wieder sein ganzes Potential in einer neuen Technologie verspielt hat.
|
|
|
|
|
|
|
| Zitat von SirSiggi
Wie wäre es denn mit einer Deutschland-KI finanziert ist öffentlich rechtlichen Mitteln? Das hätte dich Potential!
Man braucht sich nicht wundern wenn Europa in ein paar Jahren mal wieder sein ganzes Potential in einer neuen Technologie verspielt hat.
| |
Die Lösung ist einfach: Partei wählen oder zur Not gründen die Urheber- und Datenschutzrechte zu Gunsten der tEchnOloGie abschafft.
|
|
|
|
|
|
|
| Zitat von SirSiggi
Wie wäre es denn mit einer Deutschland-KI finanziert ist öffentlich rechtlichen Mitteln? Das hätte dich Potential!
Man braucht sich nicht wundern wenn Europa in ein paar Jahren mal wieder sein ganzes Potential in einer neuen Technologie verspielt hat.
| |
Das läuft dann auf der erfolgreichen Deutschland-Cloud und wird trainiert mit extra lizenzierten Daten, die Nutzung wird dann über die GEMA abgerechnet.
Oder wir verpassen das und werden komplett angehängt. Ich würde selbst gerne "Pause" drücken, was KI angeht. Geht aber nicht, die Katze ist aus dem Sack und der Wettlauf ist in vollem Gange.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von audax am 26.04.2023 18:19]
|
|
|
|
|
|
| Zitat von audax
Oder wir verpassen das und werden komplett angehängt. Ich würde selbst gerne "Pause" drücken, was KI angeht. Geht aber nicht, die Katze ist aus dem Sack und der Wettlauf ist in vollem Gange.
| |
Das ist schlicht und ergreifend inkorrekt.
Gerade die "Katze" ChatGPT kann man sehr, sehr einfach wieder in den Sack zurückstecken weil ein LLM dieser Größe nur auf absurd riesiger Infrastruktur läuft.
Die "Katze" Stable Diffusion/LAION kann man insofern nicht wieder in den "Sack" stecken weil das lokal läuft, aber man kann halt verhindern dass das kommerziell in dieser Form genutzt wird. Insofern kann man diese Katze genauso in den "Sack" stecken wie gecrackte Software und ähnliche illegale Dinge.
--
Zum Thema Regulierung, Joint Statement von US Behörden:
| Today, our agencies reiterate our resolve to monitor the development and use of
automated systems and promote responsible innovation. We also pledge to vigorously
use our collective authorities to protect individuals’ rights regardless of whether legal
violations occur through traditional means or advanced technologies. | |
(Bild ist ein Link zum Dokument)
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Poliadversum am 26.04.2023 18:39]
|
|
|
|
|
|
Ich bin gespannt ob damit tatsächlich Services wie Githubs Copilot X verhindert werden und all der andere Kram der mit GPT & Co läuft.
Ich persönlich bereite mich auf die AI-Apokalypse vor in dem ich lerne, mit AI zu arbeiten um nicht obsolet zu werden. Ich denke langfristig muss die Menschheit damit klar kommen, das viele Jobs überflüssig werden, ähnlich wie in der Industrialisierung. Gute Vorschläge, wie "überflüssige" Jobs profitable bleiben sollen habe ich dementsprechend nicht
€dit: Wir müssen auf jedem Fall hart daran arbeiten, unerwünschten Bias zu eliminieren. An dem Problem beißt man sich nun aber auch schon lange die Zähne aus, selbst bei einfacheren AIs.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von audax am 26.04.2023 18:57]
|
|
|
|
|
|
Ich habe mich schon entschieden auf irgendwas soziales umzusatteln.
Immer vorm Rechner hocken ist eh scheisse
Andere Jobs gibts ja genug. Wat solls
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Slutti am 26.04.2023 18:57]
|
|
|
|
|
|
| Zitat von audax
Ich bin gespannt ob damit tatsächlich Services wie Githubs Copilot X verhindert werden und all der andere Kram der mit GPT & Co läuft.
| |
Github Co-Pilot wird ja gerade wegen Urheberrechtsverletzungen beklagt (genauso wie Stable Diffusion und Midjourney). Das ist alles im Gange.
|
Ich persönlich bereite mich auf die AI-Apokalypse vor in dem ich lerne, mit AI zu arbeiten um nicht obsolet zu werden. Ich denke langfristig muss die Menschheit damit klar kommen, das viele Jobs überflüssig werden, ähnlich wie in der Industrialisierung. Gute Vorschläge, wie "überflüssige" Jobs profitable bleiben sollen habe ich dementsprechend nicht
| |
Ich sags dir ja ungern, aber bei einer unregulierten Übernahme der Arbeitswelt durch KI (die vielzitierten 300 Millionen+ Jobs) ists rum. Nicht nur für "kowledge worker" und anderen white collar Kram, sondern insgesamt. Von daher ist das ein naiver Optimismus wenn du nicht daran glaubst dass die Menschheit das kontrolliert bekommt.
| Zitat von Slutti
Andere Jobs gibts ja genug. Wat solls
| |
Nicht nur gibts keine 300 Millionen+ andere Jobs, die Jobs die es dann tatsächlich noch gibt würden ob des massiven Überangebots von Arbeitskräften nicht mehr relevant entlohnt werden. Kein silver lining in diesem Szenario.
|
[Dieser Beitrag wurde 3 mal editiert; zum letzten Mal von Poliadversum am 26.04.2023 19:04]
|
|
|
|
|
|
Nach meinem ersten Tag, an dem ich als Testballon komplett mit GPT 4 Software gebaut habe war ich zutiefst erschüttert. Wenn das etwas ausgereifter ist (Copilot X), dann steigert es meine Produktivität enorm. Selbst mit hin und her Copy & Paste war es schon sehr nützlich.
Wilde Zeiten.
@Poli: Unternehmen besteuern und bedingloses Grundeinkommen... Ich gebe zu, das ist noch optimistischer als deine Hoffnung auf regulierte AI.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von audax am 26.04.2023 19:05]
|
|
|
|
|
|
Jenes. Mir persönlich fällt die Erstellung von Texten immer schwer (sieht man ja teilweise an meinem Schreibstil) Fachlich kein Problem, das dann in Texte /E-Mails gießen schon.
Habe punktuell Mal gpt4 nicht um die kompletten Texte sondern eher um Gliederung und Anregungen gebeten. Plötzlich schaffe ich es. Für mich eine enorme Steigerung.
Fakeedit: Natürlich keine sensiblen Daten eingegeben, nur Sachen die ich auch sonst in Google werfen würde.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Bragg am 26.04.2023 19:09]
|
|
|
|
|
|
| Zitat von audax
@Poli: Unternehmen besteuern und bedingloses Grundeinkommen... Ich gebe zu, das ist noch optimistischer als deine Hoffnung auf regulierte AI.
| |
Problem mit dem "unternehmen besteuern" ist, dass das ein race to the bottom, und bottom meint hier kompletter Kollaps des gesamten Wirtschaftssystems, wäre.
(1) Unternehmen wird durch KI effizienter, kann Arbeitsnehmer entlassen, höherer Profit durch weniger Gehaltszahlungen
(2) Andere Unternehmen machen das genauso
(3) Kaufkraft in der Bevölkerung sinkt immer weiter, die riesigen Gewinnmargen lassen den Kreislauf aber noch ne Zeit weiterlaufen
(4) Es gibt in der Population nicht mehr genug Kaufkraft um Dienste oder Produkte zu verkaufen
(5 oder irgendwann vorher in der Reihenfolge) Kollaps
|
|
|
|
|
|
|
Wir als Menschheit haben die Industrialisierung verkackt, die Atomspaltung, Globalisierung - Weltmarkt, und Social Media. Warum sollten wir nicht auch noch AI verkacken?
Vielleicht rettet uns ja TruthGPT von Elon <3
€dit: Ich sehe den Kollaps kommen und bin nicht mehr optimistisch. Zur Not werde ich Bäcker.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von audax am 26.04.2023 19:15]
|
|
|
|
|
|
Gerade Nuklearwaffen sind ja eigentlich ein gutes Beispiel für eine potentiell zivilisationsbeendende Erfindung, die die Menschheit zumindest bislang unter Kontrolle bekommen hat.
|
|
|
|
|
|
|
| Zitat von Poliadversum
Gerade Nuklearwaffen sind ja eigentlich ein gutes Beispiel für eine potentiell zivilisationsbeendende Erfindung, die die Menschheit zumindest bislang unter Kontrolle bekommen hat.
| |
Die Bedrohung durch eben diese ist aber auch sehr offensichtlich (gemacht worden).
|
|
|
|
|
|
|
| Zitat von Poliadversum
Gerade Nuklearwaffen sind ja eigentlich ein gutes Beispiel für eine potentiell zivilisationsbeendende Erfindung, die die Menschheit zumindest bislang unter Kontrolle bekommen hat.
| |
Da hast Recht, das Problem hat man bisher ganz gut im Griff. Die aktuellen Modelle brauchen noch sehr viel Power zur Ausführung und können daher vielleicht noch kontrolliert werden. Allerdings hat mich selbst das 7GB Alpaca mit dem ich herumgespielt habe schon sehr beeindruckt. Ich glaube die guten Modelle werden langfristig sehr viel kompakter.
Ich bin gespannt wie nach der nächsten Bundestagswahl unser Kanzler Merz das Problem angeht.
|
|
|
|
|
|
|
| Zitat von Shooter
| Zitat von Poliadversum
Gerade Nuklearwaffen sind ja eigentlich ein gutes Beispiel für eine potentiell zivilisationsbeendende Erfindung, die die Menschheit zumindest bislang unter Kontrolle bekommen hat.
| |
Die Bedrohung durch eben diese ist aber auch sehr offensichtlich (gemacht worden).
| |
Ich glaube dass wir alle durch die ganze Klimageschichte die generelle Zuversicht verloren haben, dass großen Gefahren auf nationaler und internationaler Ebene irgendwie erfolgreich begegnet werden kann.
Das liest man bei dieser KI Debatte immer wieder, dieser Standpunkt dass alles schlimme was passieren kann auf jeden Fall auch passieren wird, weil ist ja alles korrupt und anderweitig hoffnungslos.
Neben dem Gegenbeispiel mit Nuklearwaffen fällt mir noch COVID ein, das hat man international definitiv nicht "schlechtmöglichst gelöst".
Also jede Hoffnung aufgeben finde ich definitiv verfrüht und auch irgendwie schädlich. Jeder dooming-Tweet lähmt eventuell eine Stimme die dabei helfen könnte das ganze zu verhindern. Gerade jetzt kämpfen viele Leute aus ganz vielen Disziplinen, von Künstlern zu KI-Researchern, dafür dass der worst case verhindert wird. Das alles als von vorneherein als gescheitert zu erklären ist einfach ein Take, den niemand hören braucht. An den kann man privat glauben. Mfm.
|
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von Poliadversum am 26.04.2023 19:34]
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Und das Video hast du gepostet, weil die Bilder AI-generiert sind oder wurde die Musik auch von ner AI gemacht?
Aber in dem Fall wäre es tatsächlich auch ziemlich egal, denn dass ne AI solche low-effort Texte und billigen Autotune-Gesang generieren kann, wär auch nicht gerade beeindruckend.
e: Dass die Leute in den Kommentaren das so feiern, wirft für mich aber die Frage auf, ob die Menschheit nicht insgesamt besser durch ne AI abgelöst werden sollte.
|
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Howie Hughes am 28.04.2023 8:54]
|
|
|
|
|
Thema: Ki generierte Kunst ( mindblowing ) |