Mit dem unaufhaltsamen Vormarsch künstlicher Intelligenz (KI) müssen vielleicht auch Deine Bilder ohne Zustimmung als Teil eines sogenannten Trainingsdatensatz für KI-Modelle herhalten. Nicht nur Fotos, sondern auch Kunstwerke von Künstlern kommen in den Fokus der KI-Entwickler. Diese Praxis hat zu einer Welle von Klagen gegen Unternehmen wie OpenAI, Meta, Google und Stability AI geführt, die beschuldigt werden, urheberrechtlich geschützte Werke ohne die erforderliche Genehmigung und Entschädigung zu nutzen. Medienberichten zufolge erheben Bestsellerautoren Klage gegen OpenAI, während auch Stability AI Gegenstand von rechtlichen Auseinandersetzungen ist, wie T3N berichtet. Eine Klage gestaltet sich jedoch als schwierig und langwierig, und ihr Ausgang ist meist ungewiss. Um zumindest zu verhindern, dass die eigenen Bilder künftig als Grundlage für das Training einer KI dienen, kam es zur Entwicklung des Tools “Nightshade”.
Was ist Nightshade?
Ben Zhao, Professor an der Universität von Chicago, entwickelte mit Nightshade eine innovative Methode, die es Künstlern ermöglicht, unsichtbare Veränderungen an ihren Werken vorzunehmen, bevor sie diese ins Internet hochladen. Diese veränderten Bilder, werden als vergiftete Daten bezeichnet. KI-Modelle, die auf diesen Daten trainiert werden, können chaotische und unvorhersehbare Ergebnisse liefern. Indem sie die Bilder „vergifteten“ konnten die Forscher die Ergebnisse der KI-Modelle so weit verfälschen, dass beispielsweise Hunde zu grotesken Kreaturen mit zu vielen Gliedmaßen wurden.
Das Ziel von Nightshade ist es, das Machtgleichgewicht zugunsten der Künstler zu verschieben, indem es als Abschreckung gegen die Missachtung von Urheberrechten und geistigem Eigentum dient.
Im Artikel von technologyreview.com kannst Du mehr über Nightshade nachlesen.
Aktuell befindet sich das Tool noch in der Entwicklungsphase, allerdings habe die Forscher bereits ein Publikation bei der Computer Security Conference Usenix zur Begutachtung eingereicht.
Wie kannst Du Nightshade nutzen?
Zusätzlich zu Nightshade hat das Forscherteam “Glaze” entwickelt. Künstler können mit diesem Tool ihren persönlichen Stil “maskieren” und somit verhindern, dass KI-Unternehmen ihn verwenden.
Sowohl Nightshade als auch Glaze verarbeiten Bildpixel auf eine Weise, die für das menschliche Auge unsichtbar ist, jedoch Auswirkungen darauf hat, wie maschinelles Lernen sie interpretiert.
Das Team plant, Nightshade in Glaze zu integrieren und stellt Nightshade auch als Open Source Tool zur Verfügung. Glaze kann bereits auf der Projektwebsite der Uni Chicago kostenlos heruntergeladen werden.
Was kannst Du noch gegen die Verwendung Deiner Bilder unternehmen?
Um die illegale Verwendung Deiner Werke als Trainingsdaten für KIs zu unterbinden, kannst Du auch auf anderem Wege aktiv werden. Wenn du eine eigene Website betreibst, kannst Du dies durch einen maschinenlesbaren Hinweis tun, der das Data und Text Mining untersagt. Du solltest schnell handeln, denn werden die Daten erst einmal verwendet, ist es schwierig bis unmöglich im Nachhinein Schritte dagegen einzuleiten. Heise.de empfiehlt für diesen Hinweis die robots.txt zu nutzen.
Dies schützt Dich allerdings nicht vor unerlaubter Verwendung Deiner Fotos auf Websites, Social-Media Plattformen, in Magazinen oder Zeitungen, wie es zig Mal täglich passiert. Hiergegen kannst Du Dich mit unserem Tool zur Wehr setzen und Dein Urheberrecht schützen. Wir prüfen die Verwendung Deiner Bilder. Erkennen wir mögliche Urheberrechtsverletzungen, werden wir auf Deinen Wunsch aktiv und erarbeiten Schadenersatz für Dich. In wenigen Minuten kannst Du so kostenfrei feststellen, wer Deine Bilder nutzt und anschließend Dein Urheberrecht einfordern. Du brauchst nichts vorzufinanzieren. Wir erhalten erst 30-50% Provision, wenn der Schadensersatz auf Deinem Konto eingeht. Du hast kein Risiko. Wir prüfen mit unseren Kanzleien jeden Fall im Vorfeld auf Erfolg. Wir von CREATIVERIGHTS stehen Dir von Anfang an persönlich zur Seite.
Beitragsbild von Jason Dent auf Unsplash