OLG-​Urteil: Motivschutz und die Grenzen der Nachstellung eines Bildes

Vor ziem­lich genau zehn Jahren habe ich die­sen aus­führ­li­chen Artikel über das Problem mit „Copycats“ in der Stockfotografie geschrieben.

Darin beschrei­be ich die unfai­ren Vorteile, wel­che sich Mitbewerber ver­schaf­fen, wenn sie sys­te­ma­tisch Besteller-​Bilder ande­rer Fotografen kopie­ren und wie schwer es ist, dage­gen vorzugehen:

Rechtlich gese­hen ist es lei­der schwer, gegen sol­che Kopien anzu­ge­hen, weil „nach­ge­stell­te Fotos“ im Gegensatz zu „iden­ti­schen Fotos“ nicht auto­ma­tisch einen Urheberrechtsverstoß bedeu­ten. Da kommt es dar­auf an, wie ähn­lich sich Kopie und Original sehen und ist meist eine Auslegungssache des Gerichts.“

(Auszug aus dem zitier­ten Blogartikel)

Die Grenzen zwi­schen Inspiration und Plagiat sind auch schwer zu grei­fen, wes­halb sich in der Stockfotografie-​Szene meist der Gedanke durch­ge­setzt hat, dass wir alle irgend­wo irgend­wann von jeman­dem kopie­ren und eben­so kopiert wer­den. Das gehö­re irgend­wie dazu, vor allem, weil sich die gut ver­kau­fen­den Themen kaum ändern und so wenig Spielraum für Ausweichmöglichkeiten bleibt, wenn mensch die­se Motive abde­cken möch­te („Business-​Handshake“, anyone?).

So muss ich als durch mei­nen Blog und mei­ne Publikationen beson­ders in der Öffentlichkeit ste­hen­der Stockproduzent meist zäh­ne­knir­schend hin­neh­men, wenn sich ande­re aus mei­nem gro­ßen Bilderfundus mehr oder weni­ger detail­ge­nau bedie­nen als Inspirationsquelle.

Das Bild und die Kopie

Manchmal gibt es aber Motive, auf die unser Team beson­ders stolz ist, weil sie eben noch nicht hun­dert­fach vor­han­den sind, vor allem, wenn die­se sich dann auch noch sehr gut verkaufen.

Als Beispiel hier die­ses 3D-​Rendering mei­nes 3D-​Grafikers von einem schwe­ben­den Sofa, seit November 2015 im Adobe Stock Portfolio (damals noch Fotolia):

Unser Original-​3D-​Rendering…

Ich rieb mir nicht schlecht die Augen, als ich im Februar 2020 im Adobe Stock Portfolio des Fotografen Rafael Classen die­ses Bild sah:

…und das Bild von Classen

Es ist das glei­che Sofa, die glei­che Topfpflanze, der glei­che Beistelltisch, und die glei­che Korkenlampe. Selbst die Kissen, wel­che beim Sofa (ein 3D-​Modell der Firma Evermotion, u.a. aus die­sem Set) brav auf dem Sofa plat­ziert waren, wur­den in fast iden­ti­scher Kombination genutzt. Auch die Farbwahl ist sehr ähn­lich, die Gemeinsamkeiten bei­der Bilder sind auf den ers­ten Blick grö­ßer als die Unterschiede.

Das Bild von Classen unter­schei­det sich in mar­gi­na­len Details: Der Fußboden ist zum Beispiel dunk­ler mit ande­rem Muster, die Fernbedienung ist ein ande­res Modell und das Bild hat weni­ger Vignettierung und ein ande­res Seitenverhältnis.

Herr Classen hat­te schon vor­her eini­ge Bilder in sei­nem Portfolio, wel­che mei­nen Bildern (und denen ande­rer Kollegen) mei­ner Ansicht nach auf­fäl­lig ähn­lich sahen, aber hier woll­te ich doch eine Grenze ziehen.

Ich mel­de­te die Kopie via DMCA-​Formular an Adobe Stock, wel­che die­se dar­auf­hin sperr­te, bis der Anbieter Widerspruch ein­leg­te. Nach den Regeln von Adobe müss­te ich nun nach­wei­sen, dass mei­ne Meldung recht­lich nach­voll­zieh­bar sei, sonst wür­de die Kopie wie­der in den Verkauf kommen.

Also for­der­te ich durch mei­nen Anwalt in einer Abmahnung die Abgabe einer Unterlassungserklärung, was Classen ablehn­te. Daraufhin reich­ten wir im April 2020 Klage wegen Urheberrechtsverletzung ein.

Kurz dar­auf reich­te Classen eine Widerklage gegen mich wegen Urheberrechtsverletzung ein, weil er der Ansicht war, ich hät­te fünf sei­ner Bilder kopiert.

Die Gerichtsentscheidungen:
1. LG München

Vor dem Landgericht München wur­de unse­re Klage (und auch die Widerklage) im Dezember 2021 abge­wie­sen. Hauptsächlich mit der Begründung, alle Werke sei­en nicht durch das Urheberrecht geschützt, weil es nach §72 UrhG weder ein Lichtbild (aka „Foto) noch ein Werk nach §2 UrhG sei:

Inwiefern ein licht­bild­ähn­li­cher Schutz auch für Computerbilder bzw. Computeranimationen sowie mit Hilfe der Digitaltechnik ver­än­der­te oder neu­kom­po­nier­te Bilder gewährt wird, ist umstrit­ten (Dreier/​Schulze, UrhG, 6. Aufl., § 72, Rn. 7, 8 m.w.N.; ver­nei­nend KG, GRUR 2020, 280). Ausgangspunkt der vor­zu­neh­men­den Auslegung des § 72 UrhG ist der Wortlaut der Norm, wonach maß­geb­lich auf den Schaffensvorgang und nicht auf das Ergebnis des Schaffensprozesses abge­stellt wird. Dementsprechend kann für die Beantwortung der Frage, was unter „Erzeugnissen, die ähn­lich wie Lichtbilder her­ge­stellt wer­den“ zu ver­ste­hen ist. allein das Ergebnis des Herstellungsverfahrens letzt­lich nicht maß­geb­lich sein. Erforderlich ist nach dem Wortlaut der Norm viel­mehr, dass ein ähn­li­ches Herstellungsverfahren wie bei der Erstellung von Lichtbildern ange­wandt wird. Insoweit kommt es jedoch nicht ent­schei­dend auf den Schaffensvorgang aus Sicht des Anwenders der Technik, son­dern auf die Vergleichbarkeit der tech­ni­schen Prozesse an. Für die Ähnlichkeit der Prozesse spricht, dass bei der Erstellung einer Computergrafik auch Gegenstände zunächst räum­lich in ganz bestimm­ter Weise zuein­an­der ange­ord­net, eine bestimm­te Farbwahl getrof­fen und sodann gege­be­nen­falls über Art, Anzahl und Position der Lichtquellen ent­schie­den wird. Dies genügt jedoch nicht, um von einem licht­bild­ähn­li­chen Erzeugnis aus­zu­ge­hen. Zentrales Argument für die Privilegierung der Lichtbilder war der Einsatz der Technik der Fotografie. Im Fokus steht dabei die tech­ni­sche und nicht die schöp­fe­ri­sche Leistung. Charakteristische Merkmale der Fotografie sind aber zum einen der Einsatz von strah­len­der Energie und zum ande­ren die Abbildung eines im Moment der Bilderschaffung vor­han­de­nen, kör­per­li­chen Gegenstands (OLG Köln, GRUR-​RR 2010, 141, 142; KG, GRUR 2020, 280, 284; BeckOK UrhR/​Lauber-​Rönsberg, 32. Ed. 15.9.2021 , UrhG, § 72, Rn. 33).

Beide Merkmale erfüllt das streit­ge­gen­ständ­li­che Rendering indes nicht. Es han­delt sich hier­bei gera­de nicht um eine unter Einsatz strah­len­der Energie erzeug­te selbst­stän­di­ge Abbildung der Wirklichkeit, son­dern viel­mehr um eine mit­tels elek­tro­ni­scher Befehle erzeug­te Abbildung von vir­tu­el­len Gegenständen.“

aus dem Urteil des LG München vom 3.12.2021

Angesichts der moder­nen Technik, die schon jahr­zehn­te­lang Einzug in die Bildproduktion gehal­ten hat­te, woll­ten wir nicht so recht glau­ben, dass wir kei­ne Urheberrechte an unse­rem Bild hät­ten, nur weil es kein Foto, son­dern ein 3D-​Rendering sei.

Deshalb leg­ten wir Berufung gegen das Urteil ein. Auch Rafael Classen leg­te Berufung wegen sei­ner abge­wie­se­nen Widerklage ein.

2. OLG München

Wie wir gehofft hat­ten, betrach­te­te das Oberlandgericht München den Fall dif­fe­ren­zier­ter und fäll­te am 29.6.2023 ein Urteil zu unse­ren Gunsten (OLG München, Aktenzeichen 29 U 256/​22).

Erstens wur­de aner­kannt, dass auch 3D-​Renderings Urheberschutz genie­ßen kön­nen, wenn sie eine gewis­se künst­le­ri­sche Leistung erken­nen las­sen. Ausführlicher wird die­ser Aspekt in die­sem Blogpost auf der Webseite mei­nes Anwalts zitiert.

Zweitens legt das OLG München aus­führ­lich dar, unter wel­chen Bedingungen nicht nur direk­te Kopien eines Originals, son­dern auch Varianten davon schutz­fä­hig sein können:

[…] Ist die Veränderung der benutz­ten Vorlage indes­sen so weit­rei­chend, dass die Nachbildung über eine eige­ne schöp­fe­ri­sche Ausdruckskraft ver­fügt und die ent­lehn­ten eigen­per­sön­li­chen Züge des Originals ange­sichts der Eigenart der Nachbildung ver­blas­sen, liegt kei­ne Bearbeitung oder ande­re Umgestaltung i.S.d. § 23 Abs. 1 Satz 1 UrhG […], son­dern ein selbst­stän­di­ges Werk vor, das in frei­er Benutzung des Werks eines ande­ren geschaf­fen wor­den ist und das […] ohne Zustimmung des Urhebers des benutz­ten Werks ver­öf­fent­licht und ver­wer­tet wer­den darf.“

Genau die­se Bedingung sei in unse­rem Fall aber nicht erfüllt worden:

Bei einem Vergleich des Gesamteindrucks der bei­den Gestaltungen zeigt sich, dass die­ser auch im Rendering des Beklagten durch eben­die­se Elemente, das impuls­be­ding­te Abheben, die Wellenform, den Hintergrundkontrast und – in etwas gerin­ge­rem Maße – durch den Schattenwurf bestimmt wer­den. Gerade die wel­len­för­mi­ge Ausrichtung der Einzelelemente mit ihren ein­zel­nen Drehrichtungen und Neigungswinkeln ist prak­tisch iden­tisch zum klä­ge­ri­schen Rendering und erzeugt in glei­cher Weise den Eindruck eines kurz nach dem Abheben der Dinge erfolg­ten Schnappschusses, wobei auch der Kontrast der größ­ten­teils hel­len Elemente vor einem ähn­li­chen Blauton im Hintergrund die Wirkung ver­stärkt. Die Unterschiede der Gestaltungen, die vor allem durch einen dunk­le­ren Boden mit stär­ke­rer Zeichnung der Bohlen sowie den sich stär­ker auf der Wand als auf dem Boden abzeich­nen­den Schattenwurf bestimmt wer­den, prä­gen den Gesamteindruck beim Rendering der Beklagten dage­gen nicht so nach­drück­lich, dass die sich auf­drän­gen­den und ins Auge ste­chen­den Übereinstimmungen in ihrer Gesamtwirkung ver­blas­sen wür­den.
Da durch den stark über­ein­stim­men­den Gesamteindruck bei­der Renderings die ursprüng­li­che klä­ge­ri­sche Gestaltung beim Rendering des Beklagten deut­lich wie­der­zu­er­ken­nen ist, greift des­sen Gestaltung in den Schutzbereich des älte­ren klä­ge­ri­schen Werkes ein.“

3. Die Widerklage

Rafael Classen behaup­tet in sei­ner Widerklage, ich hät­te mit die­sen fünf Werken sei­ne Urheberrechte ver­letzt, weil er fast iden­ti­sche Bilder vor­her erstellt hätte:

Großes wei­ßes Fragezeichen vor gel­ber Wand mit Textfreiraum als FAQ Konzept
Kontakt und Kommunikation Symbole vor gel­ber Wand als Hintergrund
Leute auf Messe unter einem lee­ren Werbeplakat oder Werbebanner
Viele anony­me ver­schwom­me­ne Leute gehen im Einkaufszentrum einkaufen
Anonyme unschar­fe Menschenmenge unter­wegs auf einer Business Messe

Bei den bei­den gel­ben 3D-​Renderings mit den Icons an der Wand lehn­te das Oberlandgericht München die Berufung der Widerklage mit Verweis auf die zu gerin­ge Schöpfungshöhe ab:

Bezüglich der Renderings des Beklagten […] ist dem Landgericht dar­in zu fol­gen, dass die­se nicht die nöti­ge Gestaltungshöhe im Sinne von § 2 Abs. 2 UrhG auf­wei­sen und daher kei­nen Werkschutz im Sinne von § 2 Abs. 1 Nr. 4 oder Nr. 5 UrhG genießen.

Es han­delt sich jeweils um im Schriftverkehr übli­che Zeichen in einer übli­chen Schrifttype, die im wei­tes­ten Sinne mit Kommunikation zu tun haben, wofür wie­der­um die Wahl der Farbe Gelb und des kon­kre­ten Farbtons wegen der Assoziation zu Postdienstleistungen beson­ders nahe­lie­gend erscheint. Der durch das Anlehnen an einer Wand, den Schattenwurf und die Spiegelung auf dem Boden ent­ste­hen­de räum­li­che Eindruck ist eben­falls im Bereich von Logos und in der Werbegrafik hin­läng­lich geläu­fig und hebt die bei­den Gestaltungen nicht vom Alltäglichen und hand­werk­lich Üblichen ab.“

Bei den drei Fotos der Kölner Messe sei zwar die Schöpfungshöhe erreicht, aber unbe­rech­tig­te Kopien sei­en mei­ne Fotos nicht:

Auch sofern man in den Aufnahmen des Beklagten blo­ße Lichtbilder nach § 72 UrhG erbli­cken wür­de, fehl­te es an einer Verletzung, da die­se nach dem oben Gesagten kei­nen Motivschutz gegen nicht­iden­ti­sche oder nicht nahe­zu iden­ti­sche Gestaltungen genie­ßen, so dass es sogar jeder­mann frei­steht, das glei­che vor­ge­ge­be­ne Motiv vom sel­ben Standort und unter den­sel­ben Lichtverhältnissen noch ein­mal aufzunehmen.“

Richtungsweisende Entscheidung

Mit dem Urteil des OLG München haben wir nun die ers­te Entscheidung seit lan­gem, die sich aus­führ­lich mit dem Motivschutz von 3D-​Renderings und Fotos befasst.

Ob Motive nach­ge­stellt wer­den dür­fen, hängt dem­nach von vie­len Faktoren ab, die im Einzelfall geprüft wer­den müs­sen. Eine Urheberrechtsverletzung liegt in der Regel dann vor, wenn die den Gesamteindruck prä­gen­den Gestaltungselemente des Originals auch in der Kopie vorliegen.

Weitere Termine

Auch wenn die­se Klage erle­digt ist, gibt es wei­te­re Gerichtstermine mit Herr Classen. Am Mittwoch, den 8.5.2024 fin­det vor dem Landgericht Düsseldorf der Gütetermin und Verhandlungstermin wegen „Folgeansprüchen aus Wettbewerbsrechtsverletzung durch Veröffentlichungen eines Mitbewerbers und daten­schutz­recht­li­cher Auskunft“. Die Einstweilige Verfügung in die­sem Zusammenhang hat er bis­her größ­ten­teils ver­lo­ren, inso­fern bin ich auch da zuversichtlich.

Rezension: „Stockfotografie“ von Thomas Nolte (Verlag Klaus Wagenbach)

Im Verlag Klaus Wagenbach gibt es seit 2019 mit „Digitale Bildkulturen“ die ers­te Buchreihe, wel­che sich sys­te­ma­tisch mit digi­ta­len Bildphänomenen beschäftigt.

Das reicht von „Cat Content“ über „TikToK“ und „Videokunst“ bis zur Stockfotografie* . Letzteres Buch mit Thomas Nolte als Autor ist vor einer Woche erschie­nen (ISBN ‎ 978–3803137418). Ich habe es mir für euch angeschaut.

Das Buch ist wie alle Ausgaben der Reihe recht klein (ich habe zum Vergleich mal mei­ne Hand im Bild gelas­sen) und mit 80 Seiten auch recht dünn.

Wenn da noch die Anmerkungen und das Abbildungsverzeichnis weg­ge­las­sen wer­den, blei­ben net­to ca. 55 Seiten, in denen Thomas Nolte zei­gen will, „dass sich aus dem Geschäftsmodell der Stockfotografie eine eige­ne unver­wech­sel­ba­re Ästhetik ergibt“ (S. 10–11).

Gedanklich teilt sich das Buch grob in drei Abschnitte.
Erstens die Entstehung der Stockfotografie, wel­che sich mit der Kapitelüberschrift „Stockfotografie als Adoptivkind des Neoliberalismus“ gut zusam­men­fas­sen lässt.

Zweitens dem Einfluss der Stockfotografie in der Meme-​Kultur, im Buch exem­pla­risch vor allem am „Distracted Boyfriend“- und „Hide the Pain Harold“-Meme dar­ge­stellt.

Drittens der Zuarbeit der Stockfotografie-​Branche für die auf­kom­men­den KI-Unternehmen:

Der Eintritt der Stockfotografie in die digi­ta­le Sphäre geht dabei nicht spur­los an ihr vor­über. Vielmehr wird sie von der Dynamik des Internets erfasst: So trei­ben die Sozialen Medien mit den kli­schee­haf­ten Darstellungen der Stockfotografie ihren Schabernack, und Unternehmen machen sich die digi­ta­li­sier­ten Bilddatenbanken der Stockfotografie zunut­ze, um ihre künst­li­chen Intelligenzen (KI) zu trai­nie­ren. Damit neh­men Stockfotos in der digi­ta­len Bildkultur eine Scharnierfunktion ein: Sie die­nen als Grundlage für eine gera­de erst anbre­chen­de Ära von KI-​generierten Bildern, in denen sich die Ästhetik der Stockfotografie fort­setzt, ja viel­leicht sogar prä­gend wird.“ (S. 11)

Solche prä­gnan­ten Zusammenfassungen der Stockfotografie-​Entwicklung gibt es eini­ge im Buch. Zur Kommerzialisierung heißt es zum Beispiel:

Die Einbindung der Microstockfotografie führ­te zu den schon häu­fi­ger beschrie­be­nen Effekten des Plattformkapitalismus: Die Produktionskosten wer­den auf die Produzent*innen abge­wälzt, wodurch sich die Preise für die Kund*innen sen­ken las­sen. Den Hauptteil der Gewinne strei­chen die Plattformbetreiber ein, wäh­rend die Produzent*innen nur noch in Ausnahmefällen von ihrer Arbeit leben kön­nen.“ (S. 18)

Interessant ist mei­ner Ansicht nach auch die Erwiderung im Buch auf den häu­fi­gen Vorwurf, Stockfotos wür­den die mit ihrer Darstellung die Gesellschaft beein­flus­sen. Laut Nolte bie­ten Stockfotos viel­mehr eine Vielzahl an mög­li­chen Gesellschaftsentwürfen an, aus denen sich die Käufer dann ihre bevor­zug­te Version aussuchen:

Dadurch machen Stockfotos sicht­bar, was eine Gesellschaft als „nor­mal“ betrach­tet.“ (S. 42)

Die Diskussionen um den nega­ti­ven Einfluss der KI auf die Stockfotobranche sind im Buch kurz und kna­ckig zusam­men­ge­fasst und mit etwas Mühe kann trotz­dem sogar ein klei­ner Hoffnungsschimmer her­aus­ge­le­sen werden:

Ein Alleinstellungsmerkmal der Stockfotografie ist, dass sie immer wie­der neue Bildformeln ent­wi­ckelt, mit denen sie auf gegen­wär­ti­ge Ereignisse ver­weist. Zwar lässt sich ein Bild wie das des auf dem Heizkörper ste­hen­den Sparschweins ohne Probleme mit einem Bildgenerator erstel­len, die kon­zep­tio­nel­le Idee hier­für bedarf aber wei­ter­hin der mensch­li­chen Erfindung. Eine Überlebenschance der Stockfotografie liegt also in ihrer kon­zep­tio­nel­len Arbeit.“ (S. 61)

Hier unter­schätzt der Autor jedoch viel­leicht die Entwicklungen auf dem Gebiet der gene­ra­ti­ven Text-​KIs. Als Beispiel habe ich ein­fach mal ChatGPT gefragt, wie das im Buch auf­ge­grif­fe­ne Thema „Energiekrise“ visu­ell kon­zep­tio­nell umge­setzt wer­den könnte.

Abgesehen davon lie­fert das Buch einen kur­zen Überblick über den geschicht­li­chen Werdegang der Stockfotografie mit­samt einer gesell­schaft­li­chen, wirt­schaft­li­chen und tech­no­lo­gi­schen Einordnung.

Stockfotograf*innen wer­den im Buch sicher kei­ne kon­kre­ten Handlungsempfehlungen fin­den, aber in der Lage sein, über ihre beruf­li­che Position etwas zu reflektieren.

Die besten Bildagenturen 2023 (Auswertung meiner Umfrage)

Dies ist jetzt schon die ach­te Auswertung mei­ner jähr­li­chen Umfrage unter mei­nen Leser*innen, wel­che Agenturen ihnen im Vorjahr, also dies­mal 2023, den meis­ten Umsatz gebracht haben.
Die Agenturen soll­ten sie nach Umsatz abstei­gend sor­tiert als Kommentar hin­ter­las­sen. Zusammen mit mir haben sich 38 Fotograf*innen betei­ligt. Leider weni­ger als in den Vorjahren, aber trotz­dem vie­len Dank dafür!

Die Ergebnisse will ich euch hier ger­ne vor­stel­len. Zuerst die ein­deu­ti­ge Grafik (Klick zum Vergrößern):

Die besten Bildagenturen 2023

  1. Adobe Stock* (368) (-)
  2. Shutterstock* (238) (-)
  3. iStock (140) (-)
  4. Dreamstime* (111) (-)
  5. Alamy (107) (-)
  6. Depositphotos (77) (+1)
  7. Pond5* (52) (+8)
  8. 123rf* (42) (-)
  9. Photocase (28) (+2)
  10. Wirestock (24) (+2)
  11. Zoonar* (23) (+2)
  12. EyeEm (22) (-6)
  13. Westend61 (17) (-4)
  14. Getty Images (17) (-4)
  15. Canva (17) (-1)

Meine Vorgehensweise:
Ich habe in einer Excel-​Tabelle eine Liste gemacht und in die ers­te Spalte jede Agentur ein­ge­tra­gen, die genannt wur­de. In den nächs­ten Spalten habe ich dann für jede Teilnehmer*in und jede Agentur Punkte ver­ge­ben, basie­rend auf der Sortierung der genann­ten Agenturen. Die ers­te Agentur, also die mit dem meis­ten Umsatz, bekam 10 Punkte, die als zwei­tes genann­te Agentur bekam 9 Punkte und so wei­ter.
Die Werte habe ich pro Agentur sum­miert und die Liste dann nach den Punkten sor­tiert. Das Ergebnis seht ihr oben, die Zahl in Klammern ist also die Gesamtpunktzahl der jewei­li­gen Agentur.
Insgesamt wur­den 33 ver­schie­de­ne Agenturen benannt, ich habe die Liste jedoch auf die ers­ten 15 Agenturen beschränkt, weil das sta­tis­ti­sche Rauschen zum Ende hin mit meist nur einer Nennung sehr viel grö­ßer ist.

Hinweise:
Bei der Umfrage wur­de nicht unter­schie­den, ob die Leute Videos oder Fotos oder bei­des ver­kau­fen, wie vie­le Dateien sie online haben oder seit wann sie dort hoch­la­den. In der letz­ten Klammer sehr ihr die Veränderung zum Vorjahr.

In der Liste oben sind iStock und Getty zwar getrennt auf­ge­führt, ganz trenn­scharf las­sen sich die­se jedoch nicht aus­ein­an­der­hal­ten, da iStock ja auch über Getty Images ver­kauft und bei­de Agenturen zusam­men­ge­hö­ren. Aber selbst wenn ich Getty zu iStock addiert hät­te, hät­te sich an der Platzierung von iStock auf dem drit­ten Platz nicht geän­dert, dafür wäre hin­ten nur Vecteezy als Neueinsteiger auf Platz 15 auf­ge­taucht, wenn Getty ent­fal­len wäre.

Meine bes­ten Agenturen 2023
Wer die obi­ge Liste nach­rech­nen oder anders aus­wer­ten will, kann das eben­falls machen, mei­ne Datenbasis ist frei ein­seh­bar, nur ein Teilnehmer hat mir sei­ne Daten per Direktnachricht geschickt.

Was jedoch noch fehlt, sind die Agenturen, bei denen ich selbst 2023 am meis­ten Umsatz erzielt habe und die ich eben­falls in obi­ge Rechnung habe ein­flie­ßen las­sen. In Klammern wie­der die Veränderung zum Vorjahr:

  1. Adobe Stock (-)
  2. Shutterstock (-)
  3. Canva (-)
  4. 123rf (-)
  5. Zoonar (-)
  6. Dreamstime (+1)
  7. Alamy (+1)
  8. EyeEm (-2)
  9. Pond5 (-)
  10. Westend61 (-)

Was sagt uns diese Auswertung?

Adobe Stock hat sei­ne Spitzenposition im Vergleich zu den Vorjahren noch wei­ter aus­ge­baut, Shutterstock bleibt jedoch – mit gebüh­ren­dem Abstand – wei­ter­hin sta­bil auf dem zwei­ten Platz.

iStock führt das Mittelfeld an, in dem sich noch Dreamstime, Alamy und Depositphotos tum­meln. Die rest­li­chen Agenturen sind kaum noch der Rede wert. Diese Formulierung fand sich auch häu­fig in den Kommentaren der Teilnehmer.

Hier könnt die auch die Auswertungen aus den Jahren 2023, 2022, 2021, 2020, 2019, 2018 und 2017 nachlesen.

Interessante Auffälligkeiten

Den größ­ten Abstieg muss­te EyeEm erlei­den, was sehr wahr­schein­lich direkt mit deren Insolvenz letz­tes Jahr zusam­men­hängt. Am stärks­ten auf­ge­stie­gen ist Pond5, wobei ich hier nicht erken­nen kann, wor­an das lie­gen könnte.

Die Beteiligung die­ses Jahr war lei­der auch deut­lich gerin­ger, was die Datenqualität natür­lich etwas lei­den lässt.

Habt ihr die Ergebnisse erwar­tet? Oder sind Überraschungen für euch dabei?

* Affiliate-​Link

Das Geheimnis hinter dem Hype-​Text2Video KI-​Generator Sora von OpenAI

Seit Tagen ist in der KI-​Welt kaum von etwas ande­rem die Rede als den beein­dru­cken­den Ergebnissen von Sora.

Sora ist der Name des kürz­lich hier vor­ge­stell­ten Text2Video-​Generators der Firma OpenAI, wel­che auch schon den Text2Bild-​Generator Dall‑E und das Text2Text-​Generator ChatGPT ver­öf­fent­licht hat.

Standbild aus einem Sora-​Video [Montage]

Mit Sora kön­nen durch simp­le Texteingaben hoch­auf­lö­sen­de Videos von bis zu einer Minute Länge gene­riert werden.

Einen Überblick über die Ergebnisse fin­det ihr hau­fen­wei­se, ent­we­der auf der Sora-​Seite direkt oder bei YouTube, zum Beispiel in die­sem Video:

Ki-​Videos, mit­tels Sora von OpenAI generiert

Auf der offi­zi­el­len Webseite wird lang und breit über die Sicherheit des Tools gere­det und ger­ne erwähnt, dass geplant sei, den C2PA-Metadaten-​Standard zur Erkennung von KI-​generierten Inhalten zu unter­stüt­zen. Auffällig ist aber, dass ande­re Informationen fehlen.

Das Geheimnis der Trainingsdaten

Auffällig ist, dass an kei­ner Stelle der Vorstellung von Sora dar­auf ein­ge­gan­gen wird, wie genau das KI-​Tool trai­niert wur­de. Welche Daten wur­den dafür verwendet?

Im tech­ni­schen Report fin­det sich nur der lapi­da­re Satz:
“[…] we train text-​conditional dif­fu­si­on models joint­ly on vide­os and images of varia­ble dura­ti­ons, reso­lu­ti­ons and aspect ratios.“

Ach? Ja, das war uns allen klar, aber wel­che Videos und Bilder habt ihr dafür nun genau benutzt?

In der Vergangenheit hat sich OpenAI nicht mit Ruhm bekle­ckert, wenn es um Rücksicht auf Urheberrechte bei Trainingsdaten ging.

Das „Opt-​Out“, um zu ver­hin­dern, dass Bilder für Dall‑E trai­niert wer­den, ist berüch­tigt und wur­de auch viel zu spät ein­ge­führt. Dall‑E 2 wur­de laut die­ser GitHub-​Seite unter ande­rem auch mit Hilfe des Vereins LAION e.V. trai­niert, wel­chen ich selbst gera­de wegen Urheberrechtsverletzung ver­kla­ge.

Auch beim zwei­ten Produkt von OpenAI, ChatGPT, liegt die Sache ähn­lich. OpenAI wird gera­de von der Zeitung New York Times ver­klagt, weil urhe­ber­recht­lich geschütz­te Trainingsdaten der Zeitung für das KI-​Training von ChatGPT benutzt wor­den seien.

Bei einer Zeugenanhörung von OpenAI durch das Oberhaus des bri­ti­schen Parlaments fiel sei­tens OpenAI auch der fol­gen­schwe­re Satz:

Because copy­right today covers vir­tual­ly every sort of human expression–including blog posts, pho­to­graphs, forum posts, scraps of soft­ware code, and govern­ment documents–it would be impos­si­ble to train today’s lea­ding AI models wit­hout using copy­righ­ted mate­ri­als. Limiting trai­ning data to public domain books and dra­wings crea­ted more than a cen­tu­ry ago might yield an inte­res­t­ing expe­ri­ment, but would not pro­vi­de AI sys­tems that meet the needs of today’s citizens“

Frei über­setzt: Ohne den Zugriff auf urhe­ber­recht­lich geschütz­te Trainingsdaten könn­ten wir unse­re Tools nicht anbieten.

Genau wegen die­sem bis­her schon bekann­ten rück­sichts­lo­sen Umgang mit Urheberrechten muss eine Frage viel lau­ter gestellt werden:

Welche Videos und Bilder wur­den für das Training der Sora-​KI verwendet?

Die Wahrscheinlichkeit ist sehr hoch, dass auch hier – ähn­lich wie beim Training von Dall‑E und ChatGPT urhe­ber­recht­lich geschütz­te Videos (und Bilder) zum Einsatz kamen.

Selbst Wasserzeichen in Videos sind für KI-​Entwickler schon lan­ge kein Hindernis mehr. Schon 2017 hat Google selbst eine Technik vor­ge­stellt, mit der Wasserzeichen aus Bildern ent­fernt wer­den können.

Auch der LAION-​Verein bie­tet auf GitHub ein kos­ten­lo­ses Tool für die „Wasserzeichen-​Erkennung“ an. Von der Erkennung zur Entfernung ist es für geüb­te Programmierer dann nur noch ein klei­ner Schritt, über den aus recht­li­chen Gründen nicht so ger­ne öffent­lich gere­det wird.
Manchmal aber doch:

Aus dem #video-​generation Kanal des Discord-​Servers von LAION
Aus dem #video-​generation Kanal des Discord-​Servers von LAION

Bei LAION wird zwar an einem eige­nen Text2Video-​Generator namens phena­ki gear­bei­tet, die tech­ni­schen Details des Trainings sind denen von Sora aber sehr ähn­lich, soweit ich das beur­tei­len kann.

Die Wahrscheinlichkeit, dass OpenAI daher mit der glei­chen Rücksichtslosigkeit wie LAION gegen­über Urhebern beim KI-​Training vor­geht, hal­te ich für hoch, zumal die bis­he­ri­gen Aussagen und Handlungen von OpenAI lei­der nicht geeig­net sind, Zweifel zu zerstreuen.

Beim gan­zen Hype vom SORA und dem Staunen über die tol­len Ergebnisse soll­te nicht ver­ges­sen wer­den zu fra­gen, wel­che (Video-)Künstler beim Training betei­ligt waren.

Ausführliches Tutorial: Interaktive 360°-KI-Bilder mit Midjourney erstellen

Auf mei­ner Facebook-​Seite hat­te ich hier kürz­lich gefragt, wie groß das Interesse sei, die Erstellung von sol­chen inter­ak­ti­ven 360°-Bildern zu lernen:

Da der Andrang groß war, gibt es heu­te das kom­plet­te Tutorial, wie ihr die­se 360-​Grad-​Bilder selbst erstel­len und anzei­gen las­sen könnt. Klickt ger­ne mit der Maus auf das Bild, um die Ansicht zu ändern oder unten rechts auf das „VR“-Symbol, um das Gleiche im Vollbild-​Modus zu machen.

1. Die Bilderstellung

Zuerst braucht ihr dafür natür­lich Zugang zu einem Generativen KI-​Programm. Ich arbei­te bevor­zugt mit Midjourney, aber getes­tet habe ich es auch mit Dall‑E 3 und prin­zi­pi­ell soll­te es – je nach Qualität des KI-​Generators – auch mit ande­ren Tools wie Adobe Firefly oder Stable Diffusion funktionieren.

Als Prompt habe ich bei Midjourney die­sen hier ver­wen­det (die ecki­ge Klammer soll­te weg­ge­las­sen wer­den, mehr dazu unten):

/​imagine 360° equi­rec­tan­gu­lar pho­to­graph of [an emp­ty futu­ristic space­ship com­man­do room inte­ri­or] –ar 2:1 –v 6.0 –style raw

Wichtig sind hier vor allem die ers­ten bei­den Begriffe 360° und die gleich­wink­li­ge Projektion (equi­rec­tan­gu­lar pro­jec­tion) sowie das Seitenverhältnis von 2:1, wel­ches im Midjourney-​Prompt durch das Parameter-​Kürzel –ar defi­niert wird.

Bei der gleich­wink­li­gen Projektion wird die­se aus einem ein­zi­gen Bild zusam­men­ge­setzt, wobei der hori­zon­ta­le Winkel 360° und der ver­ti­ka­le 180° beträgt. Daher soll­te das Seitenverhältnis 2:1 sein, um unnö­ti­ge Verzerrungen zu ver­mei­den. Adobe Firefly kommt z.B. nur bis zum Seitenverhältnis 16:9, wes­halb die Ergebnisse weni­ger über­zeu­gend aussehen.

Die Versionsnummer (v6) und der Style (raw) sind Geschmackssache und kön­nen vari­iert wer­den. Ich habe die­se gewählt, weil sie aktu­ell die bes­te Renderqualität (v6) lie­fern bei rea­lis­tisch anmu­ten­dem Ergebnis (raw).

Statt des Raumschiff-​Prompts in der ecki­gen Klammer könnt ihr natür­lich eurer Fantasie frei­en Lauf las­sen. Beim oben ver­link­ten Facebook-​Post lau­te­te der Prompt zum Beispiel:

/​imagine 360° equi­rec­tan­gu­lar pho­to­graph of the rain­fo­rest –v 6.0 –ar 2:1 –style raw

Ihr könnt aber auch deut­lich ela­bo­rier­ter in eurer Beschreibung wer­den, wenn ihr wollt.

Midjourney zeigt euch dann vier Auswahlmöglichkeiten an. Hier soll­tet ihr bei der Wahl eures Favoriten schon dar­auf ach­ten, ob die lin­ke und rech­te Bildkante sich halb­wegs dazu eig­nen, mit­ein­an­der ver­bun­den zu werden.

Die vier Ergebnisse des ers­ten Prompts

Im obi­gen Beispiel habe ich mit einem roten Pfeil mar­kiert, wo die KI einen Lichteinfall ger­en­dert hat, der sich nicht auf der rech­ten Kante wie­der­fin­det. Das wür­de die opti­sche Illusion zer­stö­ren. Beim obe­ren lin­ken Bild sind oben und unten schwar­ze Balken, die eben­falls stö­rend sind. Daher habe ich mich für das Bild links unten entschieden.

Hinweis: Es gibt in Midjourney auch den Parameter „–tile“, der dafür sor­gen soll, dass die Bilder naht­los kachel­bar sind, was für unse­re Zwecke erst mal prin­zi­pi­ell gut klingt. Manchmal funk­tio­niert es auch gut, aber lei­der ach­tet Midjourney dann auch dar­auf, dass die obe­re und unte­re Kante zusam­men­pas­sen, was bei Außenaufnahme, wo oben Himmel und unten Erde ist, sel­ten gute Ergebnisse bringt. Bei Innenaufnahmen ist die Trefferquote höher. Daher: Einfach mal testen.

Das fer­ti­ge Bild wird mit „U3“ ver­grö­ßert (ups­ca­ling) und dann noch mal „Upscale (Subtle)“ ver­grö­ßert. Damit haben wir schon eine Auflösung von 1536x3072 Pixeln. Wer will, kann die­se Auflösung mit einer der hier auf­ge­zähl­ten Upscale-​Methoden noch wei­ter erhö­hen. Das Raumschiff-​Bild habe ich mit Topaz Photo AI auf 3072x6144 Pixel vergrößert.

Wie schon oben erwähnt, funk­tio­niert es prin­zi­pi­ell auch mit ChatGPT, wenn auch das Seitenverhältnis nicht kor­rekt als 2:1 aus­ge­ge­ben wur­de und die fer­ti­ge Auflösung gerin­ger ist:

2. Die Bildbearbeitung

Das fer­ti­ge PNG-​Bild öff­ne ich nun in Photoshop und wäh­le den Befehl „Verschiebungseffekt“ (unter Filter/​Sonstige Filter):

Im sich öff­ne­nen Menüfenster gebe ich nun „hori­on­zal +1000 Pixel nach rechts“ ein. Wichtig ist, dass unten die Option „Durch ver­scho­be­nen Teil erset­zen“ aktiv ist.

Damit ver­schiebt sich das Bild um ein­tau­send Pixel nach rechts und wir sehen auch im Screenshot schon, wo die Nahtkante unse­res Bildes ist. Diese kön­nen wir mit den Photop-​Bordmitteln wie „gene­ra­ti­ves Entfernen“, „gene­ra­ti­ves Füllen“ und den alt­be­kann­ten Stempel-​Werkzeugen bear­bei­ten, bis die Kante nicht mehr so stark erkenn­bar ist. Tipp: Einfach den Übergang kom­plett mit dem recht­ecki­gen Auswahlwerkzeug mar­kie­ren und „Generatives Füllen“ ankli­cken, wirkt oft wah­re Wunder.

Hier mei­ne bear­bei­te­te Version:

Zusätzlich könnt ihr natür­lich je nach Belieben das Bild vom Farbton, Kontrast etc. anpas­sen oder ande­re Bildbereiche ver­bes­sern, ent­fer­nen oder austauschen.

Wenn ihr fer­tig seid, könnt ihr den „Verschiebungseffekt“ in die ande­re Richtung (also ‑1000) anwen­den, damit das Bild wie­der in sei­ne Ausgangsposition ver­scho­ben wird.

Das ist nicht unbe­dingt not­wen­dig, aber die meis­ten 360°-Anzeigen nut­zen die Bildmitte als Startpunkt, wel­cher dadurch von uns beein­flusst wer­den kann.

Das fer­ti­ge Bild soll­te als JPG abge­spei­chert werden.

3. Die Bild-Metadaten

Damit Tools unser Bild nun auch als „ech­tes“ 360°-Bild erken­nen, müs­sen wir manu­ell Metadaten hin­zu­fü­gen, wel­che durch 360°-Kameras erzeugt wer­den. Wir täu­schen damit qua­si vor, unser KI-​Bild sei mit einer rich­ti­gen Kamera auf­ge­nom­men worden.

Das sind die not­wen­di­gen Metadaten:

-xmp:ProjectionType=equirectangular
-xmp:CroppedAreaLeftPixels=0
-xmp:CroppedAreaTopPixels=0
-xmp:CroppedAreaImageWidthPixels=3072
-xmp:CroppedAreaImageHeightPixels=1536
-xmp:FullPanoWidthPixels=3072
-xmp:FullPanoHeightPixels=1536
-xmp:UsePanoramaViewer=true

Die Pixelwerte kön­nen (und soll­ten) natür­lich abwei­chen, wenn euer Bild ande­re Pixelmaße aufweist.

Damit ihr nicht wie der letz­te Höhlenmensch in eure EXIF-​Daten ein­grei­fen müsst, gibt es ver­schie­de­ne Offline- und Online-​Tools, wel­che das für euch übernehmen.

Ich nut­ze selbst ger­ne den „Exif Fixer Online“. Dieser unter­stützt JPG-​Bilder bis zu 15 MB. Nach dem Hochladen des Bildes erhal­tet ihr einen Link, wo ihr die „gefix­te“ Version mit den kor­rek­ten Metadaten run­ter­la­den könnt:

WICHTIG: Damit die Datei als 360°-Bild aus­ge­le­sen wer­den kann, müs­sen die­se Metadaten intakt blei­ben. Das Versenden der Datei mit Whatsapp oder Email etc. kann dazu füh­ren, dass die­se Metadaten wie­der gelöscht wer­den und das Bild nicht inter­ak­tiv ange­zeigt wer­den kann.

4. Die Anzeige

Kommen wir zur Belohnung für unse­re Mühen. Damit wir das 360°-Bild anzei­gen las­sen kön­nen, müs­sen wir es irgend­wo hoch­la­den, wo die­se Art der Anzeige unter­stützt wird.

Hier im Blog habe ich auf die Schnelle das kos­ten­lo­se Plugin Algori 360 Image“ instal­liert, es gibt aber auch etli­che ande­re.

Eine ande­re Möglichkeit ist das Hochladen des Bildes bei Facebook oder Google Photos. Zusätzlich gibt es hier eine Liste von wei­te­ren Apps, wel­che die­se 360°-Anzeige unterstützen.

5. Galerie und Material zum Testen

Wer sehen will, dass das oben kein Glückgriff war, son­dern auch mehr­mals funk­tio­niert, kann sich hier mei­ne „360° KI-Bilder“-Galerie auf Facebook ansehen.

Wer gera­de kei­nen Zugriff auf einen KI-​Generator hat, kann sich die Rohdaten für die Galerie-​Bilder hier run­ter­la­den, direkt ohne Bildbearbeitung aus Midjourney expor­tiert. Die jewei­li­gen Prompts fin­det ihr in den Metadaten in der Bildbeschreibung oder in der Facebook-Galerie.

Wichtiger Hinweis: Die Bilder sind die rohen Ausgangsbilder, es müs­sen also wei­ter­hin die Schritte 2–4 durch­lau­fen wer­den, wenn die Bilder 360°-tauglich wer­den sol­len. Alternativ könnt ihr die Bilder direkt in der Galerie ansehen.

Close