in einem Artikel hatte ich gelesen gehabt, dass man auch über den Stil eines etablierten Malers (etwa ein 19.Jahrhundert King Arthur Maler) Vorgaben-geben können soll
für alle jene, die mit Artwork ihr Geld verdienen, gilt wohl leider das Gegenteil.
Ich habe ein neues Hobby 8) :ctlu:Teures Hobby mit bis zu $30 pro Monat. Aber das Produzierte ist ja schon der Knaller. :d
Teures Hobby mit bis zu $30 pro Monat. Aber das Produzierte ist ja schon der Knaller. :dGeht es nicht bei $10 los?
Ich habe ein neues Hobby 8) :ctlu:
Geht es nicht bei $10 los?$10 ist eingeschränkt. $30 ist unlimitiert.
Wie sieht das eigentlich rechtlich aus? Kann man so generierte Bilder in kommerziellen Werken nutzen?
Ich auch 8]
Richtig gutes Zeug hast Du da gemacht !
(oder machen lassen)
Wie sieht das eigentlich rechtlich aus? Kann man so generierte Bilder in kommerziellen Werken nutzen?Generell herrscht eigentlich die Meinung vor, daß KI-generierte Bilder gemeinfrei sind, da sie keinen urheberrechtlichen Schutz genießen.
...mal sehen [...] ob man zu schnell an die Grenzen von der KI kommt. Ein wenig kratze ich da schon dran. Es scheint nicht möglich sein Übergewichtige Personen zu erstellen. Egal welche Formulierung ich verwende es klappt nicht, oder es wird nicht menschlich.
How does commercial use work?**
You”re pretty free to use the images in just about any way you want as long as this special-case restriction does not apply to you:
If you”re using the images as an employee of a company that makes more than 1M/yr USD in revenue, you need to purchase a “Corporate” plan.
Zum Thema Rechte schreibt die MidJourney Webseite (für Abonenten wohlgemerkt):
Um vielleicht etwas dazu zu sagen. Ich würde schwer vermuten, dass hinter der Bildergenerierung irgendeine Form von GAN (Generate Adversarial Network) steckt also ein neuronales Netz. Dieses Netz wurde trainiert mit den ganzen Bildern, die aus dem Internet gesammelt werden konnten. Das Netz weiß dann, "statistisch gesehen sieht ein Elf soundso aus" und wenn man dann einen Elfen möchte, variiert das Netz eben diese Parameter.
Ich glaube, es ist in Bezug auf Rollenspiele sinnvoller, zuerst ein Bild erstellen zu lassen und sich davon zu einem Ort inspirieren zu lassen, als zu versuchen, ein Bild eines Ortes zu bekommen, den man sich ausgedacht hat.
Eine böse Bibliothek.
Der Kram macht süchtig. Die Zeit bis September wird sehr lang fürchte ich.
Ich habe meine 200 Minuten für diesen Monat aufgebraucht... :o
Der Kram macht süchtig. Die Zeit bis September wird sehr lang fürchte ich.
Wenn mans abonniert hat, ists dann immer noch so unübersichtlich (meiner Meinung nach) im Discord mit 50 anderen (oder so)?
Ich finde die KI auch recht krass.
Generell herrscht eigentlich die Meinung vor, daß KI-generierte Bilder gemeinfrei sind, da sie keinen urheberrechtlichen Schutz genießen.
Other countries put less emphasis on the necessity of human authorship for protection. A judge in Australia ruled last year A.I.-created inventions can qualify for patent protection. And South Africa allowed Thaler to patent one of his products last year, noting that “the invention was autonomously generated by an artificial intelligence.” While Thaler owns the patent, the A.I. is listed as the inventor.
Vielleicht hilft das hier etwas, die Zeit zu überbrücken, auch wenn mir diese KI etwas schwächer vorkommt: https://creator.nightcafe.studio
Im /relax Modus müsste das doch noch gehen oder ?
Steampunk Cowboy - sieht gut aus, solange man nicht genau hinschaut. Dann wird es seltsam. >;D´
Hinweis: Diese Bilder wurden mit Hilfe einer Künstlichen Intelligenz erschaffen.
#midjourneyartwork
Jetzt warte ich darauf, dass du ein Abenteuer dazu veröffentlichst.
Das dann auch von einer künstlichen Intelligenz geschaffen wird? ;D
Es gibt Texter wie Neuroflash. Ein wenig Konfigurationsarbeit sollte reichen, um generische Abenteueraufhänger zu schreiben.
Wenn ich nicht sage, wie mein Bild hergestellt wurde, was dann? Bei den guten mag es eher schwer nachweisbar sein.Wobei der Fehler da ja schon in der Aussage "mein Bild" liegen würde - sofern die AI-Erstellung nachweisbar/erkennbar ist, kann jeder andere das dann auch verwenden.
sofern die AI-Erstellung nachweisbar/erkennbar ist
Generell herrscht eigentlich die Meinung vor, daß KI-generierte Bilder gemeinfrei sind, da sie keinen urheberrechtlichen Schutz genießen.
Des fände ich in einem scifi-abenteuer eigentlich noch cool :) wenn die grafiken und das abenteuer von einer maschone kommen.
Deutet für mich viel darauf hin, dass in ein paar Jahren Artwork nur mehr so entsteht. Blöd für die Künstler, aber könnte einen massiven Preisverfall der RP-Bücher auslösen, weil Illustrationen sind ja da oft ein Hauptkostenpunkt.Unwahrscheinlich. Das wird erstmal eine eigene Kunstform, bzw. eine Erweiterung des künstlerischen Arbeitens sein. Die KI braucht ja weiterhin massig Daten. Ich sehe allerdings, dass das die go-to-Lösung für bestimmte Stile sein könnte, bei denen man nur bereits vorhandenes Material zitieren will ("mach mir drei Typen, einer mir Armbrust, einer mit einem Jutesack, im Stil der Dragonlance-Cover"). Wenn also kein origineller Anspruch dahinter steht, sondern man nur günstig eine Art Aushängeschild herstellen ("guck, hier, da ist Fantasy a la Hickman/Weis drin und es gibt Armbrüste").
Kann man die irgendwie hochauflösend erwerben? Ein paar der Bilder die hier gepostet werden, würde ich mir echt gern an die Wand hängen.
Das ist imho das nette an dem Stil der AI, das hat teilweise etwas irreales, traumhaftes, weil es halt von etwas gemalt wurde, was die Welt als Beobachter sieht, aber keinerlei echtes Verstehen dafür entwickeln kann. Das führt dann oft zu Dingen, die auf den ersten Blick aussiehen wie etwas (eine Person, eine Blumenwiese, etc.) aber auf den zweiten Blick merkt man, dass die Details gar keinen Sinn ergeben. Aber gerade das hat imho echt was.Irian hat das schon ganz gut beschrieben.
Und nun ist der visuelle Orobourous der Rolloszene vollständig...
Gibt es auch schon Generatoren, die Bilder erzeugen, die nicht surreal oder gruselig aussehen? Oder ist die Software dafür noch nicht gut genug?
Hab mal versucht die KI ein Dungeon bauen zu lassen.wow, da muss jetzt wirklich nur noch eine Story drumgestrickt werden und das Abenteuer läuft.
(https://cdn.discordapp.com/attachments/997264440858779729/1007313350075621496/Klugerjunge_pencil_drawing_Dungeon_map_full_of_monsters_and_tre_8912826f-75ca-45cb-9013-cfecb4582e30.png)(Klicke zum Anzeigen/Verstecken)
Das halte ich so Pauschal für recht fragwürdig.Eigentlich wäre es sogar ziemlich langweilig, weil die Rechtslage schlicht eindeutig ist und es auch schon entsprechende Präzedenzfälle (https://art-thinking.ch/2022/02/ein-ki-system-kann-sein-digitales-werk-nicht-als-urheber-urheberrechtlich-schuetzen-lassen/) gab. ;)
Sowohl das mit Gemeinfrei als auch kein Urherberrechtlichen Schutz.
Ich glaube vor Gericht wäre das sicherlich sehr spannend.
Eigentlich gewinnt ja jeder, wenn man die Bilder nicht schützen kann.Es sollte sogar sehr im Interesse von jeglichen Kreativschaffenden sein, daß dem so bleibt. Und das meine ich nicht, um Konkurrenz zu unterbinden (der Kampf wird primär an der Preisleistungsfront ausgefochten und sich da sehr zu ihren Ungunsten entwickeln), sondern um ihre eigenen Werke zu schützen. Denn wenn bereits die Auftragserteilung mit Beschreibung des gewünschten Inhalts als Teil des kreativen Schaffensprozesses betrachtet wird, aus dem Urheberrechte resultieren können, ist es um das geistige Eigentum der Ausführenden schlecht bestellt.
Eigentlich wäre es sogar ziemlich langweilig, weil die Rechtslage schlicht eindeutig ist und es auch schon entsprechende Präzedenzfälle (https://art-thinking.ch/2022/02/ein-ki-system-kann-sein-digitales-werk-nicht-als-urheber-urheberrechtlich-schuetzen-lassen/) gab. ;)
Edit: Dieser Artikel (https://www.lto.de/recht/legal-tech/l/ki-kunst-urheber-computer-maschine/) legt die aktuelle Lage und die eventuelle Entwicklung ganz gut dar.
Nein, Du kannst deine Bilder dann direkt im Bott-Chat machen.
Nightcafe ist jedenfalls...ausbaufähig.
Behold, "Muscular David Hasselhoff battles dinosaurs"(Klicke zum Anzeigen/Verstecken)
Edit: Dein zweiten Versuch will ich gar nicht zeigen, zu krass ge-Cronenberg-t
Ich vermute andere frei-verfügbare Roboter werden ähnliche Schwierigkeiten haben mit diesem Begriffspaar. Habe deshalb mal das gleiche Begriffspaar bei Craiyon eingegeben (https://www.craiyon.com/).Die finde ich alle besser ;D
Angehängt habe ich das Ergebnis.
Die finde ich alle besser ;D
Ja, aber ist dir aufgefallen, dass David H. Christ meist gegen nur einen Dino (singular) kämpft? Ist eine ganz schön faule KI!
Kennt eigentlich jemand eine gute, bezahlbare Superresolution software, mit denen man die kleinen Bilder größer kriegt ohne GPU-Zeit in MidJourney zu verrbauchen?Ich verwende seit längerem waifu2x-caffe (https://github.com/lltcggie/waifu2x-caffe/) und war mit den Ergebnissen immer recht zufrieden.
Warum kriege ich partout keine Zentaur hin? Und "holding a longsword" oder "behind a tree" klappt auch nicht.
Oder raff ich es nicht?
Auch bei deinen Bildern wurden zum Teil die Arme abgeschnitten/vergessen.
Ich glaube man kann auch Bildelemente ganz gut gebrauchen. Zum Beispiel einen Rahmen für Tokens oder Charakterprotraits.
empty round steampunk mirror frame on black background
Noch etwas nachbearbeitet um Transparenz zu bekommen.
(https://www.tanelorn.net/index.php?action=dlattach;topic=123321.0;attach=33401)
Artworks für eine Mutant Year Zero - Runde:(Klicke zum Anzeigen/Verstecken)
inkdrawing female ghost warrior princess. timothy bradstreet style art. 8k realistic black and white. --ar 1:2Wow, wie krass! :-*
(https://cdn.discordapp.com/attachments/1005416846989721611/1007656860003860508/TIE_inkdrawing_female_ghost_warrior_princess._timothy_bradstree_475d0f04-0175-449e-b3be-93b13d4cf78c.png)[/spoiler]
Mystic London Gaslicht Ära (wofür ich es brauche weiß ich noch nicht)(Klicke zum Anzeigen/Verstecken)
Dungeons and Dragons Goblin Girl: (Das Bild ist hübsch, passt aber eher zu einer Halblingfrau.)
https://artflow.ai/gallery/33f04f30168148ddbdad2d186df03bc4 (https://artflow.ai/gallery/33f04f30168148ddbdad2d186df03bc4)
Wär ja nur für die kostenlosen Mitglieder wegen der kommerziellen Lizenzeinschränkung? Oder hab ich was falsch verstanden.
Ich bin immer noch begeistert,...Das ist schade — die NC-Lizenzen sind leider Sackgassen für Kreative (https://www.draketo.de/light/english/politics/free-culture-danger-noncommercial). Bei dem, was die Rechenzeit an Serverkosten verursacht (und CO₂-Emissionen …) kann ich das allerdings verstehen — wer bezahlt, darf sie ja ohne Einschränkungen nutzen (Beschäftigte großer Firmen müssen mehr zahlen — was ich gar nicht schlecht finde, so finanzieren die nämlich die Kleineren mit).
bezüglich der Bildrechte hab ich aber etwas gefunden:(ganz untem im Text)
https://www.chip.de/news/Ihre-eigene-Kunst-per-Mausklick-Das-muss-jeder-ausprobiert-haben_184386657.html
Hat schon jemand erfolgreich dort Gesichter von Fantasy Gnomen erzeugt? Bei mir kamen bisher immer nur Gartenzwerge heraus.Gnome sind mir schon immer das unklarste Volk gewesen. Sind es nicht einfach magisch begabte, rasierte Zwerge oder handwerklich interessierte Halblinge?
Hat schon jemand erfolgreich dort Gesichter von Fantasy Gnomen erzeugt? Bei mir kamen bisher immer nur Gartenzwerge heraus.
gnome fighter:: npc character:: d&d:: portrait:: --no hat red garden
Midjourney hat schon eine "Kernkompetenz" natürlich und einige Eigenheiten, an denen mal vieles erkennen kann - dennoch kann man mit etwas Manipulation schon sehr unterschiedliche Sachen herausbekommen, was das ganze ziemlich relativiert.
Bei mir kamen bisher immer nur Gartenzwerge heraus.Wo ich da gerade was von roten spitzen Hüten las...
Wo ich da gerade was von roten spitzen Hüten las...
Wirklich "Gartenzwerge" oder Redcaps (https://monster.fandom.com/wiki/Redcap) aus der englischen Folklore?
a d&d gnome
Mal eine Frage, Print-Produkte sollten eine Auflösung von ca 300 dpi haben. Das entspricht bei einer DIN A4 Seite ca 9 Megapixel. Die Maximale Größe von Midjourney beträgt 3 Megapixel. Somit beschränkt sich die Nutzung eher auf kleinere Bilder, wenn man keine Abstriche bei der Druckqualität machen möchte. Sehe ich das richtig oder habe ich mich verrechnet/etwas übersehen?
Ergänzung: Kann midjourney auch freigestellte Objekte darstellen, also ohne Hintergrund? Wenn ja, wie macht ihr das?Ich erzeuge fast nur Gesichtsbilder die ich als Token verwende. Und den Hintergrund entferne ich mit GIMP. Das geht meistens komplett mit der automatischen Funktion.
Ich erzeuge fast nur Gesichtsbilder die ich als Token verwende. Und den Hintergrund entferne ich mit GIMP. Das geht meistens komplett mit der automatischen Funktion.
Ich lese hier immer wieder mal, dass man MJ Bilder sofort erkennen würde und das manche Leute Angst davor haben, dass man sich daran satt sieht und alles mit MJ Bildern überflutet wird.
a small river runs through a medieval village surrounded by sequoia trees and a dramatic sky in the background, fantasy 8k resolution concept art movie poster hyperrealism matte painting digital art digital illustration 8K resolution bokeh HDR futuristic anime comic art
bringt nicht annähernd so schicke Ergebnisse... :-[
Was genau schreibst Du hinter den prompt von imagine, um die genannten Parameter zu erzwingen?
Ich sollte noch dazu sagen: Ich bin aus meiner Rechenzeit raus, habe also zwar bezahlt, aber muss jetzt im relaxed-mode weiter journeyn - wenn's einen Unterschied macht...
"Takeshi Kitano" as an old rogue with a lot of gems, caravaggio style, painting digital art digital illustration 8K
"Charlize Theron" as a pathfinder with a sword::500 , John Howe style, ultra details, 8K /private
Das waren mal wieder interessante Treffer. :)
Das waren mal wieder interessante Treffer. :)
Vampire teeth statt fangs?Gute Idee, aber irgendwie scheint ihnen da Quellmaterial zu fehlen: Burning eyes and bared vampire teeth:
Lokal laufende Stable Diffusion ist zwar langsamer, aber es kommen viel vielseitigere Ergebnisse raus:Auf höherer Auflösung mit 16GiB Ramverbrauch und über zwei Stunden Rechenzeit:
...Ich glaub ich beschreib zu schlecht... ~;D
[...]
Gute Idee, aber irgendwie scheint ihnen da Quellmaterial zu fehlen:
Ich bin gespannt, ob die KI in Zukunft evtl. noch erweitert werden wird.Alles 'ne Frage von Trainingsdaten... das ist in der Tat der größte Stolperstein bei KIs.
Alles 'ne Frage von Trainingsdaten... das ist in der Tat der größte Stolperstein bei KIs.Um ein Gefühl dafür zu geben: stable-diffusion von huggingface verwendet Laion2B-en (https://huggingface.co/datasets/laion/laion2B-en), das in 50 komprimierte 2,7 GiB parquet (https://www.upsolver.com/blog/apache-parquet-why-use)-Dateien aufgeteilt ist. Ein einzelnes Bild braucht 500kiB, das heißt, selbst wenn die Kompression nichts bringt, sind die Eingabedaten etwa 300 Millionen Bilder mit Beschreibung (und die Beschreibung muss irgendjemand geschrieben haben).
Und natürlich der Teil, der von fast allen Leuten gefühlt grob unterschätzt wird.
Hey PayThan!
Wenn Du hinter der ersten eckigen Klammer anstatt "img" folgendes schreibst "img width=333", dann kommen kleinere Vorschau-Bildgrößen raus, die auf mehr Geräten gut anzuschauen sind. ZB
Hinter dem zweitletzten Spoiler ist nichts mehr dahinter.
Die Nachtwächtergilde
Begriffe habe ich hier in etwa so eingegeben:(Klicke zum Anzeigen/Verstecken)(Klicke zum Anzeigen/Verstecken)(Klicke zum Anzeigen/Verstecken)(Klicke zum Anzeigen/Verstecken)(Klicke zum Anzeigen/Verstecken)(Klicke zum Anzeigen/Verstecken)(Klicke zum Anzeigen/Verstecken)(Klicke zum Anzeigen/Verstecken)
Alles 'ne Frage von Trainingsdaten... das ist in der Tat der größte Stolperstein bei KIs.
Die Bilder aus dem ersten Spoiler sind abartig gut! Das ein oder andere würde ich mir sogar an die Wand hängen :D
Ich glaub ich mag Nightcafe... für Szenenbilder ist das echt nicht übel 8)Wow, wie hast du die erstellt? (meine Cthulhu-SL wird das lieben!)
Wow, wie hast du die erstellt? (meine Cthulhu-SL wird das lieben!)
Next level?Aber erstaunlich wenig Aufrufe …
https://www.youtube.com/watch?v=bulNXhYXgFI&t=74s
Next level?
https://www.youtube.com/watch?v=bulNXhYXgFI&t=74s
Gefällt mir gut, obwohl ich ein leichtes cringe Gefühl dabei bekomme ;D
Next level?
https://www.youtube.com/watch?v=bulNXhYXgFI&t=74s
Next level?Ich find die KI-Bilder beeindruckend und ich mag ja auch die fuckin' Eagles. Das hat Potential, aber hier passts simmungsmäßig nicht so zusammen für mich.
https://www.youtube.com/watch?v=bulNXhYXgFI&t=74s
Noch zwei Animierte Bilder die mit MJ entstanden sind:Wow, wie krass. Das gibt ein völlig neues Medien-Genre.
https://media.discordapp.net/attachments/980876616387407882/1014461925024874536/video_1661936771596.mp4 (https://media.discordapp.net/attachments/980876616387407882/1014461925024874536/video_1661936771596.mp4)
https://media.discordapp.net/attachments/980876616387407882/1014461872700915754/video_1661936937341.mp4 (https://media.discordapp.net/attachments/980876616387407882/1014461872700915754/video_1661936937341.mp4)
Midjourney testet gerade photorealistische Ergebnisse :o
(https://cdn.discordapp.com/attachments/684722211654860831/1014476213517033572/Zed_Adriana_Lima_mixed_with_Charlize_Theron_as_a_crusader__iris_f51ecb58-06a7-40a1-b43f-a7748f4d1f7b.png)
Dazu den Parameter --testp hinzufügen.
Ich brauche für meine nächste Fallout Runde ein Bild eines 1950er Pin Up Alien Girl. Sowas ähnliches wie das hier: https://i.pinimg.com/originals/a5/d3/2c/a5d32c5816ce672c128e7ea8516dc9be.jpgHier als Ergebnis ein berühmtes Pin-Up-Girl der Quadragi, einem Volk vom Planeten Fiereg:
Hier als Ergebnis ein berühmtes Pin-Up-Girl der Quadragi, ein Volk vom Planeten Fiereg:
(https://cdn.discordapp.com/attachments/684722211654860831/1014542013439414392/Zed_Smiling_Adriana_Lima_as_a_green-skinned_alien_sitting_an_a__d03ea14b-a086-4933-ac7e-be5f5d9e95d5.png)
Das mit dem Cocktailglas in der Hand will einfach nicht klappen...
(https://cdn.discordapp.com/attachments/684722211654860831/1014549074902519858/Zed_Smiling_Adriana_Lima_as_a_green-skinned_alien_sitting_an_a__d033464f-5e77-41ca-837f-587065b19cb9.png)
Ich brauche auch gar nicht Animation. Mir würde es reichen, wenn man drehbare Modelle der Gesichter hat, die man selbst drehen kann. 8]Das geht mit https://artflow.ai/gallery/1cc8f2872f7f44a3803a15fed69f4a58 über reflow: Du kannst die Blickrichtung ändern (in gewissen Grenzen).
Wenn sich die Technik so rasant weiter entwickelt, kommen auf menschliche Illustratoren mittelfristig echt schwere Zeiten zu.
Die schöne neue Bilderwelt hat leider auch ihre Schattenseiten, geht mir gerade so im Kopf herum. Ich hab inzwischen tatsächlich die ersten Stock Art Bilder aus meinem RPG durch AI Art und somit einen Menschen durch einen Computer ersetzt.Auf Reddit diskutieren gerade Leute, wie stable-diffusion in Photoshop integriert werden kann, so dass Menschen die Grundentwürfe zeichnen und dann immer wieder durch daraus synthetisierte Zwischenstücke ergänzen. Im Endeffekt wird dadurch das Berufsbild geändert: Das wichtigste wird, den Stil zu definieren, der genau zum Produkt passt.
Auf Reddit diskutieren gerade Leute, wie stable-diffusion in Photoshop integriert werden kann, so dass Menschen die Grundentwürfe zeichnen und dann immer wieder durch daraus synthetisierte Zwischenstücke ergänzen. Im Endeffekt wird dadurch das Berufsbild geändert: Das wichtigste wird, den Stil zu definieren, der genau zum Produkt passt.
Wer das ganze gerne auf dem Heimischen PC kostenlos Nutzen möchte, da gibt es jetzt auch eine Open Source variante. Habs mir selbst mal eingerichtet was dank dieser Anleitung halbwegs einfach war: https://rentry.org/GUItardMit dem Repo von basujindal ( https://github.com/basujindal/stable-diffusion ) kannst du es auf der CPU laufen lassen — das ist zwar viel langsamer, aber bei mir geht es bis 1024x1024 hoch (vermutlich noch höher, das braucht 17 GiB Ram, ich habe 32 GiB, es brauchte aber schon 2 Stunden für ein Bild auf 1024x1024, deswegen lass ich das, wenn ich am Spielen bin, um die besten Parameter zu finden). Das kannst du dann für die späteren Pipelines als Eingabe nutzen. Hier gibt es noch Tipps, um davon auch mit einem normalen System auf höhere Auflösung zu kommen: https://www.reddit.com/r/StableDiffusion/comments/wxm0cf/txt2imghd_generate_highres_images_with_stable/
Dann brauchen wir ja nur noch jemand, viel schlaueres als mich, der das ganze auf der GPU berechnen lässt aber den normalen RAM als zwischenspeicher nutzt.
Dann brauchen wir ja nur noch jemand, viel schlaueres als mich, der das ganze auf der GPU berechnen lässt aber den normalen RAM als zwischenspeicher nutzt. So ganz hab ich noch nicht aufgegeben das es auf meiner Grafikkarte in höheren Auflösungen klappt...zumindest etwas höher. Scheint nur 4 GB von meinen 8 nutzen zu wollen ATM...na mal sehen evtl. finde ich morgen mehr raus.Der von mir verlinkte Klon des Repos macht das schon, kommt damit aber nur auf ~6GiB VRAM runter.
Die schöne neue Bilderwelt hat leider auch ihre Schattenseiten, geht mir gerade so im Kopf herum. Ich hab inzwischen tatsächlich die ersten Stock Art Bilder aus meinem RPG durch AI Art und somit einen Menschen durch einen Computer ersetzt. Wenn sich die Technik so rasant weiter entwickelt, kommen auf menschliche Illustratoren mittelfristig echt schwere Zeiten zu. - Wobei die größte Ironie dabei ja ist, dass die KI für ihre eigenen Bilder schlicht auswertet, was zuvor von Menschen erstellt wurde. Da stelt sich natürlich auch die Frage, ob die KI irgendwann mal wird eigene Stile entwickeln können, denn falls nicht, wird die Bilderwelt letztlich verarmen, da ohne menschliche Maler dann nur noch "altes Zeug" wieder aufgewärmt wird... Auf jeden Fall ein sehr spannendes Themenfeld, was uns in Zukunft sicher noch bewegen wird. :think:
"Die Fotografie ist der Todfeind der Malerei, sie ist die Zuflucht aller gescheiterten Maler, der unbegabten und der Faulen."
-- Charles Baudelaire (1821-1867)
Ich weiß ja nicht, wie es bei dir ist, aber meine Kamera nimmt leider nicht von selbst Bilder auf... :P ;)
Jupp, das hat sich Charles Baudelaire auch anhören müssen ;)
Das war nicht der Punkt. Eine KI kann ich 24/7 mit zufallsgenerierten Stichwörter füttern und damit Bilder ereugen lassen, ohne dass dabei dann noch ein Mensch (unmittelbar) beteiligt ist...
...aber etwas menschlicher Input ist sicher durchaus von Vorteil. 8](Klicke zum Anzeigen/Verstecken)
Ich weiß ja nicht, wie es bei dir ist, aber meine Kamera nimmt leider nicht von selbst Bilder auf... :P ;)Mein KI-Modell will dafür auch prompts von mir — und dann das Aussortieren des Ausschusses und vielleicht noch Nachbearbeitung, bis es passt.
...aber etwas menschlicher Input ist sicher durchaus von Vorteil.Ich denke, menschlicher Input bei Artwork wird in Zukunft nur mehr ein Ausdruck von Snobismus sein. Made by Human so wie man heute halt mit dem Bild eines berühmten Malers angibt (und Millionen zahlt), wo der "Laie" keinen Unterschied zum Gekritzel eines Kleinkindes erkennt.
Du selbst hast zugegeben Stock Bilder gegen KI Bilder ausgetauscht zu haben.
Was natürlich umgekehrt bedeutet, dass dir die KI Kunst besser gefallen hat als von Menschen erschaffene Stock Bilder.
Und genau hier kommt dann mein Gedanke ins Spiel, dass ich mit der KI bzw. der Möglichkeit jetzt selber unter Nutzung dieser Technik Bilder erstellen zu können, die Arbeit eines anderen Menschen (in Bezug auf mein Projekt und bestimmte spezifische Bilder) tatsächlich überflüssig gemacht habe.Ja hast du. Ebenso immer wenn du industriell gefertigte Ware (oder Nahrung) kaufst anstatt handgefertigte. Oder Online-Banking benutzt. Oder mit dem Auto fährst anstatt einen Kutscher zu bezahlen. Oder mit dem (evtl. sogar selbstfahrenden) Staubsauger die Wohnung reinigst, anstatt eine Putzkraft anzustellen.
Die Kunst der breiten Masse wird schon in wenigen Jahren großteils automatisch generiert werden. Vor allem wenn es eben nicht um Kunst, sondern um Illustration geht.Ich gehe eher davon aus, dass noch viel mehr illustriert werden wird. Bisher ist die Kunst der Breiten Masse eh schon Unsplash u.ä. Stock-Art.
Mann gewinnt Wettbewerb mit KI-Gemälde – Künstler sauer (https://www.derstandard.at/story/2000138726264/mann-gewinnt-wettbewerb-mit-ki-gemaelde-kuenstler-sauer)
War ja fast schon klar, dass es ein "Gamer" war, der mit dieser Idee angetreten ist. ;D
---
Andere Überlegung: Die Frage, ob man ein Rollenspiel (zumindest in Teilen) mit AI Art illustrieren kann, kann ich inzwischen wohl eindeutig mit JA beantworten. Spannend ist allerdings die Frage, ob man für sein Produkt eigentlich einen eigenen Stil entwickeln kann oder ob die Eingaben anderer Nutzer der AI bei ähnlichen Ausgangsbegriffen wohl auch ähnlich Bilder bzw. einen ähnlichen Look erzeugen? :think:
Warbirds - Flugzeuge (Das klappt mit MJ noch nicht so gut):Künstlerisch finde ich die tatsächlich toll. Als Illus von tatsächlichen Flugzeugen aber nur mäßig brauchbar ;D
Künstlerisch finde ich die tatsächlich toll. Als Illus von tatsächlichen Flugzeugen aber nur mäßig brauchbar ;DDas ist bisher auch mein Fazit zu den generierten Bildern (auch den hier generierten direkt mit stable-diffusion): Die Bilder sind schön, aber sie ersetzen keine Weltgetreuen Illustrationen sondern eher Stock Art. Es hat mir bisher eher gezeigt, erstens wie viel künstlerische Qualität möglich ist, aber auch zweitens, dass ich wenn ich ein Bild haben will, das wirklich bestimmte Konzepte verwirklicht, dafür einen Illustrator will.
... dass ich wenn ich ein Bild haben will, das wirklich bestimmte Konzepte verwirklicht, dafür einen Illustrator will.
Kenn mich da ja nicht so aus, aber ist es tatsächlich so, dass Ilustratoren für Rollenspielprodukte maßgeschneiderte Bilder abliefern ?
Update zu Fangzähnen: Mein lokales stable-diffusion kann Fangzähne.
Aber mal sowas von:(Klicke zum Anzeigen/Verstecken)
Insgesamt habe ich an einem Abend 36 Bilder herausbekommen, die ich als „brauchbar“ einstufe.Der Punkt ist ja grade, dass es nicht nur brauchbar sein soll. Ich habe für meine Motivations-Idee inzwischen (nach einer Woche auf CPU) auch etwa 10 Bilder, die ich als guten Anfang sehe. Aber kannst du dir damit ein Engel-Regelwerk vorstellen?
Mir ist aber klar, dass ich noch deutlich bessere Bilder und andere Styles mit MJ produzieren könnte, wenn ich bereit währe mehr Zeit dafür zu investieren.
Wie viele unterschiedliche Bilder schaft ein Illustrator an einem Abend ?
Midjourney gewinnt 1. Platz (https://www.gamestar.de/artikel/ki-erster-platz-kunstwettbewerb-kuenstler-stinksauer,3383991.html) bei einem Design-Wettbewerb in der Sparte Digitale Kunst. Normale Künstler sind jetzt stinksauer.Das war nicht nur Midjourney:
Demnach habe er hunderte Bilder von der KI erstellen lassen, diese dann in wochenlanger Arbeit feingeschliffen, am Ende die besten drei ausgewählt, per Gigapixel-AI skaliert und auf Leinwand gedrucktWäre spannend, die unbearbeiteten Versionen zu sehen. Wochenlange Arbeit — da haben die Künstler vermutlich weniger Zeit investiert. Und Hoch-Skalierung von Bildern könnte auch bis dahin rein händisch erstellten Illustrationen den letzten Schliff verleihen. Wer malt schon gerne 150 Schuppen einzeln? Echte Künstler verwenden besondere Pinsel (https://www.davidrevoy.com/article893/speedpaintings-brushes-tips-and-4-timelapses-krita-5), um das zu minimieren — jetzt gibt es einen Pinsel mehr.
.... jetzt gibt es einen Pinsel mehr.
Wochenlange Arbeit — da haben die Künstler vermutlich weniger Zeit investiert.
Uhrwerk Charakter für "Schatten des Dämonen Fürsten"(Klicke zum Anzeigen/Verstecken)
Das Bild hat mich inspiriert.
Ich bin ziemlich platt angesichts der hier gezeigten Resultate.
Eine kurze Frage/Bitte an die ganzen Kunstschaffenden hier:
Es gab auf Seite 4 dieses Threads den Versuch von PayThan, mit Hilfe der KI einen Dungeon erstellen zu lassen...
Ich glaube das wird schwer, weil die KI (zumindest MJ) doch recht zufällig arbeitet. So richtig Kunstschaffende sind wir ja nicht. Ich für meinen Teil füttere die KI nur mit Begriffen, lade hin und wieder Vergleichsbilder hoch und hoffe, dass was passendes dabei herauskommt. Manche Sachen kann man gut umschreiben, andere weniger gut.
Bei den Karten wird es viel, viele, viele Wiederholungen brauchen um ein passendes Ergebnis zu erzielen (oder Glück, gepaart mit der richtigen Wortwahl). Wenn du irgendeine Karte in dem Stil haben willst, das ist kein Problem. Die spezielle Region wird schon schwieriger.
Vielen Dank aber auch so schon mal für den Einsatz :)
Viele Grüsse
torben
Ich frage mich da ja, wie lange es wohl noch gehen wird, bis jemand auf die Idee kommt, Beschreibungspfade für Bilder urheberrechtlich schützen zu lassen (falls das nicht schon probiert wurde... ::) :gasmaskerly:Die prompts werden anscheinend schon verkauft.
Leider muss ich vor der Lizenzsituation warnen: [...]
Does the license allow me to sell my creations or use them for commercial purposes?
Short answer: Yes, provided you didn't use any Copyrighted images in the creation process, and subject to the Copyright laws in your jurisdiction.
Copyright laws for AI-generated artworks are still evolving, and vary from country to country. It's up to you to check the Copyright laws in your own country.
In jurisdictions where NightCafe is deemed the Copyright holder (as the AI-generation platform), we agree to transfer the Copyright ownership to you - the creator - to use however you like, provided that you didn't use any Copyright restricted images to create it.
That means, as long as you own (or have permission to use) any input images you used, you will be assigned Copyright by us. For style transfer, you must have copyright permission for the content and style images. For text-to-image artworks, you must have copyright permissions for any start and target images. If your creation doesn't use any other images, you're welcome to use it for commercial purposes.
We do our best to ensure that only public domain and royalty-free images appear in the preset styles and free images tabs of the image picker, but we don't guarantee that these images are free of copyright limitations, and it's up to you to double-check.
Es wäre also an dieser Stelle gut, mal rauszufinden, was der deutsche Gesetzesgeber zum Urheberrecht in Bezug auf AI Bilder sagt. - ICh fürchte bloß, dass ist leider noch "Neuland"...Um das noch einmal zu betonen, urheberrechtlich ist die Lage glasklar: KI-generierte Bilder genießen keinen urheberrechtlichen Schutz, weshalb dir auch gar keine Nutzungsrechte abgetreten werden können (da diese nicht existieren). Problematisch kann es also allenfalls werden, wenn andere Schutzrechte greifen – Markenrecht, Persönlichkeitsrecht, Jugendschutz und dergleichen. Im Falle des Persönlichkeitsrechts gibt es natürlich signifikante Ausnahmen wie Personen der Zeitgeschichte (worunter bekannte Hollywood-Schauspieler ziemlich sicher fallen) oder die Kunstfreiheit, weshalb es da tatsächlich einige ungewisse Faktoren gibt (allen voran "Fallen KI-generierte Bilder unter die Kunstfreiheit?").
Um das noch einmal zu betonen, urheberrechtlich ist die Lage glasklar: KI-generierte Bilder genießen keinen urheberrechtlichen Schutz.
Worauf begründet sich das (ich fänds spannend das zu wissen...)? KI ist ja ein Werkzeug, dass hier zur Erschaffung eines Werks verwendet wird. Sollte das Urheberrecht damit nicht für den Erschaffer gelten? Oder fehlt hier einfach die Schöpfungshöhe?Grundlegend fehlt die Schöpfungshöhe. Erstmal konkret zum Fall hier: Das Modell zur Generierung und der Quellcode haben ausreichende Schöpfungshöhe, und da gelten die Einschränkungen der Lizenz. Wenn du aus dem Modell also ein Bild bekommst, und die ursprüngliche Plattform dabei die Lizenz verletzte, hast du das Bild nie legal erhalten, weil sie es dir nicht hätten geben dürfen.
Mal davon ausgehend, dass ich die Bildrechte übertragen bekomme (d.h. das deutsche Recht würde es so anerkennen), warum sollte ich denn dann gleich wieder darauf verzichten, wenn ich sie für ein RPG Buch nutzen will? :think:Nur kurz meine persönliche Antwort (kein Diskussionsangebot): Ich verzichte nicht darauf, sondern lege fest, dass andere sie nutzen dürfen, solange sie allen die selben Rechte geben, die sie selbst hatten. Hintergrund: Ich denke, dass bei Rollenspielen die Kreativität der einzelnen Runden zusammen die Kreativität beim Schreiben des Regelwerks deutlich übersteigt, so dass die Regelwerke frei und copyleft lizensiert sein sollten, damit sie gemeinsam immer weiter verbessert werden können. Mehr Hintergrund: http://www.1w6.org/deutsch/anhang/freies-rollenspiel
Worauf begründet sich das (ich fänds spannend das zu wissen...)? KI ist ja ein Werkzeug, dass hier zur Erschaffung eines Werks verwendet wird. Sollte das Urheberrecht damit nicht für den Erschaffer gelten? Oder fehlt hier einfach die Schöpfungshöhe?
Grundlegend fehlt die Schöpfungshöhe.Zur Betrachtung der Schöpfungshöhe kommt es hier nicht einmal, da das Urheberrecht ein auf dem Schöpferprinzip aufbauendes personenbezogenes Recht ist und eine KI schlicht keine Persönlichkeitsrechte hat. Wo keine Person, da kein Urheberrecht. Und wie schon weiter oben im Thread dargelegt, reicht weder die bloße Beschreibung des zu anfertigenden Werks in Worten aus, um als dessen Schöpfer zu gelten, noch kann der Bereitsteller der verwendeten Software ein Urheberrecht auf damit erstellte Werke beanspruchen (ebenso wenig wie Microsoft auf in Word verfasste Texte zum Beispiel).
Wenn du aus dem Modell also ein Bild bekommst, und die ursprüngliche Plattform dabei die Lizenz verletzte, hast du das Bild nie legal erhalten, weil sie es dir nicht hätten geben dürfen.Okay, hier geht es, so weit ich das ausmachen kann, konkret um Stable Diffusion, was eine wichtige Spezifizierung ist. Das von dir hier angeführte Beispiel ist für mich etwas unklar, aber ich versuche es trotzdem mal: Angenommen, eine Webseite betreibt dieses Modell und verstößt in irgendeiner Form gegen die Lizenz, können die Entwickler ihr die Verwendung dieser Software rechtlich untersagen. Da die dort widerrechtlich generierten Bilder aber keinen urheberrechtlichen Schutz genießen, sind sie nach wie vor gemeinfrei und niemand kann Ansprüche gegen die Verwendung dieses Materials geltend machen. Wie immer hilft die Übertragung: Du hast eine Illustration für dein Rollenspiel von einem Künstler anfertigen lassen, allerdings stellt sich hinterher heraus, dass er Photoshop illlegal heruntergeladen hat. Natürlich kann Adobe jetzt Ansprüche für die widerrechtliche Nutzung der Software gegen ihn erheben, sie können dir aber nicht die Verwendung der Illustration untersagen, da deren Urheber- und Nutzungsrechte vollkommen unabhängig vom Lizenzverstoß betrachtet werden.
In der Lizenz steht nämlich, dass die Leute, die das Modell laufen lassen, verantwortlich dafür sind, dass die zukünftige Nutzung des Bildes nicht gegen die Lizenz verstößt.Das ist eine schwammige Formulierung, die mir relativ irrelevant erscheint – schließlich ist eine widerrechtliche Nutzung durch andere nicht deine Schuld, weshalb du schlecht dafür belangt werden kannst. Und auch hier gilt, daß das auf den urheberrechtlichen Status der Bilder letztendlich keinen Einfluss hat.
Zur Betrachtung der Schöpfungshöhe kommt es hier nicht einmal, da das Urheberrecht ein auf dem Schöpferprinzip aufbauendes personenbezogenes Recht ist und eine KI schlicht keine Persönlichkeitsrechte hat. Wo keine Person, da kein Urheberrecht. Und wie schon weiter oben im Thread dargelegt, reicht weder die bloße Beschreibung des zu anfertigenden Werks in Worten aus, um als dessen Schöpfer zu gelten, noch kann der Bereitsteller der verwendeten Software ein Urheberrecht auf damit erstellte Werke beanspruchen (ebenso wenig wie Microsoft auf in Word verfasste Texte zum Beispiel).
Wie ich an anderer Stelle schrieb denke ich das hier das lezte Wort noch nicht geschrieben ist.Eventuelle künftige Neuregelungen sind halt reine Spekulation, auf Basis derer sich keine aktuellen Rechtsfragen beantworten lassen. ;)
Ich verweise auf die Diskussion ob Fotografien dem Urheberrecht unterliegen.Der Vergleich hinkt insofern, als dass bei Fotografien die Frage im Raum stand, ob sie die Schöpfungshöhe erreichen. Bei KI-generierten Bildern stellt sich das wesentlich anders gelagerte Problem, dass es schlicht keinen Schöpfer im Sinne des Personenrechts gibt. Insofern ist urheberrechtlicher Schutz eigentlich ausgeschlossen, sofern sich an diesem Umstand nichts ändert. Die Einführung eventueller neuer Schutzrechte ist dann wiederum Zukunftsmusik.
Freut mich sehr zu sehen, dass die KI unser Hobby bereichert !
Ich glaube, es ist in Bezug auf Rollenspiele sinnvoller, zuerst ein Bild erstellen zu lassen und sich davon zu einem Ort inspirieren zu lassen, als zu versuchen, ein Bild eines Ortes zu bekommen, den man sich ausgedacht hat.
Eventuelle künftige Neuregelungen sind halt reine Spekulation, auf Basis derer sich keine aktuellen Rechtsfragen beantworten lassen. ;)
Der Vergleich hinkt insofern, als dass bei Fotografien die Frage im Raum stand, ob sie die Schöpfungshöhe erreichen. Bei KI-generierten Bildern stellt sich das wesentlich anders gelagerte Problem, dass es schlicht keinen Schöpfer im Sinne des Personenrechts gibt. Insofern ist urheberrechtlicher Schutz eigentlich ausgeschlossen, sofern sich an diesem Umstand nichts ändert. Die Einführung eventueller neuer Schutzrechte ist dann wiederum Zukunftsmusik.
Freut mich sehr zu sehen, dass die KI unser Hobby bereichert !
So sehen bspw. meine Kreationen via Nightcafe im Kontext des Buches ausWow. Schaut echt professionell aus.
Wow, total schöner Stil!
Mein Tipp für diejenigen, die etwas frustriert sind. (Ich bin auch eher Laie aber das hat meine Sachen verbessert)
- Manchmal braucht es mehere Iterationen
- Gut ist ein Statement wie "full body shot"/"portrait" und "standing in XYZ"
- Man sollte am Ende den Stil angeben. "artstation", "octane render", "watercolors", "anime, studio ghilbi" haben für mich gut funktioniert.
Für "full body" Bilder eignen sich Hochkantformate am besten 3:4 / 2:4
Mir ist aufgefallen das je größer die Seitenverhältnisszahlen werden, 9:16 z.Bsp. die KI öfters zwei Personen auf der Fläche unterbringt. D.h. die erstellte Figur hat auf Bauchhöhe ein weiteres Gesicht usw.
Die Philosophische frage wäre also: Ist KI erzeugte Kunst weniger „wertvoll“ als Menschlich erschaffene Kunst?
Wenn Menschen nicht mehr denken, fotografieren, rechnen, schreiben, zeichnen, konzipieren, entwerfen, weben, bauen, sondern nur noch Maschinen bedienen können, ist das nicht beeindruckend.
Ob es die Zukunft ist? Wahrscheinlich schon. Ist es beeindruckend? Nein, ist es nicht. Genau, wie wir das Schreiben von Hand verlernen, wenn wir tippen und Sprachnachrichten versenden. Brauchen wir Handschrift? Wahrscheinlich nicht, wären wir in einer postapokalyptischen Welt aufgeschmissen, weil wir alles verlernten, ausser uns auf Maschinen zu verlassen? You give the answer…
Ebenso auch die Schriften: Du könntest glauben, sie sprächen, als verständen sie etwas, fragst du sie aber lernbegierig über das Gesagte, so bezeichnen sie doch nur ein und dasselbe. Ist sie aber einmal geschrieben, so schweift auch überall jede Rede gleichermaßen unter denen umher, die sie verstehen, und unter denen, für die sie nicht gehört, und versteht nicht, zu wem sie reden soll und zu wem nicht. Und wird sie beleidigt oder unverdienterweise beschimpft, so bedarf sie immer ihres Vaters Hilfe; denn selbst ist sie weder sich zu schützen noch zu helfen imstande.
Wenn Menschen nicht mehr denken, fotografieren, rechnen, schreiben, zeichnen, konzipieren, entwerfen, weben, bauen, sondern nur noch Maschinen bedienen können, ist das nicht beeindruckend.
Midjourney & Co.: Erste Kunstportale verbieten Werke von KI-Bildgeneratoren (https://www.heise.de/news/Midjourney-Co-Erste-Kunstportale-verbieten-Werke-von-KI-Bildgeneratoren-7261935.html)
aus gegebenem Anlass
Die KI macht das genau so, nur eben viel schneller, und das soll jetzt falsch sein ?
Die KI macht das genau so, nur eben viel schneller, und das soll jetzt falsch sein ?
"Genau so" macht die KI es nicht. Denn die Künstler verstehen aus welchem Grund sie eine Technik nutzen und welchen Eindruck sie damit erwecken wollen.
Die KIs verwenden "nur" Mustererkennung um aus vorhandenem Material sich Versatzstücke zu nehmen und vergleichbare Bilder zu erzeugen.
Da würde ich schon noch einen Unterschied in der Art des Lernens wahrnehmen und dieser bestimmt meines Erachtens durchaus auch wie viel Eigenanteil dabei ist.
Das mit der Mustererkennung mag ja stimmen.
Der Punkt ist, dass als Grundlage (sowohl Mensch als auch KI) Bilder anderer Künstler dienen.
Wieso soll dass beim Menschen Ok sein, bei der KI aber verwerflich ?
Versteh ich nicht ?
Es ist eben ein Unterschied, ob ein Mensch sich jahrelang die Mühe macht, eine passende Software auf seiner Wetware zu bauen (lernen) oder ob jemanden vorhandenen Code benutzt, um das je nach skalierbarer Hardware in Sekunden machen zu lassen. Manche Leute wollen eben nur das eine honorieren.
Ist der gleiche Grund aus dem die meisten Leute keine Ruder- oder Tennisroboter in Wettbewerben für Menschen haben wollen. Spräche ja auch nichts dagegen.
Für ein zwar sehr realistisch anmutendes Bild aus den Eingeweiden von DAZ Studio bekam da so mancher den freundlichen aber deutlichen Hinweis, dass das niemand beeindruckt.
Es ist eben ein Unterschied, ob ein Mensch sich jahrelang die Mühe macht, eine passende Software auf seiner Wetware zu bauen (lernen) oder ob jemanden vorhandenen Code benutzt, um das je nach skalierbarer Hardware in Sekunden machen zu lassen. Manche Leute wollen eben nur das eine honorieren.
Ist der gleiche Grund aus dem die meisten Leute keine Ruder- oder Tennisroboter in Wettbewerben für Menschen haben wollen. Spräche ja auch nichts dagegen.
Ja stimmt, die KI macht das nicht genau so, sie macht es sogar effektiver !
@Gondalf
Aber schöne Sachen dabei!
@GondalfJa, wobei ich mich beim mittleren Bild frage, warum
Aber schöne Sachen dabei!
battletech fuse warhammer 40k? Hätte da nicht einfach "Tales from the Loop" gereicht? War mein erster Gedanke bei dem Bild.
Da fällt mir das ein ;DÜber die Anatomie müssen wir nicht reden, aber der Stil ist bildschön für street art
https://m.youtube.com/watch?v=l-yeuE9hcMY
Man kann auch mehrere Künstler kombinieren, dann entsteht ja schon etwas eigenes.
Oder haben dann alle Künstler Rechte daran?
Banksy trifft Wittkowski und die malen Samurais ~;D
(https://mj-gallery.com/52a85cd8-165f-4dec-ae5a-1834c9e86799/grid_0.png)
Ja, wobei ich mich beim mittleren Bild frage, warum ? Hätte da nicht einfach "Tales from the Loop" gereicht? War mein erster Gedanke bei dem Bild.
Ja, wobei ich mich beim mittleren Bild frage, warum ? Hätte da nicht einfach "Tales from the Loop" gereicht? War mein erster Gedanke bei dem Bild.
Wieder was schönes gefunden. Eine Kunst Datenbank von Bildern die mit Stable Diffusion erstellt worden sind. Und bei jedem stehen die Promts dabei. Wenn einem da was gefällt hat man eine gute Basis an Promts um was eigenes zu generieren.Die Suchfunktion dort hat ne Macke. Egal was ich eingebe, es kommt der Fehler: Request failed with status code 404
https://lexica.art/
Die Suchfunktion dort hat ne Macke. Egal was ich eingebe, es kommt der Fehler: Request failed with status code 404
Danke für den Tipp. Ajani und leonine sind wohl mal gute Schlagworte (Auch wenn das Gesicht immer noch seltsam ausschaut). Bei mir hat lionfolk immer nur zu verzerrten Steinlöwen geführt.
action figure of anthro furry lion warrior, armor, digital painting, fantasy rpg --test
action figure of anthro furry lion warrior, khajiit, armor, digital painting, fantasy rpg --test
Hier klappt es, mit Firefox und EdgeChromium.
Vielleicht nur zeitweise am Wackeln der Service.
Puh, das Ding hat mich 10 Anläufe gekostet, aber jetzt entspricht es in etwa meiner Vorstellung. Könnte ich jetzt noch mit GIMP umgehen...
(https://images.nightcafe.studio/jobs/T9ebYDt0s5Q42xKjYWeT/T9ebYDt0s5Q42xKjYWeT--1--NSRD7.jpg)
Puh, das Ding hat mich 10 Anläufe gekostet, aber jetzt entspricht es in etwa meiner Vorstellung. Könnte ich jetzt noch mit GIMP umgehen...
(https://images.nightcafe.studio/jobs/T9ebYDt0s5Q42xKjYWeT/T9ebYDt0s5Q42xKjYWeT--1--NSRD7.jpg)
Was würdest du den ändern wollen (man könnt es ja mal versuchen)?
Da ich auch nicht perfekt in deinen Kopf sehen kann ist da sicher nicht alles, wie du es dir vorstellst, aber ich habe mal ein wenig gebastelt, denn das hat mich jetzt gereizt. Für weitere Wünsche sollten wir das wohl besser auslagern in eine private Unterhaltung ;)
So wie Fotografie der Vorläufer des Films war, könnten diese KI-Bilder Vorläufer von KI-Animationsfilmen sein. Was meint Ihr, wann sehen wir den ersten KI-Film? In 8 Jahren?
Ich stelle übrigens fest, dass meine initiale "Sucht" nach dem Tool nach 500+ generierten Bildern langsam nachlässt, weil mir nichts mehr Interessantes einfällt. :-[
Kleine Spielerei am Wochenende ;D(Klicke zum Anzeigen/Verstecken)
Das war aber nicht Midjourney, oder?
Doch schon.
Das war die Eingabe:(Klicke zum Anzeigen/Verstecken)
Kann man auch sehr einfach variieren, dann kommt z.B so was raus:
(https://cdn.discordapp.com/attachments/1004442477442383902/1030822579532988416/Paythan_Adorable_Tiny_Anthropomorphic_Mouseranger_wearing_overs_14ad848f-9c27-4dcf-abb5-b67ee672e8f2.png)
(https://cdn.discordapp.com/attachments/1004442477442383902/1030823075731751016/Paythan_Adorable_Tiny_Anthropomorphic_Mouseranger_wearing_overs_3ab02bed-3e31-40d7-8428-958af5b703b7.png)
Da müsste man natürlich noch mit Photoshop drüber gehen und z.B das zweite paar Ohren wegmachen, aber ansonsten klappt es ziemlich gut.
Ein Heise-Artikel darüber, wie sich einige Künstler:innen positionieren, wenn ihre Bilder zu Trainingszwecken (https://www.heise.de/hintergrund/Wie-sich-Kuenstler-gegen-die-Nutzung-ihrer-Bilder-als-KI-Vorlagen-wehren-7306494.html?seite=3) herangezogen wurden.
Google gewann auch einen Prozess gegen Autoren, die sich dagegen wehrten, dass das Unternehmen ihre urheberrechtlich geschützten Werke für Google Books auswertetDas war übrigens schon 2016,...
Interessant fand ich auf Seite 3:Das war übrigens schon 2016,...
Ich hab ja mal vor Jahren ein Kartenspiel entwickelt, was mit einem Tarot Deck gespielt wird. Ich hab aber nie wirklich das perfekte Deck dafür gefunden (tatsächlich hab ich letztlich zwei zu einem kombiniert, obwohl die Karten nicht ganz gleich groß und die Rückseiten nur recht ähnlich sind) und dachte mir gerade eben: Schau doch mal, ob du so ein Deck nicht mit Stable Diffusion erstellen kannst!
Und was soll ich sagen? Ich bin gerade halb durch die großen Arcana durch und wenn ihr jetzt sehen könnten, was da teilweise jetzt schon für Hammer-Bilder bei rausgekommen sind! :o
Das wird jetzt zwar etwas Arbeit werden, aber ich glaube, damit kann ich tatsächlich ein eigenes Deck erstellen, was ich dann (nach aktueller Lage) auch uneingeschränkt nutzen kann. 8)
Feststellung 1) Mit der Darstellung von Giff-Charakteren für D&D-Spelljammer tut sich Nightcafe etwas schwer.
Feststellung 2) Aber der Gesichtsausdruck des Nilpferdes ist großartig! ;D
(https://images.nightcafe.studio/jobs/eHJwAD0jm4eX3q3kKR0U/eHJwAD0jm4eX3q3kKR0U--1--n29ky_6x.jpg?tr=w-1600,c-at_max)
Was ich noch spaciger finde, ist das beide Reiter zusammen offenbar nur ein paar Beine haben. Entweder, der Vordere steckt irgendwie im Nilpferd drin - oder es handelt sich tatsächlich nur um einen Reiter und nicht um zwei. Und wenn dem Reiter wirklich ein zweiter Oberkörper aus dem Gemächt wächst, erklärt sich der Blick des Nilpferdes dann irgendwie doch recht schlüssig.
Ja ich bin immer überrascht wie schlecht Waffen generiert werden. Dwarf with an Axe -> sieht zwar wie ein Zwerg aus, aber die Axt wird irgendwie nix richtiges. Image2Image mit ner Axt geht irgendwie, aber nur aus Rauschen wird es irgendwie nix. Scheint zu wenig in den "Lern-Bildern" vorzukommen bzw. evtl. nicht gut getaggt.Habe Bilder, wo die Klinge der Waffe mit den Haaren verwoben wurde. :o wtf?
Zu dem Thema gibt es ein (recht lustiges) Video bei Youtube auf dem Kanal von Skallagrim: https://youtu.be/rksJ8N-s8scMehr als 2h Video ist auch eine Ansage. :o
Mein Lieblingszitat aus den Kommentaren dazu: AI generated art is what every Lovecraft character sees before they die.
Mehr als 2h Video ist auch eine Ansage. :o
Ein paar Reittiere für Numenera ?wtf...
Reittiere waren bis jetzt in MJ auch immer schwierig.
Mit der –v 4 Version wird es deutlich besser !
Ein paar Reittiere für Numenera ? Bitte sehr:(Klicke zum Anzeigen/Verstecken)
Die Reittiere sind der Wahnsinn! Aber kaum ein Reiter, bzw deren Unterkörper passt da wirklich gut. Entweder sind die Beine ganz komisch, die Sitzposition unmöglich oder der Unterkörper komplett abgeschnitten. Trotzdem geniale Reittiere. :)
wtf...
Magst du evtl. die Befehle teilen, die zu diesen unglaublichen Bildern geführt haben?
MJ spuckt bei mir zwar nette Sachen aus, aber nichts annähernd in dieser Qualität.
klar, z.B: Knight in sci-fi armor rides on a slime creature --v 4Vielen lieben Dank. Ich hatte da jetzt mit einer elendslangen Liste gerechnet, bin echt überrascht.
oder Knight in sci-fi armor rides an armored beetle --v 4
Noch ein paar Bildchen für meine Numenera RundeWow. Die werden gleich geklaut.
Hat mal wer geschafft, einen Halb-/Ork mit der KI zu erschaffen? Meistens fehlen die verlängerten Eckzähne und relativ häufig auch die Spitzohren.
Meine Güte, Sphinx, was sieht das klasse aus! :o :)
Aber so was von... :d das einzige negative: seitdem ich letztes Jahr das Malprogramm "Krita" entdeckt hatte, hatte ich überlegt mir ein Grafiktablett zuzulegen und mich dann mit Krita auseinander zu setzen....
Aber wenn ich mir die Bilder so anschaue, ... "vergiss es, so gut wirst du zu Lebzeiten nie". :-\ Andererseits wenn ich mir die letzten Postings so durchlese... vielleicht sollte ich doch mit malen und zeichnen anfangen und mich dann auf nicht-menschliche Kreaturen spezialisieren... und auf Hände ;)
Von meiner halben Stunde und dem Versuch meinem vorhandenen Zwergen Charakter eine Kristallstruktur auf der Wange (Überbleibsel eines bösen Fluchs) zu verpassen....ich hab es erst mal aufgegeben.
Was wie ich finde besser funktioniert ist vom NNetz was erstellen lassen und sich dazu dann seine story auszudenken.
Da es jetzt vielleicht etwas offtopic wird, verstecke ich das mal....(Klicke zum Anzeigen/Verstecken)
Hier hat jemand ein Modell anhand von D&D-Artwork trainiert:Lade es mir gerade runter, werde es testen und mal schauen was es ausspuckt.
https://www.reddit.com/r/StableDiffusion/comments/yskhce/my_new_dd_model_trained_for_30000_steps_on_2500/
Die KI schafft nur das grobe. Es ist sehr zeitaufwändig ein Bild hinzubekommen, welches auch kleinere Wünsche und Details umsetzt.Sicherlich richtig. Aber bei >90% aller Illustrationen wird es wohl ein "ich brauche etwas, das ungefähr XY zeigt" tun und das heißt, 90% der Illustrationsarbeit wird automatisiert werden.
Selbst zu zeichnen wird.auf jeden Fall mehr Freiheiten geben.
Sicherlich richtig. Aber bei >90% aller Illustrationen wird es wohl ein "ich brauche etwas, das ungefähr XY zeigt" tun und das heißt, 90% der Illustrationsarbeit wird automatisiert werden.Ja absolut, ich bin immer wieder überrascht wie oft das gezeigte Bild für eine Scene in einem Abenteuer höchstens grob zur Beschreibung im Text passt.
Interessant wird es, was das in Zukunft mit "ikonischen Charakteren" macht (z.B. die DSA5-Helden, die auf den meisten Bildern drauf sind). Wird man so was einfach nicht mehr machen, weil überproportional teuer oder wird man lokale Instanzen einer KI trainieren, diese mit ein zu beziehen?
Aber bei >90% aller Illustrationen wird es wohl ein "ich brauche etwas, das ungefähr XY zeigt" tun...
War das nicht immer schon so? 8]
Das Orktusksproblem habe ich auch und habe noch keine Lösung gefunden. Bin aber überrascht, dass es bei den Tieflingen mit den Hörnern klappt.
Human aiming with a bow.(Klicke zum Anzeigen/Verstecken)
Ork with tusks .....tja trotzdem keine hauer in irgend einer form, auch nach mehr versuchen als denen die ich hier poste. Aber immerhin halbwegs nette Grünhäute.(Klicke zum Anzeigen/Verstecken)
Hallo zusammen,
ich habe immer wieder Mal das Problem das auf einem Bild zwei Lebewesen zu sehen sind die miteinander verschmolzen sind oder noch zusätzliche Köpfe oder Gliedmaßen haben.
Gibt es eine Möglichkeit sowas abzustellen oder zu reduzieren?
Gruß Jochen
Hallo zusammen,
ich habe immer wieder Mal das Problem das auf einem Bild zwei Lebewesen zu sehen sind die miteinander verschmolzen sind oder noch zusätzliche Köpfe oder Gliedmaßen haben.
Gibt es eine Möglichkeit sowas abzustellen oder zu reduzieren?
Gruß Jochen
((((ugly)))), (((duplicate))), ((morbid)), ((mutilated)), [out of frame], extra fingers, mutated hands, ((poorly drawn hands)), ((poorly drawn face)), (((mutation))), (((deformed))), ((ugly)), blurry, ((bad anatomy)), (((bad proportions))), ((extra limbs)), cloned face, (((disfigured))). out of frame, ugly, extra limbs, (bad anatomy), gross proportions, (malformed limbs), ((missing arms)), ((missing legs)), (((extra arms))), (((extra legs))), mutated hands, (fused fingers), (too many fingers), (((long neck)))
Nightcafé generiert Gratiscredits jeden Tag und wenn man bestimmte Achievements erreicht.
Hab mit mit dem D&D Netzwerk rumgespielt- Na ja ich glaub das braucht noch etwas besseres Training auch wenn es ein Anfang ist. Es weiß immerhin grob was Fantasy Waffen sind was ich ganz gut finde, da damit sonst Stable diffusion mehr kämpft. Richtig gut sind die Waffen aber nicht geworden. Abgesehen von den Menschen sind die Gesichter irgendwie alle nicht gut geworden und es gibt extrem viele verdrehte Extremitäten.Man kann relativ einfach Modelle mergen um Mischformen zu erstellen.
Wäre nett wenn das F222 "Porno" Netzwerk als Trainings Basis genutzt worden wäre. Auf den kleinen Bildern sieht es sogar noch etwas annehmlicher aus als auf den 512x512 varianten.
Man kann relativ einfach Modelle mergen um Mischformen zu erstellen.
Hier im Vergleich stable diffusion 1.5, das DnD-Modell, 2:1 DnD:F222, 1:2 DnD:F222, F222 für "Genasi striking with a sword":
Interessant, hab schon mal irgendwo was davon gehört aber nicht keine Erfahrung. Hast du einen Link zu einem Tutorial wie man so einen Merge durchführt?Ne. Ich benutze die AUTOMATIC1111 webui, da gibt es extra den Tab "Checkpoint Merger". Einfach beide Modelle reinladen, Gewichtung angeben, fertig.
Ne. Ich benutze die AUTOMATIC1111 webui, da gibt es extra den Tab "Checkpoint Merger". Einfach beide Modelle reinladen, Gewichtung angeben, fertig.
Allerdings muss man sich bewusst sein, dass das Mergen die Modelle auch verwässert. Sieht man schön in Seeds 2 und 3, wie der Genasi mal früher, mal später seine blaue Farbe verliert.
Mit der V4 spuckt Midjourney endlich Myranor-taugliches Bildmaterial aus
Absolut beeindruckend! Magst du mal die Befehle teilen, die dazu geführt haben?
D&D christmas elves in the snow with a dragon --v 4 --ar 3:2(Klicke zum Anzeigen/Verstecken)
Meine Güte, das sieht noch immer teils wahnsinnig gut aus 😳
@Doc und andere Stable Diffusion Nutzende: Hat jemand von Euch eine AMD-Grafikkarte im System?
Ich nicht, ich weiß das es ne Variante für AMD gibt, aber die hat leider weit aus weniger support.Ja, leider. Auch die Installation ist fehleranfällig… 😔
Hallo zusammen,
für ein Cyberpunk Handout benötige ich ein Bild von einem Airborn Laser, https://de.wikipedia.org/wiki/Boeing_YAL-1 , also vor allem von der Nase des Flugzeugs.
Ich finde für Stable Diffusion keine Beschreibung die mir etwas passendes liefert.
Hat jemand von euch eine Idee.
Gruß Jochen
Zwei Cyberpunk Nikolausi hab ich noch !(Klicke zum Anzeigen/Verstecken)
1A. :d
Der ganz links unten ist 1-zu-1 mein alter Shadowrun-Rigger, den ich als Teenager gespielt habe. Sogar der mechanische Arm auf der rechten Seite stimmt. Den klau ich mir mal und färb den etwas um. Es fehlt halt das Hawaiihemd. Er hat immer Hawaiihemden getragen. (Any chance, dass man den vielleicht noch per AI bearbeiten kann?)
Folgendes könnte ich mir sogar als Titelillustration gut vorstellenSehr hübsch und beeindruckend! :d
Die Geographia Aventuria sagte ja, dass Waldelfen weder in Hütten noch Baumhäusern leben. Dass die Behausungen aus lebenden Holz wären...So in etwa?
Hab mal wieder Dream verwendet. 100% Zufrieden bin ich nicht. Möchte mehr Astwerk.
@Doc und andere Stable Diffusion Nutzende: Hat jemand von Euch eine AMD-Grafikkarte im System?Ja, habe ich tatsächlich und heute früh mein erstes Bild damit erstellt (siehe Anhang). War nur ein schneller Test, ob es überhaupt funktioniert, bevor ich ins Büro los musste, mit grad mal drei Vorgaben im Prompt.
Hab nochmal bissel was in Richtung Horror ausprobiert.
Ein paar Bilder von Pflanzenartigen Kreaturen für meine Numenera Runde heute Abend.Wow und Wow.
Wow und Wow.
@PayThan: Welche KI und magst du evtl. die Parameter teilen?
Wie beeindruckend sind die denn?
Und zahlst Du, PayThan?
Da ich gerade viel über das Cyberpunk-Community-Ding lese:
(https://media.discordapp.net/attachments/804737340211200011/1050508943207702638/Trieback_pyramid_in_a_cyberpunk_city_by_night_dark_futrure_neon_01559f11-ab38-4772-9547-a82036f5885a.png?width=676&height=676)
Kommt drauf an, was du erreichen willst. Ich würde es versuchen mit "desert/forrest/swamp/wasteland/agroculture from far above"
Ich würde gerne jeweils ein Feld für eine Hexmap - also pro Geländeart - per AI generieren lassen. Irgendwelche Tipps für den Prompt? Bisher scheitere ich.
Eine kleine Auswahl (< 10%) meiner Midjourney-Ergebnisse dieses Monats (z.T. mit GIMP nachbearbeitet). Evtl. wird was davon seinen Weg in meine 5e-Produkte finden, ist noch nicht entschieden. Da warte ich vor allem auch noch auf Rückmeldung von Ulisses.
(http://aventurien5e-fanconversion.de/img/Galerie_202212.jpg)
(https://i.ibb.co/NsnrX1W/Lars-Ohnesorge-a-stairwell-in-torchlight-a-groupf-humans-and-el-57ce78e9-ebe0-464c-afdf-b4d1dca77093.png)
Ich konmte mich nicht entscheiden ;D
Hab dank einem Youtube Video wieder zwei schöne neuronale Netzte für Stable Diffusion gefunden. Basieren auf 1.5 und liefern echt gute Bilder in gewissen grenzen, Fantasy Rassen haut z.B. nicht so recht hin. Sind im Endeffekt eine Kombination aus einigen der guten VariantenWow!https://civitai.com/models/3627/protogen-v22-official-release(Klicke zum Anzeigen/Verstecken)
https://civitai.com/models/3666/protogen-x34-official-release
Ja, habe ich tatsächlich und heute früh mein erstes Bild damit erstellt (siehe Anhang). War nur ein schneller Test, ob es überhaupt funktioniert, bevor ich ins Büro los musste, mit grad mal drei Vorgaben im Prompt.
Habe dafür den Installer von cmdr2 (https://github.com/cmdr2/stable-diffusion-ui) verwendet, einfacher geht es wohl kaum - Runterladen, Entpacken, Starten. Danach zieht sich der Installer alle benötigten Daten und öffnet SD anschließend im Browser (über localhost).
Allerdings werden AMD-Grafikkarten nicht native unterstützt und stattdessen nur mit der CPU gearbeitet, mit dem Hinweis, dass das sehr viel länger dauert. Mein alter i5-8500 hat für das angehängte Bild knapp 10 Minuten gerechnet (25 Iterationen ca. 4 min, 50 Iterationen das doppelte). Ich weiß, es gibt spezielle Anpassungen für AMD (z.B. für meine RX580 8GB oder RDNA2), aber ganz ehrlich, 10 Minuten rechnen lassen und dafür Out-of-the-box ohne Rumgebastel... wenn ich da dran denke, dass Poser bei mir mehrere Stunden an einem Bild gerendert hat, sind die 10 Minuten für mich echt kein Problem.
Frank, Du sorgst mit Deinem ermutigenden Post wahrscheinlich für kreativ-erfüllte Feiertage bei mir, vielen Dank!
Wirklich erstaunlich was da alles generiert werden kann! Vielleicht sollte ich mich daran auch mal probieren, SpacePirates hat viel zu wenig Bilder... Wie groß ist denn die Einstiegshürde?
25 Bilder Gratis als Probemitgliedschaft ohne Anmeldung, nur auf dem Discord (Bilder nur für nicht kommerzielle Nutzung)
10$ für einen Monat Mitgliedschaft und 200 Bilder (Volle Lizenzrechte am Bild)
8$ monatlich im Jahresabo (Volle Lizenzrechte am Bild)
Gab noch ne Version wo man für deutlich mehr Geld unbegrenzt was machen kann. Und wenn man mehr als 1MIllionen erwirtschaftet, dann gelten andere Konditionen. Aber ging ja um "Einstieg"
Bei Midjourney wäre ich vorsichtig. Man darf die Bilder nur kommerziell nutzen, wenn man einen bezahlten Account hat. - Und wie bei eigentlich allen Diensten nach diesem Geschäftsmodell verfällt afaik auch hier das ( kommerzielle) Nutzungsrecht, so bald man den Account kündigt.
Das sehe ich nicht so. Wenn ich mir Werkzeug miete, um damit etwas zu bauen, gehört mir das Gebaute auch noch, wenn ich das Werkzeug zurückgegeben habe und keine Miete mehr zahle. Ich denke nicht, dass es da Möglichkeiten gibt gegen anzugehen. Findet sich denn diesbezüglich überhaupt ein "Versuch" Seitens Midjourney?Ich habe mal im Midjourney Member-Support nachgefragt. Das wäre echt kritisch wenn die Bilder nach Ende der Mitgliedschaft nicht mehr kommerziell genutzt werden dürfen.
By using the Services, you grant to Midjourney, its successors, and assigns a perpetual, worldwide, non-exclusive, sublicensable no-charge, royalty-free, irrevocable copyright license to reproduce, prepare Derivative Works of, publicly display, publicly perform, sublicense, and distribute text, and image prompts you input into the Services, or Assets produced by the service at your direction. This license survives termination of this Agreement by any party, for any reason.Würde mich in diesem Fall allerdings weniger stören als bei der OGL.
Bei Midjourney wäre ich vorsichtig. Man darf die Bilder nur kommerziell nutzen, wenn man einen bezahlten Account hat. - Und wie bei eigentlich allen Diensten nach diesem Geschäftsmodell verfällt afaik auch hier das ( kommerzielle) Nutzungsrecht, so bald man den Account kündigtAntwort vom Midjourney-Support:
Finde das für Corpo-Sprech relativ eindeutig.So hätte ich es verstanden.
Bilder die du erstellt hast, während du dafür bezahlt hast, kannst du auch nach auslaufen des Abos weiterhin kommerziell nutzen.
Das sehe ich nicht so. Wenn ich mir Werkzeug miete, um damit etwas zu bauen, gehört mir das Gebaute auch noch, wenn ich das Werkzeug zurückgegeben habe und keine Miete mehr zahle. Ich denke nicht, dass es da Möglichkeiten gibt gegen anzugehen. Findet sich denn diesbezüglich überhaupt ein "Versuch" Seitens Midjourney?
Finde das für Corpo-Sprech relativ eindeutig.
Bilder die du erstellt hast, während du dafür bezahlt hast, kannst du auch nach auslaufen des Abos weiterhin kommerziell nutzen.
Abgesehen davon frage ich, wie sich nachweisen ließe, dass ein Bild von einer bestimmten AI ausgespuckt wurde.
Ich nehme mal an, dass die Bilder auch noch alle zugeschnitten und im Format umgewandelt werden. Ich habe das zumindest immer noch gemacht.
Ich halte mich trotzdem gerne an Nutzungsrichtlinien.
Klar, aber fleißig Piraten-Rollenspiele rausbringen... >;DStimmt, da sollte ich eigentlich schon etwas plündern und Schätze sammeln! Wer baut mir in der KI jetzt passende Bilder, damit ich die rauben kann?
Stimmt, da sollte ich eigentlich schon etwas plündern und Schätze sammeln! Wer baut mir in der KI jetzt passende Bilder, damit ich die rauben kann?
Stimmt, da sollte ich eigentlich schon etwas plündern und Schätze sammeln! Wer baut mir in der KI jetzt passende Bilder, damit ich die rauben kann?
Coole Bilder!
Das letzte: ist das ein Busenblitzer?!
Frag Nightcafe! Prompt steht ja darüber. Ich denke es ist eher ein bemalter Krug.
... und welcher Prompt funktioniert nun ähnlich gut für Stable Diffusion? Meine Versuche hier lokal sind eher... :-(
Für mich sieht der Krug übrigens aus wie eine Kalebasse.
portrait of a scifi space pirat in a cave, a space scene with a broken moon in the background, he is wearing a Pirat hat, and has cybernetic enhanced body parts, facing the camera, trending on ArtStation, trending on CGSociety, Intricate, Hight Detail, Sharp focus, dramatic, by midjourney, realism, beautiful and detailed lighting, shadows, cinematic
Als negativ Promt nutzte ich aktuell nahezu immer den hier:
disfigured, kitsch, ugly, oversaturated, grain, low-res, deformed, blurry, bad anatomy, disfigured, poorly drawn face, mutation, mutated, extra limb, ugly, poorly drawn hands, missing limb, blurry, floating limbs, disconnected limbs, malformed hands, blur, out of focus, long neck, long body, ugly, disgusting, poorly drawn, childish, mutilated, mangled, old, surreal, text, blurry, b&w, monochrome, conjoined twins, multiple heads, extra legs, extra arms, faschon photos (collage:1.25), meme, deformed, elongated, twisted, fingers, strabismus, heterochromia, closed eyes, blurred, watermakred, wedding, group
Als Promt hab ich für die ersten Bilder das hier verwendet:
portrait of a scifi space pirat in a cave, a space scene with a broken moon in the background, he is wearing a Pirat hat, and has cybernetic enhanced body parts, facing the camera, trending on ArtStation, trending on CGSociety, Intricate, Hight Detail, Sharp focus, dramatic, by midjourney, realism, beautiful and detailed lighting, shadows, cinematic
Für die rauchenden varianten: portrait of a space pirat smoking a pipe while looting a treasure chest, with a space scene with a broken moon in the background, trending on ArtStation, trending on CGSociety, Intricate, Hight Detail, Sharp focus, dramatic, by midjourney, realism, beautiful and detailed lighting, shadows, cinematic
Aha, so langsam wird es was... auch schon mit dem mitgeliefertem Modell kommt jetzt schon etwas brauchbares raus.... (auch meine bisherigen Stadtansichten haben sich jetzt deutlich verbessert).Die beiden Bilder hatte ich wohl immer gesucht.... :headbang:
einfach mal "eternal flame" rein geworfen und fünf Bilder ausrechnen lassen.... die ersten vier Bilder Variationen von "Flammen vor einem Wandkamin", das fünfte... Wo zur Hölle hat er das hergeholt? Und was passiert wenn mal eine Abenteurergruppe in diese Szene stolpert...(Klicke zum Anzeigen/Verstecken)
Kaputt. Lade es doch einfach bei einem Imagehoster wie imgbb.com/ (https://imgbb.com/)rauf. Registrieren ist nicht nötig und es dauert maximal 5 Sekunden.
neuer versuch...
Wo zur Hölle hat er das hergeholt? Und was passiert wenn mal eine Abenteurergruppe in diese Szene stolpert...
Ich vermute, das ist ein argloses Dorf, nachdem da eine Abenteurergruppe durchgezogen ist ;)
Was meint ihr, wollen wir einen eigenen "Dein Charakter als KI Bild" Thread aufmachen? Lohnte sich das? :think:
ich bin noch beim privaten "mache KI-Bilder deiner Rollenspiel-Welten"-Projekt und mein "Stable Diffusion"-Steampunk-Universum ist irgendwie merkwürdig: ein Luftschiff bekomme ich in den Himmel (meistens ist es auch ein Zeppelin, gelegentlich mogelt sich da ein Ballon ins Bild). Aber so wie ich auf mehrere Luftschiffe wechsel, erscheinen nur noch Seeschiffe... (also welche mit Kiel und Segel bzw. Masten)
Manche Sachen gehen über einen Umweg erheblich besser als den direkten weg zu versuchen. Und ja das nervt mich auch an weil ich denke, ich muss nur den Perfekten Promt finden damit ich direkt bekomme was ich will.
Gibt es bei Midjourney eigentlich die Möglichkeit Bilder als Referenz selbst direkt einzuspeisen? Um zum Beispiel Mitspieler in ihren SC-Bildern zu personalisieren?
... Aber ich will sie einfach mit euch teilen, daher habe ich die Bilder in eine Galerie auf meiner Projekt-Webseite geladen. Taucht ein in ein tolles Fantasy-Setting und bedient euch gerne für die nichtkommerziellen Verwendung in euren Runden :).
https://www.aventurien5e-fanconversion.de/myranor-5e-artwork/
Ich habe in den letzten Wochen mithilfe der K.I. Midjourney eine Anzahl an möglichen Illustrationen für meine Myranor 5e-Produkte erstellt.
Da Ulisses momentan noch kein offizielles Statement zur Verwendung von K.I.-Kunst in ihren Gemeinschaftsinhalten herausgegeben hat, füge ich sie noch nicht in meine Produkte ein.
Aber ich will sie einfach mit euch teilen, daher habe ich die Bilder in eine Galerie auf meiner Projekt-Webseite geladen. Taucht ein in ein tolles Fantasy-Setting und bedient euch gerne für die nichtkommerziellen Verwendung in euren Runden :).
https://www.aventurien5e-fanconversion.de/myranor-5e-artwork/
Die Bildagentur Getty Images klagt in Großbritannien gegen mehrere dieser KI-Programme eingereicht, eine Gruppe von Künstlerinnen in den USA.
https://www.spiegel.de/netzwelt/web/kuenstliche-intelligenz-kuenstlerinnen-und-foto-agentur-klagen-gegen-bildgeneratoren-a-e0648bb0-f2db-42b8-a044-10fd916f2e60
Wie das sie davon ausgehen das dort Bilder im Neuronalen Netz gespeichert sind und nur Kombiniert werden.Ja, daran glauben viele.
Ich hoffe ja sehr, dass die Ai demnächst mal lernt, dass Hände 5 Finger haben und wo die hingehören. Das ist ja wirklich noch eine absolute Katastrophe. Was aber so an Portraits möglich ist, das ist der blanke Wahnsinn...Hübsche Bilder :d
Ich habe mal noch ein par Bilder für unsere Warhammer-Runde gemacht, die wir onAir spielen
Ja ich verstehe zwar nicht was sie sich davon erhoffen. Die Technik ist aus der Flasche und wird nicht wieder darin verschwinden. Ich hab auch schon gesehen worauf sie ihre Klage aufbauen und faktisch sind da schon Fehler drin. Wie das sie davon ausgehen das dort Bilder im Neuronalen Netz gespeichert sind und nur Kombiniert werden.
Da es mittlerweile genügend Veröffentlichungen gibt, die zeigen, was man alles an Ursprungsinformationen aus den gelernten Daten wieder rausholen kann, ist die Urheber- und Verwertungsdebatte mitnichten von Tisch. Bei letzterem kommt noch hinzu, dass diese Verwertung von vornherein von den Dateninhabern nie genehmigt worden ist. Ich würde das folglich nicht als unüberlegte Nullnummer abtun.
Ja aber man wird niemals das Original wieder herausbekommen.
Das KI der Illustrationsszene langfristig weh tut halte ich auch für Unsinn. Denn "von einem echten Künstler gezeichnet" wird ja jetzt schon als Herausstellungsmerkmal gesehen. :)Genau so wie "Von einem echten Tischler" als Qualitsmerkmal gesehen wird. Trotzdem gibt es seit dem Aufkommen von Ikea und co deutlich weniger Tischler.
Ich hoffe ja sehr, dass die Ai demnächst mal lernt, dass Hände 5 Finger haben und wo die hingehören. Das ist ja wirklich noch eine absolute Katastrophe. Was aber so an Portraits möglich ist, das ist der blanke Wahnsinn...Die Narbe im Gesicht? Per Hand rein gemalt oder mit dem richtigem Prompt (und negative Prompt) erstellt?
Ich habe mal noch ein par Bilder für unsere Warhammer-Runde gemacht, die wir onAir spielen:
(https://cdn.midjourney.com/3791c5bd-53f3-4a96-a847-736e269c052c/grid_0.png)
Aha.. Midjurny-Eigenheiten...Das ist halt super stark vom verwendeten Modell abhängig das man verwendet. Viele sind schon sehr auf das klassische "schön" getrimmt. Auch Google hat ehr Ergebnisse geliefert mit "Wie man Narben von den Bildern entfernt".
Aber ich habe mittlerweile auch schön deutliche Narbe(n). Die sind aber auch relativ "flüchtig"... bei mir scheint SD offenbar gerne mal Zeug aus Gesichtern zu entfernen, statt zu verteilen ;D
Das ist halt super stark vom verwendeten Modell abhängig das man verwendet. Viele sind schon sehr auf das klassische "schön" getrimmt.
Wobei "Modelle": Bekommt hier irgendwer https://civitai.com/models/2107/fkingscifiv2 (https://civitai.com/models/2107/fkingscifiv2) unter Stable Diffusion zum arbeiten? Ich ernte da immer nur Fehlermeldungen. :(
Ich habe in den letzten Wochen mithilfe der K.I. Midjourney eine Anzahl an möglichen Illustrationen für meine Myranor 5e-Produkte erstellt.
Da Ulisses momentan noch kein offizielles Statement zur Verwendung von K.I.-Kunst in ihren Gemeinschaftsinhalten herausgegeben hat, füge ich sie noch nicht in meine Produkte ein.
Aber ich will sie einfach mit euch teilen, daher habe ich die Bilder in eine Galerie auf meiner Projekt-Webseite geladen. Taucht ein in ein tolles Fantasy-Setting und bedient euch gerne für die nichtkommerziellen Verwendung in euren Runden :).
https://www.aventurien5e-fanconversion.de/myranor-5e-artwork/
Hast du das hier beachtet?
Be sure to grab to YAML file too, and place it in the same directory as the downloaded model. It must be named exactly the same, except for the extension, i.e, fking_scifi_v2.ckpt and fking_scifi_v2.yaml.
Der Zeitaufwand ist wirklich eine Frage der Herangehensweise. Ich habe in 4 Stunden 382 Bilder generiert von denen ich knapp 250 professionell verwenden kann/werde. Ich lasse mich aber auch gerne etwas auf die KI ein. Finde darin liegta cuh grundsätzlich der künstlerische Ansatz mit etwas "Zufallstechnik" ranzugehen und dann mal zu schauen, was draus wird und wo man hinlenken will, nachdem einem die Zügel entglitten sind oder man sie bewusst locker gelassen hat. Und ich arbeite gerne mit positiven Unfällen.
sehr cool. hände nachbearbeitet oder direkt so ausgespuckt?Die Coriolis Bilder sind nicht nachbearbeitet. Man sieht aber auch nicht viele Hände. Bei Midjourney sind Hände leider fast immer zum Nachbearbeiten.
Wer von euch generiert den lokal auf dem eigenen System?Ich habe Stable Diffusion lokal installiert. Mit ner 3060. Nicht die Stärkste Karte, daher nutze ich Parameter um das nicht zu einem VRam Problem werden zu lassen: set COMMANDLINE_ARGS= --opt-split-attention --precision full --no-half --medvram
Und welche Grafikkarte verwendet ihr dafür?
Wer von euch generiert den lokal auf dem eigenen System?3 lokale Installationen von Stable Diffusion (Win 10):
Und welche Grafikkarte verwendet ihr dafür?
Und welche Grafikkarte verwendet ihr dafür?
3 lokale Installationen von Stable Diffusion (Win 10):
- AMD Radeon RX580 8GB, verwendet jedoch CPU-Mode (10 min/Bild)
- Nvidia GeForce GTX 1060 6GB (10 sek/Bild)
- Nvidia GeForce RTX 2060 Super 8GB (5 sek/Bild)
Warum genau lässt du das System mit der Radeon im CPU Modus laufen?Weil der Installer, den ich verwendet hab, nur Nvidia Grafikkarten unterstützt. Ich weiß, dass es wohl auch möglich ist, AMD Grafikkarten mit SD zu benutzen, aber der Installer war der einzige mir bekannte, der sich komplett ohne Bastelei mit einem Klick installieren und starten ließ, auch wenn man keine Nvidia hatte. Also hauptsächlich eine Sache von Komfort vs. Zeit.
Und welche Grafikkarte verwendet ihr dafür?
"Früher" habe ich ganz gerne mal für nen Charakter bei Fiverr nen Bild beauftragt für meinen SC. Wenn man da ein wenig gesucht hat, hat man echt tolle für 25-50€ bekommen. Ich denke dass werde ich so schnell nicht nochmal machen....
jeweils erstellt mit Stable Diffusion UI v2.4.24:
"Früher" habe ich ganz gerne mal für nen Charakter bei Fiverr nen Bild beauftragt für meinen SC. Wenn man da ein wenig gesucht hat, hat man echt tolle für 25-50€ bekommen. Ich denke dass werde ich so schnell nicht nochmal machen....
jeweils erstellt mit Stable Diffusion UI v2.4.24:
Boxhandschuhe tricksen super die Handinkompetenz aus ^^. Schnieke
Heftig! Wie hast du denn solche Ergebnisse da rausgeholt? Ich hab das eben mal Spaßeshalber installiert. Und ich kriege da ... wenn überhaupt ... nur Bilder von Picasso raus ... ein Auge auf der Backe, das andere auf der Stirn ...
Bisher ist mein Eindruck, dass der negative prompt wichtiger ist, als der eigentliche prompt.
disfigured, kitsch, ugly, oversaturated, grain, low-res, deformed, blurry, bad anatomy, disfigured, poorly drawn face, mutation, mutated, extra limb, ugly, poorly drawn hands, missing limb, blurry, floating limbs, disconnected limbs, malformed hands, blur, out of focus, long neck, long body, ugly, disgusting, poorly drawn, childish, mutilated, mangled, old, surreal, text, blurry, b&w, monochrome, conjoined twins, multiple heads, extra legs, extra arms, faschon photos (collage:1.25), meme, deformed, elongated, twisted, fingers, strabismus, heterochromia, closed eyes, blurred, watermakred, wedding, group, watermarked, body out of frame, out of frame, water, sea, ocean, tree, boat, ship
Heftig! Wie hast du denn solche Ergebnisse da rausgeholt? Ich hab das eben mal Spaßeshalber installiert. Und ich kriege da ... wenn überhaupt ... nur Bilder von Picasso raus ... ein Auge auf der Backe, das andere auf der Stirn ...
Gibt es ja z.b. mit Contenders.
Ich bin ja gestern auf die Idee gekommen warum ich nicht ChatGPT meine prompts machen lasse, haben schon andere Leute versucht. Hat da schon jemand Erfahrung? Ist ja du logische nächste Schritt. Natürlich kennt ChatGPT nichts was neuer als 6 Monate ist, momentan
Ich hab auch ein bissl mit Midjourney gespielt und versucht ein paar brauchbare Bilder für Coriolis zu bekommenNice! :d
Gerade gefunden: eine Hilfe zum Generieren von Midjourney-Prompts
https://prompt.noonshot.com/
Damit ist es leichter noch kreativer zu sein.
Ich hab auch ein bissl mit Midjourney gespielt und versucht ein paar brauchbare Bilder für Coriolis zu bekommen:
Mein Herz schlägt nur für Comicstil! :dIst halt schwer da was zu finden. Habe mir für Tiny Frontiers echt einen abgebrochen was passendes zu finden. Realistischer, oder D&D bzw. Pathfinder Stil sind weniger ein Problem. Kann man natürlich auch für Tiny D6 Spiele oder Trouleshooters nutzen, aber ich finde Comicstil passt da einfach. Sollte ich doch noch für MJ zahlen, würde ich noch versuchen Strassenszenen für Troubleshooters generieren zu lassen. Habe ich bei dem ganzen wilden rumprobieren komplett vergessen. :-[
Bevor mein MJ Free Trial abgelaufen war konnte ich noch annehmbare Tiny Dungeon Salimar Bilder erstellen lassen.
Sollte ich doch noch für MJ zahlen, würde ich noch versuchen Strassenszenen für Troubleshooters generieren zu lassen. Habe ich bei dem ganzen wilden rumprobieren komplett vergessen. :-[
Nur das mit "Waffe & Schilde" will noch nicht so richtig. Hatte beim Zwerg extra angegeben, Axt rechts & Schild links. Naja.
Schick! Passt m.E. sehr gut zu Tiny Dungeons.Finde ich auch. Bei den Zwergen würde ich den Zweiten bevorzugen. Insgesamt habe ich aber noch viel mehr hier im Ordner.
...
Hast du nightcafe.studio/ (https://creator.nightcafe.studio/create) probiert? Da gibt es jeden Tag neue Credits nur fürs Anklicken.Ja. Habe es mit "Cartoon Goblin..." versucht. Grausig. Nightmare fuel. >;D
...äh... auf den Bildern hat der Zwerg doch die Axt in der rechten Hand und den Schild in der linken Hand. Vielleicht hat Midjourney dich sehr wohl gut verstanden ?Ist das eine Axt im ersten Bild? Ich kann es nicht sagen, da er die Waffe falsch herum hält. ;D
...Finde ich auch. Bekam doch recht schnell halbwegs vernünftiges geliefert. Das lockt dann natürlich schon. ;)
Von allen AI-Art Programmen dich mir vorher und hinterher angeguckt habe, gefällt mir Midjourney mit Abstand am Besten. Bestimmt werden andere Programme auch schnell besser werden. Aber derzeit scheint es mir fast das man um Midjourney nicht herum kommt wenn man gute Resultate möchte.
Cool!
Magst du uns die Prompts mitteilen?
Nochmal ordentlich mit den Prompts gespielt und huiuiui... Midjourney kann echt dazu gebracht werden, nahezu fotorealistische Portraits raus zu werfen...
[...]portrait of a 30-year-old space-pirate in futuristic environment, clear facial features, Cinematic, 35mm lens, f/1.8, accent lighting, global illumination
Und hier die selbe Eingabe bei Stable Diffusion:
---
Keine Ahnung, woher die KI das geholt hat, aber ich find's irgendwie witzig. ;D Aber insgesamt betrachtet, produziert Stable Diffuision ne Menge Mist, wenn man Personen abbilden möchte und die Beschreibung wird auch gerne mal "frei interpertiert". Landschaften kann man mit etwas herumspielen aber ganz brauchbare erzeugen. Vor allem jetzt, wo die Basisfunktion kostenlos geworden ist. Da kann man ganz entspannt rumprobieren.
Die Sache ist StableDiffusion sagt erst mal gar nix mehr aus und ist nur die Technik wie die Netze erstellt wurden.
Okay, dann sollte ich korrekter sagen: Ich arbeite mit dem Webinterface von Nightcafe.studio und nutze darüber Stable Diffusion.
qt.qpa.plugin: Could not load the Qt platform plugin "xcb" in "/run/media/operator/lvol-VM/stable-diffusion-ui/stable-diffusion/env/lib/python3.8/site-packages/cv2/qt/plugins" even though it was found.
This application failed to start because no Qt platform plugin could be initialized. Reinstalling the application may fix this problem.
Available platform plugins are: xcb, eglfs, linuxfb, minimal, minimalegl, offscreen, vnc, wayland-egl, wayland, wayland-xcomposite-egl, wayland-xcomposite-glx.
Keine Ahnung was ich davon halten soll. Kann er nun "xcb" nicht finden oder ist "xcb" nun 'available'?
Ich habe in einem Artikel mal zusammengefasst, was notwendig ist um einen Konsistenten Charakter zu generieren mit Midjourney. Anhand eines Zwergen Magiers.
Ich hoffe meine Tipps helfen euch, gute Charakter Fotos eurer Helden zu generieren :headbang:
Das ist ja mein alter Rollenspiel-Händler in Gewandung. :o
Okay, der hatte keine 6 Finger an der linken Hand, aber sonst kommt es ziemlich genau hin. ;D
Und richtige Hände!
stellenweise... ~;D
Die Gesichtsanpassung finde ich jetzt nicht so toll
"Mit Schmuddelkram"? :o Mit Stable Diffusion?Es gibt im Netz diverse Datasets die auch Schmuddelkram von variierender Explizität zulassen. Die meisten muss man aber selbst lokal laufen lassen, was ich mir mangels Nvidia-Karte nur ungern antue.
Wenn ein Mod das Okay gibt, kann ich aber auch expliziteres als Beispiel einfügen, gerne mit Wunschprompt.
Schon viel besser und stimmiger.
Besser? 8]
Ja.
Stable Inpainting regelt das:
...
Das sieht tatsächlich erstaunlich brauchbar aus (auf jeden Fall springt hier nicht das "ich bin KI-generiert" auf den ersten Blick an).Ja, ich finde das Ergebnis auch richtig toll!
@Doc-Byte
Mal frech gefragt: Würdest Du als Tanelorn-Ehrenamt oder gegen kleines Geld (wegen mehr Verbindlichkeit, denn der Spruch "was nichts kostet ist nichts wert" stimmt nach meiner Erfahrung leider) mal ein How-To-Stable-Diffusion-Webinar anbieten? So ein Wochenend-Vormittag vielleicht? ^-^
Besser wirds nicht... :-\Das ist aber schon eine masdive Verbesserung gegenüber dem Original.
(https://images.nightcafe.studio/jobs/O7hW3QwsRovIgphc6lKC/O7hW3QwsRovIgphc6lKC--1--jhh17.jpg)
Was ist dieses Stable Inpainting?
Also, um ehrlich zu sein stümper ich eigentlich auch nur so vor mich hin.Die Ergebnisse, die Du so zeigst, sehen richtig gut aus. Du kannst die Idee ja sanft in Deinem Herzen bewegen. ;D Es eilt ja nicht.
Mehr digital art als Pinsel, aber von dem selben Prompt inspiriert. ^-^
Das ist aber schon eine masdive Verbesserung gegenüber dem Original.
Was ist dieses Stable Inpainting?
SDXL ist aner noch ziemlich Beta.
Die Ergebnisse, die Du so zeigst, sehen richtig gut aus.
Du kannst die Idee ja sanft in Deinem Herzen bewegen. ;D Es eilt ja nicht.
Hab mal Shih Chans Prompts durch SDXL 0.9 gejagt und diese 2 Bilder erzeugt.
(https://i.ibb.co/Y0QK3b2/2g-Ctd-Ub-Jy5-T9e-DTtbcu-C-1-gfoqo.jpg) (https://ibb.co/bbmyP71)
Epic Fail das erste. Es sieht aus, als würde die Dame sich unter der Rüstung an die Brüste fassen. Und auch die Ohren. Na ja.
(https://i.ibb.co/7pKP846/PNNmlydf-UJi7qe-PF5yt-L-1-mivnb.jpg) (https://ibb.co/Zgx5tmk)
Schon viel besser und stimmiger.
Mal dumm gefragt: Welche Schablonen sind da erkennbar ? Also zb bei den gemalt aussehenden Körper- Elfenbildern die jemand postete : Sind das sich wiederholende Grundkörper/ Posen und sind die Details wie Schmuck auch vorgefertigt ? Kann man Details einzeln raussuchen ? Kann man sie komerziel verwenden ?. Es gab ja vorher auch schon Bildprogramme. Da konnte man zb. einen 3-D Standartkörper raussuchen, verformen, dan Haut dazu, dan Gegenstände dazu. Das ganze perspektivisch Drehbar. Ebenso sind auch Landschaften mit anderen eigenen Programmen erstellbar. Diese Programme gibt es in älteren Versionen sogar teils kostenlos. Ganz aktuell kosten neue Versionen von einem manchmal über 1000 Euro. Die Namen sind mir grad entfallen, ich habe sie aber in einem Buch. Glaube " Vue (d' ) Esprit" war eines davon.
Danke der Antwort. Ich kann das im Moment nicht ausprobieren. Ist da auch ein "3- D-Effekt" wie in den von mir genannten " Modelierprogrammen " oder kann das Programm nur eine vorher eingegebene Position einer Figur wiederholen und dan nur Details modifizieren ?. Und zb die Ornamente, erfindet es die auch neu oder sind die ein Standart ?Es kann erfinden was es will sofern es im Training gelernt hat wie ein Mensch auszusehen hat. Wie eine Halskette aussieht. Was Barfuß oder Schuhe bedeutet..
Bei farbigen oder gerenderten Bildern nehmen die sich alle wenig, willst du aber schwarz-weiss Zeichnungen, bist du imo mit Midjourney am besten bedient (keine Werbung, meine Erfahrung, bei den anderen die ich getestet habe, kamen nie so tolle Ergebnisse raus).Kann ich so bestätigen.
Schau mal hier, wie Du die Bilder noch zugänglicher machen (https://www.tanelorn.net/index.php/topic,117342.msg134938961.html#msg134938961) kannst.
Super, vielen Dank! :dGerne!
Hab's angepasst.
Ich empfehle (wenn es nicht gerade überlastet ist), den Bing Image creator zu testen.
Können die AI Art Generatoren eigentlich auch normale Frauen malen oder gehen nur diese Püppchen?
Können die AI Art Generatoren eigentlich auch normale Frauen malen oder gehen nur diese Püppchen?Das Problem ist, dass die Mehrheit der verfügbaren Darstellungen zum Lernen eben diese "Püppchen" zeigen - insbesondere, wenn's in den Fantasy-Bereich geht.
Können die AI Art Generatoren eigentlich auch normale Frauen malen oder gehen nur diese Püppchen?Find ich bisher schwierig, aber bei dieser Ork-Dame ist es, so finde ich, gelungen:
Das System reagiert super sensitiv auf jedwede Namen und blockiert da extrem schnellVor ein paar Tagen ging da noch was, aber jetzt nicht mehr. Die arbeiten da wohl kontinuierlich dran.
(und ja, da ist wieder ein Finger zuviel).Finger zuviel? Versuche mal bei www.clipdrop.co das Tool "Cleanup" (https://clipdrop.co/cleanup). Hautunreinheiten und ganze Personen lassen sich damit super aus Fotos entfernen, vielleicht kriegt es auch Finger weg...
Finger zuviel? Versuche mal bei www.clipdrop.co das Tool "Cleanup" (https://clipdrop.co/cleanup). Hautunreinheiten und ganze Personen lassen sich damit super aus Fotos entfernen, vielleicht kriegt es auch Finger weg...Danke für den Tipp, aber nein, kriegt das Tool nicht weg (also nicht so, dass es dann wieder amputiert aussieht). Muss ich "von Hand" machen, falls ich das Bild brauche.
Ich hatte auch die besten Ergebnisse mit Artflow.ai - hier mal zwei Beispiele.
(https://www.tanelorn.net/index.php?action=dlattach;topic=123321.0;attach=35112)
Für mich ist das für eine computertechnisches Experiment zwar ziemlich gut. In Bezug auf Rollenspielgestaltung ist das aber Murks und ich würde kein Geld für ein Rollenspielwerk ausgeben, in dem solche Bilder verwendete würden. Und es würde mich ärgern, wenn ich Geld ausgegeben hätte und fände im Buch dann Bilder in dieser Qualität.
. Aber für Hobbyprodukte finde ich das völlig in Ordnung, und für die heimische Kampagne ist es m.E. eine tolle Möglichkeit, Charakterporträts und Szenen zu erzeugen und nicht mehr darauf angewiesen zu sein, im Internet nach Sachen zu suchen, die dann oft doch nur halb passen.Das ist auch so ziemlich der Anwendungsfall, den ich sinnvoll finde :d Aber auch da gilt aus Erfahrung: je konkreter die Eigene Idee ist und je weiter weg von der Norm (Beispiel: Futuristische Bodenpläne. Raumschiffe, die auch vernünftig aussehen und nicht wie Escher-Giger-Chimären, Illus für viktorianische Spielwelten uvm) desto weniger kommen auch die Generatoren damit klar.
Hier im Thread geht's für mich aber ohnehin in erster Linie um Spaß an der Technik und Experimente, was mit den aktuellen Tools so möglich ist.Also der Threadtitel ist Artwork für Rollenspiel Produkte - und mein Einwurf oben bezieht sich genau darauf ;)
Richtig gut nach Maßstäben eines menschlichen Künstlers ist es in den meisten Fällen nicht (auch wenn der Abstand sich seit den Anfängen bereits merklich reduziert hat).
Also der Threadtitel ist Artwork für Rollenspiel Produkte - und mein Einwurf oben bezieht sich genau darauf ;)
Dabei verteidige ich hier weder die eine noch die andere Seite oder spiele sie gegeneinander aus, ich habe eben nur von beiden Seiten viele Ergebnisse präsentiert bekommen, die hochwertig und gleichwertig waren - und natürlich auch das Gegenteil.
Aber kann ein Buch jemals wirklich fertig sein?
Mein Eindruck ist: was die KI-Bildgeneratoren mittlerweile rausschmeißen sieht besser aus als manche Amateurarbeiten, die ich gesehen habe, und viel besser als alles, was ich selber produzieren könnte.
Mein Eindruck ist: was die KI-Bildgeneratoren mittlerweile rausschmeißen sieht besser aus als manche Amateurarbeiten, die ich gesehen habe, und viel besser als alles, was ich selber produzieren könnte.
Klar ist es besser als das, was ich selbst zusammenstümpern könnte, aber das ist ja quasi nirgends der Maßstab, wofür ich Geld ausgeben will/soll.
Wobei das ja eher ein Anwenderfehler ist, so was nicht neu zu machen, aber egal wie ist es einfach schlampig, wenn das im Endprodukt landet.
Bing ist schon ziemlich gut, leider auch EXTREM zensiert. Da bin ich auch schon mit dem Versuch Kim Possible gegen Shego kämpfen zu lassen in einen Filter gelaufen.
PS: Mit Gruppenbildern haben übrigens mEn alle KIs derzeit noch Probleme, aber auch da hab ich die bisher besten Ergebnisse mit Artflow erzielt.Habe bisher mit Gruppenbildern nicht viel experimentiert, aber bei meinem Versuch hatte ich Probleme die richtigen Attribute zu der entsprechenden Figur zu bekommen.
Verwende jetzt Stable Diffusion XL 1.0Das fand ich auch nicht schlecht. Der Vorteil bei SD ist, dass man es auch Lokal auf'm PC laufen lassen kann und dort dann per Inpainting kleinere Details verändern kann oder per Outpainting das Bild erweiter können soll (das habe ich aber selber noch nicht gemacht).
Ist das Sandra Bullock? :think:
Die Auflösung von Bing ist da aber nicht so spannend.
Top, da kann ich n Haken dran machen. ^^
Okay, die Quali der Bilder an sich ist schon echt beeindruckend. Schade, dass bei den Prompts auch Dall-E so festgefahren ist wie die anderen Engines auch. Neandertaler ohne Fellklamotten gibt es da offenbar genausowenig wie Gnome ohne Zipfelmütze in anderen Modellen.
Frage zu dem Krokofanten -- holy fuck ist das ein riesen Gerät, soll der so groß sein? ;D
Edit: Das könnte ein "enlarged Croc" sein, das würde passen. ;D
Hatte ich eben erst in meinem Post ergänzt: Ja, das Ergebnis im Bild ist eher "huge", aber eigentlich soll der Croc nur "large" sein. Aber auch Meterangaben kriegt DALL:E noch nicht hin: Ich hatte es versucht mit "2-Meter-großes Krokodil" usw. - kein Erfolg. DALL:E hat sich bei dem Krokodil auf "huge" und teils noch größer eingeschossen, und keine Promptergänzung bringt DALL:E davon ab. :(
Das Problem mit der künstlichen Intelligenz scheint zu sein, selbst die Intelligenz aufzubringen, sie richtig anzusprechen. ~;DIch bin gerade dabei, den Fleischgolem (oder auch Aasgolem) aus meinem System, der sich wortwörtlich aus Teilen seiner besiegten Feinde zusammensetzt, zu "hacken": "Fleischreste" oder ähnliches lösen in der Anwendung eine Sperre aus, aber wenn ich im Prompt konkret werde (Rückenfilet, Steak...) dann scheint es zu klappen. "Schädel" als Begriff wird seltsamerweise manchmal akzeptiert, manchmal nicht.
genausowenig wie Gnome ohne Zipfelmütze in anderen Modellen.Das liegt wohl daran, dass das Wort "Gnome" im Englischen nunmal primär den Gartenzwerg bezeichnet. Insofern kann man der KI keinen Vorwurf machen, wenn sie nicht weiß, dass es hier mal eine andere Bedeutung haben soll. ;)
Ich bin gerade dabei, den Fleischgolem (oder auch Aasgolem) aus meinem System, der sich wortwörtlich aus Teilen seiner besiegten Feinde zusammensetzt, zu "hacken": "Fleischreste" oder ähnliches lösen in der Anwendung eine Sperre aus, aber wenn ich im Prompt konkret werde (Rückenfilet, Steak...) dann scheint es zu klappen. "Schädel" als Begriff wird seltsamerweise manchmal akzeptiert, manchmal nicht."Ghul" ist bei Midjourney offenbar auch gesperrt - ich hab zwar keine Ahnung, warum, aber ist so. So ganz logisch sind die Sperren nicht.
Ich bin gerade dabei, den Fleischgolem (oder auch Aasgolem) aus meinem System, der sich wortwörtlich aus Teilen seiner besiegten Feinde zusammensetzt, zu "hacken": "Fleischreste" oder ähnliches lösen in der Anwendung eine Sperre aus, aber wenn ich im Prompt konkret werde (Rückenfilet, Steak...) dann scheint es zu klappen. "Schädel" als Begriff wird seltsamerweise manchmal akzeptiert, manchmal nicht.
Was den Krokodeiser betrifft: schon "human-sized" versucht? Mit relativen Größen tun sich die KIs meistens leichter, auch wenn man immer noch viel Ausschuss produziert.Der Trick hat leider nicht geklappt.
Hey, wie hast du den Urelben hingekriegt? Der sieht ja krass gut aus.Der Prompt hier lautete (https://www.bing.com/images/create): "Eine Mischung aus einem Elben-Bogenschützen und einem dünnen Alien mit langen Haaren und grünlicher Haut, in Lederrüstung, der aufmerksam durch das Dickicht von Blättern tropischer Pflanzen blickt. 15mm, photorealistisch, Perspektive von oben."
Ich zeige jetzt mal nicht, was SD ohne Lederrüstung anrichtet. 8] :o >;D ~;D Denn das wäre bereits stark NSFW und nicht jugendfrei.
Glaub, was mich an den sogenannten "photorealistischen" CGIs stört, ist dass sie halt mitnichten photorealistisch sind, sondern man immer noch auf den ersten Blick sieht, dass es CGI ist. Klar, könnte auch ein Mensch mit Grafiktablet gemacht haben -- aber es ist und bleibt halt offensichtlich eine Computergrafik.
Selbst damit überschätzt du meine Möglichkeiten, ich hab echt absolut keine Ahnung wie das geht. ;D
--
Zu den Akrylbildern -- da habe ich tatsächlich auf einer alten Platte die selbstgemalten Bilder eines damaligen Mitspielers gefunden, allerdings habe ich die wohl im Geiste etwas verklärt. Sie sind schon nach wie vor gut und vor allem besser als alles, was ich selber je malen könnte, aber nun doch nicht so dass ich behaupten würde "KI könnte das nicht". Sehet selbst:
(https://www.tanelorn.net/index.php?action=dlattach;topic=123321.0;attach=35421)(https://www.tanelorn.net/index.php?action=dlattach;topic=123321.0;attach=35423)(https://www.tanelorn.net/index.php?action=dlattach;topic=123321.0;attach=35425)
Weiss nicht wo die KI diese Vorstellung vom menschlichen Alterungsprozess her hat.
Versuchs mal beim Helm mit Sallet. Open helmet geht auch nicht?
Und mit etwas Übung bekommt man wohl auch bessere Resultate bei Einzelbildern:(Klicke zum Anzeigen/Verstecken)
LOOL...
Dieses Bild hier hat mich gleich mehrere Tage lang beschäftigt (obwohl es eh schon auf einem älteren Bild basiert):
Wie kann das sein, dass eine größere Versionsnummer einen derartigen Rückschritt bei den Resultaten bewirkt? :o
Was hat denn genau mehrere Tage gedauert?
oder ohne Bewaffnung, aber wahrscheinlich zu hochgewachsen:
Ach, ich finde, die kommt schon zwergisch rüber.
Mach einfach das ganze Bild 20% kleiner! ;)
Waffe mit zwei montierten Kleinschilden ist aber auch schräg.
So ungefähr im 10 Versuch kam dann das hier raus, bisher noch das beste -- das Schaufeldings da ist SDs Vorstellung von einer Streitaxt.
Bezüglich Größenangaben, wie sieht es mit inch, feet oder yards aus? Sind doch bestimmt alles amerikanische Programme. Vielleicht kommen die mit ihren Maßen besser klar.
Hab mkal Feuersängers Prompt genommen, angepasst, dass der so aussieht: Image of a female black-skinned dwarf, about 150cm tall, stocky build, big head, brown skin, brown straight hair in thick braids, thick arms, big chest, wearing heavy armour. Confident and proud expression, photorealistic und das bei Bing durchgelassen. [...]
Wieso haben die Personen auf den Bildern eigentlich so häufig rote oder gerötete Nasen?
Der Zwerg, die dunkelhäutigen Damen, nur die Schildkröte blieb verschont.
Die schielt nicht. Aber man muss stark reinzoomen, damit man das sieht.
(https://www.tanelorn.net/index.php?action=dlattach;topic=123321.0;attach=35715)Was hier schade ist, dass das rechte Ohr vom Hautton überhaupt nicht zum Rest des Gesichtes passt.
Was hier schade ist, dass das rechte Ohr vom Hautton überhaupt nicht zum Rest des Gesichtes passt.Naja, hoher Wiedererkenungswert... und ich bin gespannt welche Erklärung sie für das Ohr hat. (Falls es ihr genehm ist darüber zu sprechen... )
@GuntharWas ist denn eine Elfensträhne? Und in welchem Setting lassen körpergebundene Kräfte keine solche Frisuren zu?
Das ist in der Tat schade, aber da ich sowieso abzeichnen wollte und ein wenig etwas ändern (Körpergebundene Kraft lässt solche Frisuren nicht zu und die bekannte Elfensträhne fehlt auch) ist es jetzt nicht ganz so dramatisch.
Hab mal versucht, Strähnen zu erzeugen:
Prompt: Green-skinned female elf with short pointy ears and with long black hair and a silvery strand at the front scalp standing in a forest. photorealistic
Interessant was die KI unter "SHORT pointy ears" versteht. ;)Was glaubst du, wie ich mich an dem Detail dauernd aufregen muss, weil einfach das SHORT geflissentlich ignoriert wird. Gut, diese Ohren sind short, wenn man zum Vergleich die Ohren von Nachtelfen in World of Warcraft anschaut.
@GuntharDanke für die Erklärung der "körpergebundenen Kraft". Da hatte ich jetzt eher was im Bereich Chi-Kraft oder Körperaugmentationen vermutet.
Bei DSA haben Halbelfen oft eine Strähne in ihrem Haar, das auf den elfischen Elternteil hinweist. Sie ist besonders seidig und auch in der Haarfarbe des elfischen Elternteils.
Und Körpergebundene Kraft bedeutet, dass es schwierig bis unmöglich wird zu zaubern.
Back to topic:
Und deswegen mache ich mir nicht so viele Sorgen, dass KI kreative Bereiche "übernimmt".
Sobald der Held, aus welchem Grunde auch immer, einen Teil seiner Haarpracht einbüßt (z. B. durch Abschneiden, Feuer etc.; unabhängig von der Länge), verliert er sofort 10 Astralpunkte (bis zu einem Minimum von 0). Diese können normal regeneriert werden. Der normale menschliche Haarverlust zählt nicht als Verlust der Haarpracht.
Bin von Midjourney auf die Bing KI gewechselt, nicht nur weil sie umsonst ist, sondern weil sie schwarz-weiss Bilder im 70/80er Jahre Stil für meinen Geschmack besser macht.Nur kurz: Die Linienführung ist zwar anders als bei einem Menschen, denke ich, aber sonst ist das richtig geile Lineart. Muss ich auch mal mit Bing machen.
Bei DSA haben Halbelfen oft eine Strähne in ihrem Haar, das auf den elfischen Elternteil hinweist. Sie ist besonders seidig und auch in der Haarfarbe des elfischen Elternteils.Wann wurde das denn eingeführt? Das hab ich gar nicht mitbekommen.
Wann wurde das denn eingeführt? Das hab ich gar nicht mitbekommen.
mal als Anhang für Feuersänger
Wobei ich die ganzen letzten Bilder die du gepostet hast wirklich fantastisch finde. Aber klar, wenn da nicht das raus kommt was man eigentlich wollte nervt das.
Hey, nicht schlecht. ^^ Der Hut ist vllt eine Nummer zu klein? Aber insgesamt, der Detailgrad, schon chic.OK. Ich habe mal versucht, bei Bing was vergleichbares zu erstellen. Nur ist das Amulett jeweils einen Tacken zu gross geworden.
--
Ich plage mich mit meinen Anfängerprompts im Anfängermodell (SDXL) immer noch mit Anfängerproblemen. Zum einen die Elfenohren: entweder riesig, abstehend und viel zu lang, oder der Prompt wird komplett ignoriert. Und zweitens die Augenfarbe vs Kleiderfarbe.
Daher: fühle sich jemand berufen, mir hier weiterzuhelfen?
kann mir da jemand mit Inpainting der jungen Dame _dezente_ Elfenohren verpassen, also einfach an den Lauscher wie er jetzt ist oben eine dezente Spitze anflanschen?
Und idealerweise in einer zweiten Version die Augenfarbe etwas mehr ins grau-grüne, weiss noch nicht was ihr besser stehen würde. ^^
Also nur falls sich jemand daran austoben mag, sonst bemühe ich einfach weiter den Zufallsgenerator. ;D
Vermutlich weil man da noch Sachen erstellen kann ohne direkt ordentlich Kohle abdrücken zu müssen.So wie ich das Angebot von open.ai (https://openart.ai/discovery) verstehe, kriegt man in der free-Version nur einmal 50 "trial credits" und dann ist Schluss mit kostenlos...
Warum hast Du Dich für https://openart.ai/discovery entschieden, und nicht für midjourney oder dall:e oder "Stable Diffusion lokal"? Wenn ich fragen darf... ^-^
So wie ich das Angebot von open.ai (https://openart.ai/discovery) verstehe, kriegt man in der free-Version nur einmal 50 "trial credits" und dann ist Schluss mit kostenlos...
Die Bilder oben sehen schon gut aus. Kann man für Halblinge oder Elfen benutzen.
Wenn nur nicht immer die roten Nasen wären!Und Ohren.
Lokale Installation? Klingt nach Arbeit. ;DNaja, wenn die Hardware-Vorrausetzungen erfüllt sind eher nicht:
Ich habe festgestellt, man ist mit den Ergebnissen umso eher happy, mit je weniger vorgefassten Erwartungen man rangegangen ist. Das war bei den 4 zuvor geposteten Bildern zB der Fall, dass ich einfach recht grobe Ideen als Prompts eingegeben habe, und dann justiert man vielleicht noch ein wenig nach und dann hat man was Schönes. Wenn man jedoch bereits recht genaue Vorstellungen im Kopf hat, ist es schwierig das der KI begreiflich zu machen. Wenn das Mistding schon bei Ohrenform und Augenfarbe partout nicht gehorchen will. ;D
Naja, wenn die Hardware-Vorrausetzungen erfüllt sind eher nicht:
https://github.com/easydiffusion/easydiffusion?tab=readme-ov-file#installation
Wenn du möchtest, dann schick mir beide, Feuersänger und ich transferiere die Ohren ;)
Und die Bilder sind halt nur 1024x1024, ich hab also auch keine bessere Quali rumliegen als was da angezeigt wird. ^^
Danke für den Tip. Habs mal installiert, ging bis dahin wirklich recht einfach -- aber das mitgelieferte Modell ist kompletter Müll. Da hat er jetzt für ein einziges Bild fast drei Minuten rumgerödelt und am Ende kam Kindergartengekrakel heraus. Ziehe gerade ein anderes Modell aber das dauert noch bis es da ist.
Ich hab auch jetzt eigentlich keinen Robotron-Rechner aber da ist Openart auch im Allgemeinen schneller.
Als negativ Promt nutzte ich aktuell nahezu immer den hier:Damit gab es dann auch die ersten vernünftigen Bilder... Ich kann mir vorstellen dass bei den Angeboten im Web solch ein negativer Prompt schon im Hintergrund mitgenutzt wird.
disfigured, kitsch, ugly, oversaturated, grain, low-res, deformed, blurry, bad anatomy, disfigured, poorly drawn face, mutation, mutated, extra limb, ugly, poorly drawn hands, missing limb, blurry, floating limbs, disconnected limbs, malformed hands, blur, out of focus, long neck, long body, ugly, disgusting, poorly drawn, childish, mutilated, mangled, old, surreal, text, blurry, b&w, monochrome, conjoined twins, multiple heads, extra legs, extra arms, faschon photos (collage:1.25), meme, deformed, elongated, twisted, fingers, strabismus, heterochromia, closed eyes, blurred, watermakred, wedding, group
Wie nahe kommt das hier an die Luchsdame:
Wie ist denn da die korrekte Maßeinheit für "Nähe"? ;) Mit normalen Einheiten lässt sich das ja gar nicht ausdrücken... so ungefähr 2-7 Universen entfernt?Challenge accepted. ;)(Klicke zum Anzeigen/Verstecken)
Challenge accepted. ;)
(https://www.tanelorn.net/index.php?action=dlattach;topic=123321.0;attach=35864)
@Feuersänger Ah, so ist das. Das liest sich so nicht aus den Infos (https://openart.ai/home)raus, macht openart.ai aber natürlich sehr interessant. Danke für den Hinweis!
Öhm, in den negative Prompts sollte man eigentlich eintragen, was _nicht_ dargestellt werden soll... wird freilich notorisch ignoriert, aber wenn man in Prompts und Neg-Prompts das gleiche eingibt, sollte eigentlich streng genommen gar nichts gemalt werden. >;D
Warum ist die Dame aber stärker geschminkt als ein Maybelline Model ?
In meiner Erfahrung sind spezifische funktionale Gegenstände (Hauptbeispiel "Waffen") für praktisch alle generativen Bild-AIs tatsächlich noch schwierig. In deinem speziellen Fall suchst du vermutlich aber einen "Combat Suit" und keine "Combat Suite" :) Wenn ich das bei playground eingebe, bekomme ich problemlos direkt Cyberpunk-Frauen in Kampfanzügen bei playground (ohne das jetzt extensiv getestet zu haben oder bisher irgendwas mit playground am Hut gehabt zu haben).
Ner Künstlerin gebe ich diese Vorstellungen und bekomme dann definitiv was, was in die Nähe meiner Vorstellungen kommt.
Ob rote Frostnasen bei Firnelfen legitim sind? :think:
Klar, das ist ja auch Konsens. Genau wie halt jeder für sich entscheiden muss, ob er jetzt für ein privates Freizeitvergnügen so um die 80€ rausklatscht -- für die Illu eines einzigen Charakters wohlgemerkt, von denen man vermutlich einen ganzen Stall voll hat -- oder ob man sich halt doch mit etwas beschneidet, was den eigenen Vorstellungen nur so sagen wir 80% entspricht aber dafür pro Bild ungefähr 80€ billiger ist.
Natürlich bitter, wenn die eigenen Vorstellungen so speziell sind, dass die KI ihr nicht zu 80% sondern womöglich<50% nahekommt. :/
Sehr ärgerlich. Was mach ich jetzt?
Ahja danke, werd ich mir auch mal anschauen. Womit verdient man denn da Credits?
Habe mir vorhin mal Stable Diffusion installiert und ein paar Versuche gemacht. Und ich muss sagen, bisher bin ich noch ziemlich underwhelmed. Rät jemand, was das hier für ein Prompt gewesen sein könnte? ;D
(https://www.tanelorn.net/index.php?action=dlattach;topic=123321.0;attach=35885)
Meine Versuche, da eine Firnelfin hinzukriegen:
Auch hier wieder die Macke mit roten Backen, Nasen und Ohren. Und die Augenbrauen sehen zu nadelig aus, sind aber wenigstens weiss.
(https://www.tanelorn.net/index.php?action=dlattach;topic=123321.0;attach=35875)
Ettin?
Klar, das ist ja auch Konsens. Genau wie halt jeder für sich entscheiden muss, ob er jetzt für ein privates Freizeitvergnügen so um die 80€ rausklatscht -- für die Illu eines einzigen Charakters wohlgemerkt, von denen man vermutlich einen ganzen Stall voll hat -- oder ob man sich halt doch mit etwas bescheidet, was den eigenen Vorstellungen nur so sagen wir 80% entspricht aber dafür pro Bild ungefähr 80€ billiger ist.
Schicker als der seelenlose CGI-Kram..... ist das nicht buchstäblich CGI-Kram? Ich muss da immer an die Aussage von Del Toro zu CGI in Pacific Rim denken, dass Leute darunter quasi verstehen "a computer did it" obwohl die unheimlich viel Arbeit von Designern und Animateuren drin steckt. Das hier ist quasi mehr CGI als "CGI".
.... ist das nicht buchstäblich CGI-Kram? Ich muss da immer an die Aussage von Del Toro zu CGI in Pacific Rim denken, dass Leute darunter quasi verstehen "a computer did it" obwohl die unheimlich viel Arbeit von Designern und Animateuren drin steckt. Das hier ist quasi mehr CGI als "CGI".
Schicker als der seelenlose CGI-Kram.
Das Ergebnis hängt halt stark davon ab, welche Parameter man eingibt:
Also quasi alles was so pseudo-photorealistisch ist/sein will.
Das Ergebnis hängt halt stark davon ab, welche Parameter man eingibt:(Klicke zum Anzeigen/Verstecken)
(https://images.nightcafe.studio/jobs/4FyWcHl5SDrCns68RQaU/4FyWcHl5SDrCns68RQaU--1--kju16.jpg)Schieb mal bitte den Prompt rüber. Sowas ähnliches brauch ich in nächster Zeit für ein PF1/Starfinder 1 Crossover.
Gnolle... ::)
Schieb mal bitte den Prompt rüber. Sowas ähnliches brauch ich in nächster Zeit für ein PF1/Starfinder 1 Crossover.
close portrait of a femal elf in an armored combat suit walking down a downtown city street pointing a gun at the camera black and white ink painting cyberpunk sience fiction shadowrun concept art movie poster hyperrealism matte painting digital art digital illustration bokeh depth of field HDR
cyberpunk sience fiction fantasy concept art movie poster hyperrealism matte painting digital art digital illustration 8K resolution bokeh HDR anime comic art comic book (optional, lasse ich meistens weg: perfect smooth)
Heute sitze ich wieder an meiner nivesischen Halbelfe und es ist zum heulen. Endlich habe ich Einzelne Komponenten zusammen, aber: auch hier pfundsweise eyeliner und Lidschatten und Maskara drauf. Argh.
Ich hab mir mal erlaubt, dein erstes Bild als Ausgangsbasis in SD zu laden:
(https://images.nightcafe.studio/jobs/dMu0oTfZAhnwJcmHc0ho/dMu0oTfZAhnwJcmHc0ho--1--723wa.jpg)
Wie macht ihr das eigentlich dass die Bilder direkt im Post angezeigt werden?
Ich frag mich ja schon, wieso bei dir sowas rauskommt und bei mir nur absoluter Rotz, der nicht mal in der Lage ist, einfachste Anweisungen aus der Beschreibung umzusetzen (Person X vor Gebäude Y zeichnet nur das Gebäude, hanebüchene Logikfehler wie Verschmelzung von Gebäude und Person, Zähne auf der Zunge etc.).
Skaliert sich SD nach Qualität der Grafikkarte (die ist bei mir zugegeben ziemlich scheiße)?
Hab mich gerade an SD gesetzt und joa...war besonders. Hatte auf diesselbe schöne Optik wie bei Doc- Byte gehofft, aber das war, egal ob ich Barock oder was anderes gewählt habe immer der selbe Stil. Von Artflow fange ich erst gar nicht an.
Die Bilder müssen dafür auf einem Server liegen (per Filehoster oder direkt beim Betreiber des Bildergenerators) und dann kann man den Link mit (img)URL(/img) einbinden. - Natürlich mit eckigen Klammern, die runden stehen da nur, damit das im Post angezeigt wird. Alternativ kann man den Link auch in den Post einfügen, markieren und dann oben auf "Bild einfügen" klicken.Hmja, das ist ein Weg. Der ist komplizierter als der andere Weg, spart dem Tanelornforum aber Speicherplatz. Beide Wege habe ich hier unter 3) beschrieben. (https://www.tanelorn.net/index.php/topic,117342.msg134938961.html#msg134938961)
Ich weiß nicht, welche Version und welches Model du verwendest. Die Vorläuferversionen von SDXL, besonders die 1.x Versionen und darunter, waren echt schlecht. 2.1 war schon recht gut, wurde bei Nightcafe aber wieder abgeschafft. 1.7(?) mit "DreamShaper v8" ist aber ganz okay und vor allem kostenlos. Teilweise erstelle ich Bilder auch mit SDXL und Inpainte dann mit DreamShaper weiter. Und wenn das Ergebnis passt, lasse ich es manchmal mit dem gleichen Seed und einer niedrigen Einstellung bei der Abeichung noch mal durch SDXL laufen.
Lokal habe ich Stabe Diffusion bisher noch gar nicht ausprobiert.
Der einzige Grund, warum ich Stable Diffusion genommen habe, ist gerade, dass es kostenlos und lokal läuft... ;D
Im Splittermond-Forum wurde eine Fan-Spielhilfe und die zugehörige Kampagne mit Hilfe von KI bebildert. Da sind – teils mit ein bisschen Bildbearbeitung in Handarbeit, teils mit Überarbeitung durch weitere KI-Durchgänge, teils auch durch Kombination verschiedener KIs - einige sehr gelungene Bilder von Charakteren, Landschaften und Tieren entstanden, wie z.B. diese hier:
(https://images.nightcafe.studio/jobs/b4qvxifiv7cio77vDlhE/b4qvxifiv7cio77vDlhE--1--mpnak.jpg?tr=w-1600,c-at_max)
Hier findet ihr das fertige Produkt und eine Galerie der Porträts: https://splitterwiki.de/wiki/Lugiens_Grab_(Abenteuer) (https://splitterwiki.de/wiki/Lugiens_Grab_(Abenteuer))
Hier könnt ihr den Entstehungsprozess der Bilder nachverfolgen: https://forum.splittermond.de/index.php?topic=7909.0 Vielleicht sind da ja auch für euch ein paar Anregungen, Ideen und Tipps zu finden.
Also ich verstehe nicht, was an diesen Gebäuden jetzt seltsam sein soll. Ich kenne genügend echte mittelalterliche Gebäude, die genau diese Optik haben. Fenster sind in der Vormoderne nun mal nicht so gängig wie heutzutage.Ohne Fensterglas machen Fenster nunmal nur bedingt Sinn. ;) Bei Wehranlagen spart man sich Fenster auch gerne dort, wo eh kein Feind unter Beschuss zu nehmen ist.
Das ist ein bisschen wie bei ChatGPT: Am Output von generativen KIs werden Dinge kritisiert, die man zuvor jahrzehntelang bei menschlichen Verfassern hat durchgehen lassen... ;)
Ich bin wirklich kein Freund von KI-Kunst-Einsatz, aber ich habe in älteren RPG schon um einiges übleres und gepfuschteres Artwork gesehen (Ars Magica strotzte nur so davon), das viel stimmungstötender war.
Manchmal ist es ein Segen wenn man keine Ahnung hat,... dann kann man solche Kleinigkeiten die den Spezialisten wie Messer ins Auge Stechen einfach übersehen ;)
Dadurch entgeht dir aber das satanische Vergnügen, den Leuten ihren Spaß mit geballter nörgelnder Klugscheißerei madig machen zu können! ^-^
Am Output von generativen KIs werden Dinge kritisiert, die man zuvor jahrzehntelang bei menschlichen Verfassern hat durchgehen lassen... ;)
Hab ich irgendwo behauptet, dass alle Werke von Rollenspiel-Illustrator·innen automatisch besser seien? Gibt natürlich eine Menge unprofessioneller, amateurhafter oder einfach nur: schlechte Illus in Rollenspielwerken, klar. Da bin ich aber tendenziell eher bereit, es zu verzeihen - weil es halt überhaupt jemand versucht hat.
Und klar können das nicht alle oder haben das Geld übrig, für solide Illus. Da gibts aber andere Lösungen. Dass man auch mit Stock-Art ein Rollenspielbuch stimmungsvoll unterstützen kann, hat imho Ironsworn zBsp schon bewiesen. Oder man nimmt direkt gemeinfreie Sachen wie Beyond the Wall.
Ich erwarte nicht, dass jedem gefällt, was ich mit den KI Generatoren anstelle oder das ich sie überhaupt benutze, aber es wäre nett, dabei wenigsten objektiv zu bleiben. Ich bestreite ja gar nicht, dass es Aspekte an dieser Technik gibt, die - zumindest - kontrovers sind. Aber mir im Rundumschlag zu unterstellen, ich würde mir keine Mühe mit meiner "Arbeit" geben, kann ich vielleicht als Meinung anerkennen, aber nicht als objektive, faire Aussage.
Manchmal ist es ein Segen wenn man keine Ahnung hat,... dann kann man solche Kleinigkeiten die den Spezialisten wie Messer ins Auge Stechen einfach übersehen ;)
Dadurch entgeht dir aber das satanische Vergnügen, den Leuten ihren Spaß mit geballter nörgelnder Klugscheißerei madig machen zu können! ^-^
Dadurch entgeht dir aber das satanische Vergnügen, den Leuten ihren Spaß mit geballter nörgelnder Klugscheißerei madig machen zu können! ^-^
Also bitte - seit wann ist denn dieses Vergnügen nur Leuten vorbehalten, die Ahnung haben? Zum Nörgeln, Klugscheißen und Madigmachen reicht doch eine Meinung völlig aus! >;D
Kann den Punkt verstehen, aber ich kann es mir leider nicht leisten einen Kunstschaffenden dafür zu bezahlen.
Sauberer Konter, Doc-Byte
Ich hatte mir fest vorgenommen, mich nicht provozieren zu lassen, aber diese Aussage finde ich persönlich einfach nur maximal respektlos. Ich kann vielleicht nicht mit einem Stift oder Pinsel umgehen, aber ich versuche trotzdem mit dem Werkzeug "KI Generator" das mir bestmögliche Ergebnis aus jedem verwendeten Bild herauszuholen und investiere da einiges an Zeit und Aufwand rein.
Natürlich kann man die Technik selbst kritisch sehen, das sei jedem unbenommen, aber einfach mal undifferenziert zu unterstellen, da würde irgendwer einfach nur schnell mal was eintippen und das nächstbeste Bildchen als Illustration verwenden, zeugt in meinen Augen halt eintweder von absoluter Ahnungslosigkeit oder grenzenloser Voreingenommenheit ohne den geringsten Willen, sich mal wirklich mit der Thematik auseinander zu setzen. - Was mir prinzipiell ja auch total egal wäre, soll jeder halten wie er will, aber fremden Leuten einfach mal generell zu unterstellen, sie würden sich keine Mühe geben, nur weil sie mit Bildergeneratoren arbeiten, finde ich einfach extrem uncool.
cyberpunk sience fiction fantasy concept art movie poster hyperrealism matte painting digital art digital illustration 8K resolution bokeh HDR anime comic art comic book (optional, lasse ich meistens weg: perfect smooth)
Kann den Punkt verstehen, aber ich kann es mir leider nicht leisten einen Kunstschaffenden dafür zu bezahlen.Das ist auch völlig okay. Du darfst dann aber nicht von mir verlangen, dass ich genauso viel oder auch nur irgendwas für ein Produkt bezahle, das du mit AI erstellt hast. Und du siehst es mir sicher nach, wenn es nur dann Lobeshymnen auf dein Charakterportrait gibt, wenn ein echter Künstler das gezeichnet hat.
Im RP-Bereich sollten Illustrationen folglich ebenfalls primär Informationen transportieren.Was? Nein! Nicht ausschließlich. Nicht einmal vorrangig.
Der Kritikpunkt an der Ki liegt daran, dass du, wenn es das gewünschte nicht gibt, ne KI dran setzt und halt nicht einem Kunstschaffenden den Auftrag gibst und bezahlst.Das zum einen, zum anderen habe ich weder Zeit noch Lust, mir einen solchen zu suchen, dessen Können und Stil dem entspricht was ich mir vorstelle, diesem dann lang und breit zu erklären, was ich haben will und dann noch über die Bezahlung zu verhandeln. Und am Ende festzustellen, dass ich das vielleicht über einen KS zusammenbekommen könnte, ich mir diesen Aufwand aber nicht antun will.
Kann den Punkt verstehen, aber ich kann es mir leider nicht leisten einen Kunstschaffenden dafür zu bezahlen.
Also, wenn wir uns hier hinstellen und glauben, wir könnten denselben Respekt einfordern oder auch nur einen gleich hohen, weil wir ein bisschen Text in eine Suchmaske schreiben... da weiß ich dann auch nicht mehr weiter.
Im Prinzip ist es die selbe Diskussion wie damals, als Photoshop & Co kamen. Das "Ende der Kunst" wurde ausgerufen, weil "digitale Kunst" gar keine Kunst sein könne. Und auch damals schon wurde unterstellt, dass "man ja keine handwerkliche Leistung mehr erbringen muss", weil eh alles der Computer macht.Oh, ist das so? Oder ist das vielleicht in jeder denkbaren Hinsicht etwas anderes? (https://bryanjtan.medium.com/ai-is-not-just-a-tool-53557d39bc5e)
Das Ergebnis sehe ich genauso: Wer die neuen Werkzeuge nicht nutzt, wird auf der Strecke bleiben.
Denn genau das ist KI - ein Werkzeug. Genau wie Photoshop. Und auch damit muss man umgehen lernen. Und "Kunst" kommt immer noch von "Können".
Das Ergebnis sehe ich genauso: Wer die neuen Werkzeuge nicht nutzt, wird auf der Strecke bleiben.Technologien sind keine Naturgewalten. Wir können das als Gesellschaften schon ein stückweit steuern.
Überspitzt gesagt kann man ja auch im MMO-Charaktereditor Stunden verbringen und einen wirklich schicken Helden basteln, aber ich würde mich trotzdem nicht für einen Künstler halten, weil ich da an den Reglern rumgedreht habe.Super zusammengefasst. Und was du vorher sagst, umfasst auch einen Teil des Problems: Wir sollten nicht so tun, als sei ein "schlechtes" AI-Bild auf dieselbe Weise schlecht wie ein "schlechtes", menschengemachtes Bild. Das, was heute an schlechtem, menschlichem Artwork in ein Buch gedruckt wird, macht trotzdem nicht dieselben Fehler wie AI. Dass einem menschlichen Künstler, dessen Art abgedruckt wird, ein Fehler wie "zu viele Finger" oder "verwaschene Flächen als Gesichter" unterläuft, ist schlicht unmöglich. Deshalb finde ich nach wie vor: Jeder Künstler verdient mehr Respekt für seine Arbeit. Für mich bedeutet das: Wenn jemand AI-Kunst in einem Kaufprodukt nutzt, erntet er von mir ein Schulterzucken. :-\
Für mich bedeutet das: Wenn jemand AI-Kunst in einem Kaufprodukt nutzt, erntet er von mir ein Schulterzucken. :-\
Der Unterschied zwischen AI und Photoshop ist allein schon der der Präsenz menschlicher Arbeit. Photoshop unterstützt einen menschlichen Schaffensprozess. AI ersetzt ihn. AI und Photoshop arbeiten völlig unterschiedlich.
Stimmt. Hat aber auch niemand getan. Wenn du dich auf Doc-Byte beziehst, wollte er- sofern ich das richtig verstehe - anmerken, dass auch das Arbeiten mit KI nicht vollkommen mühelos ist, wenn man am Ende gute Bilder rausbekommen möchte.
Und damit meine ich nicht, die Mühe 500x auf den "Generieren"-Button zu klicken und sich das beste, zufällig erstellte Bild zu seinem Prompt auszuwählen.
Wenn ich mit KI arbeite, sowohl privat als auch beruflich, dann schafft mir die KI immer nur eine Basis, auf der man aufbauen kann. Und um eine verwertbare Basis zu bekommen, muss man sich halt ein bissl mit Prompts, aber auch mit grundsätzlichen Themen wie Fotografie oder Illustration auskennen, um möglichst genau definieren zu können, was man haben will. Aber die eigentliche Arbeit geht für mich normalerweise erst danach los, denn die KI-Bilder die ich bisher generiert habe sind NIE perfekt. Angefangen bei den offensichtlichen Sachen wie der falschen Anzahl Finger, gehts aber auch in andere Bereiche. Ausgestaltung des Hintergrundes, Detailarbeiten, Vordergrund etc... Teilweise kann man da mittlerweile auch schon mit KI und Inpainting nachbessern, meist hilfts aber alles nichts und man muss dann selber per Photoshop Hand anlegen.
Von daher ist KI zwar echt ein cooles Tool, um mit schmalem Geldbeutel brauchbare Bilder zu bekommen, aber - und da stimme ich Jiba zu 100% zu - die Vision und der kreative Aspekt, der in diesen Bildern steckt, ist halt nur teilweise der eigene, denn vieles ist schlicht Zufall.
Dennoch orakele ich mal, dass es nicht mehr lange dauern wird, bis wir zumindest im High-End-Illustrationsbereich wie bei Modiphius und Co. Artworks bekommen werden, bei denen wir einfach nicht mehr genau wissen, ob sie von der KI kommen oder von einem Illustrator.Ich bekomme jetzt schon Bilder aus Bing raus, die der AI-Detector als zu 99% human-made identifiziert. Und wenn ich mich dransetze, die übermäßig vielen Gürtelenden zu entfernen, und Bogensehnen an die korrekten Positionen zu schieben, kann es auch sonst niemand mehr sagen.
Ich bekomme jetzt schon Bilder aus Bing raus, die der AI-Detector als zu 99% human-made identifiziert.Ich glaube aber gar nicht, dass es darum geht. Die Wertigkeit bleibt einfach eine andere. Unabhängig von der Qualität. Wir sagen ja auch nicht eine DeepGefakte Performance eines Schauspielers hätte dieselbe Wertigkeit wie eine echte Performance.
Ich habe mich mit der Technik auseinandergesetzt. Ich habe sie auch schon selbst benutzt und benutze sie sogar selbst gerade aktiv. Und Orko hat vollkommen recht. Wenn ihr das für tatsächlichen Aufwand haltet, macht ihr euch etwas vor.
Leute, das, was ihr hier vielfach rausbekommt, ist reiner Trial-and-Error. Die AI-Technik kann euch zum gegenwärtigen Zeitpunkt gar nicht wirklich liefern, was ihr sucht. Es sei denn, ihr sucht etwas, das AI sowieso statistisch gut abbilden kann. Ich meine, guck dir nur mal für eine Minute deinen Prompt hier an:
Und dann das Ergebnis, das du bekommen hast und dass du genommen hast. Dein "üblicher Satz Anweisungen" ist in sich selbst widersprüchlich. Und das Ergebnis hat nicht wirklich was mit deinem Prompt zu tun. Weder ist es Anime, noch ist es Comic Book. Und Hyperrealist ist es auch nicht. Abgesehen davon, dass ich nicht recht weiß, wie "hyperrealist Anime" überhaupt aussehen soll. Animationskunst ist abstrahiert, Hyperrealismus nicht. Das kriegt man höchstens bei den Hintergründen hin, aber bei Figuren wird es schon schwierig.
Dein Prompt oben zeigt eigentlich genau, dass du eben nicht genau weißt, was du willst. Dass du nicht versuchst, einen konsistenten Stil zu erzeugen, der dein Spiel auf einzigartige Weise unterstützt. Der ihm einen unverwechselbaren Look gibt. Und speaking of "Aufwand": Wirklich einen Stift in die Hand zu nehmen, Skizzen zu machen, zu verwerfen, dann zu Inken, dann zu Kollorieren, und dann das Motiv dann noch so auszugestalten, ist nicht trivial. Und deutlich, aber deutlich höherer Aufwand als das, was du da reinsteckt. Du musst vielleicht viel Zeit investieren, bis die AI – völlig zufällig eigentlich im Rahmen einer breiten Parameterauswahl – ausspuckt, was du eigentlich willst. Aber echte "Mühe" im Sinne von "Arbeit" machst du dir nicht.
Tu mir mal einen Gefallen: Beschreibe doch mal die künstlerische Vision hinter deinen Bildern. Und zwar nicht mit ambivalenten Promptlisten, sondern mit Worten, die Leute wirklich benutzen würden, um Kunst zu beschreiben. Erzähl mir was über deine Farbwahl, über deine künstlerischen Vorbilder und warum du die Motive so wählst, wie du sie wählst. Die Leute hinter den Rollenspielen mit dem besten Artwork da draußen, haben sich diese Gedanken gemacht. Doc-Byte, erzähl mir was über den Stil, den dein Rollenspiel anstrebt. Warum nimmst du die Bilder, die du nimmst. Und nein "Weil sie mir gefallen", ist keine Antwort.
Das ist ein bisschen so, als würde jemand, der den ganzen Tag privat Kapital anlegt behauptet, er würde ebenso viel arbeiten wie der Angestellte in seiner Firma, der jeden Tag mit den Händen Maschinen zusammenschraubt. Völlig andere Tätigkeit und auch völlig anderer Aufwand. Wir schreiben effektiv Text in eine Suchmaske. Und dann noch Text, der sich gegenseitig ausschließt. Und hoffen dann, dass was rauskommt, was uns einigermaßen gefällt. Und dieser Thread zeigt: Weil wir glauben, wir hätten das, was rauskommt irgendwie mit eigener Arbeit selbst erschaffen, geben wir uns noch mit dem größten Mist zufrieden.
Klar, ein wenig Kontrolle hat man, über die Perspektive, die Farbgebung oder den Stil, aber die ist deutlich geringer als wenn man tatsächlich Kunst erschafft. Man kann zum aktuellen Zeitpunkt mit AI-Art nicht wirklich eine künstlerische Vision umsetzen, wie man sie sich vorstellt. Heraus kommt oft genug blurry RPG-Einheitsbreiart ohne ein Fünkchen künstlerischer Seele. Die AI hat keine Erfahrungen aus denen sie schöpfen könnte.
Ich erinnere mich an die besonders guten und die besonders schlechten Artworks aus Rollenspielen. Und da waren welche dabei, die waren geradezu episch schlecht. Aber ich möchte nicht missen, dass ich mich an sie erinnere. Denn sie haben die Aura davon, dass da ein Mensch verkackt hat. Sie sagen mir was darüber, was es heißt, Kunst zu machen.
Was kriege ich, wenn ich hier in diesen Thread reinschaue: Ein paar ganz nette Bilder. Eine handvoll gefallen mir sogar richtig gut. Aber zum großen Teil ist das, was ich hier kriege, sorry: Langweilig bis unters Dach. Statische Bilder von glatten Leuten, die auf die Kamera zugehen. Oder verträumt in die Gegend glotzen. Oder Elfenkitsch mit Puppengesichtchen, die mit Knarren auf den Betrachter zielen (echt mal, ist das euer Ernst, Leute?).
Die AI schöpft nicht aus dem Vollen der menschlichen Gesichter, Haltungen und Handlungen. Und ganz viele, die AI-Bilder erstellen, tun das auch nicht. Und die, die es tun stellen bald fest, dass AI noch ziemlich mies darin ist mehr zu tun als das bare Minimum.
Ich meine, schauen wir uns doch einfach mal das volle Spektrum des menschlichen Aussehens (https://angelicadass.com/photography/humanae/) an: AI wäre unter den gegenwärtigen Umständen gar nicht in der Lage, die meisten dieser Gesichter zuverlässig zu erstellen, zumindest nicht in irgendwelchen Kunststilen, die man gemeinhin mit Fantasyartwork assoziiert. Sowas will ich aber haben. Echte Kunst. Wenn ich schon "hyperrealism" eingebe, dann will ich keine glattgebügelten Fratzen, sondern das volle Programm, dass ich da oben verlinkt habe. Das volle Programm.
"Respektlos" ist btw eigentlich mehr, dass die Art und Weise, wie die AI ihre Produkte generiert damit gleichgesetzt wird, wie Menschen ihre Kunst erzeugen. Das läuft völlig anders ab und der menschlichen Kunst und dem menschlichen Künstler, der tatsächlich den Pinsel schwingt. Dem gebührt immer mehr Respekt. Scheißegal wir schlecht der ist. Denn der wird auch besser. KI-Bildkomposition wird künftig vielleicht sogar eher schlechter als besser. (https://www.theatlantic.com/technology/archive/2023/06/generative-ai-future-training-models/674478/)
Also, wenn wir uns hier hinstellen und glauben, wir könnten denselben Respekt einfordern oder auch nur einen gleich hohen, weil wir ein bisschen Text in eine Suchmaske schreiben... da weiß ich dann auch nicht mehr weiter.
Wenn AI sowas hier zuverlässig erstellen kann, dann unterhalten wir uns:
(https://images-wixmp-ed30a86b8c4ca887773594c2.wixmp.com/f/42e95c01-0b2a-46b1-bb72-fa6e009d92cb/d1xa7w9-cbfd1268-97b3-4416-9fa0-83813238fdaf.jpg?token=eyJ0eXAiOiJKV1QiLCJhbGciOiJIUzI1NiJ9.eyJzdWIiOiJ1cm46YXBwOjdlMGQxODg5ODIyNjQzNzNhNWYwZDQxNWVhMGQyNmUwIiwiaXNzIjoidXJuOmFwcDo3ZTBkMTg4OTgyMjY0MzczYTVmMGQ0MTVlYTBkMjZlMCIsIm9iaiI6W1t7InBhdGgiOiJcL2ZcLzQyZTk1YzAxLTBiMmEtNDZiMS1iYjcyLWZhNmUwMDlkOTJjYlwvZDF4YTd3OS1jYmZkMTI2OC05N2IzLTQ0MTYtOWZhMC04MzgxMzIzOGZkYWYuanBnIn1dXSwiYXVkIjpbInVybjpzZXJ2aWNlOmZpbGUuZG93bmxvYWQiXX0.KK5SU2pnRSXYSWsoWx0E-syZyyydCQ6T6k0arOJy3R4)
Das ist auch völlig okay. Du darfst dann aber nicht von mir verlangen, dass ich genauso viel oder auch nur irgendwas für ein Produkt bezahle, das du mit AI erstellt hast. Und du siehst es mir sicher nach, wenn es nur dann Lobeshymnen auf dein Charakterportrait gibt, wenn ein echter Künstler das gezeichnet hat.
Was? Nein! Nicht ausschließlich. Nicht einmal vorrangig.
Im RP-Bereich sollen Illustrationen eben auch einen Vibe ausdrücken und eine Spielwelt erfahr- und erfühlbar machen. "City of Mist" hat nicht deshalb so gutes Artwork, wie es hat, weil es irgendwas 1:1 abbildet, sondern weil seine Bilder ausdrücken, wie sich das Spiel anfühlen soll. Tatsächlich ist ein Spiel, dessen Bilder nur abbilden, was im Text steht, maximal langweilig. Dann brauch ich auch keine Bilder. Steht ja alles im Text. Ron Spencers alte "Werewolf: The Apocalypse"-Kunst erzählt mir einen Scheiß darüber, wie die Dinge aussehen, die in Werwolf so vorkommen. Aber sie gibt mir ein Gefühl dafür wie brutal und gory das Spiel ist und was Werwölfe für krasse Dinge anrichten können. Das ist keine Bebilderung, sondern eine Gestaltung.
Abgesehen davon, dass jede Illustration natürlich auch Informationen transportiert. Das bleibt nicht aus. Bilder sind ein Informationsmedium. Mir fiele noch nicht mal ein wie ein Bild aussehen soll, das keinen Informationsgehalt hat. Allein schon deshalb, weil der Künstler immer irgendwas mitteilen will.
Da macht sich schon am ehesten die AI dessen schuldig, Bilder zu erzeugen, die keine Informationen erhalten.
Für ihn ist KI Artwork keine Kunst weil die KI keine Seele hat und KI Tools sind keine Werkzeuge.Tja, demnach ich nicht an die Existenz einer Seele glaube, verstehe ich jetzt auch, warum mich das nicht tangiert. 8]
Die sind schon implementiert. Aber nach meinem Dafürhalten noch nicht besonders gut. Wobei die Neural Filters mir schon sehr helfen. Smart Portrait ist schon sehr gut.
Junge Junge, genau dieser Arroganz wegen habe ich so absolut wenig Mitleid mit gewissen Teilen der "Künstlerschaft" die gerade ihr Felle davon schwimmen sehen.
Wenn ihr das für tatsächlichen Aufwand haltet, macht ihr euch etwas vor.Stehe ich zu. Aufwand ist was anderes. Bzw. anders gesagt: Hier im Board ein-, zwei-, dreimal einen Prompt zu itererieren, bis man ein Ergebnis hat, das einem gefällt kostet vielleicht Zeit. Aber wenn ihr nicht grade das Image danach noch in ein Grafikprogramm reinladet und daran rumfuhrwerkt, dann ist es etwa so viel Arbeit und Aufwand, wie hier einen Forenbeitrag zu verfassen. Machen wir uns da mal nichts vor.
Leute, das, was ihr hier vielfach rausbekommt, ist reiner Trial-and-Error. Die AI-Technik kann euch zum gegenwärtigen Zeitpunkt gar nicht wirklich liefern, was ihr sucht.
Dein Prompt oben zeigt eigentlich genau, dass du eben nicht genau weißt, was du willst. Dass du nicht versuchst, einen konsistenten Stil zu erzeugen, der dein Spiel auf einzigartige Weise unterstützt.Gut, dann widerlege mich doch mal! Wenn ich in einen Prompt "hyperrealist", "concept art", "comic art", "anime", "matte painting" reinschreibe und zwar als Standard unter jeden Prompt... wie viel Konsistenz hat dann mein künstlerischer Stil? Für mich sieht das so aus, als wäre letztlich gar nicht so wichtig ob nun "hyperrealist" oder "anime" oder irgendwas dazwischen rauskommt. Ich mein, okay, given, kann ja der Stil sein, den man anstrebt, also dass man etwas Gemischtes haben will. Also eben nicht zielgerichtet den Look benennt, den die AI erzeugen soll.
Tja, demnach ich nicht an die Existenz einer Seele glaube, verstehe ich jetzt auch, warum mich das nicht tangiert. 8]Dass ich das im übertragenen Sinne meine, ist denke ich aus dem Kontext ersichtlich.
In- und Outpainiting funktioniert in Photoshop sehr gut. Und auch andere Funktionen, die es schon etwas länger gibt ("Motiv auswählen") benutzen ja KI und sind im Alltag eine große Hilfe. Die neuralen Filter sind allerdings eher so mittelprächtig.Ich hätte schreiben sollen "sehr gut für meine Zwecke". :D
Aber richtig stolz werde ich trotzdem erst sein, wenn ich meine SCs selbst zeichnen kann.
Ich finde Firefly ist hit-or-miss, zumindest bei mir. Meine Versuche ein Wolfsrudel in eine Landschaft setzen zu lassen sind allesamt missglückt. Aber gut, ich habe das auch lange nicht mehr benutzt. ;)
100% Zustimmung.
Aus Spielleitersicht finde ich KI toll, weil sie es mir recht leicht macht, Handouts vorzubereiten. Charaterportraits sind easy gemacht. Ein paar stimmungsvolle Bilder von Lokalitäten kein Problem. Das war früher deutlich aufwändiger oder schlicht nicht möglich. Braucht man das für eine gute Spielrunde? Auf keinen Fall. Ist es trotzdem cool, wenn man sowas hat? Definitiv!
Ich würde halt nur kein Produkt kaufen, das mit AI illustriert ist. Da fehlt mir einfach die Wertigkeit.
Nur für's Protokoll: Damit kann ich völlig d'accord gehen. Ich würde halt nur kein Produkt kaufen, das mit AI illustriert ist. Da fehlt mir einfach die Wertigkeit.Das bedeutet also, dass der Text für dich keine Wertigkeit besitzt? Dass also allein die Bildchen für dich interessant sind, die das Werk eigentlich nur illustrieren sollen?
Also, wenn es gut aussieht, würde ich solche Produkte auch kaufen, weil ich es gar nicht bemerken würde. Der CGI-Style kommt mir halt nicht ins Haus.
Das bedeutet also, dass der Text für dich keine Wertigkeit besitzt? Dass also allein die Bildchen für dich interessant sind, die das Werk eigentlich nur illustrieren sollen?Das habe ich nicht gesagt. Der Autor kann den Text auch einfach ohne Bilder mit einem slicken Layout rausbringen, wenn ihm der Text selbst so wichtig ist. Wenn der Text gut ist, liest man ihn und kauft ihn auch gerne. Und dann nimmt der Autor Geld ein. Und dann hat der Autor genug Geld, um jemanden zu bezahlen, der ihm eine illustrierte, zweite Edition erstellt.
Nur für's Protokoll: Damit kann ich völlig d'accord gehen. Ich würde halt nur kein Produkt kaufen, das mit AI illustriert ist. Da fehlt mir einfach die Wertigkeit.
Das bedeutet also, dass der Text für dich keine Wertigkeit besitzt? Dass also allein die Bildchen für dich interessant sind, die das Werk eigentlich nur illustrieren sollen?
Unsere moderne Obession, unbedingt krass illustrierte Rollenspiel-Bücher haben zu wollen, ist Teil des Problems.
Tja, ich bin dermaßen ein Fan stimmungsvoller Optik, daß ich mir meine Lieblingsrollenspielsysteme, die ich rein vom Inhalt her genial finde, aber deren Artwork ich nicht abkann, schlicht und einfach einscanne, komplett neu grafisch überarbeite (mit selber per GIMP zusammencollagierten Bildern aus dem Web, aber nie KI-Art, die gefällt mir in der Regel einfach nicht), und mir dann ausdrucke und binde. Ich behaupte jetzt nicht, dass das normale Standardverhalten ist ;D
Z.B. hab ich vor zwei Wochen das gute alte deutsche Ars magica in der Form überarbeitet, und ich liebe es:
(https://i.postimg.cc/0N7K0xwc/AM-Deutsch-Neu-Seite-003.jpg)
(https://i.postimg.cc/7Z3qBLKG/AM-Deutsch-Neu-Seite-010.jpg)
(https://i.postimg.cc/L88MVVg7/AM-Deutsch-Neu-Seite-067.jpg)
(https://i.postimg.cc/28X0PdXg/AM-Deutsch-Neu-Seite-068.jpg)
Ich sehe mich dabei als jemanden, der gute Texte aus ihrer nicht selbst verschuldeten Hässlichkeit rettet und sie in wohlverdiente Prachtgewänder steckt, ich Held ich!!! ~;D
Ich nutze KI für meine Spielerunden um NSCs zu erstellen, vor allem in einen Urban Fantasy Setting. Problem ist aber das die Figuren normschöne Menschen sind aus der Werbeindustrie gepellt. Ältere Menschen oder nicht normschöne Personen zu gestalten ist echt eine Kunst. Da merkt man auch wie limitiert das ganze ist.
Ich nutze KI für meine Spielerunden um NSCs zu erstellen, vor allem in einen Urban Fantasy Setting. Problem ist aber das die Figuren normschöne Menschen sind aus der Werbeindustrie gepellt. Ältere Menschen oder nicht normschöne Personen zu gestalten ist echt eine Kunst. Da merkt man auch wie limitiert das ganze ist.
Grade für Urban Fantasy finde ich das oft alles gar nicht so nötig. Da würden doch oft Fotos echter Menschen, die man im Netz findet, auch gut passen, oder? :D
Daa Problem bei this person does not exist ist:
Null posen. Bing kann mir aber tanzende, liegende, lagernd Leute erzeugen.
Ach, komm, als ob "Mitleid" das richtige Wort für ein Gefühl wäre, das du irgendeinem Teil der "Künstlerschaft" entgegenbringst. Ich hab zumindest hier noch nichts davon gesehen, dass dir die gesellschaftlichen Verwerfungen, die mit AI einhergehen könnten, schlaflose Nächte bereiten würden. :P
Nein, ehrlich: Wir regen uns hier im Board ständig allerorten darüber auf, wie scheiße doch dieses Artwork hier und jenes Writing dort ist. Wenn hier schon ständig darüber gesprochen wird, dass AI ja genauso gut sei, wie professionelles Artwork oder zumindest gut genug, dann müsst ihr eure eigenen Werke auch daran messen lassen.
Stehe ich zu. Aufwand ist was anderes. Bzw. anders gesagt: Hier im Board ein-, zwei-, dreimal einen Prompt zu itererieren, bis man ein Ergebnis hat, das einem gefällt kostet vielleicht Zeit. Aber wenn ihr nicht grade das Image danach noch in ein Grafikprogramm reinladet und daran rumfuhrwerkt, dann ist es etwa so viel Arbeit und Aufwand, wie hier einen Forenbeitrag zu verfassen. Machen wir uns da mal nichts vor.
Das ist keine Unverschämtheit, sondern schlicht ein Fakt: AI kann nur dann Artwork liefern, das den eigenen Ansprüchen genügt, wenn die Vorstellungen nicht allzu spezifisch sind und man eine große Bandbreite an Ergebnissen zulässt. Es ist technisch gar nicht möglich, dass die AI haarklein das liefert, was du willst. Wenn du mit einem menschlichen Artist arbeitest und dem genaue Anweisungen gibst, dann wird das Ergebnis immer mehr dem entsprechen, was du willst. AI ist einfach noch nicht so weit.
Gut, dann widerlege mich doch mal! Wenn ich in einen Prompt "hyperrealist", "concept art", "comic art", "anime", "matte painting" reinschreibe und zwar als Standard unter jeden Prompt... wie viel Konsistenz hat dann mein künstlerischer Stil? Für mich sieht das so aus, als wäre letztlich gar nicht so wichtig ob nun "hyperrealist" oder "anime" oder irgendwas dazwischen rauskommt. Ich mein, okay, given, kann ja der Stil sein, den man anstrebt, also dass man etwas Gemischtes haben will. Also eben nicht zielgerichtet den Look benennt, den die AI erzeugen soll.
Und BTW: Wenn du glaubst Art Direction für Rollenspiele oder andere Medienprodukte sei vor allem eine Frage von Geschmack, dann hast du von der Erstellung von Art-Inhalten halt auch keinen blassen Dunst. Jedem Medienprodukt, das man erstellt, geht ein Aushandlungsprozess über den angestrebten Stil voraus. Und da spielen dann tatsächlich solche Sachen wie Farbtheorie, Perspektive, Goldener Schnitt oder Best Practices aus der Illustration usw. eine Rolle. Bin ich auch kein Experte für, aber ich weiß, dass es sich lohnt, sich darüber Gedanken zu machen, bevor man den ersten Prompt schreibt. Zumindest wenn es hier um mehr geht, als ein bisschen mit der AI herumzuspielen (ja, zu spielen, nicht sich "abzumühen" oder sowas). Wenn ich ein Rollenspiel mit AI illustrieren will, dann versuche ich mir einen grafischen Stil zu erarbeiten.
Das hat mit Geschmack nichts mehr zu tun. Treffen viele der Illustrationen hier meinen Geschmack? Nein, weil sie strunzenlangweilig sind. Aber es sind auch ein paar schicke Sachen dabei.
Dass ich das im übertragenen Sinne meine, ist denke ich aus dem Kontext ersichtlich.
BTW, wie ist eigentlich, machst du auch deinen Püppchen-bemalen-Thread zu, sobald es technische Geräte gibt, die das auf Knopfdruck in auszugsweise derselben Qualität erledigen wie du? Oder willst du vielleicht irgendwo doch deine Kunst (denn nichts anderes ist das, was du machst) hier ausstellen und erfreust dich daran, wenn anderen Leuten sie gefällt? Steckt nicht in jeder einzelnen deiner Miniaturen nicht doch ein Stückchen deiner ureigenen Erfahrungen, Geschmacksnuancen, Fertigkeiten und Befähigungen?
So ist es nämlich. Du hast Kunst gemacht, Mann. Und tu jetzt bitte nicht so, als könne jeder Dahergelaufene deine Miniaturen so bemalen wie du und es wäre dasselbe. In deinem Werk steckt ein Stück von dir drin. Weil du es gemacht hast. AI hat und kann das nicht. AI hat keine Erfahrungen oder Geschmacksparameter. Das ist eine reine Automatisierungsmaschine, bis du das Ergebnis nimmst und selbst damit arbeitest, es anpasst und veränderst.
Ich hätte schreiben sollen "sehr gut für meine Zwecke". :D
Es stimmt, dass die Smart Portraits zum Teil gruselig aussehen. Aber ich nehme die auch immer nur als Basis, um dann daran weiterzuarbeiten.
Ich finde Firefly ist hit-or-miss, zumindest bei mir. Meine Versuche ein Wolfsrudel in eine Landschaft setzen zu lassen sind allesamt missglückt. Aber gut, ich habe das auch lange nicht mehr benutzt. ;)