in einem Artikel hatte ich gelesen gehabt, dass man auch über den Stil eines etablierten Malers (etwa ein 19.Jahrhundert King Arthur Maler) Vorgaben-geben können soll
für alle jene, die mit Artwork ihr Geld verdienen, gilt wohl leider das Gegenteil.
Ich habe ein neues Hobby 8) :ctlu:Teures Hobby mit bis zu $30 pro Monat. Aber das Produzierte ist ja schon der Knaller. :d
Teures Hobby mit bis zu $30 pro Monat. Aber das Produzierte ist ja schon der Knaller. :dGeht es nicht bei $10 los?
Ich habe ein neues Hobby 8) :ctlu:
Geht es nicht bei $10 los?$10 ist eingeschränkt. $30 ist unlimitiert.
Wie sieht das eigentlich rechtlich aus? Kann man so generierte Bilder in kommerziellen Werken nutzen?
Ich auch 8]
Richtig gutes Zeug hast Du da gemacht !
(oder machen lassen)
Wie sieht das eigentlich rechtlich aus? Kann man so generierte Bilder in kommerziellen Werken nutzen?Generell herrscht eigentlich die Meinung vor, daß KI-generierte Bilder gemeinfrei sind, da sie keinen urheberrechtlichen Schutz genießen.
...mal sehen [...] ob man zu schnell an die Grenzen von der KI kommt. Ein wenig kratze ich da schon dran. Es scheint nicht möglich sein Übergewichtige Personen zu erstellen. Egal welche Formulierung ich verwende es klappt nicht, oder es wird nicht menschlich.
How does commercial use work?**
You”re pretty free to use the images in just about any way you want as long as this special-case restriction does not apply to you:
If you”re using the images as an employee of a company that makes more than 1M/yr USD in revenue, you need to purchase a “Corporate” plan.
Zum Thema Rechte schreibt die MidJourney Webseite (für Abonenten wohlgemerkt):
Um vielleicht etwas dazu zu sagen. Ich würde schwer vermuten, dass hinter der Bildergenerierung irgendeine Form von GAN (Generate Adversarial Network) steckt also ein neuronales Netz. Dieses Netz wurde trainiert mit den ganzen Bildern, die aus dem Internet gesammelt werden konnten. Das Netz weiß dann, "statistisch gesehen sieht ein Elf soundso aus" und wenn man dann einen Elfen möchte, variiert das Netz eben diese Parameter.
Ich glaube, es ist in Bezug auf Rollenspiele sinnvoller, zuerst ein Bild erstellen zu lassen und sich davon zu einem Ort inspirieren zu lassen, als zu versuchen, ein Bild eines Ortes zu bekommen, den man sich ausgedacht hat.
Eine böse Bibliothek.
Der Kram macht süchtig. Die Zeit bis September wird sehr lang fürchte ich.
Ich habe meine 200 Minuten für diesen Monat aufgebraucht... :o
Der Kram macht süchtig. Die Zeit bis September wird sehr lang fürchte ich.
Wenn mans abonniert hat, ists dann immer noch so unübersichtlich (meiner Meinung nach) im Discord mit 50 anderen (oder so)?
Ich finde die KI auch recht krass.
Generell herrscht eigentlich die Meinung vor, daß KI-generierte Bilder gemeinfrei sind, da sie keinen urheberrechtlichen Schutz genießen.
Other countries put less emphasis on the necessity of human authorship for protection. A judge in Australia ruled last year A.I.-created inventions can qualify for patent protection. And South Africa allowed Thaler to patent one of his products last year, noting that “the invention was autonomously generated by an artificial intelligence.” While Thaler owns the patent, the A.I. is listed as the inventor.
Vielleicht hilft das hier etwas, die Zeit zu überbrücken, auch wenn mir diese KI etwas schwächer vorkommt: https://creator.nightcafe.studio
Im /relax Modus müsste das doch noch gehen oder ?
Steampunk Cowboy - sieht gut aus, solange man nicht genau hinschaut. Dann wird es seltsam. >;D´
Hinweis: Diese Bilder wurden mit Hilfe einer Künstlichen Intelligenz erschaffen.
#midjourneyartwork
Jetzt warte ich darauf, dass du ein Abenteuer dazu veröffentlichst.
Das dann auch von einer künstlichen Intelligenz geschaffen wird? ;D
Es gibt Texter wie Neuroflash. Ein wenig Konfigurationsarbeit sollte reichen, um generische Abenteueraufhänger zu schreiben.
Wenn ich nicht sage, wie mein Bild hergestellt wurde, was dann? Bei den guten mag es eher schwer nachweisbar sein.Wobei der Fehler da ja schon in der Aussage "mein Bild" liegen würde - sofern die AI-Erstellung nachweisbar/erkennbar ist, kann jeder andere das dann auch verwenden.
sofern die AI-Erstellung nachweisbar/erkennbar ist
Generell herrscht eigentlich die Meinung vor, daß KI-generierte Bilder gemeinfrei sind, da sie keinen urheberrechtlichen Schutz genießen.
Des fände ich in einem scifi-abenteuer eigentlich noch cool :) wenn die grafiken und das abenteuer von einer maschone kommen.
Deutet für mich viel darauf hin, dass in ein paar Jahren Artwork nur mehr so entsteht. Blöd für die Künstler, aber könnte einen massiven Preisverfall der RP-Bücher auslösen, weil Illustrationen sind ja da oft ein Hauptkostenpunkt.Unwahrscheinlich. Das wird erstmal eine eigene Kunstform, bzw. eine Erweiterung des künstlerischen Arbeitens sein. Die KI braucht ja weiterhin massig Daten. Ich sehe allerdings, dass das die go-to-Lösung für bestimmte Stile sein könnte, bei denen man nur bereits vorhandenes Material zitieren will ("mach mir drei Typen, einer mir Armbrust, einer mit einem Jutesack, im Stil der Dragonlance-Cover"). Wenn also kein origineller Anspruch dahinter steht, sondern man nur günstig eine Art Aushängeschild herstellen ("guck, hier, da ist Fantasy a la Hickman/Weis drin und es gibt Armbrüste").
Kann man die irgendwie hochauflösend erwerben? Ein paar der Bilder die hier gepostet werden, würde ich mir echt gern an die Wand hängen.
Das ist imho das nette an dem Stil der AI, das hat teilweise etwas irreales, traumhaftes, weil es halt von etwas gemalt wurde, was die Welt als Beobachter sieht, aber keinerlei echtes Verstehen dafür entwickeln kann. Das führt dann oft zu Dingen, die auf den ersten Blick aussiehen wie etwas (eine Person, eine Blumenwiese, etc.) aber auf den zweiten Blick merkt man, dass die Details gar keinen Sinn ergeben. Aber gerade das hat imho echt was.Irian hat das schon ganz gut beschrieben.
Und nun ist der visuelle Orobourous der Rolloszene vollständig...
Gibt es auch schon Generatoren, die Bilder erzeugen, die nicht surreal oder gruselig aussehen? Oder ist die Software dafür noch nicht gut genug?
Hab mal versucht die KI ein Dungeon bauen zu lassen.wow, da muss jetzt wirklich nur noch eine Story drumgestrickt werden und das Abenteuer läuft.
(https://cdn.discordapp.com/attachments/997264440858779729/1007313350075621496/Klugerjunge_pencil_drawing_Dungeon_map_full_of_monsters_and_tre_8912826f-75ca-45cb-9013-cfecb4582e30.png)(Klicke zum Anzeigen/Verstecken)
Das halte ich so Pauschal für recht fragwürdig.Eigentlich wäre es sogar ziemlich langweilig, weil die Rechtslage schlicht eindeutig ist und es auch schon entsprechende Präzedenzfälle (https://art-thinking.ch/2022/02/ein-ki-system-kann-sein-digitales-werk-nicht-als-urheber-urheberrechtlich-schuetzen-lassen/) gab. ;)
Sowohl das mit Gemeinfrei als auch kein Urherberrechtlichen Schutz.
Ich glaube vor Gericht wäre das sicherlich sehr spannend.
Eigentlich gewinnt ja jeder, wenn man die Bilder nicht schützen kann.Es sollte sogar sehr im Interesse von jeglichen Kreativschaffenden sein, daß dem so bleibt. Und das meine ich nicht, um Konkurrenz zu unterbinden (der Kampf wird primär an der Preisleistungsfront ausgefochten und sich da sehr zu ihren Ungunsten entwickeln), sondern um ihre eigenen Werke zu schützen. Denn wenn bereits die Auftragserteilung mit Beschreibung des gewünschten Inhalts als Teil des kreativen Schaffensprozesses betrachtet wird, aus dem Urheberrechte resultieren können, ist es um das geistige Eigentum der Ausführenden schlecht bestellt.
Eigentlich wäre es sogar ziemlich langweilig, weil die Rechtslage schlicht eindeutig ist und es auch schon entsprechende Präzedenzfälle (https://art-thinking.ch/2022/02/ein-ki-system-kann-sein-digitales-werk-nicht-als-urheber-urheberrechtlich-schuetzen-lassen/) gab. ;)
Edit: Dieser Artikel (https://www.lto.de/recht/legal-tech/l/ki-kunst-urheber-computer-maschine/) legt die aktuelle Lage und die eventuelle Entwicklung ganz gut dar.
Nein, Du kannst deine Bilder dann direkt im Bott-Chat machen.
Nightcafe ist jedenfalls...ausbaufähig.
Behold, "Muscular David Hasselhoff battles dinosaurs"(Klicke zum Anzeigen/Verstecken)
Edit: Dein zweiten Versuch will ich gar nicht zeigen, zu krass ge-Cronenberg-t
Ich vermute andere frei-verfügbare Roboter werden ähnliche Schwierigkeiten haben mit diesem Begriffspaar. Habe deshalb mal das gleiche Begriffspaar bei Craiyon eingegeben (https://www.craiyon.com/).Die finde ich alle besser ;D
Angehängt habe ich das Ergebnis.
Die finde ich alle besser ;D
Ja, aber ist dir aufgefallen, dass David H. Christ meist gegen nur einen Dino (singular) kämpft? Ist eine ganz schön faule KI!
Kennt eigentlich jemand eine gute, bezahlbare Superresolution software, mit denen man die kleinen Bilder größer kriegt ohne GPU-Zeit in MidJourney zu verrbauchen?Ich verwende seit längerem waifu2x-caffe (https://github.com/lltcggie/waifu2x-caffe/) und war mit den Ergebnissen immer recht zufrieden.
Warum kriege ich partout keine Zentaur hin? Und "holding a longsword" oder "behind a tree" klappt auch nicht.
Oder raff ich es nicht?
Auch bei deinen Bildern wurden zum Teil die Arme abgeschnitten/vergessen.
Ich glaube man kann auch Bildelemente ganz gut gebrauchen. Zum Beispiel einen Rahmen für Tokens oder Charakterprotraits.
empty round steampunk mirror frame on black background
Noch etwas nachbearbeitet um Transparenz zu bekommen.
(https://www.tanelorn.net/index.php?action=dlattach;topic=123321.0;attach=33401)
Artworks für eine Mutant Year Zero - Runde:(Klicke zum Anzeigen/Verstecken)
inkdrawing female ghost warrior princess. timothy bradstreet style art. 8k realistic black and white. --ar 1:2Wow, wie krass! :-*
(https://cdn.discordapp.com/attachments/1005416846989721611/1007656860003860508/TIE_inkdrawing_female_ghost_warrior_princess._timothy_bradstree_475d0f04-0175-449e-b3be-93b13d4cf78c.png)[/spoiler]
Mystic London Gaslicht Ära (wofür ich es brauche weiß ich noch nicht)(Klicke zum Anzeigen/Verstecken)
Dungeons and Dragons Goblin Girl: (Das Bild ist hübsch, passt aber eher zu einer Halblingfrau.)
https://artflow.ai/gallery/33f04f30168148ddbdad2d186df03bc4 (https://artflow.ai/gallery/33f04f30168148ddbdad2d186df03bc4)
Wär ja nur für die kostenlosen Mitglieder wegen der kommerziellen Lizenzeinschränkung? Oder hab ich was falsch verstanden.
Ich bin immer noch begeistert,...Das ist schade — die NC-Lizenzen sind leider Sackgassen für Kreative (https://www.draketo.de/light/english/politics/free-culture-danger-noncommercial). Bei dem, was die Rechenzeit an Serverkosten verursacht (und CO₂-Emissionen …) kann ich das allerdings verstehen — wer bezahlt, darf sie ja ohne Einschränkungen nutzen (Beschäftigte großer Firmen müssen mehr zahlen — was ich gar nicht schlecht finde, so finanzieren die nämlich die Kleineren mit).
bezüglich der Bildrechte hab ich aber etwas gefunden:(ganz untem im Text)
https://www.chip.de/news/Ihre-eigene-Kunst-per-Mausklick-Das-muss-jeder-ausprobiert-haben_184386657.html
Hat schon jemand erfolgreich dort Gesichter von Fantasy Gnomen erzeugt? Bei mir kamen bisher immer nur Gartenzwerge heraus.Gnome sind mir schon immer das unklarste Volk gewesen. Sind es nicht einfach magisch begabte, rasierte Zwerge oder handwerklich interessierte Halblinge?
Hat schon jemand erfolgreich dort Gesichter von Fantasy Gnomen erzeugt? Bei mir kamen bisher immer nur Gartenzwerge heraus.
gnome fighter:: npc character:: d&d:: portrait:: --no hat red garden
Midjourney hat schon eine "Kernkompetenz" natürlich und einige Eigenheiten, an denen mal vieles erkennen kann - dennoch kann man mit etwas Manipulation schon sehr unterschiedliche Sachen herausbekommen, was das ganze ziemlich relativiert.
Bei mir kamen bisher immer nur Gartenzwerge heraus.Wo ich da gerade was von roten spitzen Hüten las...
Wo ich da gerade was von roten spitzen Hüten las...
Wirklich "Gartenzwerge" oder Redcaps (https://monster.fandom.com/wiki/Redcap) aus der englischen Folklore?
a d&d gnome
Mal eine Frage, Print-Produkte sollten eine Auflösung von ca 300 dpi haben. Das entspricht bei einer DIN A4 Seite ca 9 Megapixel. Die Maximale Größe von Midjourney beträgt 3 Megapixel. Somit beschränkt sich die Nutzung eher auf kleinere Bilder, wenn man keine Abstriche bei der Druckqualität machen möchte. Sehe ich das richtig oder habe ich mich verrechnet/etwas übersehen?
Ergänzung: Kann midjourney auch freigestellte Objekte darstellen, also ohne Hintergrund? Wenn ja, wie macht ihr das?Ich erzeuge fast nur Gesichtsbilder die ich als Token verwende. Und den Hintergrund entferne ich mit GIMP. Das geht meistens komplett mit der automatischen Funktion.
Ich erzeuge fast nur Gesichtsbilder die ich als Token verwende. Und den Hintergrund entferne ich mit GIMP. Das geht meistens komplett mit der automatischen Funktion.
Ich lese hier immer wieder mal, dass man MJ Bilder sofort erkennen würde und das manche Leute Angst davor haben, dass man sich daran satt sieht und alles mit MJ Bildern überflutet wird.
a small river runs through a medieval village surrounded by sequoia trees and a dramatic sky in the background, fantasy 8k resolution concept art movie poster hyperrealism matte painting digital art digital illustration 8K resolution bokeh HDR futuristic anime comic art
bringt nicht annähernd so schicke Ergebnisse... :-[
Was genau schreibst Du hinter den prompt von imagine, um die genannten Parameter zu erzwingen?
Ich sollte noch dazu sagen: Ich bin aus meiner Rechenzeit raus, habe also zwar bezahlt, aber muss jetzt im relaxed-mode weiter journeyn - wenn's einen Unterschied macht...
"Takeshi Kitano" as an old rogue with a lot of gems, caravaggio style, painting digital art digital illustration 8K
"Charlize Theron" as a pathfinder with a sword::500 , John Howe style, ultra details, 8K /private
Das waren mal wieder interessante Treffer. :)
Das waren mal wieder interessante Treffer. :)
Vampire teeth statt fangs?Gute Idee, aber irgendwie scheint ihnen da Quellmaterial zu fehlen: Burning eyes and bared vampire teeth:
Lokal laufende Stable Diffusion ist zwar langsamer, aber es kommen viel vielseitigere Ergebnisse raus:Auf höherer Auflösung mit 16GiB Ramverbrauch und über zwei Stunden Rechenzeit:
...Ich glaub ich beschreib zu schlecht... ~;D
[...]
Gute Idee, aber irgendwie scheint ihnen da Quellmaterial zu fehlen:
Ich bin gespannt, ob die KI in Zukunft evtl. noch erweitert werden wird.Alles 'ne Frage von Trainingsdaten... das ist in der Tat der größte Stolperstein bei KIs.
Alles 'ne Frage von Trainingsdaten... das ist in der Tat der größte Stolperstein bei KIs.Um ein Gefühl dafür zu geben: stable-diffusion von huggingface verwendet Laion2B-en (https://huggingface.co/datasets/laion/laion2B-en), das in 50 komprimierte 2,7 GiB parquet (https://www.upsolver.com/blog/apache-parquet-why-use)-Dateien aufgeteilt ist. Ein einzelnes Bild braucht 500kiB, das heißt, selbst wenn die Kompression nichts bringt, sind die Eingabedaten etwa 300 Millionen Bilder mit Beschreibung (und die Beschreibung muss irgendjemand geschrieben haben).
Und natürlich der Teil, der von fast allen Leuten gefühlt grob unterschätzt wird.
Hey PayThan!
Wenn Du hinter der ersten eckigen Klammer anstatt "img" folgendes schreibst "img width=333", dann kommen kleinere Vorschau-Bildgrößen raus, die auf mehr Geräten gut anzuschauen sind. ZB
Hinter dem zweitletzten Spoiler ist nichts mehr dahinter.
Die Nachtwächtergilde
Begriffe habe ich hier in etwa so eingegeben:(Klicke zum Anzeigen/Verstecken)(Klicke zum Anzeigen/Verstecken)(Klicke zum Anzeigen/Verstecken)(Klicke zum Anzeigen/Verstecken)(Klicke zum Anzeigen/Verstecken)(Klicke zum Anzeigen/Verstecken)(Klicke zum Anzeigen/Verstecken)(Klicke zum Anzeigen/Verstecken)
Alles 'ne Frage von Trainingsdaten... das ist in der Tat der größte Stolperstein bei KIs.
Die Bilder aus dem ersten Spoiler sind abartig gut! Das ein oder andere würde ich mir sogar an die Wand hängen :D
Ich glaub ich mag Nightcafe... für Szenenbilder ist das echt nicht übel 8)Wow, wie hast du die erstellt? (meine Cthulhu-SL wird das lieben!)
Wow, wie hast du die erstellt? (meine Cthulhu-SL wird das lieben!)
Next level?Aber erstaunlich wenig Aufrufe …
https://www.youtube.com/watch?v=bulNXhYXgFI&t=74s
Next level?
https://www.youtube.com/watch?v=bulNXhYXgFI&t=74s
Gefällt mir gut, obwohl ich ein leichtes cringe Gefühl dabei bekomme ;D
Next level?
https://www.youtube.com/watch?v=bulNXhYXgFI&t=74s
Next level?Ich find die KI-Bilder beeindruckend und ich mag ja auch die fuckin' Eagles. Das hat Potential, aber hier passts simmungsmäßig nicht so zusammen für mich.
https://www.youtube.com/watch?v=bulNXhYXgFI&t=74s
Noch zwei Animierte Bilder die mit MJ entstanden sind:Wow, wie krass. Das gibt ein völlig neues Medien-Genre.
https://media.discordapp.net/attachments/980876616387407882/1014461925024874536/video_1661936771596.mp4 (https://media.discordapp.net/attachments/980876616387407882/1014461925024874536/video_1661936771596.mp4)
https://media.discordapp.net/attachments/980876616387407882/1014461872700915754/video_1661936937341.mp4 (https://media.discordapp.net/attachments/980876616387407882/1014461872700915754/video_1661936937341.mp4)
Midjourney testet gerade photorealistische Ergebnisse :o
(https://cdn.discordapp.com/attachments/684722211654860831/1014476213517033572/Zed_Adriana_Lima_mixed_with_Charlize_Theron_as_a_crusader__iris_f51ecb58-06a7-40a1-b43f-a7748f4d1f7b.png)
Dazu den Parameter --testp hinzufügen.
Ich brauche für meine nächste Fallout Runde ein Bild eines 1950er Pin Up Alien Girl. Sowas ähnliches wie das hier: https://i.pinimg.com/originals/a5/d3/2c/a5d32c5816ce672c128e7ea8516dc9be.jpgHier als Ergebnis ein berühmtes Pin-Up-Girl der Quadragi, einem Volk vom Planeten Fiereg:
Hier als Ergebnis ein berühmtes Pin-Up-Girl der Quadragi, ein Volk vom Planeten Fiereg:
(https://cdn.discordapp.com/attachments/684722211654860831/1014542013439414392/Zed_Smiling_Adriana_Lima_as_a_green-skinned_alien_sitting_an_a__d03ea14b-a086-4933-ac7e-be5f5d9e95d5.png)
Das mit dem Cocktailglas in der Hand will einfach nicht klappen...
(https://cdn.discordapp.com/attachments/684722211654860831/1014549074902519858/Zed_Smiling_Adriana_Lima_as_a_green-skinned_alien_sitting_an_a__d033464f-5e77-41ca-837f-587065b19cb9.png)
Ich brauche auch gar nicht Animation. Mir würde es reichen, wenn man drehbare Modelle der Gesichter hat, die man selbst drehen kann. 8]Das geht mit https://artflow.ai/gallery/1cc8f2872f7f44a3803a15fed69f4a58 über reflow: Du kannst die Blickrichtung ändern (in gewissen Grenzen).
Wenn sich die Technik so rasant weiter entwickelt, kommen auf menschliche Illustratoren mittelfristig echt schwere Zeiten zu.
Die schöne neue Bilderwelt hat leider auch ihre Schattenseiten, geht mir gerade so im Kopf herum. Ich hab inzwischen tatsächlich die ersten Stock Art Bilder aus meinem RPG durch AI Art und somit einen Menschen durch einen Computer ersetzt.Auf Reddit diskutieren gerade Leute, wie stable-diffusion in Photoshop integriert werden kann, so dass Menschen die Grundentwürfe zeichnen und dann immer wieder durch daraus synthetisierte Zwischenstücke ergänzen. Im Endeffekt wird dadurch das Berufsbild geändert: Das wichtigste wird, den Stil zu definieren, der genau zum Produkt passt.
Auf Reddit diskutieren gerade Leute, wie stable-diffusion in Photoshop integriert werden kann, so dass Menschen die Grundentwürfe zeichnen und dann immer wieder durch daraus synthetisierte Zwischenstücke ergänzen. Im Endeffekt wird dadurch das Berufsbild geändert: Das wichtigste wird, den Stil zu definieren, der genau zum Produkt passt.
Wer das ganze gerne auf dem Heimischen PC kostenlos Nutzen möchte, da gibt es jetzt auch eine Open Source variante. Habs mir selbst mal eingerichtet was dank dieser Anleitung halbwegs einfach war: https://rentry.org/GUItardMit dem Repo von basujindal ( https://github.com/basujindal/stable-diffusion ) kannst du es auf der CPU laufen lassen — das ist zwar viel langsamer, aber bei mir geht es bis 1024x1024 hoch (vermutlich noch höher, das braucht 17 GiB Ram, ich habe 32 GiB, es brauchte aber schon 2 Stunden für ein Bild auf 1024x1024, deswegen lass ich das, wenn ich am Spielen bin, um die besten Parameter zu finden). Das kannst du dann für die späteren Pipelines als Eingabe nutzen. Hier gibt es noch Tipps, um davon auch mit einem normalen System auf höhere Auflösung zu kommen: https://www.reddit.com/r/StableDiffusion/comments/wxm0cf/txt2imghd_generate_highres_images_with_stable/
Dann brauchen wir ja nur noch jemand, viel schlaueres als mich, der das ganze auf der GPU berechnen lässt aber den normalen RAM als zwischenspeicher nutzt.
Dann brauchen wir ja nur noch jemand, viel schlaueres als mich, der das ganze auf der GPU berechnen lässt aber den normalen RAM als zwischenspeicher nutzt. So ganz hab ich noch nicht aufgegeben das es auf meiner Grafikkarte in höheren Auflösungen klappt...zumindest etwas höher. Scheint nur 4 GB von meinen 8 nutzen zu wollen ATM...na mal sehen evtl. finde ich morgen mehr raus.Der von mir verlinkte Klon des Repos macht das schon, kommt damit aber nur auf ~6GiB VRAM runter.
Die schöne neue Bilderwelt hat leider auch ihre Schattenseiten, geht mir gerade so im Kopf herum. Ich hab inzwischen tatsächlich die ersten Stock Art Bilder aus meinem RPG durch AI Art und somit einen Menschen durch einen Computer ersetzt. Wenn sich die Technik so rasant weiter entwickelt, kommen auf menschliche Illustratoren mittelfristig echt schwere Zeiten zu. - Wobei die größte Ironie dabei ja ist, dass die KI für ihre eigenen Bilder schlicht auswertet, was zuvor von Menschen erstellt wurde. Da stelt sich natürlich auch die Frage, ob die KI irgendwann mal wird eigene Stile entwickeln können, denn falls nicht, wird die Bilderwelt letztlich verarmen, da ohne menschliche Maler dann nur noch "altes Zeug" wieder aufgewärmt wird... Auf jeden Fall ein sehr spannendes Themenfeld, was uns in Zukunft sicher noch bewegen wird. :think:
"Die Fotografie ist der Todfeind der Malerei, sie ist die Zuflucht aller gescheiterten Maler, der unbegabten und der Faulen."
-- Charles Baudelaire (1821-1867)
Ich weiß ja nicht, wie es bei dir ist, aber meine Kamera nimmt leider nicht von selbst Bilder auf... :P ;)
Jupp, das hat sich Charles Baudelaire auch anhören müssen ;)
Das war nicht der Punkt. Eine KI kann ich 24/7 mit zufallsgenerierten Stichwörter füttern und damit Bilder ereugen lassen, ohne dass dabei dann noch ein Mensch (unmittelbar) beteiligt ist...
...aber etwas menschlicher Input ist sicher durchaus von Vorteil. 8](Klicke zum Anzeigen/Verstecken)
Ich weiß ja nicht, wie es bei dir ist, aber meine Kamera nimmt leider nicht von selbst Bilder auf... :P ;)Mein KI-Modell will dafür auch prompts von mir — und dann das Aussortieren des Ausschusses und vielleicht noch Nachbearbeitung, bis es passt.
...aber etwas menschlicher Input ist sicher durchaus von Vorteil.Ich denke, menschlicher Input bei Artwork wird in Zukunft nur mehr ein Ausdruck von Snobismus sein. Made by Human so wie man heute halt mit dem Bild eines berühmten Malers angibt (und Millionen zahlt), wo der "Laie" keinen Unterschied zum Gekritzel eines Kleinkindes erkennt.
Du selbst hast zugegeben Stock Bilder gegen KI Bilder ausgetauscht zu haben.
Was natürlich umgekehrt bedeutet, dass dir die KI Kunst besser gefallen hat als von Menschen erschaffene Stock Bilder.
Und genau hier kommt dann mein Gedanke ins Spiel, dass ich mit der KI bzw. der Möglichkeit jetzt selber unter Nutzung dieser Technik Bilder erstellen zu können, die Arbeit eines anderen Menschen (in Bezug auf mein Projekt und bestimmte spezifische Bilder) tatsächlich überflüssig gemacht habe.Ja hast du. Ebenso immer wenn du industriell gefertigte Ware (oder Nahrung) kaufst anstatt handgefertigte. Oder Online-Banking benutzt. Oder mit dem Auto fährst anstatt einen Kutscher zu bezahlen. Oder mit dem (evtl. sogar selbstfahrenden) Staubsauger die Wohnung reinigst, anstatt eine Putzkraft anzustellen.
Die Kunst der breiten Masse wird schon in wenigen Jahren großteils automatisch generiert werden. Vor allem wenn es eben nicht um Kunst, sondern um Illustration geht.Ich gehe eher davon aus, dass noch viel mehr illustriert werden wird. Bisher ist die Kunst der Breiten Masse eh schon Unsplash u.ä. Stock-Art.
Mann gewinnt Wettbewerb mit KI-Gemälde – Künstler sauer (https://www.derstandard.at/story/2000138726264/mann-gewinnt-wettbewerb-mit-ki-gemaelde-kuenstler-sauer)
War ja fast schon klar, dass es ein "Gamer" war, der mit dieser Idee angetreten ist. ;D
---
Andere Überlegung: Die Frage, ob man ein Rollenspiel (zumindest in Teilen) mit AI Art illustrieren kann, kann ich inzwischen wohl eindeutig mit JA beantworten. Spannend ist allerdings die Frage, ob man für sein Produkt eigentlich einen eigenen Stil entwickeln kann oder ob die Eingaben anderer Nutzer der AI bei ähnlichen Ausgangsbegriffen wohl auch ähnlich Bilder bzw. einen ähnlichen Look erzeugen? :think:
Warbirds - Flugzeuge (Das klappt mit MJ noch nicht so gut):Künstlerisch finde ich die tatsächlich toll. Als Illus von tatsächlichen Flugzeugen aber nur mäßig brauchbar ;D
Künstlerisch finde ich die tatsächlich toll. Als Illus von tatsächlichen Flugzeugen aber nur mäßig brauchbar ;DDas ist bisher auch mein Fazit zu den generierten Bildern (auch den hier generierten direkt mit stable-diffusion): Die Bilder sind schön, aber sie ersetzen keine Weltgetreuen Illustrationen sondern eher Stock Art. Es hat mir bisher eher gezeigt, erstens wie viel künstlerische Qualität möglich ist, aber auch zweitens, dass ich wenn ich ein Bild haben will, das wirklich bestimmte Konzepte verwirklicht, dafür einen Illustrator will.
... dass ich wenn ich ein Bild haben will, das wirklich bestimmte Konzepte verwirklicht, dafür einen Illustrator will.
Kenn mich da ja nicht so aus, aber ist es tatsächlich so, dass Ilustratoren für Rollenspielprodukte maßgeschneiderte Bilder abliefern ?
Update zu Fangzähnen: Mein lokales stable-diffusion kann Fangzähne.
Aber mal sowas von:(Klicke zum Anzeigen/Verstecken)
Insgesamt habe ich an einem Abend 36 Bilder herausbekommen, die ich als „brauchbar“ einstufe.Der Punkt ist ja grade, dass es nicht nur brauchbar sein soll. Ich habe für meine Motivations-Idee inzwischen (nach einer Woche auf CPU) auch etwa 10 Bilder, die ich als guten Anfang sehe. Aber kannst du dir damit ein Engel-Regelwerk vorstellen?
Mir ist aber klar, dass ich noch deutlich bessere Bilder und andere Styles mit MJ produzieren könnte, wenn ich bereit währe mehr Zeit dafür zu investieren.
Wie viele unterschiedliche Bilder schaft ein Illustrator an einem Abend ?
Midjourney gewinnt 1. Platz (https://www.gamestar.de/artikel/ki-erster-platz-kunstwettbewerb-kuenstler-stinksauer,3383991.html) bei einem Design-Wettbewerb in der Sparte Digitale Kunst. Normale Künstler sind jetzt stinksauer.Das war nicht nur Midjourney:
Demnach habe er hunderte Bilder von der KI erstellen lassen, diese dann in wochenlanger Arbeit feingeschliffen, am Ende die besten drei ausgewählt, per Gigapixel-AI skaliert und auf Leinwand gedrucktWäre spannend, die unbearbeiteten Versionen zu sehen. Wochenlange Arbeit — da haben die Künstler vermutlich weniger Zeit investiert. Und Hoch-Skalierung von Bildern könnte auch bis dahin rein händisch erstellten Illustrationen den letzten Schliff verleihen. Wer malt schon gerne 150 Schuppen einzeln? Echte Künstler verwenden besondere Pinsel (https://www.davidrevoy.com/article893/speedpaintings-brushes-tips-and-4-timelapses-krita-5), um das zu minimieren — jetzt gibt es einen Pinsel mehr.
.... jetzt gibt es einen Pinsel mehr.
Wochenlange Arbeit — da haben die Künstler vermutlich weniger Zeit investiert.
Uhrwerk Charakter für "Schatten des Dämonen Fürsten"(Klicke zum Anzeigen/Verstecken)
Das Bild hat mich inspiriert.
Ich bin ziemlich platt angesichts der hier gezeigten Resultate.
Eine kurze Frage/Bitte an die ganzen Kunstschaffenden hier:
Es gab auf Seite 4 dieses Threads den Versuch von PayThan, mit Hilfe der KI einen Dungeon erstellen zu lassen...
Ich glaube das wird schwer, weil die KI (zumindest MJ) doch recht zufällig arbeitet. So richtig Kunstschaffende sind wir ja nicht. Ich für meinen Teil füttere die KI nur mit Begriffen, lade hin und wieder Vergleichsbilder hoch und hoffe, dass was passendes dabei herauskommt. Manche Sachen kann man gut umschreiben, andere weniger gut.
Bei den Karten wird es viel, viele, viele Wiederholungen brauchen um ein passendes Ergebnis zu erzielen (oder Glück, gepaart mit der richtigen Wortwahl). Wenn du irgendeine Karte in dem Stil haben willst, das ist kein Problem. Die spezielle Region wird schon schwieriger.
Vielen Dank aber auch so schon mal für den Einsatz :)
Viele Grüsse
torben
Ich frage mich da ja, wie lange es wohl noch gehen wird, bis jemand auf die Idee kommt, Beschreibungspfade für Bilder urheberrechtlich schützen zu lassen (falls das nicht schon probiert wurde... ::) :gasmaskerly:Die prompts werden anscheinend schon verkauft.
Leider muss ich vor der Lizenzsituation warnen: [...]
Does the license allow me to sell my creations or use them for commercial purposes?
Short answer: Yes, provided you didn't use any Copyrighted images in the creation process, and subject to the Copyright laws in your jurisdiction.
Copyright laws for AI-generated artworks are still evolving, and vary from country to country. It's up to you to check the Copyright laws in your own country.
In jurisdictions where NightCafe is deemed the Copyright holder (as the AI-generation platform), we agree to transfer the Copyright ownership to you - the creator - to use however you like, provided that you didn't use any Copyright restricted images to create it.
That means, as long as you own (or have permission to use) any input images you used, you will be assigned Copyright by us. For style transfer, you must have copyright permission for the content and style images. For text-to-image artworks, you must have copyright permissions for any start and target images. If your creation doesn't use any other images, you're welcome to use it for commercial purposes.
We do our best to ensure that only public domain and royalty-free images appear in the preset styles and free images tabs of the image picker, but we don't guarantee that these images are free of copyright limitations, and it's up to you to double-check.
Es wäre also an dieser Stelle gut, mal rauszufinden, was der deutsche Gesetzesgeber zum Urheberrecht in Bezug auf AI Bilder sagt. - ICh fürchte bloß, dass ist leider noch "Neuland"...Um das noch einmal zu betonen, urheberrechtlich ist die Lage glasklar: KI-generierte Bilder genießen keinen urheberrechtlichen Schutz, weshalb dir auch gar keine Nutzungsrechte abgetreten werden können (da diese nicht existieren). Problematisch kann es also allenfalls werden, wenn andere Schutzrechte greifen – Markenrecht, Persönlichkeitsrecht, Jugendschutz und dergleichen. Im Falle des Persönlichkeitsrechts gibt es natürlich signifikante Ausnahmen wie Personen der Zeitgeschichte (worunter bekannte Hollywood-Schauspieler ziemlich sicher fallen) oder die Kunstfreiheit, weshalb es da tatsächlich einige ungewisse Faktoren gibt (allen voran "Fallen KI-generierte Bilder unter die Kunstfreiheit?").
Um das noch einmal zu betonen, urheberrechtlich ist die Lage glasklar: KI-generierte Bilder genießen keinen urheberrechtlichen Schutz.
Worauf begründet sich das (ich fänds spannend das zu wissen...)? KI ist ja ein Werkzeug, dass hier zur Erschaffung eines Werks verwendet wird. Sollte das Urheberrecht damit nicht für den Erschaffer gelten? Oder fehlt hier einfach die Schöpfungshöhe?Grundlegend fehlt die Schöpfungshöhe. Erstmal konkret zum Fall hier: Das Modell zur Generierung und der Quellcode haben ausreichende Schöpfungshöhe, und da gelten die Einschränkungen der Lizenz. Wenn du aus dem Modell also ein Bild bekommst, und die ursprüngliche Plattform dabei die Lizenz verletzte, hast du das Bild nie legal erhalten, weil sie es dir nicht hätten geben dürfen.
Mal davon ausgehend, dass ich die Bildrechte übertragen bekomme (d.h. das deutsche Recht würde es so anerkennen), warum sollte ich denn dann gleich wieder darauf verzichten, wenn ich sie für ein RPG Buch nutzen will? :think:Nur kurz meine persönliche Antwort (kein Diskussionsangebot): Ich verzichte nicht darauf, sondern lege fest, dass andere sie nutzen dürfen, solange sie allen die selben Rechte geben, die sie selbst hatten. Hintergrund: Ich denke, dass bei Rollenspielen die Kreativität der einzelnen Runden zusammen die Kreativität beim Schreiben des Regelwerks deutlich übersteigt, so dass die Regelwerke frei und copyleft lizensiert sein sollten, damit sie gemeinsam immer weiter verbessert werden können. Mehr Hintergrund: http://www.1w6.org/deutsch/anhang/freies-rollenspiel
Worauf begründet sich das (ich fänds spannend das zu wissen...)? KI ist ja ein Werkzeug, dass hier zur Erschaffung eines Werks verwendet wird. Sollte das Urheberrecht damit nicht für den Erschaffer gelten? Oder fehlt hier einfach die Schöpfungshöhe?
Grundlegend fehlt die Schöpfungshöhe.Zur Betrachtung der Schöpfungshöhe kommt es hier nicht einmal, da das Urheberrecht ein auf dem Schöpferprinzip aufbauendes personenbezogenes Recht ist und eine KI schlicht keine Persönlichkeitsrechte hat. Wo keine Person, da kein Urheberrecht. Und wie schon weiter oben im Thread dargelegt, reicht weder die bloße Beschreibung des zu anfertigenden Werks in Worten aus, um als dessen Schöpfer zu gelten, noch kann der Bereitsteller der verwendeten Software ein Urheberrecht auf damit erstellte Werke beanspruchen (ebenso wenig wie Microsoft auf in Word verfasste Texte zum Beispiel).
Wenn du aus dem Modell also ein Bild bekommst, und die ursprüngliche Plattform dabei die Lizenz verletzte, hast du das Bild nie legal erhalten, weil sie es dir nicht hätten geben dürfen.Okay, hier geht es, so weit ich das ausmachen kann, konkret um Stable Diffusion, was eine wichtige Spezifizierung ist. Das von dir hier angeführte Beispiel ist für mich etwas unklar, aber ich versuche es trotzdem mal: Angenommen, eine Webseite betreibt dieses Modell und verstößt in irgendeiner Form gegen die Lizenz, können die Entwickler ihr die Verwendung dieser Software rechtlich untersagen. Da die dort widerrechtlich generierten Bilder aber keinen urheberrechtlichen Schutz genießen, sind sie nach wie vor gemeinfrei und niemand kann Ansprüche gegen die Verwendung dieses Materials geltend machen. Wie immer hilft die Übertragung: Du hast eine Illustration für dein Rollenspiel von einem Künstler anfertigen lassen, allerdings stellt sich hinterher heraus, dass er Photoshop illlegal heruntergeladen hat. Natürlich kann Adobe jetzt Ansprüche für die widerrechtliche Nutzung der Software gegen ihn erheben, sie können dir aber nicht die Verwendung der Illustration untersagen, da deren Urheber- und Nutzungsrechte vollkommen unabhängig vom Lizenzverstoß betrachtet werden.
In der Lizenz steht nämlich, dass die Leute, die das Modell laufen lassen, verantwortlich dafür sind, dass die zukünftige Nutzung des Bildes nicht gegen die Lizenz verstößt.Das ist eine schwammige Formulierung, die mir relativ irrelevant erscheint – schließlich ist eine widerrechtliche Nutzung durch andere nicht deine Schuld, weshalb du schlecht dafür belangt werden kannst. Und auch hier gilt, daß das auf den urheberrechtlichen Status der Bilder letztendlich keinen Einfluss hat.
Zur Betrachtung der Schöpfungshöhe kommt es hier nicht einmal, da das Urheberrecht ein auf dem Schöpferprinzip aufbauendes personenbezogenes Recht ist und eine KI schlicht keine Persönlichkeitsrechte hat. Wo keine Person, da kein Urheberrecht. Und wie schon weiter oben im Thread dargelegt, reicht weder die bloße Beschreibung des zu anfertigenden Werks in Worten aus, um als dessen Schöpfer zu gelten, noch kann der Bereitsteller der verwendeten Software ein Urheberrecht auf damit erstellte Werke beanspruchen (ebenso wenig wie Microsoft auf in Word verfasste Texte zum Beispiel).
Wie ich an anderer Stelle schrieb denke ich das hier das lezte Wort noch nicht geschrieben ist.Eventuelle künftige Neuregelungen sind halt reine Spekulation, auf Basis derer sich keine aktuellen Rechtsfragen beantworten lassen. ;)
Ich verweise auf die Diskussion ob Fotografien dem Urheberrecht unterliegen.Der Vergleich hinkt insofern, als dass bei Fotografien die Frage im Raum stand, ob sie die Schöpfungshöhe erreichen. Bei KI-generierten Bildern stellt sich das wesentlich anders gelagerte Problem, dass es schlicht keinen Schöpfer im Sinne des Personenrechts gibt. Insofern ist urheberrechtlicher Schutz eigentlich ausgeschlossen, sofern sich an diesem Umstand nichts ändert. Die Einführung eventueller neuer Schutzrechte ist dann wiederum Zukunftsmusik.
Freut mich sehr zu sehen, dass die KI unser Hobby bereichert !
Ich glaube, es ist in Bezug auf Rollenspiele sinnvoller, zuerst ein Bild erstellen zu lassen und sich davon zu einem Ort inspirieren zu lassen, als zu versuchen, ein Bild eines Ortes zu bekommen, den man sich ausgedacht hat.
Eventuelle künftige Neuregelungen sind halt reine Spekulation, auf Basis derer sich keine aktuellen Rechtsfragen beantworten lassen. ;)
Der Vergleich hinkt insofern, als dass bei Fotografien die Frage im Raum stand, ob sie die Schöpfungshöhe erreichen. Bei KI-generierten Bildern stellt sich das wesentlich anders gelagerte Problem, dass es schlicht keinen Schöpfer im Sinne des Personenrechts gibt. Insofern ist urheberrechtlicher Schutz eigentlich ausgeschlossen, sofern sich an diesem Umstand nichts ändert. Die Einführung eventueller neuer Schutzrechte ist dann wiederum Zukunftsmusik.
Freut mich sehr zu sehen, dass die KI unser Hobby bereichert !
So sehen bspw. meine Kreationen via Nightcafe im Kontext des Buches ausWow. Schaut echt professionell aus.
Wow, total schöner Stil!
Mein Tipp für diejenigen, die etwas frustriert sind. (Ich bin auch eher Laie aber das hat meine Sachen verbessert)
- Manchmal braucht es mehere Iterationen
- Gut ist ein Statement wie "full body shot"/"portrait" und "standing in XYZ"
- Man sollte am Ende den Stil angeben. "artstation", "octane render", "watercolors", "anime, studio ghilbi" haben für mich gut funktioniert.
Für "full body" Bilder eignen sich Hochkantformate am besten 3:4 / 2:4
Mir ist aufgefallen das je größer die Seitenverhältnisszahlen werden, 9:16 z.Bsp. die KI öfters zwei Personen auf der Fläche unterbringt. D.h. die erstellte Figur hat auf Bauchhöhe ein weiteres Gesicht usw.
Die Philosophische frage wäre also: Ist KI erzeugte Kunst weniger „wertvoll“ als Menschlich erschaffene Kunst?
Wenn Menschen nicht mehr denken, fotografieren, rechnen, schreiben, zeichnen, konzipieren, entwerfen, weben, bauen, sondern nur noch Maschinen bedienen können, ist das nicht beeindruckend.
Ob es die Zukunft ist? Wahrscheinlich schon. Ist es beeindruckend? Nein, ist es nicht. Genau, wie wir das Schreiben von Hand verlernen, wenn wir tippen und Sprachnachrichten versenden. Brauchen wir Handschrift? Wahrscheinlich nicht, wären wir in einer postapokalyptischen Welt aufgeschmissen, weil wir alles verlernten, ausser uns auf Maschinen zu verlassen? You give the answer…
Ebenso auch die Schriften: Du könntest glauben, sie sprächen, als verständen sie etwas, fragst du sie aber lernbegierig über das Gesagte, so bezeichnen sie doch nur ein und dasselbe. Ist sie aber einmal geschrieben, so schweift auch überall jede Rede gleichermaßen unter denen umher, die sie verstehen, und unter denen, für die sie nicht gehört, und versteht nicht, zu wem sie reden soll und zu wem nicht. Und wird sie beleidigt oder unverdienterweise beschimpft, so bedarf sie immer ihres Vaters Hilfe; denn selbst ist sie weder sich zu schützen noch zu helfen imstande.
Wenn Menschen nicht mehr denken, fotografieren, rechnen, schreiben, zeichnen, konzipieren, entwerfen, weben, bauen, sondern nur noch Maschinen bedienen können, ist das nicht beeindruckend.
Midjourney & Co.: Erste Kunstportale verbieten Werke von KI-Bildgeneratoren (https://www.heise.de/news/Midjourney-Co-Erste-Kunstportale-verbieten-Werke-von-KI-Bildgeneratoren-7261935.html)
aus gegebenem Anlass
Die KI macht das genau so, nur eben viel schneller, und das soll jetzt falsch sein ?
Die KI macht das genau so, nur eben viel schneller, und das soll jetzt falsch sein ?
"Genau so" macht die KI es nicht. Denn die Künstler verstehen aus welchem Grund sie eine Technik nutzen und welchen Eindruck sie damit erwecken wollen.
Die KIs verwenden "nur" Mustererkennung um aus vorhandenem Material sich Versatzstücke zu nehmen und vergleichbare Bilder zu erzeugen.
Da würde ich schon noch einen Unterschied in der Art des Lernens wahrnehmen und dieser bestimmt meines Erachtens durchaus auch wie viel Eigenanteil dabei ist.
Das mit der Mustererkennung mag ja stimmen.
Der Punkt ist, dass als Grundlage (sowohl Mensch als auch KI) Bilder anderer Künstler dienen.
Wieso soll dass beim Menschen Ok sein, bei der KI aber verwerflich ?
Versteh ich nicht ?
Es ist eben ein Unterschied, ob ein Mensch sich jahrelang die Mühe macht, eine passende Software auf seiner Wetware zu bauen (lernen) oder ob jemanden vorhandenen Code benutzt, um das je nach skalierbarer Hardware in Sekunden machen zu lassen. Manche Leute wollen eben nur das eine honorieren.
Ist der gleiche Grund aus dem die meisten Leute keine Ruder- oder Tennisroboter in Wettbewerben für Menschen haben wollen. Spräche ja auch nichts dagegen.
Für ein zwar sehr realistisch anmutendes Bild aus den Eingeweiden von DAZ Studio bekam da so mancher den freundlichen aber deutlichen Hinweis, dass das niemand beeindruckt.
Es ist eben ein Unterschied, ob ein Mensch sich jahrelang die Mühe macht, eine passende Software auf seiner Wetware zu bauen (lernen) oder ob jemanden vorhandenen Code benutzt, um das je nach skalierbarer Hardware in Sekunden machen zu lassen. Manche Leute wollen eben nur das eine honorieren.
Ist der gleiche Grund aus dem die meisten Leute keine Ruder- oder Tennisroboter in Wettbewerben für Menschen haben wollen. Spräche ja auch nichts dagegen.
Ja stimmt, die KI macht das nicht genau so, sie macht es sogar effektiver !
@Gondalf
Aber schöne Sachen dabei!
@GondalfJa, wobei ich mich beim mittleren Bild frage, warum
Aber schöne Sachen dabei!
battletech fuse warhammer 40k? Hätte da nicht einfach "Tales from the Loop" gereicht? War mein erster Gedanke bei dem Bild.
Da fällt mir das ein ;DÜber die Anatomie müssen wir nicht reden, aber der Stil ist bildschön für street art
https://m.youtube.com/watch?v=l-yeuE9hcMY
Man kann auch mehrere Künstler kombinieren, dann entsteht ja schon etwas eigenes.
Oder haben dann alle Künstler Rechte daran?
Banksy trifft Wittkowski und die malen Samurais ~;D
(https://mj-gallery.com/52a85cd8-165f-4dec-ae5a-1834c9e86799/grid_0.png)
Ja, wobei ich mich beim mittleren Bild frage, warum ? Hätte da nicht einfach "Tales from the Loop" gereicht? War mein erster Gedanke bei dem Bild.
Ja, wobei ich mich beim mittleren Bild frage, warum ? Hätte da nicht einfach "Tales from the Loop" gereicht? War mein erster Gedanke bei dem Bild.
Wieder was schönes gefunden. Eine Kunst Datenbank von Bildern die mit Stable Diffusion erstellt worden sind. Und bei jedem stehen die Promts dabei. Wenn einem da was gefällt hat man eine gute Basis an Promts um was eigenes zu generieren.Die Suchfunktion dort hat ne Macke. Egal was ich eingebe, es kommt der Fehler: Request failed with status code 404
https://lexica.art/
Die Suchfunktion dort hat ne Macke. Egal was ich eingebe, es kommt der Fehler: Request failed with status code 404
Danke für den Tipp. Ajani und leonine sind wohl mal gute Schlagworte (Auch wenn das Gesicht immer noch seltsam ausschaut). Bei mir hat lionfolk immer nur zu verzerrten Steinlöwen geführt.
action figure of anthro furry lion warrior, armor, digital painting, fantasy rpg --test
action figure of anthro furry lion warrior, khajiit, armor, digital painting, fantasy rpg --test
Hier klappt es, mit Firefox und EdgeChromium.
Vielleicht nur zeitweise am Wackeln der Service.
Puh, das Ding hat mich 10 Anläufe gekostet, aber jetzt entspricht es in etwa meiner Vorstellung. Könnte ich jetzt noch mit GIMP umgehen...
(https://images.nightcafe.studio/jobs/T9ebYDt0s5Q42xKjYWeT/T9ebYDt0s5Q42xKjYWeT--1--NSRD7.jpg)
Puh, das Ding hat mich 10 Anläufe gekostet, aber jetzt entspricht es in etwa meiner Vorstellung. Könnte ich jetzt noch mit GIMP umgehen...
(https://images.nightcafe.studio/jobs/T9ebYDt0s5Q42xKjYWeT/T9ebYDt0s5Q42xKjYWeT--1--NSRD7.jpg)
Was würdest du den ändern wollen (man könnt es ja mal versuchen)?
Da ich auch nicht perfekt in deinen Kopf sehen kann ist da sicher nicht alles, wie du es dir vorstellst, aber ich habe mal ein wenig gebastelt, denn das hat mich jetzt gereizt. Für weitere Wünsche sollten wir das wohl besser auslagern in eine private Unterhaltung ;)
So wie Fotografie der Vorläufer des Films war, könnten diese KI-Bilder Vorläufer von KI-Animationsfilmen sein. Was meint Ihr, wann sehen wir den ersten KI-Film? In 8 Jahren?
Ich stelle übrigens fest, dass meine initiale "Sucht" nach dem Tool nach 500+ generierten Bildern langsam nachlässt, weil mir nichts mehr Interessantes einfällt. :-[
Kleine Spielerei am Wochenende ;D(Klicke zum Anzeigen/Verstecken)
Das war aber nicht Midjourney, oder?
Doch schon.
Das war die Eingabe:(Klicke zum Anzeigen/Verstecken)
Kann man auch sehr einfach variieren, dann kommt z.B so was raus:
(https://cdn.discordapp.com/attachments/1004442477442383902/1030822579532988416/Paythan_Adorable_Tiny_Anthropomorphic_Mouseranger_wearing_overs_14ad848f-9c27-4dcf-abb5-b67ee672e8f2.png)
(https://cdn.discordapp.com/attachments/1004442477442383902/1030823075731751016/Paythan_Adorable_Tiny_Anthropomorphic_Mouseranger_wearing_overs_3ab02bed-3e31-40d7-8428-958af5b703b7.png)
Da müsste man natürlich noch mit Photoshop drüber gehen und z.B das zweite paar Ohren wegmachen, aber ansonsten klappt es ziemlich gut.
Ein Heise-Artikel darüber, wie sich einige Künstler:innen positionieren, wenn ihre Bilder zu Trainingszwecken (https://www.heise.de/hintergrund/Wie-sich-Kuenstler-gegen-die-Nutzung-ihrer-Bilder-als-KI-Vorlagen-wehren-7306494.html?seite=3) herangezogen wurden.
Google gewann auch einen Prozess gegen Autoren, die sich dagegen wehrten, dass das Unternehmen ihre urheberrechtlich geschützten Werke für Google Books auswertetDas war übrigens schon 2016,...
Interessant fand ich auf Seite 3:Das war übrigens schon 2016,...
Ich hab ja mal vor Jahren ein Kartenspiel entwickelt, was mit einem Tarot Deck gespielt wird. Ich hab aber nie wirklich das perfekte Deck dafür gefunden (tatsächlich hab ich letztlich zwei zu einem kombiniert, obwohl die Karten nicht ganz gleich groß und die Rückseiten nur recht ähnlich sind) und dachte mir gerade eben: Schau doch mal, ob du so ein Deck nicht mit Stable Diffusion erstellen kannst!
Und was soll ich sagen? Ich bin gerade halb durch die großen Arcana durch und wenn ihr jetzt sehen könnten, was da teilweise jetzt schon für Hammer-Bilder bei rausgekommen sind! :o
Das wird jetzt zwar etwas Arbeit werden, aber ich glaube, damit kann ich tatsächlich ein eigenes Deck erstellen, was ich dann (nach aktueller Lage) auch uneingeschränkt nutzen kann. 8)
Feststellung 1) Mit der Darstellung von Giff-Charakteren für D&D-Spelljammer tut sich Nightcafe etwas schwer.
Feststellung 2) Aber der Gesichtsausdruck des Nilpferdes ist großartig! ;D
(https://images.nightcafe.studio/jobs/eHJwAD0jm4eX3q3kKR0U/eHJwAD0jm4eX3q3kKR0U--1--n29ky_6x.jpg?tr=w-1600,c-at_max)
Was ich noch spaciger finde, ist das beide Reiter zusammen offenbar nur ein paar Beine haben. Entweder, der Vordere steckt irgendwie im Nilpferd drin - oder es handelt sich tatsächlich nur um einen Reiter und nicht um zwei. Und wenn dem Reiter wirklich ein zweiter Oberkörper aus dem Gemächt wächst, erklärt sich der Blick des Nilpferdes dann irgendwie doch recht schlüssig.
Ja ich bin immer überrascht wie schlecht Waffen generiert werden. Dwarf with an Axe -> sieht zwar wie ein Zwerg aus, aber die Axt wird irgendwie nix richtiges. Image2Image mit ner Axt geht irgendwie, aber nur aus Rauschen wird es irgendwie nix. Scheint zu wenig in den "Lern-Bildern" vorzukommen bzw. evtl. nicht gut getaggt.Habe Bilder, wo die Klinge der Waffe mit den Haaren verwoben wurde. :o wtf?
Zu dem Thema gibt es ein (recht lustiges) Video bei Youtube auf dem Kanal von Skallagrim: https://youtu.be/rksJ8N-s8scMehr als 2h Video ist auch eine Ansage. :o
Mein Lieblingszitat aus den Kommentaren dazu: AI generated art is what every Lovecraft character sees before they die.
Mehr als 2h Video ist auch eine Ansage. :o
Ein paar Reittiere für Numenera ?wtf...
Reittiere waren bis jetzt in MJ auch immer schwierig.
Mit der –v 4 Version wird es deutlich besser !
Ein paar Reittiere für Numenera ? Bitte sehr:(Klicke zum Anzeigen/Verstecken)
Die Reittiere sind der Wahnsinn! Aber kaum ein Reiter, bzw deren Unterkörper passt da wirklich gut. Entweder sind die Beine ganz komisch, die Sitzposition unmöglich oder der Unterkörper komplett abgeschnitten. Trotzdem geniale Reittiere. :)
wtf...
Magst du evtl. die Befehle teilen, die zu diesen unglaublichen Bildern geführt haben?
MJ spuckt bei mir zwar nette Sachen aus, aber nichts annähernd in dieser Qualität.
klar, z.B: Knight in sci-fi armor rides on a slime creature --v 4Vielen lieben Dank. Ich hatte da jetzt mit einer elendslangen Liste gerechnet, bin echt überrascht.
oder Knight in sci-fi armor rides an armored beetle --v 4
Noch ein paar Bildchen für meine Numenera RundeWow. Die werden gleich geklaut.
Hat mal wer geschafft, einen Halb-/Ork mit der KI zu erschaffen? Meistens fehlen die verlängerten Eckzähne und relativ häufig auch die Spitzohren.
Meine Güte, Sphinx, was sieht das klasse aus! :o :)
Aber so was von... :d das einzige negative: seitdem ich letztes Jahr das Malprogramm "Krita" entdeckt hatte, hatte ich überlegt mir ein Grafiktablett zuzulegen und mich dann mit Krita auseinander zu setzen....
Aber wenn ich mir die Bilder so anschaue, ... "vergiss es, so gut wirst du zu Lebzeiten nie". :-\ Andererseits wenn ich mir die letzten Postings so durchlese... vielleicht sollte ich doch mit malen und zeichnen anfangen und mich dann auf nicht-menschliche Kreaturen spezialisieren... und auf Hände ;)
Von meiner halben Stunde und dem Versuch meinem vorhandenen Zwergen Charakter eine Kristallstruktur auf der Wange (Überbleibsel eines bösen Fluchs) zu verpassen....ich hab es erst mal aufgegeben.
Was wie ich finde besser funktioniert ist vom NNetz was erstellen lassen und sich dazu dann seine story auszudenken.
Da es jetzt vielleicht etwas offtopic wird, verstecke ich das mal....(Klicke zum Anzeigen/Verstecken)
Hier hat jemand ein Modell anhand von D&D-Artwork trainiert:Lade es mir gerade runter, werde es testen und mal schauen was es ausspuckt.
https://www.reddit.com/r/StableDiffusion/comments/yskhce/my_new_dd_model_trained_for_30000_steps_on_2500/
Die KI schafft nur das grobe. Es ist sehr zeitaufwändig ein Bild hinzubekommen, welches auch kleinere Wünsche und Details umsetzt.Sicherlich richtig. Aber bei >90% aller Illustrationen wird es wohl ein "ich brauche etwas, das ungefähr XY zeigt" tun und das heißt, 90% der Illustrationsarbeit wird automatisiert werden.
Selbst zu zeichnen wird.auf jeden Fall mehr Freiheiten geben.
Sicherlich richtig. Aber bei >90% aller Illustrationen wird es wohl ein "ich brauche etwas, das ungefähr XY zeigt" tun und das heißt, 90% der Illustrationsarbeit wird automatisiert werden.Ja absolut, ich bin immer wieder überrascht wie oft das gezeigte Bild für eine Scene in einem Abenteuer höchstens grob zur Beschreibung im Text passt.
Interessant wird es, was das in Zukunft mit "ikonischen Charakteren" macht (z.B. die DSA5-Helden, die auf den meisten Bildern drauf sind). Wird man so was einfach nicht mehr machen, weil überproportional teuer oder wird man lokale Instanzen einer KI trainieren, diese mit ein zu beziehen?
Aber bei >90% aller Illustrationen wird es wohl ein "ich brauche etwas, das ungefähr XY zeigt" tun...
War das nicht immer schon so? 8]
Das Orktusksproblem habe ich auch und habe noch keine Lösung gefunden. Bin aber überrascht, dass es bei den Tieflingen mit den Hörnern klappt.
Human aiming with a bow.(Klicke zum Anzeigen/Verstecken)
Ork with tusks .....tja trotzdem keine hauer in irgend einer form, auch nach mehr versuchen als denen die ich hier poste. Aber immerhin halbwegs nette Grünhäute.(Klicke zum Anzeigen/Verstecken)
Hallo zusammen,
ich habe immer wieder Mal das Problem das auf einem Bild zwei Lebewesen zu sehen sind die miteinander verschmolzen sind oder noch zusätzliche Köpfe oder Gliedmaßen haben.
Gibt es eine Möglichkeit sowas abzustellen oder zu reduzieren?
Gruß Jochen
Hallo zusammen,
ich habe immer wieder Mal das Problem das auf einem Bild zwei Lebewesen zu sehen sind die miteinander verschmolzen sind oder noch zusätzliche Köpfe oder Gliedmaßen haben.
Gibt es eine Möglichkeit sowas abzustellen oder zu reduzieren?
Gruß Jochen
((((ugly)))), (((duplicate))), ((morbid)), ((mutilated)), [out of frame], extra fingers, mutated hands, ((poorly drawn hands)), ((poorly drawn face)), (((mutation))), (((deformed))), ((ugly)), blurry, ((bad anatomy)), (((bad proportions))), ((extra limbs)), cloned face, (((disfigured))). out of frame, ugly, extra limbs, (bad anatomy), gross proportions, (malformed limbs), ((missing arms)), ((missing legs)), (((extra arms))), (((extra legs))), mutated hands, (fused fingers), (too many fingers), (((long neck)))
Nightcafé generiert Gratiscredits jeden Tag und wenn man bestimmte Achievements erreicht.
Hab mit mit dem D&D Netzwerk rumgespielt- Na ja ich glaub das braucht noch etwas besseres Training auch wenn es ein Anfang ist. Es weiß immerhin grob was Fantasy Waffen sind was ich ganz gut finde, da damit sonst Stable diffusion mehr kämpft. Richtig gut sind die Waffen aber nicht geworden. Abgesehen von den Menschen sind die Gesichter irgendwie alle nicht gut geworden und es gibt extrem viele verdrehte Extremitäten.Man kann relativ einfach Modelle mergen um Mischformen zu erstellen.
Wäre nett wenn das F222 "Porno" Netzwerk als Trainings Basis genutzt worden wäre. Auf den kleinen Bildern sieht es sogar noch etwas annehmlicher aus als auf den 512x512 varianten.
Man kann relativ einfach Modelle mergen um Mischformen zu erstellen.
Hier im Vergleich stable diffusion 1.5, das DnD-Modell, 2:1 DnD:F222, 1:2 DnD:F222, F222 für "Genasi striking with a sword":
Interessant, hab schon mal irgendwo was davon gehört aber nicht keine Erfahrung. Hast du einen Link zu einem Tutorial wie man so einen Merge durchführt?Ne. Ich benutze die AUTOMATIC1111 webui, da gibt es extra den Tab "Checkpoint Merger". Einfach beide Modelle reinladen, Gewichtung angeben, fertig.
Ne. Ich benutze die AUTOMATIC1111 webui, da gibt es extra den Tab "Checkpoint Merger". Einfach beide Modelle reinladen, Gewichtung angeben, fertig.
Allerdings muss man sich bewusst sein, dass das Mergen die Modelle auch verwässert. Sieht man schön in Seeds 2 und 3, wie der Genasi mal früher, mal später seine blaue Farbe verliert.
Mit der V4 spuckt Midjourney endlich Myranor-taugliches Bildmaterial aus
Absolut beeindruckend! Magst du mal die Befehle teilen, die dazu geführt haben?
D&D christmas elves in the snow with a dragon --v 4 --ar 3:2(Klicke zum Anzeigen/Verstecken)
Meine Güte, das sieht noch immer teils wahnsinnig gut aus 😳
@Doc und andere Stable Diffusion Nutzende: Hat jemand von Euch eine AMD-Grafikkarte im System?
Ich nicht, ich weiß das es ne Variante für AMD gibt, aber die hat leider weit aus weniger support.Ja, leider. Auch die Installation ist fehleranfällig… 😔
Hallo zusammen,
für ein Cyberpunk Handout benötige ich ein Bild von einem Airborn Laser, https://de.wikipedia.org/wiki/Boeing_YAL-1 , also vor allem von der Nase des Flugzeugs.
Ich finde für Stable Diffusion keine Beschreibung die mir etwas passendes liefert.
Hat jemand von euch eine Idee.
Gruß Jochen
Zwei Cyberpunk Nikolausi hab ich noch !(Klicke zum Anzeigen/Verstecken)
1A. :d
Der ganz links unten ist 1-zu-1 mein alter Shadowrun-Rigger, den ich als Teenager gespielt habe. Sogar der mechanische Arm auf der rechten Seite stimmt. Den klau ich mir mal und färb den etwas um. Es fehlt halt das Hawaiihemd. Er hat immer Hawaiihemden getragen. (Any chance, dass man den vielleicht noch per AI bearbeiten kann?)
Folgendes könnte ich mir sogar als Titelillustration gut vorstellenSehr hübsch und beeindruckend! :d
Die Geographia Aventuria sagte ja, dass Waldelfen weder in Hütten noch Baumhäusern leben. Dass die Behausungen aus lebenden Holz wären...So in etwa?
Hab mal wieder Dream verwendet. 100% Zufrieden bin ich nicht. Möchte mehr Astwerk.
@Doc und andere Stable Diffusion Nutzende: Hat jemand von Euch eine AMD-Grafikkarte im System?Ja, habe ich tatsächlich und heute früh mein erstes Bild damit erstellt (siehe Anhang). War nur ein schneller Test, ob es überhaupt funktioniert, bevor ich ins Büro los musste, mit grad mal drei Vorgaben im Prompt.
Hab nochmal bissel was in Richtung Horror ausprobiert.
Ein paar Bilder von Pflanzenartigen Kreaturen für meine Numenera Runde heute Abend.Wow und Wow.
Wow und Wow.
@PayThan: Welche KI und magst du evtl. die Parameter teilen?
Wie beeindruckend sind die denn?
Und zahlst Du, PayThan?
Da ich gerade viel über das Cyberpunk-Community-Ding lese:
(https://media.discordapp.net/attachments/804737340211200011/1050508943207702638/Trieback_pyramid_in_a_cyberpunk_city_by_night_dark_futrure_neon_01559f11-ab38-4772-9547-a82036f5885a.png?width=676&height=676)
Kommt drauf an, was du erreichen willst. Ich würde es versuchen mit "desert/forrest/swamp/wasteland/agroculture from far above"
Ich würde gerne jeweils ein Feld für eine Hexmap - also pro Geländeart - per AI generieren lassen. Irgendwelche Tipps für den Prompt? Bisher scheitere ich.
Eine kleine Auswahl (< 10%) meiner Midjourney-Ergebnisse dieses Monats (z.T. mit GIMP nachbearbeitet). Evtl. wird was davon seinen Weg in meine 5e-Produkte finden, ist noch nicht entschieden. Da warte ich vor allem auch noch auf Rückmeldung von Ulisses.
(http://aventurien5e-fanconversion.de/img/Galerie_202212.jpg)
(https://i.ibb.co/NsnrX1W/Lars-Ohnesorge-a-stairwell-in-torchlight-a-groupf-humans-and-el-57ce78e9-ebe0-464c-afdf-b4d1dca77093.png)
Ich konmte mich nicht entscheiden ;D
Hab dank einem Youtube Video wieder zwei schöne neuronale Netzte für Stable Diffusion gefunden. Basieren auf 1.5 und liefern echt gute Bilder in gewissen grenzen, Fantasy Rassen haut z.B. nicht so recht hin. Sind im Endeffekt eine Kombination aus einigen der guten VariantenWow!https://civitai.com/models/3627/protogen-v22-official-release(Klicke zum Anzeigen/Verstecken)
https://civitai.com/models/3666/protogen-x34-official-release
Ja, habe ich tatsächlich und heute früh mein erstes Bild damit erstellt (siehe Anhang). War nur ein schneller Test, ob es überhaupt funktioniert, bevor ich ins Büro los musste, mit grad mal drei Vorgaben im Prompt.
Habe dafür den Installer von cmdr2 (https://github.com/cmdr2/stable-diffusion-ui) verwendet, einfacher geht es wohl kaum - Runterladen, Entpacken, Starten. Danach zieht sich der Installer alle benötigten Daten und öffnet SD anschließend im Browser (über localhost).
Allerdings werden AMD-Grafikkarten nicht native unterstützt und stattdessen nur mit der CPU gearbeitet, mit dem Hinweis, dass das sehr viel länger dauert. Mein alter i5-8500 hat für das angehängte Bild knapp 10 Minuten gerechnet (25 Iterationen ca. 4 min, 50 Iterationen das doppelte). Ich weiß, es gibt spezielle Anpassungen für AMD (z.B. für meine RX580 8GB oder RDNA2), aber ganz ehrlich, 10 Minuten rechnen lassen und dafür Out-of-the-box ohne Rumgebastel... wenn ich da dran denke, dass Poser bei mir mehrere Stunden an einem Bild gerendert hat, sind die 10 Minuten für mich echt kein Problem.
Frank, Du sorgst mit Deinem ermutigenden Post wahrscheinlich für kreativ-erfüllte Feiertage bei mir, vielen Dank!
Wirklich erstaunlich was da alles generiert werden kann! Vielleicht sollte ich mich daran auch mal probieren, SpacePirates hat viel zu wenig Bilder... Wie groß ist denn die Einstiegshürde?
25 Bilder Gratis als Probemitgliedschaft ohne Anmeldung, nur auf dem Discord (Bilder nur für nicht kommerzielle Nutzung)
10$ für einen Monat Mitgliedschaft und 200 Bilder (Volle Lizenzrechte am Bild)
8$ monatlich im Jahresabo (Volle Lizenzrechte am Bild)
Gab noch ne Version wo man für deutlich mehr Geld unbegrenzt was machen kann. Und wenn man mehr als 1MIllionen erwirtschaftet, dann gelten andere Konditionen. Aber ging ja um "Einstieg"
Bei Midjourney wäre ich vorsichtig. Man darf die Bilder nur kommerziell nutzen, wenn man einen bezahlten Account hat. - Und wie bei eigentlich allen Diensten nach diesem Geschäftsmodell verfällt afaik auch hier das ( kommerzielle) Nutzungsrecht, so bald man den Account kündigt.
Das sehe ich nicht so. Wenn ich mir Werkzeug miete, um damit etwas zu bauen, gehört mir das Gebaute auch noch, wenn ich das Werkzeug zurückgegeben habe und keine Miete mehr zahle. Ich denke nicht, dass es da Möglichkeiten gibt gegen anzugehen. Findet sich denn diesbezüglich überhaupt ein "Versuch" Seitens Midjourney?Ich habe mal im Midjourney Member-Support nachgefragt. Das wäre echt kritisch wenn die Bilder nach Ende der Mitgliedschaft nicht mehr kommerziell genutzt werden dürfen.
By using the Services, you grant to Midjourney, its successors, and assigns a perpetual, worldwide, non-exclusive, sublicensable no-charge, royalty-free, irrevocable copyright license to reproduce, prepare Derivative Works of, publicly display, publicly perform, sublicense, and distribute text, and image prompts you input into the Services, or Assets produced by the service at your direction. This license survives termination of this Agreement by any party, for any reason.Würde mich in diesem Fall allerdings weniger stören als bei der OGL.
Bei Midjourney wäre ich vorsichtig. Man darf die Bilder nur kommerziell nutzen, wenn man einen bezahlten Account hat. - Und wie bei eigentlich allen Diensten nach diesem Geschäftsmodell verfällt afaik auch hier das ( kommerzielle) Nutzungsrecht, so bald man den Account kündigtAntwort vom Midjourney-Support:
Finde das für Corpo-Sprech relativ eindeutig.So hätte ich es verstanden.
Bilder die du erstellt hast, während du dafür bezahlt hast, kannst du auch nach auslaufen des Abos weiterhin kommerziell nutzen.
Das sehe ich nicht so. Wenn ich mir Werkzeug miete, um damit etwas zu bauen, gehört mir das Gebaute auch noch, wenn ich das Werkzeug zurückgegeben habe und keine Miete mehr zahle. Ich denke nicht, dass es da Möglichkeiten gibt gegen anzugehen. Findet sich denn diesbezüglich überhaupt ein "Versuch" Seitens Midjourney?
Finde das für Corpo-Sprech relativ eindeutig.
Bilder die du erstellt hast, während du dafür bezahlt hast, kannst du auch nach auslaufen des Abos weiterhin kommerziell nutzen.
Abgesehen davon frage ich, wie sich nachweisen ließe, dass ein Bild von einer bestimmten AI ausgespuckt wurde.
Ich nehme mal an, dass die Bilder auch noch alle zugeschnitten und im Format umgewandelt werden. Ich habe das zumindest immer noch gemacht.
Ich halte mich trotzdem gerne an Nutzungsrichtlinien.
Klar, aber fleißig Piraten-Rollenspiele rausbringen... >;DStimmt, da sollte ich eigentlich schon etwas plündern und Schätze sammeln! Wer baut mir in der KI jetzt passende Bilder, damit ich die rauben kann?
Stimmt, da sollte ich eigentlich schon etwas plündern und Schätze sammeln! Wer baut mir in der KI jetzt passende Bilder, damit ich die rauben kann?
Stimmt, da sollte ich eigentlich schon etwas plündern und Schätze sammeln! Wer baut mir in der KI jetzt passende Bilder, damit ich die rauben kann?
Coole Bilder!
Das letzte: ist das ein Busenblitzer?!
Frag Nightcafe! Prompt steht ja darüber. Ich denke es ist eher ein bemalter Krug.
... und welcher Prompt funktioniert nun ähnlich gut für Stable Diffusion? Meine Versuche hier lokal sind eher... :-(
Für mich sieht der Krug übrigens aus wie eine Kalebasse.
portrait of a scifi space pirat in a cave, a space scene with a broken moon in the background, he is wearing a Pirat hat, and has cybernetic enhanced body parts, facing the camera, trending on ArtStation, trending on CGSociety, Intricate, Hight Detail, Sharp focus, dramatic, by midjourney, realism, beautiful and detailed lighting, shadows, cinematic
Als negativ Promt nutzte ich aktuell nahezu immer den hier:
disfigured, kitsch, ugly, oversaturated, grain, low-res, deformed, blurry, bad anatomy, disfigured, poorly drawn face, mutation, mutated, extra limb, ugly, poorly drawn hands, missing limb, blurry, floating limbs, disconnected limbs, malformed hands, blur, out of focus, long neck, long body, ugly, disgusting, poorly drawn, childish, mutilated, mangled, old, surreal, text, blurry, b&w, monochrome, conjoined twins, multiple heads, extra legs, extra arms, faschon photos (collage:1.25), meme, deformed, elongated, twisted, fingers, strabismus, heterochromia, closed eyes, blurred, watermakred, wedding, group
Als Promt hab ich für die ersten Bilder das hier verwendet:
portrait of a scifi space pirat in a cave, a space scene with a broken moon in the background, he is wearing a Pirat hat, and has cybernetic enhanced body parts, facing the camera, trending on ArtStation, trending on CGSociety, Intricate, Hight Detail, Sharp focus, dramatic, by midjourney, realism, beautiful and detailed lighting, shadows, cinematic
Für die rauchenden varianten: portrait of a space pirat smoking a pipe while looting a treasure chest, with a space scene with a broken moon in the background, trending on ArtStation, trending on CGSociety, Intricate, Hight Detail, Sharp focus, dramatic, by midjourney, realism, beautiful and detailed lighting, shadows, cinematic
Aha, so langsam wird es was... auch schon mit dem mitgeliefertem Modell kommt jetzt schon etwas brauchbares raus.... (auch meine bisherigen Stadtansichten haben sich jetzt deutlich verbessert).Die beiden Bilder hatte ich wohl immer gesucht.... :headbang:
einfach mal "eternal flame" rein geworfen und fünf Bilder ausrechnen lassen.... die ersten vier Bilder Variationen von "Flammen vor einem Wandkamin", das fünfte... Wo zur Hölle hat er das hergeholt? Und was passiert wenn mal eine Abenteurergruppe in diese Szene stolpert...(Klicke zum Anzeigen/Verstecken)
Kaputt. Lade es doch einfach bei einem Imagehoster wie imgbb.com/ (https://imgbb.com/)rauf. Registrieren ist nicht nötig und es dauert maximal 5 Sekunden.
neuer versuch...
Wo zur Hölle hat er das hergeholt? Und was passiert wenn mal eine Abenteurergruppe in diese Szene stolpert...
Ich vermute, das ist ein argloses Dorf, nachdem da eine Abenteurergruppe durchgezogen ist ;)
Was meint ihr, wollen wir einen eigenen "Dein Charakter als KI Bild" Thread aufmachen? Lohnte sich das? :think:
ich bin noch beim privaten "mache KI-Bilder deiner Rollenspiel-Welten"-Projekt und mein "Stable Diffusion"-Steampunk-Universum ist irgendwie merkwürdig: ein Luftschiff bekomme ich in den Himmel (meistens ist es auch ein Zeppelin, gelegentlich mogelt sich da ein Ballon ins Bild). Aber so wie ich auf mehrere Luftschiffe wechsel, erscheinen nur noch Seeschiffe... (also welche mit Kiel und Segel bzw. Masten)
Manche Sachen gehen über einen Umweg erheblich besser als den direkten weg zu versuchen. Und ja das nervt mich auch an weil ich denke, ich muss nur den Perfekten Promt finden damit ich direkt bekomme was ich will.
Gibt es bei Midjourney eigentlich die Möglichkeit Bilder als Referenz selbst direkt einzuspeisen? Um zum Beispiel Mitspieler in ihren SC-Bildern zu personalisieren?
... Aber ich will sie einfach mit euch teilen, daher habe ich die Bilder in eine Galerie auf meiner Projekt-Webseite geladen. Taucht ein in ein tolles Fantasy-Setting und bedient euch gerne für die nichtkommerziellen Verwendung in euren Runden :).
https://www.aventurien5e-fanconversion.de/myranor-5e-artwork/
Ich habe in den letzten Wochen mithilfe der K.I. Midjourney eine Anzahl an möglichen Illustrationen für meine Myranor 5e-Produkte erstellt.
Da Ulisses momentan noch kein offizielles Statement zur Verwendung von K.I.-Kunst in ihren Gemeinschaftsinhalten herausgegeben hat, füge ich sie noch nicht in meine Produkte ein.
Aber ich will sie einfach mit euch teilen, daher habe ich die Bilder in eine Galerie auf meiner Projekt-Webseite geladen. Taucht ein in ein tolles Fantasy-Setting und bedient euch gerne für die nichtkommerziellen Verwendung in euren Runden :).
https://www.aventurien5e-fanconversion.de/myranor-5e-artwork/
Die Bildagentur Getty Images klagt in Großbritannien gegen mehrere dieser KI-Programme eingereicht, eine Gruppe von Künstlerinnen in den USA.
https://www.spiegel.de/netzwelt/web/kuenstliche-intelligenz-kuenstlerinnen-und-foto-agentur-klagen-gegen-bildgeneratoren-a-e0648bb0-f2db-42b8-a044-10fd916f2e60
Wie das sie davon ausgehen das dort Bilder im Neuronalen Netz gespeichert sind und nur Kombiniert werden.Ja, daran glauben viele.
Ich hoffe ja sehr, dass die Ai demnächst mal lernt, dass Hände 5 Finger haben und wo die hingehören. Das ist ja wirklich noch eine absolute Katastrophe. Was aber so an Portraits möglich ist, das ist der blanke Wahnsinn...Hübsche Bilder :d
Ich habe mal noch ein par Bilder für unsere Warhammer-Runde gemacht, die wir onAir spielen
Ja ich verstehe zwar nicht was sie sich davon erhoffen. Die Technik ist aus der Flasche und wird nicht wieder darin verschwinden. Ich hab auch schon gesehen worauf sie ihre Klage aufbauen und faktisch sind da schon Fehler drin. Wie das sie davon ausgehen das dort Bilder im Neuronalen Netz gespeichert sind und nur Kombiniert werden.
Da es mittlerweile genügend Veröffentlichungen gibt, die zeigen, was man alles an Ursprungsinformationen aus den gelernten Daten wieder rausholen kann, ist die Urheber- und Verwertungsdebatte mitnichten von Tisch. Bei letzterem kommt noch hinzu, dass diese Verwertung von vornherein von den Dateninhabern nie genehmigt worden ist. Ich würde das folglich nicht als unüberlegte Nullnummer abtun.
Ja aber man wird niemals das Original wieder herausbekommen.
Das KI der Illustrationsszene langfristig weh tut halte ich auch für Unsinn. Denn "von einem echten Künstler gezeichnet" wird ja jetzt schon als Herausstellungsmerkmal gesehen. :)Genau so wie "Von einem echten Tischler" als Qualitsmerkmal gesehen wird. Trotzdem gibt es seit dem Aufkommen von Ikea und co deutlich weniger Tischler.
Ich hoffe ja sehr, dass die Ai demnächst mal lernt, dass Hände 5 Finger haben und wo die hingehören. Das ist ja wirklich noch eine absolute Katastrophe. Was aber so an Portraits möglich ist, das ist der blanke Wahnsinn...Die Narbe im Gesicht? Per Hand rein gemalt oder mit dem richtigem Prompt (und negative Prompt) erstellt?
Ich habe mal noch ein par Bilder für unsere Warhammer-Runde gemacht, die wir onAir spielen:
(https://cdn.midjourney.com/3791c5bd-53f3-4a96-a847-736e269c052c/grid_0.png)
Aha.. Midjurny-Eigenheiten...Das ist halt super stark vom verwendeten Modell abhängig das man verwendet. Viele sind schon sehr auf das klassische "schön" getrimmt. Auch Google hat ehr Ergebnisse geliefert mit "Wie man Narben von den Bildern entfernt".
Aber ich habe mittlerweile auch schön deutliche Narbe(n). Die sind aber auch relativ "flüchtig"... bei mir scheint SD offenbar gerne mal Zeug aus Gesichtern zu entfernen, statt zu verteilen ;D
Das ist halt super stark vom verwendeten Modell abhängig das man verwendet. Viele sind schon sehr auf das klassische "schön" getrimmt.
Wobei "Modelle": Bekommt hier irgendwer https://civitai.com/models/2107/fkingscifiv2 (https://civitai.com/models/2107/fkingscifiv2) unter Stable Diffusion zum arbeiten? Ich ernte da immer nur Fehlermeldungen. :(
Ich habe in den letzten Wochen mithilfe der K.I. Midjourney eine Anzahl an möglichen Illustrationen für meine Myranor 5e-Produkte erstellt.
Da Ulisses momentan noch kein offizielles Statement zur Verwendung von K.I.-Kunst in ihren Gemeinschaftsinhalten herausgegeben hat, füge ich sie noch nicht in meine Produkte ein.
Aber ich will sie einfach mit euch teilen, daher habe ich die Bilder in eine Galerie auf meiner Projekt-Webseite geladen. Taucht ein in ein tolles Fantasy-Setting und bedient euch gerne für die nichtkommerziellen Verwendung in euren Runden :).
https://www.aventurien5e-fanconversion.de/myranor-5e-artwork/
Hast du das hier beachtet?
Be sure to grab to YAML file too, and place it in the same directory as the downloaded model. It must be named exactly the same, except for the extension, i.e, fking_scifi_v2.ckpt and fking_scifi_v2.yaml.
Der Zeitaufwand ist wirklich eine Frage der Herangehensweise. Ich habe in 4 Stunden 382 Bilder generiert von denen ich knapp 250 professionell verwenden kann/werde. Ich lasse mich aber auch gerne etwas auf die KI ein. Finde darin liegta cuh grundsätzlich der künstlerische Ansatz mit etwas "Zufallstechnik" ranzugehen und dann mal zu schauen, was draus wird und wo man hinlenken will, nachdem einem die Zügel entglitten sind oder man sie bewusst locker gelassen hat. Und ich arbeite gerne mit positiven Unfällen.
sehr cool. hände nachbearbeitet oder direkt so ausgespuckt?Die Coriolis Bilder sind nicht nachbearbeitet. Man sieht aber auch nicht viele Hände. Bei Midjourney sind Hände leider fast immer zum Nachbearbeiten.
Wer von euch generiert den lokal auf dem eigenen System?Ich habe Stable Diffusion lokal installiert. Mit ner 3060. Nicht die Stärkste Karte, daher nutze ich Parameter um das nicht zu einem VRam Problem werden zu lassen: set COMMANDLINE_ARGS= --opt-split-attention --precision full --no-half --medvram
Und welche Grafikkarte verwendet ihr dafür?
Wer von euch generiert den lokal auf dem eigenen System?3 lokale Installationen von Stable Diffusion (Win 10):
Und welche Grafikkarte verwendet ihr dafür?
Und welche Grafikkarte verwendet ihr dafür?
3 lokale Installationen von Stable Diffusion (Win 10):
- AMD Radeon RX580 8GB, verwendet jedoch CPU-Mode (10 min/Bild)
- Nvidia GeForce GTX 1060 6GB (10 sek/Bild)
- Nvidia GeForce RTX 2060 Super 8GB (5 sek/Bild)
Warum genau lässt du das System mit der Radeon im CPU Modus laufen?Weil der Installer, den ich verwendet hab, nur Nvidia Grafikkarten unterstützt. Ich weiß, dass es wohl auch möglich ist, AMD Grafikkarten mit SD zu benutzen, aber der Installer war der einzige mir bekannte, der sich komplett ohne Bastelei mit einem Klick installieren und starten ließ, auch wenn man keine Nvidia hatte. Also hauptsächlich eine Sache von Komfort vs. Zeit.
Und welche Grafikkarte verwendet ihr dafür?
"Früher" habe ich ganz gerne mal für nen Charakter bei Fiverr nen Bild beauftragt für meinen SC. Wenn man da ein wenig gesucht hat, hat man echt tolle für 25-50€ bekommen. Ich denke dass werde ich so schnell nicht nochmal machen....
jeweils erstellt mit Stable Diffusion UI v2.4.24:
"Früher" habe ich ganz gerne mal für nen Charakter bei Fiverr nen Bild beauftragt für meinen SC. Wenn man da ein wenig gesucht hat, hat man echt tolle für 25-50€ bekommen. Ich denke dass werde ich so schnell nicht nochmal machen....
jeweils erstellt mit Stable Diffusion UI v2.4.24:
Boxhandschuhe tricksen super die Handinkompetenz aus ^^. Schnieke
Heftig! Wie hast du denn solche Ergebnisse da rausgeholt? Ich hab das eben mal Spaßeshalber installiert. Und ich kriege da ... wenn überhaupt ... nur Bilder von Picasso raus ... ein Auge auf der Backe, das andere auf der Stirn ...
Bisher ist mein Eindruck, dass der negative prompt wichtiger ist, als der eigentliche prompt.
disfigured, kitsch, ugly, oversaturated, grain, low-res, deformed, blurry, bad anatomy, disfigured, poorly drawn face, mutation, mutated, extra limb, ugly, poorly drawn hands, missing limb, blurry, floating limbs, disconnected limbs, malformed hands, blur, out of focus, long neck, long body, ugly, disgusting, poorly drawn, childish, mutilated, mangled, old, surreal, text, blurry, b&w, monochrome, conjoined twins, multiple heads, extra legs, extra arms, faschon photos (collage:1.25), meme, deformed, elongated, twisted, fingers, strabismus, heterochromia, closed eyes, blurred, watermakred, wedding, group, watermarked, body out of frame, out of frame, water, sea, ocean, tree, boat, ship
Heftig! Wie hast du denn solche Ergebnisse da rausgeholt? Ich hab das eben mal Spaßeshalber installiert. Und ich kriege da ... wenn überhaupt ... nur Bilder von Picasso raus ... ein Auge auf der Backe, das andere auf der Stirn ...
Gibt es ja z.b. mit Contenders.
Ich bin ja gestern auf die Idee gekommen warum ich nicht ChatGPT meine prompts machen lasse, haben schon andere Leute versucht. Hat da schon jemand Erfahrung? Ist ja du logische nächste Schritt. Natürlich kennt ChatGPT nichts was neuer als 6 Monate ist, momentan
Ich hab auch ein bissl mit Midjourney gespielt und versucht ein paar brauchbare Bilder für Coriolis zu bekommenNice! :d
Gerade gefunden: eine Hilfe zum Generieren von Midjourney-Prompts
https://prompt.noonshot.com/
Damit ist es leichter noch kreativer zu sein.
Ich hab auch ein bissl mit Midjourney gespielt und versucht ein paar brauchbare Bilder für Coriolis zu bekommen:
Mein Herz schlägt nur für Comicstil! :dIst halt schwer da was zu finden. Habe mir für Tiny Frontiers echt einen abgebrochen was passendes zu finden. Realistischer, oder D&D bzw. Pathfinder Stil sind weniger ein Problem. Kann man natürlich auch für Tiny D6 Spiele oder Trouleshooters nutzen, aber ich finde Comicstil passt da einfach. Sollte ich doch noch für MJ zahlen, würde ich noch versuchen Strassenszenen für Troubleshooters generieren zu lassen. Habe ich bei dem ganzen wilden rumprobieren komplett vergessen. :-[
Bevor mein MJ Free Trial abgelaufen war konnte ich noch annehmbare Tiny Dungeon Salimar Bilder erstellen lassen.
Sollte ich doch noch für MJ zahlen, würde ich noch versuchen Strassenszenen für Troubleshooters generieren zu lassen. Habe ich bei dem ganzen wilden rumprobieren komplett vergessen. :-[
Nur das mit "Waffe & Schilde" will noch nicht so richtig. Hatte beim Zwerg extra angegeben, Axt rechts & Schild links. Naja.
Schick! Passt m.E. sehr gut zu Tiny Dungeons.Finde ich auch. Bei den Zwergen würde ich den Zweiten bevorzugen. Insgesamt habe ich aber noch viel mehr hier im Ordner.
...
Hast du nightcafe.studio/ (https://creator.nightcafe.studio/create) probiert? Da gibt es jeden Tag neue Credits nur fürs Anklicken.Ja. Habe es mit "Cartoon Goblin..." versucht. Grausig. Nightmare fuel. >;D
...äh... auf den Bildern hat der Zwerg doch die Axt in der rechten Hand und den Schild in der linken Hand. Vielleicht hat Midjourney dich sehr wohl gut verstanden ?Ist das eine Axt im ersten Bild? Ich kann es nicht sagen, da er die Waffe falsch herum hält. ;D
...Finde ich auch. Bekam doch recht schnell halbwegs vernünftiges geliefert. Das lockt dann natürlich schon. ;)
Von allen AI-Art Programmen dich mir vorher und hinterher angeguckt habe, gefällt mir Midjourney mit Abstand am Besten. Bestimmt werden andere Programme auch schnell besser werden. Aber derzeit scheint es mir fast das man um Midjourney nicht herum kommt wenn man gute Resultate möchte.
Cool!
Magst du uns die Prompts mitteilen?
Nochmal ordentlich mit den Prompts gespielt und huiuiui... Midjourney kann echt dazu gebracht werden, nahezu fotorealistische Portraits raus zu werfen...
[...]portrait of a 30-year-old space-pirate in futuristic environment, clear facial features, Cinematic, 35mm lens, f/1.8, accent lighting, global illumination
Und hier die selbe Eingabe bei Stable Diffusion:
---
Keine Ahnung, woher die KI das geholt hat, aber ich find's irgendwie witzig. ;D Aber insgesamt betrachtet, produziert Stable Diffuision ne Menge Mist, wenn man Personen abbilden möchte und die Beschreibung wird auch gerne mal "frei interpertiert". Landschaften kann man mit etwas herumspielen aber ganz brauchbare erzeugen. Vor allem jetzt, wo die Basisfunktion kostenlos geworden ist. Da kann man ganz entspannt rumprobieren.
Die Sache ist StableDiffusion sagt erst mal gar nix mehr aus und ist nur die Technik wie die Netze erstellt wurden.
Okay, dann sollte ich korrekter sagen: Ich arbeite mit dem Webinterface von Nightcafe.studio und nutze darüber Stable Diffusion.
qt.qpa.plugin: Could not load the Qt platform plugin "xcb" in "/run/media/operator/lvol-VM/stable-diffusion-ui/stable-diffusion/env/lib/python3.8/site-packages/cv2/qt/plugins" even though it was found.
This application failed to start because no Qt platform plugin could be initialized. Reinstalling the application may fix this problem.
Available platform plugins are: xcb, eglfs, linuxfb, minimal, minimalegl, offscreen, vnc, wayland-egl, wayland, wayland-xcomposite-egl, wayland-xcomposite-glx.
Keine Ahnung was ich davon halten soll. Kann er nun "xcb" nicht finden oder ist "xcb" nun 'available'?
Ich habe in einem Artikel mal zusammengefasst, was notwendig ist um einen Konsistenten Charakter zu generieren mit Midjourney. Anhand eines Zwergen Magiers.
Ich hoffe meine Tipps helfen euch, gute Charakter Fotos eurer Helden zu generieren :headbang:
Das ist ja mein alter Rollenspiel-Händler in Gewandung. :o
Okay, der hatte keine 6 Finger an der linken Hand, aber sonst kommt es ziemlich genau hin. ;D
Und richtige Hände!
stellenweise... ~;D
Die Gesichtsanpassung finde ich jetzt nicht so toll
"Mit Schmuddelkram"? :o Mit Stable Diffusion?Es gibt im Netz diverse Datasets die auch Schmuddelkram von variierender Explizität zulassen. Die meisten muss man aber selbst lokal laufen lassen, was ich mir mangels Nvidia-Karte nur ungern antue.
Wenn ein Mod das Okay gibt, kann ich aber auch expliziteres als Beispiel einfügen, gerne mit Wunschprompt.
Schon viel besser und stimmiger.
Besser? 8]
Ja.
Stable Inpainting regelt das:
...
Das sieht tatsächlich erstaunlich brauchbar aus (auf jeden Fall springt hier nicht das "ich bin KI-generiert" auf den ersten Blick an).Ja, ich finde das Ergebnis auch richtig toll!
@Doc-Byte
Mal frech gefragt: Würdest Du als Tanelorn-Ehrenamt oder gegen kleines Geld (wegen mehr Verbindlichkeit, denn der Spruch "was nichts kostet ist nichts wert" stimmt nach meiner Erfahrung leider) mal ein How-To-Stable-Diffusion-Webinar anbieten? So ein Wochenend-Vormittag vielleicht? ^-^
Besser wirds nicht... :-\Das ist aber schon eine masdive Verbesserung gegenüber dem Original.
(https://images.nightcafe.studio/jobs/O7hW3QwsRovIgphc6lKC/O7hW3QwsRovIgphc6lKC--1--jhh17.jpg)
Was ist dieses Stable Inpainting?
Also, um ehrlich zu sein stümper ich eigentlich auch nur so vor mich hin.Die Ergebnisse, die Du so zeigst, sehen richtig gut aus. Du kannst die Idee ja sanft in Deinem Herzen bewegen. ;D Es eilt ja nicht.
Mehr digital art als Pinsel, aber von dem selben Prompt inspiriert. ^-^
Das ist aber schon eine masdive Verbesserung gegenüber dem Original.
Was ist dieses Stable Inpainting?
SDXL ist aner noch ziemlich Beta.
Die Ergebnisse, die Du so zeigst, sehen richtig gut aus.
Du kannst die Idee ja sanft in Deinem Herzen bewegen. ;D Es eilt ja nicht.
Hab mal Shih Chans Prompts durch SDXL 0.9 gejagt und diese 2 Bilder erzeugt.
(https://i.ibb.co/Y0QK3b2/2g-Ctd-Ub-Jy5-T9e-DTtbcu-C-1-gfoqo.jpg) (https://ibb.co/bbmyP71)
Epic Fail das erste. Es sieht aus, als würde die Dame sich unter der Rüstung an die Brüste fassen. Und auch die Ohren. Na ja.
(https://i.ibb.co/7pKP846/PNNmlydf-UJi7qe-PF5yt-L-1-mivnb.jpg) (https://ibb.co/Zgx5tmk)
Schon viel besser und stimmiger.
Mal dumm gefragt: Welche Schablonen sind da erkennbar ? Also zb bei den gemalt aussehenden Körper- Elfenbildern die jemand postete : Sind das sich wiederholende Grundkörper/ Posen und sind die Details wie Schmuck auch vorgefertigt ? Kann man Details einzeln raussuchen ? Kann man sie komerziel verwenden ?. Es gab ja vorher auch schon Bildprogramme. Da konnte man zb. einen 3-D Standartkörper raussuchen, verformen, dan Haut dazu, dan Gegenstände dazu. Das ganze perspektivisch Drehbar. Ebenso sind auch Landschaften mit anderen eigenen Programmen erstellbar. Diese Programme gibt es in älteren Versionen sogar teils kostenlos. Ganz aktuell kosten neue Versionen von einem manchmal über 1000 Euro. Die Namen sind mir grad entfallen, ich habe sie aber in einem Buch. Glaube " Vue (d' ) Esprit" war eines davon.
Danke der Antwort. Ich kann das im Moment nicht ausprobieren. Ist da auch ein "3- D-Effekt" wie in den von mir genannten " Modelierprogrammen " oder kann das Programm nur eine vorher eingegebene Position einer Figur wiederholen und dan nur Details modifizieren ?. Und zb die Ornamente, erfindet es die auch neu oder sind die ein Standart ?Es kann erfinden was es will sofern es im Training gelernt hat wie ein Mensch auszusehen hat. Wie eine Halskette aussieht. Was Barfuß oder Schuhe bedeutet..
Bei farbigen oder gerenderten Bildern nehmen die sich alle wenig, willst du aber schwarz-weiss Zeichnungen, bist du imo mit Midjourney am besten bedient (keine Werbung, meine Erfahrung, bei den anderen die ich getestet habe, kamen nie so tolle Ergebnisse raus).Kann ich so bestätigen.
Schau mal hier, wie Du die Bilder noch zugänglicher machen (https://www.tanelorn.net/index.php/topic,117342.msg134938961.html#msg134938961) kannst.
Super, vielen Dank! :dGerne!
Hab's angepasst.
Ich empfehle (wenn es nicht gerade überlastet ist), den Bing Image creator zu testen.
Können die AI Art Generatoren eigentlich auch normale Frauen malen oder gehen nur diese Püppchen?
Können die AI Art Generatoren eigentlich auch normale Frauen malen oder gehen nur diese Püppchen?Das Problem ist, dass die Mehrheit der verfügbaren Darstellungen zum Lernen eben diese "Püppchen" zeigen - insbesondere, wenn's in den Fantasy-Bereich geht.
Können die AI Art Generatoren eigentlich auch normale Frauen malen oder gehen nur diese Püppchen?Find ich bisher schwierig, aber bei dieser Ork-Dame ist es, so finde ich, gelungen:
Das System reagiert super sensitiv auf jedwede Namen und blockiert da extrem schnellVor ein paar Tagen ging da noch was, aber jetzt nicht mehr. Die arbeiten da wohl kontinuierlich dran.
(und ja, da ist wieder ein Finger zuviel).Finger zuviel? Versuche mal bei www.clipdrop.co das Tool "Cleanup" (https://clipdrop.co/cleanup). Hautunreinheiten und ganze Personen lassen sich damit super aus Fotos entfernen, vielleicht kriegt es auch Finger weg...
Finger zuviel? Versuche mal bei www.clipdrop.co das Tool "Cleanup" (https://clipdrop.co/cleanup). Hautunreinheiten und ganze Personen lassen sich damit super aus Fotos entfernen, vielleicht kriegt es auch Finger weg...Danke für den Tipp, aber nein, kriegt das Tool nicht weg (also nicht so, dass es dann wieder amputiert aussieht). Muss ich "von Hand" machen, falls ich das Bild brauche.
Ich hatte auch die besten Ergebnisse mit Artflow.ai - hier mal zwei Beispiele.
(https://www.tanelorn.net/index.php?action=dlattach;topic=123321.0;attach=35112)
Für mich ist das für eine computertechnisches Experiment zwar ziemlich gut. In Bezug auf Rollenspielgestaltung ist das aber Murks und ich würde kein Geld für ein Rollenspielwerk ausgeben, in dem solche Bilder verwendete würden. Und es würde mich ärgern, wenn ich Geld ausgegeben hätte und fände im Buch dann Bilder in dieser Qualität.
. Aber für Hobbyprodukte finde ich das völlig in Ordnung, und für die heimische Kampagne ist es m.E. eine tolle Möglichkeit, Charakterporträts und Szenen zu erzeugen und nicht mehr darauf angewiesen zu sein, im Internet nach Sachen zu suchen, die dann oft doch nur halb passen.Das ist auch so ziemlich der Anwendungsfall, den ich sinnvoll finde :d Aber auch da gilt aus Erfahrung: je konkreter die Eigene Idee ist und je weiter weg von der Norm (Beispiel: Futuristische Bodenpläne. Raumschiffe, die auch vernünftig aussehen und nicht wie Escher-Giger-Chimären, Illus für viktorianische Spielwelten uvm) desto weniger kommen auch die Generatoren damit klar.
Hier im Thread geht's für mich aber ohnehin in erster Linie um Spaß an der Technik und Experimente, was mit den aktuellen Tools so möglich ist.Also der Threadtitel ist Artwork für Rollenspiel Produkte - und mein Einwurf oben bezieht sich genau darauf ;)
Richtig gut nach Maßstäben eines menschlichen Künstlers ist es in den meisten Fällen nicht (auch wenn der Abstand sich seit den Anfängen bereits merklich reduziert hat).
Also der Threadtitel ist Artwork für Rollenspiel Produkte - und mein Einwurf oben bezieht sich genau darauf ;)
Dabei verteidige ich hier weder die eine noch die andere Seite oder spiele sie gegeneinander aus, ich habe eben nur von beiden Seiten viele Ergebnisse präsentiert bekommen, die hochwertig und gleichwertig waren - und natürlich auch das Gegenteil.
Aber kann ein Buch jemals wirklich fertig sein?
Mein Eindruck ist: was die KI-Bildgeneratoren mittlerweile rausschmeißen sieht besser aus als manche Amateurarbeiten, die ich gesehen habe, und viel besser als alles, was ich selber produzieren könnte.
Mein Eindruck ist: was die KI-Bildgeneratoren mittlerweile rausschmeißen sieht besser aus als manche Amateurarbeiten, die ich gesehen habe, und viel besser als alles, was ich selber produzieren könnte.
Klar ist es besser als das, was ich selbst zusammenstümpern könnte, aber das ist ja quasi nirgends der Maßstab, wofür ich Geld ausgeben will/soll.
Wobei das ja eher ein Anwenderfehler ist, so was nicht neu zu machen, aber egal wie ist es einfach schlampig, wenn das im Endprodukt landet.
Bing ist schon ziemlich gut, leider auch EXTREM zensiert. Da bin ich auch schon mit dem Versuch Kim Possible gegen Shego kämpfen zu lassen in einen Filter gelaufen.
PS: Mit Gruppenbildern haben übrigens mEn alle KIs derzeit noch Probleme, aber auch da hab ich die bisher besten Ergebnisse mit Artflow erzielt.Habe bisher mit Gruppenbildern nicht viel experimentiert, aber bei meinem Versuch hatte ich Probleme die richtigen Attribute zu der entsprechenden Figur zu bekommen.
Verwende jetzt Stable Diffusion XL 1.0Das fand ich auch nicht schlecht. Der Vorteil bei SD ist, dass man es auch Lokal auf'm PC laufen lassen kann und dort dann per Inpainting kleinere Details verändern kann oder per Outpainting das Bild erweiter können soll (das habe ich aber selber noch nicht gemacht).
Ist das Sandra Bullock? :think:
Die Auflösung von Bing ist da aber nicht so spannend.
Top, da kann ich n Haken dran machen. ^^
Okay, die Quali der Bilder an sich ist schon echt beeindruckend. Schade, dass bei den Prompts auch Dall-E so festgefahren ist wie die anderen Engines auch. Neandertaler ohne Fellklamotten gibt es da offenbar genausowenig wie Gnome ohne Zipfelmütze in anderen Modellen.
Frage zu dem Krokofanten -- holy fuck ist das ein riesen Gerät, soll der so groß sein? ;D
Edit: Das könnte ein "enlarged Croc" sein, das würde passen. ;D
Hatte ich eben erst in meinem Post ergänzt: Ja, das Ergebnis im Bild ist eher "huge", aber eigentlich soll der Croc nur "large" sein. Aber auch Meterangaben kriegt DALL:E noch nicht hin: Ich hatte es versucht mit "2-Meter-großes Krokodil" usw. - kein Erfolg. DALL:E hat sich bei dem Krokodil auf "huge" und teils noch größer eingeschossen, und keine Promptergänzung bringt DALL:E davon ab. :(
Das Problem mit der künstlichen Intelligenz scheint zu sein, selbst die Intelligenz aufzubringen, sie richtig anzusprechen. ~;DIch bin gerade dabei, den Fleischgolem (oder auch Aasgolem) aus meinem System, der sich wortwörtlich aus Teilen seiner besiegten Feinde zusammensetzt, zu "hacken": "Fleischreste" oder ähnliches lösen in der Anwendung eine Sperre aus, aber wenn ich im Prompt konkret werde (Rückenfilet, Steak...) dann scheint es zu klappen. "Schädel" als Begriff wird seltsamerweise manchmal akzeptiert, manchmal nicht.
genausowenig wie Gnome ohne Zipfelmütze in anderen Modellen.Das liegt wohl daran, dass das Wort "Gnome" im Englischen nunmal primär den Gartenzwerg bezeichnet. Insofern kann man der KI keinen Vorwurf machen, wenn sie nicht weiß, dass es hier mal eine andere Bedeutung haben soll. ;)
Ich bin gerade dabei, den Fleischgolem (oder auch Aasgolem) aus meinem System, der sich wortwörtlich aus Teilen seiner besiegten Feinde zusammensetzt, zu "hacken": "Fleischreste" oder ähnliches lösen in der Anwendung eine Sperre aus, aber wenn ich im Prompt konkret werde (Rückenfilet, Steak...) dann scheint es zu klappen. "Schädel" als Begriff wird seltsamerweise manchmal akzeptiert, manchmal nicht."Ghul" ist bei Midjourney offenbar auch gesperrt - ich hab zwar keine Ahnung, warum, aber ist so. So ganz logisch sind die Sperren nicht.
Ich bin gerade dabei, den Fleischgolem (oder auch Aasgolem) aus meinem System, der sich wortwörtlich aus Teilen seiner besiegten Feinde zusammensetzt, zu "hacken": "Fleischreste" oder ähnliches lösen in der Anwendung eine Sperre aus, aber wenn ich im Prompt konkret werde (Rückenfilet, Steak...) dann scheint es zu klappen. "Schädel" als Begriff wird seltsamerweise manchmal akzeptiert, manchmal nicht.
Was den Krokodeiser betrifft: schon "human-sized" versucht? Mit relativen Größen tun sich die KIs meistens leichter, auch wenn man immer noch viel Ausschuss produziert.Der Trick hat leider nicht geklappt.
Hey, wie hast du den Urelben hingekriegt? Der sieht ja krass gut aus.Der Prompt hier lautete (https://www.bing.com/images/create): "Eine Mischung aus einem Elben-Bogenschützen und einem dünnen Alien mit langen Haaren und grünlicher Haut, in Lederrüstung, der aufmerksam durch das Dickicht von Blättern tropischer Pflanzen blickt. 15mm, photorealistisch, Perspektive von oben."
Ich zeige jetzt mal nicht, was SD ohne Lederrüstung anrichtet. 8] :o >;D ~;D Denn das wäre bereits stark NSFW und nicht jugendfrei.
Glaub, was mich an den sogenannten "photorealistischen" CGIs stört, ist dass sie halt mitnichten photorealistisch sind, sondern man immer noch auf den ersten Blick sieht, dass es CGI ist. Klar, könnte auch ein Mensch mit Grafiktablet gemacht haben -- aber es ist und bleibt halt offensichtlich eine Computergrafik.
Selbst damit überschätzt du meine Möglichkeiten, ich hab echt absolut keine Ahnung wie das geht. ;D
--
Zu den Akrylbildern -- da habe ich tatsächlich auf einer alten Platte die selbstgemalten Bilder eines damaligen Mitspielers gefunden, allerdings habe ich die wohl im Geiste etwas verklärt. Sie sind schon nach wie vor gut und vor allem besser als alles, was ich selber je malen könnte, aber nun doch nicht so dass ich behaupten würde "KI könnte das nicht". Sehet selbst:
(https://www.tanelorn.net/index.php?action=dlattach;topic=123321.0;attach=35421)(https://www.tanelorn.net/index.php?action=dlattach;topic=123321.0;attach=35423)(https://www.tanelorn.net/index.php?action=dlattach;topic=123321.0;attach=35425)
Weiss nicht wo die KI diese Vorstellung vom menschlichen Alterungsprozess her hat.
Versuchs mal beim Helm mit Sallet. Open helmet geht auch nicht?
Und mit etwas Übung bekommt man wohl auch bessere Resultate bei Einzelbildern:(Klicke zum Anzeigen/Verstecken)
LOOL...
Dieses Bild hier hat mich gleich mehrere Tage lang beschäftigt (obwohl es eh schon auf einem älteren Bild basiert):
Wie kann das sein, dass eine größere Versionsnummer einen derartigen Rückschritt bei den Resultaten bewirkt? :o
Was hat denn genau mehrere Tage gedauert?
oder ohne Bewaffnung, aber wahrscheinlich zu hochgewachsen:
Ach, ich finde, die kommt schon zwergisch rüber.
Mach einfach das ganze Bild 20% kleiner! ;)
Waffe mit zwei montierten Kleinschilden ist aber auch schräg.
So ungefähr im 10 Versuch kam dann das hier raus, bisher noch das beste -- das Schaufeldings da ist SDs Vorstellung von einer Streitaxt.
Bezüglich Größenangaben, wie sieht es mit inch, feet oder yards aus? Sind doch bestimmt alles amerikanische Programme. Vielleicht kommen die mit ihren Maßen besser klar.
Hab mkal Feuersängers Prompt genommen, angepasst, dass der so aussieht: Image of a female black-skinned dwarf, about 150cm tall, stocky build, big head, brown skin, brown straight hair in thick braids, thick arms, big chest, wearing heavy armour. Confident and proud expression, photorealistic und das bei Bing durchgelassen. [...]