this post was submitted on 01 Oct 2023
138 points (88.3% liked)

Frag Feddit

3705 readers
1 users here now

Wolltest du Der Leere™ schon immer einmal Fragen stellen? Tue dies hier.

founded 3 years ago
MODERATORS
 

Ist es in Bayern normal, dass zwei Frauen an der Schulter zusammen gewachsen sind, sechs Finger an einer Hand haben und trotzdem ein Bierglas nicht so festhalten können, dass es eigentlich runterfallen müsste?

all 36 comments
sorted by: hot top controversial new old
[–] Der_aus_Aux@feddit.de 52 points 1 year ago* (last edited 1 year ago) (1 children)

Kann schon mal vorkommen, wenn der genetrische Pool in Dorf zu klein ist. Aber am Maßkrug erkennt man die Fälschung. Bier wir nicht in Viertel ausgeschenkt. 😁

[–] dumdum666@kbin.social 2 points 1 year ago

Pff… sie umfasst den ganzen Maßkrug halt.

[–] philpo@feddit.de 37 points 1 year ago

Naja, im Berchtesgadener Land ist nach Tschernobyl echt viel Strahlung runter gekommen. Und wenn dein Stammbaum vorher schon ein Kreis war...

[–] geizeskrank@feddit.de 28 points 1 year ago (1 children)

Das sind Töchter aus dem Adelsgeschlecht der Habsburger, sehr angesehenes Haus.

[–] PuschyMTB@feddit.de 4 points 1 year ago* (last edited 1 year ago)

Oder dem Hause Oldenburg, dem Trixi v. Storch entstammt.

[–] GCostanzaStepOnMe@feddit.de 24 points 1 year ago (1 children)

Ja das sind Sabi und Gabi, die siamesischen Oktoberfestzwillinge. Die werden gegen Ende September aus dem Keller im Hofbräuhaus gelassen und treiben dann ein paar Wochen ihr Unwesen. Danach werden sie wieder eingetrieben und an ein Fass Mönchshofer gekettet.

[–] Hotzilla@sopuli.xyz 11 points 1 year ago (3 children)

I have no idea what is going on here, buuut I am happy

[–] federalreverse@feddit.de 16 points 1 year ago* (last edited 1 year ago)

"traditional Bavarian dress instead of burka"

AI-generated image of two women

The blue hearts are probably meant to represent love for Bavaria (because blue-white are the Bavarian colors).

(In other contexts, blue hearts in German posts are usually an indication of pro-AfD content [AfD being the nationalist/xenophobic/... party]. Because of the anti-Muslim sentiment, I can't quite exclude that possibility here either.)

[–] Narrrz@kbin.social 11 points 1 year ago (1 children)

they appear to have too many fingers

[–] xia@lemmy.sdf.org 14 points 1 year ago

I didn't even notice they had fingers.

[–] pixelscience@lemm.ee 2 points 1 year ago

Came here to say the same...

[–] wldmr@feddit.de 10 points 1 year ago

Künstliche Intelligenz statt Intelligenz 🧠🧠🥔🥔

[–] NeoNachtwaechter@lemmy.world 7 points 1 year ago (1 children)

Ist hier etwas gemacht worden?

Ja, eindeutig ist der einen das Halskettchen geklaut worden. Jetzt sieht sie da obenrum ziemlich nackt aus.

[–] Elchi@feddit.de 4 points 1 year ago

Vom Ohr ganz zu schweigen.

[–] Pantherina@feddit.de 6 points 1 year ago (2 children)

Anderes Thema, kennt sich wer mit solchen Modellen aus? Wisst ihr wie viele Grafikkarten etc man bräuchte, und mit welchen FOSS modell man gut Bildgeneration in so einem Stil machen kann? Eventuell mit etwas weniger Fingern XD

[–] Lemmchen@feddit.de 8 points 1 year ago* (last edited 1 year ago) (1 children)
[–] Pantherina@feddit.de 1 points 1 year ago (2 children)

Gar nix! Also einen Laptop mit Ryzen mobile prozessor, ist das stärkste was ich hab

[–] barsoap@lemm.ee 3 points 1 year ago

Die gute Nachricht ist dass du mit ner APU keine VRAM-Probleme haben solltest. Die schlechte ist dass die Dinger sowohl was Rechenpower als auch Speicherbandbreite angeht komplette Kartoffeln sind.

Solange ROCm läuft läuft auch pytorch und dann läuft sowohl A1111 als auch ComfyUI.

[–] Lemmchen@feddit.de 1 points 1 year ago* (last edited 1 year ago)
[–] lloram239@feddit.de 8 points 1 year ago* (last edited 1 year ago) (1 children)

4GB VRAM ist minimum, 10GB VRAM um es vernünftig benutzen zu können, sprich irgendwas um GTX1080/RX6600 sollte für den Anfang reichen, mehr ist aber immer besser. Bild Generierung dauert 10-60sec, je nach Auflösung und Erweiterungen.

Für den Einstieg ist Automatic1111 gut und einfach, gibt auch noch alternativen wie ComfyUI die graph/flowchat haben.

epiCRealism, Photon und CyberRealistic sind Modelle die alle realistische Ergebnisse bringen. Sowas hier kann man damit in 2min zusammenwürfeln.

Im non-FOSS Bereich ist BingChat auch einen Versuch Wert, da das gerade auf DALLE-3 geupgraded wurde, sprich sowas hier generiert das und das Sprachverständnis ist besser als StableDiffusion (siehe Frosch).

[–] aaaaaaaaargh@feddit.de 4 points 1 year ago* (last edited 1 year ago) (1 children)

Sehr gute Antwort, ich möchte noch drei Dinge hinzufügen:

Mit 4GB VRAM kommt man nicht mehr sehr weit. Das absolute Minimum sind 8GB, wobei man selbst damit schon schnell an die Grenzen des Möglichen stößt. Ideal sind 12 oder noch besser 24 (ergo 4090 oder mehr).

Desweiteren gab es jüngst ein neues Stable Diffusion release (SD XL), was die Messlatte auch nochmal deutlich nach oben geschoben hat. In Vergleichen operiert SD XL qualitativ etwa auf der Höhe von Midjourney, einer kommerziellen Alternative, die bis dato als absoluter Goldstandard galt.

Ich empfehle unbedingt ComfyUI, da es wesentlich flexibler ist als Automatic1111 und durch den Node-basierten Ansatz vielleicht auch etwas intuitiver.

[–] barsoap@lemm.ee 2 points 1 year ago (2 children)

Mit 4GB VRAM kommt man nicht mehr sehr weit.

Ja doch schon. Darfst halt nicht A1111 benutzen das Ding leckt Speicher wie die Sau. Comfy kann auch SDXL mit Standardauflösung mit 4G.

Kaufen sollte man 4G-Karten heutzutage nicht aber ich werd' mir hier jetzt zum rumspielen keine neue kaufen zu den Pandemiepreisen.

[–] lloram239@feddit.de 2 points 1 year ago* (last edited 1 year ago) (1 children)

Hab gerade mal A1111 auf einer 4GB RX480 getested, funktionieren tut es, muss aber mit --no-half gestartet werden und die Performance ist recht unbrauchbar, 6min für 512x512 ohne Extras, auf einer RX6700 braucht das 4sec.

[–] barsoap@lemm.ee 2 points 1 year ago* (last edited 1 year ago)

4G RX5500, 512x512 SD1.5 (und ComfyUI), warmgelaufen, sind bei mir 1.86it/s. 4 Sekunden wären da 7-8 Schritte sind schon reichlich grenzwertig aber 20 Schritte in 11 Sekunden laufen bei mir definitiv unter benutzbar.

--no-half

Jop RX480 scheint kein fp16 zu haben. RX5500 ist im Prinzip in genau der gleichen Klasse aber schon Navi und hat fp16, das ist mal ne schlappe Verdoppelung der effektiven TFLOPs. VRAM-Speicherbedarf ist auch gleich halbiert, da kann das Modell dann auch komplett im VRAM bleiben und muss nicht zwischen den Schritten immer hin und her geschaufelt werden.

[–] aaaaaaaaargh@feddit.de 1 points 1 year ago* (last edited 1 year ago) (1 children)

Was genau ist denn eine Standardauflösung bei dir? Also ich hab eine 2080 mit 8 Gigs und wenn ich das SD XL base model mit kleinem LoRA und Prompts nutze, komme ich nicht wesentlich über 1200x1200 Bildpunkte. Sobald dann sowas wie ControlNet dabei ist, sind eher 800x800 das Maximum.

Ich schließe daher daraus: wenn man sowas ernsthaft einsetzen möchte, wird man unter 12+ Gigs nicht weit kommen.

[–] barsoap@lemm.ee 3 points 1 year ago* (last edited 1 year ago)

https://stablediffusionxl.com/sdxl-resolutions-and-aspect-ratios/

LoRAs sind kein Problem, die werden in's Modell reingerechnet bevor die Inferenz startet. ControlNet kommt drauf an das kann schon kritisch werden, wirst aber t2i-Adapter finden. Die werden auch vorher reingerechnet und sind daher auch schneller -- auch nicht so genau aber wer benutzt schon Controlnet mit hohem Gewicht.

Wenn VRAM gerade fragmentiert ist kann es sein dass du zwingend die tiled VAE decode node nutzen musst, mit sehr niedriger Auflösung.

Was bei mir mit SDXL im Moment nicht geht sind sehr hohe Auflösungen dazu fehlt noch ControlNet tile.

Ich schließe daher daraus: wenn man sowas ernsthaft einsetzen möchte, wird man unter 12+ Gigs nicht weit kommen.

Da ist schon was dran denn mit 4G kann man definitiv nicht trainieren.

[–] federalreverse@feddit.de 5 points 1 year ago (1 children)

Und ich dachte, die aktuelle Version von Midjourney zeichnet Hände korrekt.

[–] Cozy@feddit.de 4 points 1 year ago (1 children)

Dafür müsste man ja zahlen. Z.b. per Bing Dall-E anschmeißen und einfach das erste oder zweite Ergebnis nehmen. Fällt schon nicht auf.

[–] HumbertTetere@feddit.de 4 points 1 year ago (1 children)

Dalle 3 macht auch gute Hände im Allgemeinen.

Gibt's erst seit gestern für alle, sehe es aber als das aktuell beste Modell und auf Bing ist es kostenlos.

[–] kindenough@kbin.social 5 points 1 year ago* (last edited 1 year ago)

Aber Stable Diffusion 1.5 model sicher nicht

[–] angrox@feddit.de 2 points 1 year ago

Fake! So kleine Mass gibts gar net!!1elf!

[–] _s10e@feddit.de 1 points 1 year ago