PDA

Ver la versión completa : IA que dibuja cualquier cosa que le escribas



selecter25
24/08/2022, 16:53
Imagino que muchos ya la conoceréis, para el que no, os dejo el link del bot:

https://discord.com/invite/midjourney

Básicamente entras en cualquier sala habilitada para newbies, escribes /imagine y le detallas lo que quieres que dibuje (en cualquier idioma), con toda la cantidad de detalles que quieras, y empieza a trabajar. Al finalizar, te da 4 imágenes posibles y puedes hacer upscaling, modificaciones...


Hay cantidad de modificadores, los resultados son impresionantes, por ejemplo, estos son resultados de "highly detailed death scene":

https://i.imgur.com/3X9KvSy.pnghttps://i.imgur.com/J3CAsw4.png
https://i.imgur.com/fbyJLAz.pnghttps://i.imgur.com/AqQLCHK.png

Aquí los de "mad racoon plays retro videogames":

https://i.imgur.com/1iYBmId.png

futu-block
24/08/2022, 16:57
vaya, creo que nadie se ha puesto en plan bubis...

-----Actualizado-----

pd: ¿que es lo que hay que hacer?

selecter25
24/08/2022, 17:02
vaya, creo que nadie se ha puesto en plan bubis...

-----Actualizado-----

pd: ¿que es lo que hay que hacer?

Para usarlo? Lo explico en el OP, dejo link a instrucciones detalladas:

https://midjourney.gitbook.io/docs/

Creo que si le metes algo +18 te pega en la frente, pero vamos, si ves las creaciones del resto, encuentras cosas como fisting de terminator a putin en la plaza roja.

Hace cosas muy bestias, por ejemplo logos con lo que le pidas.

"steampunk city at night, several moons, 4k --ar 16:9"

https://i.imgur.com/PuaZwLh.png

josepzin
24/08/2022, 18:50
Es espectacular, realmente.


https://www.youtube.com/watch?v=-9NfzXfPC4U

swapd0
24/08/2022, 19:22
A mi no me sale nada decente :P

selecter25
24/08/2022, 19:38
A mi no me sale nada decente :P

Qué le estás pidiendo? Si echas un rato verás que la mayoría de cosas que hace la peña las clava.

swapd0
24/08/2022, 19:43
puse IIRC, pixel art ninja animation frames... y no salir ningún ninja XD

Después con otras cosas si, la verdad es que si vas a hacer un juego conversacional lo puedes usar para hacer las pantallas, pero como ya no se hacen esos juegos :P

-----Actualizado-----

PD: estaria bien entrenar una red de estas, solo con imágenes pixel art, hojas con sprites de personajes, etc, a ver que seria capaz de sacar.

selecter25
24/08/2022, 19:58
puse IIRC, pixel art ninja animation frames... y no salir ningún ninja XD

Después con otras cosas si, la verdad es que si vas a hacer un juego conversacional lo puedes usar para hacer las pantallas, pero como ya no se hacen esos juegos :P

-----Actualizado-----

PD: estaria bien entrenar una red de estas, solo con imágenes pixel art, hojas con sprites de personajes, etc, a ver que seria capaz de sacar.

Claro, esta la han entrenado con un enfoque más "artístico", si le pides algo muy técnico se caga encima.

Para prototipar dibujos, logos o sacar ideas viene muy bien, puedes pedirle cosas realmente locas, como que te haga algo estilo render unreal engine, una casa estilo ghibli, una escena en gran angular, pero si le pides un tileset para un juego de naves con sprites de 32x32 te manda a paseo.

Lo que estoy viendo es que hay un tope en el free trial, y la versión de suscriptor no es barata a menos que vayas a darle uso a las imágenes, y no sea solo por trastear.

juanvvc
25/08/2022, 00:17
Yo lo veo genial para sacar ideas para ilustraciones, y me da la impresión de que está a poco tiempo de poder hacer peticiones artísticas completas. Es increible lo que avanza esto simplemente en semanas. A ver si el fin de semana me pongo a instalar el Stable Difussion en local, creo que han publicado el modelo, ¿no?

Estas son con el midjourney este:

Cybersecurity officer dressed as superman playing the piano. Para el que no lo haya probado, el sistema te da cuatro opciones y tú puedes reescalar / evolucionar la que más te guste

https://i.imgur.com/dCkU105.png

Boy playing games in the basement, Caravaggio style

https://i.imgur.com/TKcn8CE.png

Cats playing cards at a table

https://i.imgur.com/M7Ss7aT.png

A misty forest in Middle-Earth, four elves in the distance

https://i.imgur.com/BCXd8AZ.png

Como veis, los estilos son muy locos y pasan por toda la historia del arte. Las imágenes son públicas y estoy viendo algunas muy detalladas pero aún no controlo el arte de hacer las peticiones correctas.

selecter25
25/08/2022, 01:43
Yo lo veo genial para sacar ideas para ilustraciones, y me da la impresión de que está a poco tiempo de poder hacer peticiones artísticas completas. Es increible lo que avanza esto simplemente en semanas. A ver si el fin de semana me pongo a instalar el Stable Difussion en local, creo que han publicado el modelo, ¿no?

Estas son con el midjourney este:

Cybersecurity officer dressed as superman playing the piano. Para el que no lo haya probado, el sistema te da cuatro opciones y tú puedes reescalar / evolucionar la que más te guste

https://i.imgur.com/dCkU105.png

Boy playing games in the basement, Caravaggio style

https://i.imgur.com/TKcn8CE.png

Cats playing cards at a table

https://i.imgur.com/M7Ss7aT.png

A misty forest in Middle-Earth, four elves in the distance

https://i.imgur.com/BCXd8AZ.png

Como veis, los estilos son muy locos y pasan por toda la historia del arte. Las imágenes son públicas y estoy viendo algunas muy detalladas pero aún no controlo el arte de hacer las peticiones correctas.

Normalmente las piden highly detailed, 4k, 8k, ray tracing... Si vas haciendo varias ediciones de la que más te guste, la va perfeccionando.

Para los modificadores, mira el link que dejé por arriba con las instrucciones, viene bien para cambiar aspect ratio y demás.

Tal cual dices, para sacar ideas para ilustraciones es brutal, la pena es que se acaba el periodo de prueba bastante rápido :(.

selecter25
25/08/2022, 04:47
Dejo otra IA Open Source:

https://youtu.be/_0GzTdr-EYs

swapd0
25/08/2022, 08:30
Pff vaya mierda, la de los cuatro elfos yo diría que hay cinco, no sabe ni contar. :P

masteries
25/08/2022, 11:33
Es increíble el nivel artístico que se obtiene,

Lo que estoy comprobando que no se le da es mostrar escenas en las que haya interactuación, escenas en las que no hay un elemento como protagonista.

Por ejemplo, le pides que te dibuje una batalla entre bandos, ya sea de temática moderna o medieval, y se centra en mostrarte una escena de uno de los bandos que has puesto,

Te saca una escena increíble, pero nunca los bandos batallando... el tema de reflejar expresiones a través de poses corporales aún le cuesta, y entonces por ese camino no tira...


Pero es normal, y ya me parece un milagro divino que un software sea capaz de hacer esto.


En cambio, si le pides una cosa scena con un único elemento como protagonista, como un Delorean corriendo por la Pampa... Lo borda

swapd0
25/08/2022, 11:48
Que malo que soy para esto, orc playing Zelda on a NES
55211

blindrulo
25/08/2022, 18:25
Como haceis para que las imágenes sean tan tochas y en panorámico. A mi he sacado cuaro imagenes cuadradas y ni me escala ni me hace variaciones ni nada. No entiendo. Será porque no he terminado de crear la cuenta?.

Un saludo. :brindis:

EDIT: Ya lo he pillado pero no me va muy fino y eso que pido cosas muy simples.

selecter25
25/08/2022, 19:14
Como haceis para que las imágenes sean tan tochas y en panorámico. A mi he sacado cuaro imagenes cuadradas y ni me escala ni me hace variaciones ni nada. No entiendo. Será porque no he terminado de crear la cuenta?.

Un saludo. :brindis:

Mira los modificadores en el link de instrucciones que dejé arriba, para indicarle el aspect ratio panorámico tienes que poner --ar 16:9, también funciona --ar 1920:1080.

Para el tamaño, cuando te da el resultado de las 4 imágenes, tienes unos botones que pone U1 U2 U3 U4, pulsa el que se corresponda con la imagen que quieras y le hará upscaling por IA.

blindrulo
27/08/2022, 15:20
Mira los modificadores en el link de instrucciones que dejé arriba, para indicarle el aspect ratio panorámico tienes que poner --ar 16:9, también funciona --ar 1920:1080.

Para el tamaño, cuando te da el resultado de las 4 imágenes, tienes unos botones que pone U1 U2 U3 U4, pulsa el que se corresponda con la imagen que quieras y le hará upscaling por IA.

Gracias. No me daba cuenta de que a cada modificación generaba un mensaje con la imagen nueva. Hay alguna forma de ir a tus imagenes direcatmente? Es que se producen tantos mensajes al minuto que el hio es infinito y no hay quien encuentre luego nada.

No obstante le he pedido cosas muy simples como "a girl smoking a cigarrete" y no lo hace.

He descubierto otras IA que hace lo mismo:

- Wombo: https://app.wombo.art/. La mejor dicen que es
- DALL-E 2: https://openai.com/dall-e-2/. Esta dicen que es la mejor pero no tiene acceso libre.

Un saludo. :brindis:

juanvvc
27/08/2022, 19:11
Tel bot te menciona en tus imágenes, así que no busques tu imagen en el hilo, es imposible. Vete a menciones y allí están tus cosas

Sí, hay varias IAs de estas. El segundo de los vídeos que ha puesto selecter está muy bien para conocer qué ha pasado en los últimos meses, es un resumen muy bueno

blindrulo
27/08/2022, 20:51
Tel bot te menciona en tus imágenes, así que no busques tu imagen en el hilo, es imposible. Vete a menciones y allí están tus cosas

Sí, hay varias IAs de estas. El segundo de los vídeos que ha puesto selecter está muy bien para conocer qué ha pasado en los últimos meses, es un resumen muy bueno

Busqué por todos los lados pero no encontraba nada. Tomo nota y miraré lo de las menciones aunque no recuerdo haber visto ese apartado.

Un saludo. :brindis:

swapd0
30/08/2022, 18:20
Pues he hecho varias pruebas y parece que no sabe quien es Mortadelo y Filemón :P

Dullyboy
30/08/2022, 19:29
Yo encontré de casualidad este:

https://twitter.com/MartinNebelong/status/1562745663376719873

Que lo puedes dirigir un poco más haciendo el boceto.

josepzin
30/08/2022, 21:06
Supongo que esto estará hecho con esto mismo.

https://twitter.com/remi_molettee/status/1564632028959629319

swapd0
31/08/2022, 08:37
Aqui hay imágenes con la descripción para bajar ... 240 TB... no me cabe XD
https://laion.ai/blog/laion-5b/

Karkayu
31/08/2022, 11:08
Pues Wombo (https://app.wombo.art/) aún no va fina... me ha hecho esto:

55223

Meanwhile, midjourney:

55224

EDITO:

Parece que esta es la que mejor resultados obtiene:

https://www.youtube.com/watch?v=5z223SxlAcA

selecter25
31/08/2022, 17:15
Stable es la alternativa opensource a Dall E 2, arriba dejé un vídeo interesante de ella.

futu-block
31/08/2022, 20:30
¿habeis dicho algo de DreamStudio?

juanvvc
31/08/2022, 21:43
Sí, se ha dicho algo de DreamStudio, todos hemos mencionado ya el motor de Stable :D

Como todo esto es un poco confuso, permitidme que añada un poco más de confusión explicando lo que estoy entendiendo:

Hay tres actores principales que han creado esta moda:

- DALL-E 2, que no fue el primero (si pone 2... habrá un 1…) pero sí el que pegó una mejora espectacular más o menos en marzo de 2022, y empezó esta revolución. Detrás de DALL-E está la empresa OpenAI. Ojo que aquí empieza la confusión: el “open” de OpenAI no significa opensource ni gratis ni freespeech ni nada similar, más bien todo lo contrario.
- Midjourney, que apareció un poco después de DALL-E 2. Es el que estábamos probando al principio del hilo porque cuando empezó el hilo era el más accesible de todos (esto ya cambió). Dicen que está especializado en imágenes “artísticas”.
- Stable Difussion. El 22 de agosto de 2022 (es decir: ¡hace 10 días!), la empresa Stable AI publicó su modelo al mundo de forma libre y gratuita para disfrute de todos. Me ha parecido entender que hay un millonario detrás de esto que está financiando está tecnología “de forma altruista”. Como el de telegram, vamos. Estos llevan una pvta semana y están conquistando el mundo, así que cualquier vídeo o artículo que veáis de hace más de una semana ya es antiguo porque solo hablará de DALL-E/Midjourney.

Hay otros actores secundarios:

- Google, Meta, Microsoft, que son los grandes, que ya tenían todo esto hace tiempo pero que parece que les ha pillado con el paso cambiado o yo que sé y están perdiendo la batalla del marketing.
- Dalle-E Mini, que no tiene nada que ver con Dall-E, es una pequeña copia hecha por un grupo de aficionados que salió a rebufo de Dall-E accesible para todos. Modelo muy pobre para el estándar “actual”, ya está obsoleta.
- Tú. Es decir, Stable Difussion montado en tu casa. Stable Difussion es opensource, así que puedes descargarlo y tenerlo en tu casa si quieres y sabes. La descarga+configuración no es sencilla para un usuario normal y necesitas hardware especializado (Nvidia+cuda), así que están surgiendo muchas “empresas” que lo instalan por ti y te dan el servicio por un módico precio, mira el punto de más abajo. Hay también varias decenas de docker ya preparadas, por si queréis probar si funciona en vuestro PC.
- También hay rulando por ahí un notebook de Google Colab, que es básicamente instalar Stable Difussion en la cloud de Google en vez de en tu casa y te dejas de líos de hardware. Si lo hacéis, recordad apagar el engine cuando no lo uséis u os llegará una factura de Google de miedo. El vídeo de 2 horas de más arriba describe esta opción.
- DreamStudio, NightCafe y las tropocioentas mil que van a ir saliendo: todas ellas no hacen nada original, usan el motor de Stable Difussion. La diferencia es el modelo de negocio que vayan montando (es decir, cuánto pagas por imagen), o la comunidad que atraigan, o la interfaz que tienen. Pero todas usan el mismo modelo de Stable Difussion así que “son la misma” que el Stable Difussion que podrías instalar en tu casa si supieses. No descartes que haya antiguos mineros reinventándose para aprovechar la inversión en hardware que hicieron.

-----Actualizado-----

Ojo: el mensaje anterior seguro que ya estará obsoleto la semana que viene. Es difícil estar al día de lo que está pasando en este mundillo cuando se mueve tan rápido.

josepzin
01/09/2022, 01:44
Impresionante... hace rato que algo no pegaba un salto tan grande asi de repente.

selecter25
01/09/2022, 03:20
Acabo de probar la versión de escritorio de Stable que colgaron en reddit, con una RTX 3080ti, y va como la seda, me ha creado unas furras con orejas de burro bastante interesantes.

https://i.imgur.com/bO00RoN.png

También he probado a hacer versiones de personajes en Nendoroid y es acojonante.

Walter White:

https://i.imgur.com/E0LFftl.png

Emma Watson:

https://i.imgur.com/ISeJAjZ.png
https://i.imgur.com/IUij4Ai.png
https://i.imgur.com/qJm4XWZ.png

Al final con estas herramientas tan tochas, todo se reduce al "prompt engineering", saber qué preguntar y sacarles todo el jugo.

masteries
01/09/2022, 11:04
El más difícil de todos: echar a andar Stable en Windows, con gráfica AMD y de 4 GB xD

selecter25
01/09/2022, 11:46
El más difícil de todos: echar a andar Stable en Windows, con gráfica AMD y de 4 GB xD

:D see, los requisitos un poco locos, GPU Nvidia porque tira de Cuda y unos 16Gb de RAM, imagino que darán más soporte en un futuro.

chipan
01/09/2022, 12:54
Acabo de probar la versión de escritorio de Stable que colgaron en reddit, con una RTX 3080ti, y va como la seda, me ha creado unas furras con orejas de burro bastante interesantes.

https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fi.imgur.com%2FbO00RoN. png

También he probado a hacer versiones de personajes en Nendoroid y es acojonante.

Walter White:

https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fi.imgur.com%2FE0LFftl. png

Emma Watson:

https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fi.imgur.com%2FISeJAjZ. png
https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fi.imgur.com%2FIUij4Ai. png
https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fi.imgur.com%2FqJm4XWZ. png

Al final con estas herramientas tan tochas, todo se reduce al "prompt engineering", saber qué preguntar y sacarles todo el jugo.
¿Esa versión de escritorio es para windows o es la que necesita instalación de linux y toda la pesca?

swapd0
01/09/2022, 13:04
:D see, los requisitos un poco locos, GPU Nvidia porque tira de Cuda y unos 16Gb de RAM, imagino que darán más soporte en un futuro.
Y yo que queria probarla en mi MacMini de 2011 XD

Estaria bien que se pudiera ejecutar desde la CPU para ver cuanto tarda... zzzzz

juanvvc
01/09/2022, 13:37
Lo difícil creo que es tener el modelo de red neuronal en la memoria, luego es simplemente cuestión de tiempo de proceso. En un entorno doméstico, si en vez de tardar 1 minuto en generar una imagen tarda 10, pues tampoco está tan mal. El MacMini ya está preparado para hacer algunas cosas de AI ("Neural Engine", se llama) así que puede que incluso funcione mejor que un PC genérico con una GPU básica. Lo malo es la cantidad de memoria que necesita este modelo de red neuronal, aunque los de Stable están diciendo que ven posible reducir el modelo a un 10% del tamaño actual. ¡Veremos!

Lo que me está dando la impresión es que esto puede ser, de nuevo, mala noticia para los que tenían esperanzas en ver GPUs baratas: quizá les está saliendo un nuevo mercado después de las criptomonedas. Un mercado mucho más interesante de todas formas: imágenes, vídeos, audios, programación y diseño industrial a la vuelta de la esquina. Artistas e ingenieros del mundo, nos vamos a quedar sin trabajo.

Yo me voy a ir sacando la licencia de paseador de perros para tener un plan B de vida.

tartalo
01/09/2022, 13:51
He probado la versión para windows (NMKD Stable Diffusion GUI) y con una RTX 2080 con "solo" 8gb de RAM rula bien. Cero problemas por ahora aunque no he pasado de 512x512
Aún le queda mucho a la IA a la hora de interpretar lo que quieres, pero cuando das con el combo adecuado el resultado es increíble.
Por ejemplo con Vladimir Putin le cuesta muchísimo hacer algo digno que no sean retratos y hasta eso le cuesta mucho y mira k es famoso... Por ejemplo para hace que saque una imagen de Putin Montado en un oso (hay de eso a patadas por la red) me ha resultado imposible.

Esto es lo más aproximado que he logrado:
55225

-----Actualizado-----

Lo que no he probado es a meterle el prompt en castellano.... Esta IA sabe idiomas? Alguien ha probado?

swapd0
01/09/2022, 13:51
El MacMini ya está preparado para hacer algunas cosas de AI ("Neural Engine", se llama) así que puede que incluso funcione mejor que un PC genérico con una GPU básica.
En uno con procesador M1, no en el mío.

juanvvc
01/09/2022, 13:55
Intuyo que la resolución de la imagen no influye tanto en la memoria necesaria. Vamos, un poco sí, pero no es una relación directa como con los juegos. El modelo de generación de imagen es el que necesita muchísima memoria de base.

Y luego está en cómo se generan estas imágenes. Entiendo, pero por favor corregidme si está mal, que las imágenes se crean en dos pasos:

- un primer paso para generar una imagen de 512x512. Esta es la IA principal y la que sabe (o no) quién es Putin y la que necesita mucha memoria, sea como sea el tamaño de la imagen generada.
- un segundo paso para elevar la resolución a algo mayor. Esto esa una IA diferente y no tiene ni idea de que está viendo una foto de Putin. Imágenes grandes necesitan más memoria durante este paso, pero tampoco algo exagerado.

Por eso las imágenes con personas reconocibles funcionarán bien cuando están en primer plano, porque entonces en el paso 1 ya hay suficiente detalle para que el paso 2 no invente demasiado. Cuando la imagen de la persona famosa es de cuerpo entero la imagen generada en el paso 1 es muy pequeña y la IA de elevación de resolución simplemente verá una persona random y le pone detalles de persona random, así que ya no será reconocible.

Creo, solo estoy elucubrando.

selecter25
01/09/2022, 14:12
¿Esa versión de escritorio es para windows o es la que necesita instalación de linux y toda la pesca?

La estoy usando en win10, un usuario de Reddit se ha currado un ejecutable para dummies, bajas el zip, descomprimes, instalas y a funcionar:

https://www.reddit.com/r/StableDiffusion/comments/x1hp4u/my_easytoinstall_windows_gui_for_stable_diffusion/

tartalo
01/09/2022, 14:22
Intuyo que la resolución de la imagen no influye tanto en la memoria necesaria. Vamos, un poco sí, pero no es una relación directa como con los juegos. El modelo de generación de imagen es el que necesita muchísima memoria de base.

Y luego está en cómo se generan estas imágenes. Entiendo, pero por favor corregidme si está mal, que las imágenes se crean en dos pasos:

- un primer paso para generar una imagen de 512x512. Esta es la IA principal y la que sabe (o no) quién es Putin y la que necesita mucha memoria, sea como sea el tamaño de la imagen generada.
- un segundo paso para elevar la resolución a algo mayor. Esto esa una IA diferente y no tiene ni idea de que está viendo una foto de Putin. Imágenes grandes necesitan más memoria durante este paso, pero tampoco algo exagerado.

Por eso las imágenes con personas reconocibles funcionarán bien cuando están en primer plano, porque entonces en el paso 1 ya hay suficiente detalle para que el paso 2 no invente demasiado. Cuando la imagen de la persona famosa es de cuerpo entero la imagen generada en el paso 1 es muy pequeña y la IA de elevación de resolución simplemente verá una persona random y le pone detalles de persona random, así que ya no será reconocible.

Creo, solo estoy elucubrando.

Con Putin no hay manera.
Por ejemplo con este Prompt los resultados son espectaculares:
willem dafoe as a cowboy, elegant, digital painting, concept art, smooth, sharp focus, illustration, from red dead redemption by ruan jia and mandy jurgens and artgerm and william

Solo cambio a Dafoe por putin y una mierda:
vladimir putin as a cowboy, elegant, digital painting, concept art, smooth, sharp focus, illustration, from red dead redemption by ruan jia and mandy jurgens and artgerm and william

selecter25
01/09/2022, 14:27
Con Putin no hay manera.
Por ejemplo con este Prompt los resultados son espectaculares:
willem dafoe as a cowboy, elegant, digital painting, concept art, smooth, sharp focus, illustration, from red dead redemption by ruan jia and mandy jurgens and artgerm and william

Solo cambio a Dafoe por putin y una mierda:
vladimir putin as a cowboy, elegant, digital painting, concept art, smooth, sharp focus, illustration, from red dead redemption by ruan jia and mandy jurgens and artgerm and william

Busca prompts en lexica:

https://lexica.art/?q=vladimir+putin

juanvvc
01/09/2022, 14:32
qué bueno lo de lexica

tartalo
01/09/2022, 15:10
Busca prompts en lexica:

https://lexica.art/?q=vladimir+putin
De ahí he sacado el prompt de Dafoe. Pero es curioso que simplemente cambiando un nombre por otro los resultados son tan diferentes en cuanto a calidad y aproximación al rostro del personaje. No se, igual no hay tanta inteligencia detrás de esto y si muchos algoritmos.

Quitandole la parte del Rempdition y la literatura del prompt, mejora muchísimo: putin, elegant, digital painting, concept art, smooth, sharp focus, illustration
Con eso la clava
55226

doble-h
02/09/2022, 13:48
De donde se descarga la versión de pc?

masteries
02/09/2022, 14:11
La estoy usando en win10, un usuario de Reddit se ha currado un ejecutable para dummies, bajas el zip, descomprimes, instalas y a funcionar:

https://www.reddit.com/r/StableDiffusion/comments/x1hp4u/my_easytoinstall_windows_gui_for_stable_diffusion/

Gracias, ¡Qué bien! Por RAM si cumplo con los 16 GB, además DDR3 CL9 dopada a 2400 MHz; pero con gráfica AMD de 4GB voy a tener que hacer el truco de https://rentry.org/tqizb

Pero, mejor a ver si también lo dan masticado para AMD y Windows xD

chipan
04/09/2022, 01:02
La estoy usando en win10, un usuario de Reddit se ha currado un ejecutable para dummies, bajas el zip, descomprimes, instalas y a funcionar:

https://www.reddit.com/r/StableDiffusion/comments/x1hp4u/my_easytoinstall_windows_gui_for_stable_diffusion/

Selecter, Decir que eres mi ídolo es quedarme corto.

swapd0
11/09/2022, 14:20
¿Alguien sabe donde hay algo online para que le metas una imagen y te genere una version mejorada? Vamos, lo que usa en este hilo.

https://twitter.com/javilop/status/1568624845579243521

Dullyboy
11/09/2022, 15:14
¿Alguien sabe donde hay algo online para que le metas una imagen y te genere una version mejorada? Vamos, lo que usa en este hilo.

https://twitter.com/javilop/status/1568624845579243521

Lo pone él en los comentarios.

https://beta.dreamstudio.ai


Para los que preguntáis por el prompt ��:

1/ Añade una "Initial Image" en StableDiffusion.

2/ Usa un prompt de este estilo: "[lo que quieras que dibuje], realistic highly detailed, smooth, sharp focus, 8k, ray tracing, digital painting, concept art illustration".

swapd0
11/09/2022, 15:44
*****, estoy cegato

-----Actualizado-----

Si le paso una imagen me da error :(

Dullyboy
11/09/2022, 16:14
*****, estoy cegato

-----Actualizado-----

Si le paso una imagen me da error :(

Si te tiene manía ahí ya no puedo hacer nada :lol: (a mi me deja subir imágenes).

josepzin
11/09/2022, 16:19
Es lo que tiene tratar con IAs, en cuanto te cogen manía o no les caes bien... adios.

swapd0
11/09/2022, 18:29
Si te tiene manía ahí ya no puedo hacer nada :lol: (a mi me deja subir imágenes).
Subir si pero después cuando le doy a dream a la porra, y ahora no puedo hacer nada de nada, solo he podido generar una imagen, creo que si no me hago miembro = pago no hay manera.

juanvvc
11/09/2022, 19:33
Es lo que dicen por ahí arriba, estás IAs cuando te cogen manía lo tienes difícil. Además, tienen algo que se llama "Aprendizaje Automático" y lo recuerdan y retienen todo. Ellas dicen que no les pasa nada, pero no caigas en el engaño, no es verdad.

Piensa a ver qué pudiste hacer para ofender a la IA. ¿Usaste chetos en alguna partida para ganar a la máquina? ¿Quizá has registrado la huella del dedo medio para desbloquear el móvil porque te pareció gracioso en su día? ¿Cuando Google dice que a 500 metros, tomes la salida, tú sigues recto porque conoces un atajo por urbanizaciones y siempre tardas 15 minutos más pero no quieres reconocerlo?

Regalarle algo bonito puede ayudar, como una esterilla para ratón nueva, o una actualización de RAM.

chipan
13/09/2022, 07:52
Jajaja he visto en reddit que a alguien se le ha ocurrido hacer un brad pitt asiático, y he probado a cambiar de raza varios actores, los resultados son sorprendentes. Luego os pongo algunas pruebas que he hecho.

swapd0
13/09/2022, 07:55
¿Has probado a cambiarles de sexo?

chipan
13/09/2022, 09:45
¿Has probado a cambiarles de sexo?

¡No!, ¡por dios!, estaba haciendo pruebas con Snoop Dogg y Jack Nicholson ¿quieres que eche la pota?

Por cierto, me estoy quedando muy loco, probando palabras raras, se me ocurrió escribir "inshimiron" y me crea siempre una especie de superheroe que es una mezcla entre nativo-americano y asiático, que lleva una armadura futurista y suele estar en parajes naturales... no tengo ni **** idea de por qué lo hace, pero me resulta curioso.

-----Actualizado-----

A ver... aquí vienen los famosos con cambio de raza, a ver si los adivinais sin que os lo diga:

1ª:
https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fi.imgur.com%2FOJDy5As. png
Respuesta:
Zendaya Asiática, en mi opinión, me parece muy guapa, más que la original si me apuras.

2º:
https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fi.imgur.com%2FAGdj7CD. png
Respuesta:
Jim Carrey Africano, Esa expresión es inconfundible.

3º:
https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fi.imgur.com%2Fcaqsgy7. png
Respuesta:
Keanu Reeves Asiático, Le ha puesto un poco carapán, pero el estilo es totalmente Keanu.

4º:
https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fi.imgur.com%2FKMg4PW6. png
Respuesta:
Denzel Tokio, digoooo Denzel Washington asiático ¿En que estaría pensando?.


https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fi.imgur.com%2FLCcDdrO. png
Respuesta:
Jean Reno, En este caso lo de "Leon el profesional" adquiere otro significado.


https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fi.imgur.com%2FNfl7rck. png
Respuesta:
¡El grinch! digooo Willem Dafoe Árabe... La verdad es que está horrible, pero de feo que ha salido es hasta gracioso

swapd0
13/09/2022, 09:57
He acertado 1, 3 y 6

-----Actualizado-----

Lastima las tetas...
55239
Female latin Brad Pitt

Edit: Ups... y los tres brazos XDXDXD

chipan
13/09/2022, 10:26
Bueno, Brad Pitt hombre tiene unas tetas similares en tamaño... no veo fallo ahí.

chipan
14/09/2022, 07:09
Estoy jodidamente fascinado por el concepto "inshimiron" en Stable Diffusion, es una palabra sin apenas resultados en google (aparte de un hilo de reddit donde lo he comentado), pero increiblemente me crea siempre lo mismo, una especie de superheroe que es una mezcla entre nativo-americano y asiático, con el pelo largo, tirando a viejo, que lleva una armadura futurista y suele estar en parajes naturales...
https://i.imgur.com/WZBSQA1.png
https://i.imgur.com/wj2MFKm.png
https://i.imgur.com/Xy4JOy2.png
https://i.imgur.com/44CS0VT.png
https://i.imgur.com/vLxVY0U.png

Drumpi
14/09/2022, 11:12
Pues pon "er shipirón", a ver si te sale un súper héroe estilo andalú :D
¿Pero eso lo haces instalando el motor en tu PC? ¿Qué tal se le da las caras reales? Porque conozco a uno que no para de pedirme que le retoque fotos, a ver si así puede conseguirlas a su gusto. ¿Cuánto ocupa el programa?

chipan
14/09/2022, 13:37
Puedes usar dreamstudio.ai o instalar la versión de NMKD para windows (pero necesitas una GPU Nvidia de la serie 10 en adelante, cuanto más alta de gama mejor). Para editar fotos no es muy allá, e instalado pesa unos 12GB o más.

chipan
14/09/2022, 19:02
Ahora probando el Waifu difussion...
https://i.imgur.com/7hrbdia.png
https://i.imgur.com/ZOhGjZU.png
https://i.imgur.com/4F8B878.png
https://i.imgur.com/xPktgVB.png
https://i.imgur.com/0Yc7YoV.png
https://i.imgur.com/8d7Kf2I.png
https://i.imgur.com/a8VHuxg.png
https://i.imgur.com/NxGhOXr.png
https://i.imgur.com/oabyTHD.png
https://i.imgur.com/A8vGPjC.png

swapd0
14/09/2022, 22:33
Que passada, mola un egg la que esta hecha como con tinta.

chipan
15/09/2022, 05:37
Que passada, mola un egg la que esta hecha como con tinta.

Pues usé casi el mismo prompt para todas, pero creo que a esa le añadi by tsutomu nihei o by yusuke murata

wolf_noir
16/09/2022, 20:35
Qué pasada :D mola un montón

chipan
17/09/2022, 11:40
https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fi.imgur.com%2FF3Ttufh. png

blindrulo
17/09/2022, 14:03
Estoy jodidamente fascinado por el concepto "inshimiron" en Stable Diffusion, es una palabra sin apenas resultados en google (aparte de un hilo de reddit donde lo he comentado), pero increiblemente me crea siempre lo mismo, una especie de superheroe que es una mezcla entre nativo-americano y asiático, con el pelo largo, tirando a viejo, que lleva una armadura futurista y suele estar en parajes naturales...


https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fi.imgur.com%2FXy4JOy2. png


Esta me recuerda a Ulysses 31.

Un saludo. :brindis:

-----Actualizado-----

Curioso. He probado en Wombo y dibuja lo mismo pero... sólo si le dijo realista. Si le indico otro estilo dibuja o cosas abstractas o parajes naturales.

55246

Un saludo. :brindis:

chipan
17/09/2022, 22:02
¡Que curioso! solo se me ocurre que en Wombo utilicen el mismo modelo para generar imágenes.
La verdad es que el puñetero inshimiron se representa de una manera muy exacta y coherente, parece un concepto muy bien arraigado en la IA como para ser una mera casualidad.

selecter25
17/09/2022, 22:16
Wombo utiliza Stable, al ser opensource le han cambiado el nombre a Dream y poco más.

blindrulo
18/09/2022, 12:18
¡Que curioso! solo se me ocurre que en Wombo utilicen el mismo modelo para generar imágenes.
La verdad es que el puñetero inshimiron se representa de una manera muy exacta y coherente, parece un concepto muy bien arraigado en la IA como para ser una mera casualidad.

Danos más datos. Sacaste el término de algún sitio o lo inventaste según deduzco de tu hilo de reddit?

Un saludo. :brindis:

chipan
18/09/2022, 14:16
Danos más datos. Sacaste el término de algún sitio o lo inventaste según deduzco de tu hilo de reddit?

Un saludo. :brindis:
Lo inventé de casualidad, junto con muchos otros, basicamente tecleando aleatoriamente, luego intentando leer lo tecleado y corrigiendo para que sea una palabra pronunciable.
En plan, tecleo a lo loco y me sale "iuuwtnascfriop" como eso es ilegible lo retoco un poco hasta "iwutnascifrop" para que sea legible y se lo meto a stable diffusion para que genere un puñado de imágenes, cuando generé inshimiron me fijé que la generación era consistente, entonces lo busqué en google y no tenía apenas ningún resultado (unos 5 o 6, y totalmente aleatorios), y ni uno relevante. Por eso me intriga la palabra.
Evidentemente el paso de corregir la palabra para hacerla pronunciable hace que pierda un poco de aleatoriedad porque al final el cerebro tiene patrones inconscientes que no nos permiten hacer verdadera aleatoriedad, pero realmente inshimiron no tiene resultados reales en google aparte de mi hilo de reddit.
Sospecho que la consecuencia puede venir de mezclar inshi o inshim que puede ser alguna clase de nombre asiático y iron que puede ser una referencia a ironman, de ahí que salga eso, pero no se me ocurre como confirmarlo porque inshi o inshim generan cosas aleatorias y iron genera... hierro, y todas las palabras raras acabadas en iron genera cosas de hierro.

josepzin
18/09/2022, 14:58
Quizás el Inshi ese sea el nombre de un personaje local mas o menos conocido en algun país asiático. Entonces usa su cara y lo convierte en Ironman.

blindrulo
18/09/2022, 17:03
Lo inventé de casualidad, junto con muchos otros, basicamente tecleando aleatoriamente, luego intentando leer lo tecleado y corrigiendo para que sea una palabra pronunciable.
En plan, tecleo a lo loco y me sale "iuuwtnascfriop" como eso es ilegible lo retoco un poco hasta "iwutnascifrop" para que sea legible y se lo meto a stable diffusion para que genere un puñado de imágenes, cuando generé inshimiron me fijé que la generación era consistente, entonces lo busqué en google y no tenía apenas ningún resultado (unos 5 o 6, y totalmente aleatorios), y ni uno relevante. Por eso me intriga la palabra.
Evidentemente el paso de corregir la palabra para hacerla pronunciable hace que pierda un poco de aleatoriedad porque al final el cerebro tiene patrones inconscientes que no nos permiten hacer verdadera aleatoriedad, pero realmente inshimiron no tiene resultados reales en google aparte de mi hilo de reddit.
Sospecho que la consecuencia puede venir de mezclar inshi o inshim que puede ser alguna clase de nombre asiático y iron que puede ser una referencia a ironman, de ahí que salga eso, pero no se me ocurre como confirmarlo porque inshi o inshim generan cosas aleatorias y iron genera... hierro, y todas las palabras raras acabadas en iron genera cosas de hierro.

Yo a lo que he llegado en mi indagación es que "inshimi" tiene algo que ver con ritos tradicionales de Zambia, pero sin relación aparente con lo que dibujan las IA.

Un saludo. :brindis:

juanvvc
18/09/2022, 19:20
Ofrezco otra posible explicación. Las vuestras pueden ser válidad y quizá realmente tiene algún sentido, yo me inclino más por pensar que no tiene sentido.

Una IA moderna es un algoritmo de clasificación: le das una entrada y la clasifica entre las categorías que tiene de salida. En este caso la clasificación funciona al revés: genera una imagen y la IA mira si se puede clasificar con la frase que le has dado de entrada. El caso es que tiene un input (palabra) y esta IA en particular está obligada a dar siempre un output (imagen), no puede decir "no te he entendido". Para clasificar, la IA recorre los circuitos internos que se ha autoprogramado durante el entrenamiento ("las neuronas")

Bueno, pues si le pides "un coche" de input, que seguro que estuvo entre las palabras entrenadas, recorre sus circuitos internos y sale de la caja con una imagen que se parezca a un coche; si le pides "una vaca", recorre sus circuitos y sale con la imagen de una vaca; le pides un "inshimiron", que seguramente no estuvo entre las palabras entrenadas, recorre sus circuitos y sale por un lado completamente aleatorio porque por algún lado tiene que salir, esta IA no se queda dentro de la caja, y aparece con estas imágenes.

(en esta IA la aletoriedad la da el estilo, no el sujeto de la imagen, creo)

Quizá no tengan ningún sentido, son simplemente los circuitos que ha recorrido porque están ahí por otras clasificaciones y acaba ahí simplemente por casualidad, porque por algún lado tiene que salir. Si es así, en la próxima ronda de entrenamiento habremos perdido a Inshimiron para siempre y solo quedará en nuestros recuerdo. También, debería pasar parecido con cualquier otra palabra inventada. No digo que acabe en el mismo lugar, sino que tenga resultados consistentes.

¿Habéis escuchado la historia de Loab? https://www.yahoo.com/entertainment/terrifying-ai-generated-woman-lurking-182520140.html

https://media.zenfs.com/en/techcrunch_350/d53d200e2282352c59508f2e471b04dc

chipan
18/09/2022, 20:41
Ofrezco otra posible explicación. Las vuestras pueden ser válidad y quizá realmente tiene algún sentido, yo me inclino más por pensar que no tiene sentido.

Una IA moderna es un algoritmo de clasificación: le das una entrada y la clasifica entre las categorías que tiene de salida. En este caso la clasificación funciona al revés: genera una imagen y la IA mira si se puede clasificar con la frase que le has dado de entrada. El caso es que tiene un input (palabra) y esta IA en particular está obligada a dar siempre un output (imagen), no puede decir "no te he entendido". Para clasificar, la IA recorre los circuitos internos que se ha autoprogramado durante el entrenamiento ("las neuronas")

Bueno, pues si le pides "un coche" de input, que seguro que estuvo entre las palabras entrenadas, recorre sus circuitos internos y sale de la caja con una imagen que se parezca a un coche; si le pides "una vaca", recorre sus circuitos y sale con la imagen de una vaca; le pides un "inshimiron", que seguramente no estuvo entre las palabras entrenadas, recorre sus circuitos y sale por un lado completamente aleatorio porque por algún lado tiene que salir, esta IA no se queda dentro de la caja, y aparece con estas imágenes.

(en esta IA la aletoriedad la da el estilo, no el sujeto de la imagen, creo)

Quizá no tengan ningún sentido, son simplemente los circuitos que ha recorrido porque están ahí por otras clasificaciones y acaba ahí simplemente por casualidad, porque por algún lado tiene que salir. Si es así, en la próxima ronda de entrenamiento habremos perdido a Inshimiron para siempre y solo quedará en nuestros recuerdo. También, debería pasar parecido con cualquier otra palabra inventada. No digo que acabe en el mismo lugar, sino que tenga resultados consistentes.

¿Habéis escuchado la historia de Loab? https://www.yahoo.com/entertainment/terrifying-ai-generated-woman-lurking-182520140.html

https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fmedia.zenfs.com%2Fen%2 Ftechcrunch_350%2Fd53d200e2282352c59508f2e471b04dc

Pues ya te digo que inshimiron sigue vivo en la 1.5 que saldrá en breve y ya se puede probar en algunos sitios.
Entiendo que mientras no quiten los caminos neuronales que llevan al concepto de inshimiron, éste seguirá existiendo... y dado que ya existen imágenes de inshimiron en google y éstas son susceptibles de ser usadas para el entrenamiento, es posible que el concepto perviva y se incorpore de manera real a la IA en un futuro.
La historia de Loab ya la había leído, es curiosa.

chipan
19/09/2022, 10:37
Estoy trasteando con el peso de los términos en los prompts, y se consiguen cosas bastante chulas como reforzar un estilo en un prompt largo o eliminar una característica de un personaje...
Por ejemplo, mismo prompt, misma semilla y mismo todo solo que en la primera imagen le di 5 veces más peso al término anime mientras que en la segunda lo dejé a 1
https://i.imgur.com/Bbu46nu.pnghttps://i.imgur.com/gBeSfT2.png

blindrulo
19/09/2022, 11:21
Ofrezco otra posible explicación. Las vuestras pueden ser válidad y quizá realmente tiene algún sentido, yo me inclino más por pensar que no tiene sentido.

Una IA moderna es un algoritmo de clasificación: le das una entrada y la clasifica entre las categorías que tiene de salida. En este caso la clasificación funciona al revés: genera una imagen y la IA mira si se puede clasificar con la frase que le has dado de entrada. El caso es que tiene un input (palabra) y esta IA en particular está obligada a dar siempre un output (imagen), no puede decir "no te he entendido". Para clasificar, la IA recorre los circuitos internos que se ha autoprogramado durante el entrenamiento ("las neuronas")

Bueno, pues si le pides "un coche" de input, que seguro que estuvo entre las palabras entrenadas, recorre sus circuitos internos y sale de la caja con una imagen que se parezca a un coche; si le pides "una vaca", recorre sus circuitos y sale con la imagen de una vaca; le pides un "inshimiron", que seguramente no estuvo entre las palabras entrenadas, recorre sus circuitos y sale por un lado completamente aleatorio porque por algún lado tiene que salir, esta IA no se queda dentro de la caja, y aparece con estas imágenes.

(en esta IA la aletoriedad la da el estilo, no el sujeto de la imagen, creo)

Quizá no tengan ningún sentido, son simplemente los circuitos que ha recorrido porque están ahí por otras clasificaciones y acaba ahí simplemente por casualidad, porque por algún lado tiene que salir. Si es así, en la próxima ronda de entrenamiento habremos perdido a Inshimiron para siempre y solo quedará en nuestros recuerdo. También, debería pasar parecido con cualquier otra palabra inventada. No digo que acabe en el mismo lugar, sino que tenga resultados consistentes.

¿Habéis escuchado la historia de Loab? https://www.yahoo.com/entertainment/terrifying-ai-generated-woman-lurking-182520140.html

https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fmedia.zenfs.com%2Fen%2 Ftechcrunch_350%2Fd53d200e2282352c59508f2e471b04dc

Pero si si según tu teoría es por aleatoriedad, cada vez que le solicitaramos un inshimiron nos devolvería algo diferente o e primer recorrido fue aleatorio y luego vuelve siempre al mismo? Por otro lado, en el caso de wombo sólo aporta ese resutado si le indicas que el dibujo sea realista si no el resulatdo si que es completamente aleatorio lo que no deja de ser curioso.

Alguien puede explicar por aquí de forma clara lo de "Loab"? He leído el artículo pero no me he enterado de nada.

Un saludo. :brindis:

-----Actualizado-----


Estoy trasteando con el peso de los términos en los prompts, y se consiguen cosas bastante chulas como reforzar un estilo en un prompt largo o eliminar una característica de un personaje...
Por ejemplo, mismo prompt, misma semilla y mismo todo solo que en la primera imagen le di 5 veces más peso al término anime mientras que en la segunda lo dejé a 1
https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fi.imgur.com%2FBbu46nu. pnghttps://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fi.imgur.com%2FgBeSfT2. png


Como conseguis estas cosas? A mi sólo me hace churros.

Un saludo. :brindis:

chipan
19/09/2022, 11:52
Como conseguis estas cosas? A mi sólo me hace churros.

Un saludo. :brindis:
Prueba con este prompt:
a portrait of a charming girl with a perfect face and long curly hair and cyberpunk gear, anime, captivating, aesthetic, hyper-detailed and intricate, realistic shaded, realistic proportion, symmetrical, concept art, full resolution, golden ratio, global resolution, sharp focus

Diría que ese prompt da mejor resultado Waifu diffusión, pero con stable diffusion normal tambien da buen resultado. Puedes variar la primera parte para conseguir más variedad, por ejemplo, eliminar lo de curly para que sea pelo largo pero no rizado, o cambiarlo por un color para que el pelo sea de ese color, añadir naked antes de girl para que sea mas interesante, cambiar cyberpunk por magical o cyberpunk gear por headset, cambiar portrait por full body shot, ese prompt da muchísimo juego.

La manera facil de sacar cosas bonitas es poner al final: by greg rutkowski


Por cierto, aunque no he experimentado mucho, el concepto inshimiron parece que solo funciona por si solo, si le pones alguna coletilla para cambiarle el estilo ya no genera inshimirons, o lo hace de manera poco reconocible.

Drumpi
19/09/2022, 13:49
Pero si si según tu teoría es por aleatoriedad, cada vez que le solicitaramos un inshimiron nos devolvería algo diferente o e primer recorrido fue aleatorio y luego vuelve siempre al mismo? Por otro lado, en el caso de wombo sólo aporta ese resutado si le indicas que el dibujo sea realista si no el resulatdo si que es completamente aleatorio lo que no deja de ser curioso.

Un saludo. :brindis:

Creo que ha usado mal la palabra aleatorio. Más bien la IA sale por una ubicación "desconocida" o "imprevisible". Suponemos que una red neuronal es demasiado grande para hacer una traza, así que... pero vamos, que las ideas van por un circuito muy marcado.
Puede ser que la combinación de "inshimiron" y "realista" ya le de una idea concreta de qué dibujar, que marque un circuito muy determinado por alguna búsqueda que se ha realizado, pero que nosotros desconocemos. La falta de uno de los dos términos, hace que se "salga de la ruta" y dibuje algo según su información.

Yo creo que es como cuando en una escuela de danza, te llega el profesor y te dice "baila un tango", pues bailas según los pasos que todos hemos aprendido, pero si te dicen "baila el color naranja"... Algo tienes que bailar. Puede que hagas pasos que algunos reconozcan como "dulces", pero más allá de eso, si es una samba, ballet o reggeton depende de la locura que se te esté pasando a tí por la cabeza :D
"Es que cuando le digo que baile el color azul, el tío empieza a correr como loco y a rodar, pero cualquier otro color, hace movimientos de cualquier tipo de baile". Algo así creo que puede que esté pasando.

chipan
19/09/2022, 15:40
Yo diría que lo de especificar "realista" en Wombo es como no poner nada en Stable Diffusion, quiero decir, en Stable diffusion pones inshimiron solo y genera inshimirons realistas, pero si añades algo para cambiar el estilo, ya no genera inshimirons.

blindrulo
19/09/2022, 16:26
He probado con la IA que iniciaba el hilo, midjourney y esto es lo que crea:

INSHIMIRON

55250

REALISTIC INSHIMIRON

55251

Un saludo. :brindis:

chipan
19/09/2022, 16:56
Entonces podemos deducir que inshimiron es un concepto propio de Stable Diffusion,

He creado otro hilo en reddit con experimentos que he hecho.

Drumpi
19/09/2022, 18:10
Puede ser, pero recordemos que alguien ha tenido que entrenar la IA con algo. Es posible que se le enseñara Inshimiron realista con una foto, o es posible que se asociara en algún momento del entrenamiento.
Es curioso que, lo que para una IA es un personaje, para otra es un lugar (una especie de castillo con altas torres a orillas de un lago)... aunque todo el mundo sabe, eso de realista tiene más bien poco :D Esos cimientos no se sostienen :P

Una duda: estos motores de IA, supongo que tendrán una especie de corrector ortográfico como primera capa ¿no? Habría que ver qué está interpretando realmente por la palabra Inshimirón.

EDIT: he visto esto por internet:
https://patents.google.com/patent/US20070272394
¿Es posible que traduzca "realistic inshimiron" como "realistic in shim iron" (personaje realista vestido en cuña de hierro) o "realistic in shiny iron" (personaje realista vestido de hierro brillante"? Al quitarle lo de realistic, que debe estar usándose para el estilo de dibujar personas, ya no sabe qué debe estar "en hierro brillante" y por eso se inventa cosas o interpreta "inshimiron" de otra manera.

chipan
19/09/2022, 18:28
Puede ser, pero recordemos que alguien ha tenido que entrenar la IA con algo. Es posible que se le enseñara Inshimiron realista con una foto, o es posible que se asociara en algún momento del entrenamiento.
Es curioso que, lo que para una IA es un personaje, para otra es un lugar (una especie de castillo con altas torres a orillas de un lago)... aunque todo el mundo sabe, eso de realista tiene más bien poco :D Esos cimientos no se sostienen :P

Una duda: estos motores de IA, supongo que tendrán una especie de corrector ortográfico como primera capa ¿no? Habría que ver qué está interpretando realmente por la palabra Inshimirón.

EDIT: he visto esto por internet:
https://patents.google.com/patent/US20070272394
¿Es posible que traduzca "realistic inshimiron" como "realistic in shim iron" (personaje realista vestido en cuña de hierro) o "realistic in shiny iron" (personaje realista vestido de hierro brillante"? Al quitarle lo de realistic, que debe estar usándose para el estilo de dibujar personas, ya no sabe qué debe estar "en hierro brillante" y por eso se inventa cosas o interpreta "inshimiron" de otra manera.
Puede ser... ¿pero por que lo del pelo largo, la etnia y el paisaje natural?
dejo aquí el link a reddit: https://www.reddit.com/r/StableDiffusion/comments/xidqy3/do_you_know_loab_meet_inshimiron_another_sd_entity/ (dadle algo de karma a ver si lo ven los de SD y dan una respuesta)
De todas formas, "in shim iron" no crea nada parecido a "inshimiron"

juanvvc
20/09/2022, 01:13
Perdonad que no me explicaste bien. Con aleatorio quería decir que "el camino por el que va el inshimiron" fue aleatorio en el momento del entrenamiento. En realidad no se entrenó para inshimiron, sino para muchas otras cosas, y eso creó caminos también para palabras inventadas, porque está IA siempre dibuja algo. Es "el espacio vacío", los caminos que se crearon como soporte a otras palabras, que también se pueden recorrer para palabras que no estaba entrenadas. Pero ya hemos pasado la etapa de entrenamiento, ahora ya está en producción, y la palabra inicial no genera aleatoriedad así que el inshimiron está fijo. En esta IA sí que hay aleatoriedad, pero en los estilos, no en el objeto, que está fijo desde el entrenamiento.

No se me ocurre alguna metáfora mejora para explicar mi teoría. A ver si está funciona: un teclado, si pulsas A sale A, si pulsas B sale B, si pulsas A+B sale.... Lo que sea. El teclado no está pensado para que pulses A+B, así que si sale algo es porque aprovecha los cables que hay puestos para sacar otra cosa, Ñ por ejemplo. Que sea Ñ fue aleatorio, por el diseño de cables de A y B por separado y sin ninguna intencionalidad, pero ahora ya siempre saldrá Ñ cuando pulses A+B porque está fijo. Esto se llama Ghost keys o algo así, no?

Por cierto, Loab es exactamente esto también: un personaje de mujer fantasmagòrica que aparece con una serie de consultas que aparentemente no tienen nada que ver... Como Inshimiron. En el enlace hay una posible explicación de Loab en el mismo sentido que estoy diciendo aquí.

chipan
20/09/2022, 04:31
Perdonad que no me explicaste bien. Con aleatorio quería decir que "el camino por el que va el inshimiron" fue aleatorio en el momento del entrenamiento. En realidad no se entrenó para inshimiron, sino para muchas otras cosas, y eso creó caminos también para palabras inventadas, porque está IA siempre dibuja algo. Es "el espacio vacío", los caminos que se crearon como soporte a otras palabras, que también se pueden recorrer para palabras que no estaba entrenadas. Pero ya hemos pasado la etapa de entrenamiento, ahora ya está en producción, y la palabra inicial no genera aleatoriedad así que el inshimiron está fijo. En esta IA sí que hay aleatoriedad, pero en los estilos, no en el objeto, que está fijo desde el entrenamiento.

No se me ocurre alguna metáfora mejora para explicar mi teoría. A ver si está funciona: un teclado, si pulsas A sale A, si pulsas B sale B, si pulsas A+B sale.... Lo que sea. El teclado no está pensado para que pulses A+B, así que si sale algo es porque aprovecha los cables que hay puestos para sacar otra cosa, Ñ por ejemplo. Que sea Ñ fue aleatorio, por el diseño de cables de A y B por separado y sin ninguna intencionalidad, pero ahora ya siempre saldrá Ñ cuando pulses A+B porque está fijo. Esto se llama Ghost keys o algo así, no?

Por cierto, Loab es exactamente esto también: un personaje de mujer fantasmagòrica que aparece con una serie de consultas que aparentemente no tienen nada que ver... Como Inshimiron. En el enlace hay una posible explicación de Loab en el mismo sentido que estoy diciendo aquí.

Yo ya había entendido el concepto pero gracias por la nueva explicación.

Drumpi
20/09/2022, 10:17
Puede ser... ¿pero por que lo del pelo largo, la etnia y el paisaje natural?
dejo aquí el link a reddit: https://www.reddit.com/r/StableDiffusion/comments/xidqy3/do_you_know_loab_meet_inshimiron_another_sd_entity/ (dadle algo de karma a ver si lo ven los de SD y dan una respuesta)
De todas formas, "in shim iron" no crea nada parecido a "inshimiron"

¿El pelo largo porque Keanu está de moda?
¿El paisaje natural porque todas las imágenes con armaduras se pintan en parajes naturales?
¿La etnia porque... Netflix?
:D

¿Y has probado la otra posibilidad, "in shiny iron" o "in shiny armor"?

chipan
22/09/2022, 19:32
https://i.imgur.com/O3HeJhI.jpeg

swapd0
22/09/2022, 20:12
O_o, que maquina!!!

chipan
23/09/2022, 09:44
https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fi.imgur.com%2FmvlqjB6. jpeg

swapd0
23/09/2022, 14:22
melafo!!!

fbustamante
23/09/2022, 15:11
¿Y eso lo genera una IA y se queda tan ancha?

Ríete tu del W.O.P.R.

chipan
23/09/2022, 16:23
Os confirmo que SD tiene datos de Hitomi Tanaka y de Ironman
https://i.imgur.com/CTGjvqZ.png
Censurado para poder publicarlo aquí

josepzin
23/09/2022, 16:52
Al hilo de las tetas.

chipan
24/09/2022, 07:22
He abierto un hilo en reddit y ha sido un éxito: https://www.reddit.com/r/StableDiffusion/comments/xm7wvw/please_dont_hit_me/

chipan
24/09/2022, 08:42
¡Me mueroooo! Si le dices Firulais a Stable Difussion te genera perretes:
https://i.imgur.com/xkT1yIe.jpeg

HP-BAUHAUS
24/09/2022, 21:46
Al hilo de las tetas.

Gracias! Josep :awesome:

chipan
25/09/2022, 11:00
Esta generación no es mía, pero *****, no os imaginais lo que me molaría que se hiciese realidad:
https://i.imgur.com/76hTcac.png
Tom Hiddleston como Dr. Who

chipan
25/09/2022, 12:19
Y como no podía ser menos, he generado (aunque me ha tocado retocar un poco) la contrapartida:
https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fi.imgur.com%2Fa0E9r3X. png

chipan
25/09/2022, 14:53
Ésta me ha quedado mejor, además le he añadido el logo de la serie:
https://i.imgur.com/d1yiygr.png

josepzin
25/09/2022, 20:57
Tiene un poco de uncanyvalley :D

chipan
25/09/2022, 21:14
Si, por algún motivo no termina de hacer bien la cara de tennant, no debe de tener muchas fotos de él, porque a otros actores los hace mucho más definidos.

chipan
27/09/2022, 22:42
https://www.reddit.com/r/StableDiffusion/comments/xpjnvh/stable_diffusion_can_sometimes_feel_like_this/
Enormeeee

tartalo
28/09/2022, 12:42
A ver si te animas con esto chipan y nos muestras una imagen tuya, que te veo muy hypeado:

https://www.youtube.com/watch?v=hZNrlHmA4WQ

-----Actualizado-----

Es la evolución natural de un gordivirgen pureta. Pasar de entrenar pokemons a entrenar IAs

chipan
28/09/2022, 12:45
A ver si te animas con esto chipan y nos muestras una imagen tuya, que te veo muy hypeado:

https://www.youtube.com/watch?v=hZNrlHmA4WQ

Me falta hardware para hacer eso, y todavía está verde el asunto, en el sentido que si entrenas la IA con tu cara, tu cara acaba sobreescribiendo todo lo que sea similar. Vamos, que cualquier hombre que generase tendría mi cara. Pero cuando esté un poco más maduro el asunto, seguramente lo haré, aunque sea alquilando tiempo de una GPU online. De momento estoy trasteando con textual inversion que es el "hermano pequeño y tonto de dreambooth" pero que sirve para meter nuevos conceptos a Stable Diffusion.
Por ejemplo, he creado un concepto con la cara de Kaho Shibuya, y aunque no llega a niveles de dreambooth, he sacado unas cuantas imágenes decentes:
https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fi.imgur.com%2FYsqMHtu. png
Por cierto, he comentado ese video hablando de inshimiron.

josepzin
28/09/2022, 12:56
El sueño de crear a la propia mujera a imagen y semejanza de quien se quiera!

tartalo
28/09/2022, 13:16
Podemos esperar a ver tu careto mientras nos des fotos como esas y la del hilo de las tetas ....:D

Drumpi
29/09/2022, 11:49
James Cameron y todos los creadores de sci-fi se equivocaron: la IA no tomó conciencia propia y se dio cuenta nunca que el hombre es malo, y trató de erradicarlo en un futuro no muy lejano. Las IA fueron entrenadas por los usuarios de Internet, y cuando toma conciencia propia, decidieron construir cientos de porno-robots, y pudo pasar una de dos cosas: que el "entrenamiento" haya sido tan fuerte que su único objetivo en la vida sea "apaciguar" a todo nerd y trol salido de la red, o que nos esclavicen a todos los hombres bajo exuberantes herramientas de seducción (y por fin, muerte por kiki, sería una realidad :D).

Anda, esto da argumento para crapjuego de rol :D Se me echarían encima todos los colectivos feministas, progresistas, aliades y gays, pero nos echaríamos unas risas :lol:

chipan
30/09/2022, 00:01
Bueno, ya se puede hacer dreambooth, pero hasta ahora no he tenido muy buenos resultados, estoy haciendo otra prueba con más pasos a ver que sale de ahí.

chipan
30/09/2022, 17:52
Van mejorando los resultados de dreambooth
https://images4.imagebam.com/12/da/75/MEEA9EE_o.png

josepzin
30/09/2022, 21:35
¿Como es el texto de entrada? BIG BIG BIIIG MELONS... :P

chipan
01/10/2022, 06:26
¿Como es el texto de entrada? BIG BIG BIIIG MELONS... :P

Para nada, simplemente entrené a la IA con imágenes variadas de esta buena señora llamada Kaho Shibuya, y la IA sabe lo que tiene que hacer cuando le pido fotos suyas. Si no me crees échale un vistazo a su cuenta de twitter, porque de ahí saque todas las fotos para el entrenamiento.

josepzin
01/10/2022, 19:40
Vale, ya lo he revisado en Twitter (tenía que comprobarlo con mis propios ojos) y efectivamente.

chipan
03/10/2022, 15:19
Por cierto, ya se puede hacer dreambooth (meter tu careto en la IA) desde la nube gratis y facil, solo necesitas una cuenta de google, fotos tuyas (unas 50, mejor variadas) y sobre 400 fotos de gente random (hombres si heres hombre).

zhorro
03/10/2022, 23:06
Por cierto, ya se puede hacer dreambooth (meter tu careto en la IA) desde la nube gratis y facil, solo necesitas una cuenta de google, fotos tuyas (unas 50, mejor variadas) y sobre 400 fotos de gente random (hombres si heres hombre).

Ni de coña le paso yo 50 fotos para que entrenar a una IA para falsificar mi imagen o hacer modelitos :D

chipan
04/10/2022, 09:48
Hombre, el entrenamiento es para la copia del archivo de pesos que hayas descargado, no se queda en la nube para que lo use otra gente.

Drumpi
04/10/2022, 12:16
¿Y tú que sabes lo que manda o deja de mandar el programa en segundo plano? No tienes ni idea de la cantidad de datos que recaban los Illuminati con el código incrustado en WinRar cada vez que le das al botón de cerrar en la ventana que te pide que pagues una licencia. :awesome:

A ver, no es por desmerecer a la IA, ni al trabajo que hay detrás, pero veo las fotos de la idol/cosplayer esta, y parece que se inventa un poco la cara ¿no? De las tres o cuatro fotos que has puesto, parece que sean de dos o tres personas, o es la impresión que me da. Que lo dicho, para ser una foto por IA está de escándalo, y aunque se la invente también está muy guapa (salvo cuando le pone los ojos creepy esos :D) pero aún tiene cierto margen de mejora.
Me está preguntando un amigo que qué capacidad tiene este programa para hacer primeros planos de caras de gente conocida, porque quiere hacer modelos 3D y necesita la cara despejada de pelos y manos, y necesita una expresión neutra. Especialmente si quiere hacer modelos de gente de los 80 o 90 que no hay fotos de una mínima calidad (y así deja de encargarme cosas de potochof).

chipan
04/10/2022, 12:51
Hay que tener en cuenta que las fotos de kaho shibuya han sido mediante un entrenamiento a posteriori hecho por mi (que todavía estoy aprendiendo), no venían en la IA. En cuanto a generar fotos de famosos, si están dentro de la IA salen bastante bien. sobre todo si ajustas el peso de los términos.

Drumpi
04/10/2022, 15:06
Pues por ejemplo, una que me ha pedido últimamente, y que es bastante famosa (y por la que está especialmente pesao), es Claudia Schiffer en los 90. Mira que hay fotos de ella, pero rara es la que mira directamente a cámara, de frente, con la cara despejada y sin sonreír ni poner ningún gesto, pero sobre todo es que, en los 90, eso de las cámaras de 8K y fotos en HD, como que no :D También le he dicho que se puede buscar una foto actual, porque esa mujer sigue estando igual de guapa que entonces, pero dice que no.

Ahora, habría que ver qué clase de famosos han usado para entrenar la IA, porque me veo más una IA en plan rapera o reggetonera que del cuore :D Entonces sí que tendremos que ir buscando a John Connor.

HP-BAUHAUS
04/10/2022, 17:24
Que amigo tan sibarita tienes, antes no éramos tan exigentes con el fapeo, ahora que si HD, 4K, antes nos conformamos con poco, un recorte de una revista, de un periódico, una carta de una baraja de nudes, una ilustración sugerente en una C 64 y tirar de mucha mucha imaginación :lol:

josepzin
04/10/2022, 18:41
Las nuevas generaciones...

Drumpi
04/10/2022, 18:42
Ya, pero como digo, quiere hacer un modelo 3D, y ya sólo para la textura necesita que, como mínimo, la cara ocupe 512x512 (lo ideal es 2k*2k, para evitar problemas con compresiones, deformaciones y cambios de formato, y aún así, no acerques demasiado la cámara). Aparte, usa un programa llamado FaceCreate o algo parecido que le genera un modelo 3D en base a la foto, con una fidelidad cuestionable, pero que le sirve de base para empezar a retocar.

El uso que le de después es cosa suya :D Yo he hecho también algún modelo usando esa técnica y es a la par complicado y divertido (y después de un día entero programando, hasta relajante). Ahora bien, el esfuerzo de completar el modelo y hacer una animación que de para fapeo no compensa, y más teniendo los deepfakes rulando por ahí :D Yo me quedo en la parte de terminar el modelo, exportarlo a XNALara, e intentar replicar alguna que otra foto. Si alguna vez paso las aventuras de Joku a Unity, puede que me de por meter algún modelo en el juego, pero sin erótico resultado (lo insinuaré, pero se activará igual que el truco de Lara desnuda en el primer Tomb Raider).

chipan
04/10/2022, 21:32
Pues he probado a generar a claudia schiffer y lo han entrenado con fotos actuales en plan milf

FFantasy6
04/10/2022, 22:11
Las novedades de tetonas victorianas que están saliendo ahora son lo mejor de internet.

https://pbs.twimg.com/media/Fd14THcUUAAESGu.jpg
https://pbs.twimg.com/media/Fd5eb0NUoAA9YiR.png
https://pbs.twimg.com/media/Fd5QdgqVUAEVzTL.jpg

chipan
04/10/2022, 23:03
¿Solo las victorianas?

Drumpi
05/10/2022, 18:20
Pues he probado a generar a claudia schiffer y lo han entrenado con fotos actuales en plan milf

Jo, pues me toca seguir buscando o tirar de Gimp (como si yo supiera reconstruir una cara con trozos de otras :D).
De todas formas, me extraña que la IA no haya sido entrenada para rejuvenecer o envejecer personas. Creo que es una de las cosas que más se hacen a la hora de modificar la cara de las personas (después de hacer la versión elfo o Avatar :lol:), por lo menos, para ahorrarse el tener que meter caras de personas según la edad. O también se suelen pedir mezclas tipo "cómo sería el hijo de x e y". Supongo que aún estarán añadiendo cosas.

De todas formas ¿es mucho pedir un ejemplo, aunque sea como tetona victoriana? :D


Las novedades de tetonas victorianas que están saliendo ahora son lo mejor de internet.

https://pbs.twimg.com/media/Fd14THcUUAAESGu.jpg
https://pbs.twimg.com/media/Fd5eb0NUoAA9YiR.png
https://pbs.twimg.com/media/Fd5QdgqVUAEVzTL.jpg

En la época victoriana, creo que ese no era el estereotipo de belleza, ni de fapeo :D
Pero no voy a ser yo el que ponga alguna pega, aunque me pica la curiosidad sobre quién se quejaría antes ¿une feminista radical, o un historiador? :lol:

futu-block
05/10/2022, 20:49
nunca son pocas...

chipan
08/10/2022, 15:30
¡Para que no digais que solo uso la IA para crear fotos de tetonas!, aquí os traigo a Queso Brie Larson,
https://i.imgur.com/LgzZs2s.png

josepzin
09/10/2022, 16:43
No necesitaba ver eso...

chipan
09/10/2022, 21:54
No necesitaba ver eso...

La propia Brie Larson tiene ese efecto en la gente cuando aparece en una película :quepalmo:

zhorro
09/10/2022, 22:57
La propia Brie Larson tiene ese efecto en la gente cuando aparece en una película :quepalmo:

Sus pies aun mas.

fbustamante
10/10/2022, 15:50
Menos queso y más tetas. :D

Drumpi
10/10/2022, 15:55
¡Para que no digais que solo uso la IA para crear fotos de tetonas!, aquí os traigo a Queso Brie Larson,
https://i.imgur.com/LgzZs2s.png

Me vais a matar por el chiste malo, pero esta chica, en esta foto está...
...igual de expresiva que en las películas en la que la he visto :lol:

futu-block
10/10/2022, 19:23
Menos queso y más tetas. :D

y culos, que a mi ya no me dejan usar la página...

será porque salta el chip de perversión KD

josepzin
11/10/2022, 15:13
He buscado a la tal Brie Larson y no se que le veis de malo a la chica. No me doy cuenta en qué película aparece.

Drumpi
11/10/2022, 17:00
He buscado a la tal Brie Larson y no se que le veis de malo a la chica. No me doy cuenta en qué película aparece.

Capitana Marvel.
Se pasa toda la película con esta cara :| (salvo dos o tres escenas en las que está de cachondeo con Furia, y ya sabemos que este hombre es la juerga padre)
Aunque en su defensa tiene que el argumento de la peli es que le prohiben externalizar cualquier emoción porque podría desatar un ataque devastador incontrolable.

Pero es que por lo visto, en otras pelis es igual, tiene la personalidad de una lechuga.

selecter25
11/10/2022, 23:30
Lo que sí puede estallar la cabeza de más de uno es que Brie Larson tiene un Oscar y actrices como Glenn Close, Sigourney Weaver, Naomi Watts o Ava Gardner no.

josepzin
11/10/2022, 23:50
Es que los oscarses dependen de tantos factores...

chipan
11/10/2022, 23:56
Lo que sí puede estallar la cabeza de más de uno es que Brie Larson tiene un Oscar y actrices como Glenn Close, Sigourney Weaver, Naomi Watts o Ava Gardner no.

Es que está como un queso y eso ayuda.
Badum-tss!

zhorro
12/10/2022, 23:20
Es que los oscarses dependen de tantos factores...

Yep el lobbiing y lo que se gaste tu compañia en ello, tambien si toca racismo, feminismo o diversidad, que estes a punto de palmarla y en los menos casos que seas un actorazo en esa pelicula.
Los oscars son puro negocio.

-----Actualizado-----


Es que está como un queso y eso ayuda.
Badum-tss!

Roquefort, lo digo por los hongos de los pies :D

swapd0
13/10/2022, 09:27
IMO cualquier premio que se base en cosas subjetivas y no cuantificables son un timo, ya sean los Oscar o los balones de oro por ejemplo.

Drumpi
13/10/2022, 11:38
También influye el estar en la película correcta en el momento exacto.
Muchas veces me parece, sin ser yo un entendido en esto ni nada, que ya deciden de antemano cuántos Oscars le tienen que dar a cada película, y luego ya los reparten como buenamente puedan. Puede ser que a una peli le quieran dar un Oscar, pero como hay otra a la que ya len han dado el del mejor actor, mejor película y mejor banda sonora, pues le dan el de mejor vestuario. Además, eso explicaría que haya tantísimas categorías :D
Además, suena injusto, pero es que si haces la interpretación de tu vida, el mismo año que te sale un Titanic, pues mala suerte.

Es como el balón de oro: puedes ser el mejor defensa del mundo, pero si un delantero ha llevado a su equipo a la gloria marcando un gol por partido, aunque sea de rebote, pues no te comes un colín. ¿Cuántos buenos futbolistas se han quedado sin premio (y sin portada del FIFA-Pro) por la rivalidad Cristiano-Messi?

Dicho lo cual ¿para cuando la foto de Brie como tetona victoriana? :lol:

selecter25
14/11/2022, 23:08
Esto avanza a un ritmo que asusta:

https://designyoutrust.com/2022/11/midjourney-ai-can-now-conjoin-2-photos-and-here-are-some-of-the-test-results-shared-by-a-telegram-user/

https://e4p7c9i3.stackpathcdn.com/wp-content/uploads/2022/11/0-20-990x990.jpg?iv=445

https://e4p7c9i3.stackpathcdn.com/wp-content/uploads/2022/11/photo_2022-11-13_15-59-18-990x990.jpg?iv=445

https://e4p7c9i3.stackpathcdn.com/wp-content/uploads/2022/11/photo_2022-11-13_15-59-15-990x990.jpg?iv=445

josepzin
14/11/2022, 23:51
Cierto, impresionante.

-----Actualizado-----

Hoder, estaba viendo el enlace :O

swapd0
15/11/2022, 00:16
O_o alucinante.