偶然看到油管大神Sebastian Kamph关于stable diffusion光影控制的小技巧,自测了下,发现效果还不错,给小伙伴们来一波儿实测分享o(* ̄︶ ̄*)o,先上最终效果对比图先:
首先用 text-image随便跑一张图:
Tiny cute cow toy, reading a book, standing character, soft smooth lighting, soft pastel colors, skottie young, 3D blender render, polycount, modular constructivism, pop surrealism, physically based rendering, square image, 1girl, cute face, pink hair, anime style
Negative prompt: out of frame, lowres, text, error, cropped, worst quality, low quality, jpeg artifacts, ugly, duplicate, morbid, mutilated, out of frame, extra fingers, mutated hands, poorly drawn hands, poorly drawn face, mutation, deformed, blurry, dehydrated, bad anatomy, bad proportions, extra limbs, cloned face, disfigured, gross proportions, malformed limbs, missing arms, missing legs, extra arms, extra legs, fused fingers, too many fingers, long neck, username, watermark, signature,
Steps: 20, Sampler: Euler a, CFG scale: 7, Seed: 866942899, Face restoration: CodeFormer, Size: 512x512, Model hash: 812cd9f9d9, Model: anythingV3_fp16
出来的图是这样的
然后点击send to img2img按钮,点开ControlNet,将刚刚那张图同样放进ControlNet里面来,注意红框内的选项,这个选择相对效果较好,大家也可以尝试其他选项~
上面图生图的地方,将之前那张图删掉, 然后上传一张光源图
可以看到,生成的图在保留大部分原图的基础上,根据提供的光源图,修改了光影效果,虽然不能做到100%,但是相较于很多时候通过prompt文字修改来控制光源要方便直观很多。
还可以通过边上这个小铅笔按钮,来调整光源的位置:
以上为AI绘画软件Stable Diffusion光影控制小技巧的分享,学习这软件需要多摸索、多使用,就可以累积更多的经验以及更好的使用好这个工具。不过无论是 Midjourney 还是 Stable Diffusion 软件,从使用环境、特殊门槛、部署环境以及界面体验方面来看,都存在一定的不友好性。这里向大家推荐一个在国内非常贴近用户需求、无论是初学者还是专业用户都能感到友好的平台-云界 AI 创作平台。该平台集成了文生图、图生图、条件生图等多项功能,并提供了许多令人惊喜的特色功能。立即注册即可免费使用,期待你能亲自体验并发掘其中的乐趣。