圣者
精华
|
战斗力 鹅
|
回帖 0
注册时间 2011-10-10
|
本帖最后由 cube 于 2024-5-9 15:28 编辑
可以用,但是AI没那么智能,不用分层控制和语义分割的话只能尽量减少污染。上面说的layerdiffusion和Regional Prompter就是干这个的。
写tags的时候尽量把背景和质量词之类的单独写,然后和主描述之间用BREAK语句区分以下,避免前后景之间的污染。
我是参考了NET ART模型的建议这么用:
起手质量词 ((best quality:1.3)) -> 艺术家 (by xxx) -> 风格 (impasto style) -> 画面主题 (fantasy theme) ->美学 (beautiful color, detailed, aesthetic) ->主环境描述 (in the forest, at day) -> 背景描述 (gradient background) -> 镜头组合 (cowboy shot) BREAK ->主体 (1boy / 1girl) -> 角色名 (a girl named frieren from sousou no frieren series) -> race (elf) -> 动作 (sitting on ground) -> 表情 (is expressionless) -> 主要角色特征 (white hair) -> 身体特征 (twintails, green eyes, parted lip) -> 衣着特征 (wearing a white dress) -> 饰品 (frills) -> 其他附属物 (a cat) -> BREAK->次要场景 (grass, sunshine) -> 其他描述
多个角色之间分开描述,角色之间用BREAK和Regional Prompter区分。
实际上画面分区的方法很多,multidiffusion插件和潜变量成对(latent couple)参数也能做,你可以到B站搜教程,都试试,然后找一个你觉得好用的来。
|
评分
-
查看全部评分
|