调整了lora训练参数,之前仅对U-Net进行了训练。在多次测试后对参数进行了较大的更新。现在对文本编码器同样进行了训练,并将训练分辨率从512*512增加到1024*1024,更换优化器为Prodigy,批量从8降到4在修改参数后以速度为代价,lora质量有较为明显的提升,Loss更为平滑,不在大幅度震荡,且能理解一些仅训练U-Net无法理解的概念。还有比较难绷一点,之前训练的lora笃妲耳朵一直是红的是因为模型给耳朵后面的头发也当耳朵了(