Stable Diffusion 图片放大好方案的参数 [图片]...【查看原文】
正面提示:(Masterpiece, best quality, very detailed CG, complex details: 1.2, illustrations), high detail, high-resolution, high-definition, 8k wallpaper, sky, clouds, sunset, paddy fields, lakes, jungle, power poles, highways反面提示:badhandv4, EasyNegative, very
Stable Diffusion
千亦听枫 2023-04-16
前几天分享了几张Stable Diffusion生成的艺术二维码,有同学反映不知道怎么查看图片的参数信息,还有的同学问怎么保护自己的图片生成参数不会泄露,这篇文章就来专门分享如何查看和抹除图片的参数。
Stable Diffusion艺术
萤火架构 2023-07-13
国外博主对比了300 种超分辨率放大模型,多种类型的图片都做了 upscale 处理,可以在网上对比各个模型放大的图片,全部图片也提供下载,供大家仔细对比研究。url 是: https://phhofm.github.io/upscale/introduction.htmlUltralSharp 对比 LDSRstable diffusion Automatic1111 只提供了少数几个Upscaler 模型,我们在txt2img 和Extras 选项卡都可以直接使用,比如下图,在Extras 下可以选择
Stable DiffusionGitHub
糖葫芦三串 2023-03-26
有些人是从笑脸网站直接下载有些是用aira2里面下载,如果其他模型都没有黑屏就只有这一个模型黑屏就代表这个模型没下载完整;lr_warmup 学习率预热train_batch_size 一次训练所选取的样本数epoch完整的数据集次数上面3个选项如果你真的理解你可以尝试微调
唯一硬币收藏者 2023-06-18
LoRA: Low-Rank Adaptation of Large Language Models 是微软研究员引入的一项新技术,主要用于处理大模型微调的问题。目前超过数十亿以上参数的具有强能力的大模型 (例如 GPT-3) 通常在为了适应其下游任务的微调中会呈现出巨大开销。 LoRA 建议冻结预训练模型的权重并在每个 Transformer 块中注入可训练层 (秩-分解矩阵)。因为不需要为大多数模型权重计算梯度,所以大大减少了需要训练参数的数量并且降低了 GPU 的内存要求。研究人员发现,通过聚焦大模
Stable Diffusion微软LoRA
HuggingFace 2023-02-10
到底什么是管培生?没人管+没培养=大号实习生
互联网那些事 2024-12-31
截至12月31日收盘,A股市场5383只股票的总市值93.94万亿元,平均个股市值174.52亿元。在总市值Top20中,总市值较2023年末出现下滑的只有2家,分别是贵州茅台和五粮液,各下滑11.7%和0.19%。
览富财经网 2024-12-31
历史总是在重复上演
道总有理 2024-12-31
2024年银行板块以34.39%的涨幅位居首位。
WEMONEY研究室 2024-12-31
承压,变革、种下希望
小食代 2024-12-31
如何布局?
格隆汇 2024-12-31
“超级富二代”也会焦虑
金错刀 2024-12-31
成为霸总第一步,先换上红色薄底鞋
36氪的朋友们 2024-12-31
模型竞争与应用落地并进,AI产业又走过提速一年
新识研究所 2024-12-31
“IP联名=名创”?
海豚投研 2024-12-31
Copyright © 2025 aigcdaily.cn 北京智识时代科技有限公司 版权所有 京ICP备2023006237号-1