vps交流

[经验] NovelAI 优化版,在本地实现涩图自由。。


论坛大佬有搭建过一个,https://hostloc.com/thread-1084966-1-1.html
然后没几下挂了

于是找了一个本地版。。转载的。。。

—————————————————————————
tag表:https://docs.google.com/spreadsheets/d/e/2PACX-1vRa2HjzocajlsPLH1e5QsJumnEShfooDdeHqcAuxjPKBIVVTHbOYWASAQyfmrQhUtoZAKPri2s_tGxx/pubhtml#
—————————————————————————

——NovelAI泄露原版前后端部署教程 4chan优化版 naifu
支持 Colab + Linux + win 部署
自带前后端,打开网页就能用,并且可突破 prompt 77 限制
由 4chan 里 Anonymous 大佬制作
Nyanko Lepsoni & 炼铜术士 & @exlolicon 等大佬更改支持Colab

PS.默认使用4G模型
(如果是本地搭建的话)最低8G显存可用,但建议10G显存
(补充:更改 float16 半精准 6G显存可能能跑)
如需使用7G模型,可自行下载,更改启动文件里的模型路径来使用
但注意7G模型要求最低16G显存,且不保证正常使用,最好24G以上
不过4G模型、7G模型和官网,差异都不算大,因此不必强求使用7G模型

—超简单colab一键搭建
白**colab谷歌服务器无需本地显卡
https://colab.research.google.com/drive/1_Ma71L6uGbtt6UQyA3FjqW2lcZ5Bjck-
①↑打开由 colab文档链接,登录谷歌账号,左上角,代码执行程序→全部运行
且注意第一步有没有下载成功,如失败请重新运行
②直到第三步,会显示 bore.pub:xxx 和  xxx.trycloudflare.com
两个都是前端地址,不同映射隧道,哪个稳定用哪个
但需要等待出现 Application startup complete / 0.0.0.0:6969 字样出现时再访问
③可选,以 float16 半精准极限运行7G模型
需要结束上方第三步的运行,再运行第四步,依然是等待新地址访问

—Linux 参考 colab 流程即可

—win 下载磁链/打包文件

磁链 magnet:?xt=urn:btih:4a4b483d4a5840b6e1fee6b0ca1582c979434e4d&dn=naifu&tr=udp%3a%2f%2ftracker.opentrackr.org%3a1337%2fannounce

打包 https://pub-2fdef7a2969f43289c42ac5ae3412fd4.r2.dev/naifu.tar

①下载 Python (https://www.python.org/downloads/windows/),选中“将 Python 添加到 PATH” 选项来安装。
安装好Python环境后可以重启一下
②磁链下载需要解压 program.zip 到当前目录,打包下载已自带解压,直接把文件都解压到目录里,不要解压到program文件夹里。
③运行 setup.bat 等待环境安装完成。
④再运行 run.bat 启动,等待 0.0.0.0:6969 字样出现时访问内网地址
注:由于win环境不一样,同时国内网络不稳定,因此出现错误时建议自行搜索。

by @StableDiffusion_CN_WIKI

感谢分享!
赞(0)
版权声明:本贴采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
帖子名称:《[经验] NovelAI 优化版,在本地实现涩图自由。。》
帖子链接:https://bbs.toot.su/173983.html

相关推荐