-
Notifications
You must be signed in to change notification settings - Fork 429
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
请求为备份源增加Gitlab #114
Comments
sqlite文件太大可能也放不进去,印象中是单文件不能超过100MB |
可以对sqlite设置一下自动释放内存,这样sqlite文件就小得多 |
或者用脚本固定时间执行一下VACUUM就行 |
是这样运用吗? |
我都是在在进入数据库执行的,还真没在外面执行过,你可以把db的测试文件拉一个下来,然后测试一下 |
收到大佬,数据库我不熟,回头试下先 |
直接VACUUM如果数据库有问题压缩不了一点(341M→320M),建议是导出后在导入
|
感谢大佬,回头我试下,处理后的数据稳吗?没掉吧? |
稳,本身也是数据库炸了救数据库的操作,自测是没丢数据的 |
哪吒更新1.0了 不能无缝升级 前后端分离 f佬有空了看一下? |
收到,过几天,看看方案稳定了再看如何处理,需要时间。 |
今天更新,把兄弟的脚本集成到 c614325#diff-4a65069692e317a5502f403b981aebcb392297f0ccfc6271e5bd10cd15dbebfe 脚本自动更新的。大家不需要另外处理。 |
上个月(2024年11月)我作过测试了,GitHub和GitLab都是一样,最大支持单文件100MB。 而经过 VACUUM 优化,我自己的从13MB大幅缩小到6.5MB,效果还是杠杠的。 |
如题 哪吒探针的sqlite文章随着使用会越来越大 根据GitHub的TOS 如果仓库过大可能会引起GitHub的审查 严重遭到删号导致数据丢失
The text was updated successfully, but these errors were encountered: