V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  wyxls  ›  全部回复第 7 页 / 共 8 页
回复总数  155
1  2  3  4  5  6  7  8  
2020-05-03 11:03:01 +08:00
回复了 RobinCheng 创建的主题 iPhone iPhone 强制 6 位密码,经常输完密码发现少 1 位。。。
这个六位 PIN 码式解锁是有这个问题,但自从升级 13.3 后强制长密码,用自带输入法输入的密码就没这问题
2020-05-03 10:56:20 +08:00
回复了 LitSu 创建的主题 iPhone 每一代 iPhone 都那么多问题?为什么还有人买?
老实说吧,你是贴吧过来的还是知乎过来的
@NSDont
NextCloud 毕竟基于 PHP,通过上传或同步客户端处理大量文件到数据库和自身程序里是很吃力的(除非专门进行调优),官方也是知道自己的情况,所以服务端提供了一系列 occ 的指令操作,其中有一个 files:scan 是专门处理文件扫描的,你可以去服务端手册看一下

```
sudo -u www-data php occ files:scan --help
Usage:
files:scan [-p|--path="..."] [-q|--quiet] [-v|vv|vvv --verbose] [--all]
[user_id1] ... [user_idN]
Arguments:
user_id will rescan all files of the given user(s)
Options:
--path limit rescan to the user/path given
--all will rescan all files of all known users
--quiet suppress any output
--verbose files and directories being processed are shown
additionally during scanning
--unscanned scan only previously unscanned files
```

用其他手段传输好后直接扫描添加到数据库和 NextCloud 中,效率会高很多,最好的是物理手段,移动硬盘之类的。另外针对大量小文件,我建议在本地打包后放到 NextCloud 对应的路径后进行解压,再使用 occ files:scan 扫描添加
2020-05-03 10:11:55 +08:00
回复了 HOYU 创建的主题 程序员 局域网传文件
多半是跑满了路由器缓存或者 CPU

我家的 surface book 以及其他的移动设备通过 WNDR4300 5GHz WiFi 接入,读写 NAS 的 smb 共享文件夹的时候大文件读写会时不时断流,要等个 30s 左右才能恢复继续,其他有线接入的设备没出现这种情况

后来换了 R8000 后就没出现这个问题了
@ddup 快 5 个月了,在调试中发现这是 Windows Docker 和 MySQL for Windows 之间的互访问题,我将数据库转移到 Docker 内部的 MariaDB 容器后,NextCloud 一切功能正常,效率还挺不错的
@ddup
感谢分享,万万没想到这个大佬直接 debug NextCloud 的源码优化效率,牛啊

虽然我现在转用了 Seafile,但我发现可能是因为我没对 MySQL 调优,MySQL 的 windows 版默认只给 INNODB 引擎分配 512M 的内存,估计 NextCloud 是数据库爆了内存无法响应请求,导致的连接超时
2020-02-10 20:20:15 +08:00
回复了 wyxls 创建的主题 服务器 基于 Windows Server 2019 混合 Docker for windows 搭建 Nextcloud 简易攻略
@ddup 我意思是文件搜索会生成检索缓存文件_(:з」∠)_
2020-02-10 01:13:24 +08:00
回复了 wyxls 创建的主题 服务器 基于 Windows Server 2019 混合 Docker for windows 搭建 Nextcloud 简易攻略
@ddup
在非 Linux 系统上跑 NextCloud 确实太累人,多半是 NTFS 文件系统读写上权限什么的各种奇奇怪怪的问题。

我后来在 windows 里跑 seafile-Pro docker,里面用到的 elasticsearch 服务的缓存存储做了外置持久化,log 里一直弹检索错误,导致 log 文件占完了 Hyper-V 分配的硬盘空间。

最后还是把缓存扔回内部的 volume 才正常
2020-01-31 00:50:14 +08:00
回复了 shom 创建的主题 Steam steam 平台这会儿挂了?
广东电信,一样,怕是得了肺炎
2019-12-20 23:32:09 +08:00
回复了 wyxls 创建的主题 服务器 基于 Windows Server 2019 混合 Docker for windows 搭建 Nextcloud 简易攻略
@EvineDeng 抱歉,太久没逛 v2ex。

按道理来说,可以照搬复制进 NextCloud 的配置文件里,因为这是 NextCloud 自带的文件权限检查,只是针对自身在 PHP 环境下对自己的文件是否符合权限预设值( 0770 )

比如 Linux 上主用户为 A,组为 root ; php 程序用户为 php,组为 php ; nextcloud 如果不是以 php ( php 组内用户)运行,又或者越权以 A ( root 组内用户)运行都会提示这个问题

另外 Docker 的 Nextcloud 在我的运行环境下有严重效能问题,无论是上传大文件还是大量小文件都会出现 Nginx 或 NextCloud 自身访问超时导致上传、下载(包括客户端同步)频繁失败。NC 的官方论坛有人说是因为 Windows 版的 Nginx 有问题,具体我也不太清楚,反正弃用了。

听大佬说因为 NextCloud 基于 PHP 效率很低,所以目前我已经改用 Seafile docker,满足使用需求并且也有同步客户端,自带配置好的 Nginx,docker 本身各种配置都做了持久化,方便 windows 本地修改。我这边环境只需要反向代理改一改就能用
暂时放弃了,等待有缘人解决了_(:з」∠)_

目前改用 seafile,文件数据处理效能比 nextcloud 高不少
2019-11-03 23:14:14 +08:00
回复了 wyxls 创建的主题 服务器 基于 Windows Server 2019 混合 Docker for windows 搭建 Nextcloud 简易攻略
@GSGUA 在 compose 中用 volume 将 windows 文件夹路径挂载到 container 里,记得 Docker 客户端需要将对应磁盘共享给 Docker Host
@oovveeaarr
docker logs 观察了好久,当网页和同步都卡住的时候,日志里也是没有任何反馈也没有 error

我自己感觉也是某个地方碰到瓶颈,然后资源没有被释放出来,但我就是不知道应该监控哪些地方
摆乌龙了,改大了 Hyper-V 的内存,情况依然如此,只是 4G 的时候 12 分钟就不行,8G 的时候大概 20 分钟左右不行
通过数次观察,每次容器启动后效率开始降低超时的时机都是容器启动工作 20 分钟左右
@seers 我用 docker stats 看,4G 内存占用即使在正常运行的情况下都不超过 40%,倒是 CPU 能跑满,甚至超了 100%,很神奇

我在容器内部用 top 看,正常工作时内存 free 只剩 200MB+,没怎么负载的时候是 1.4G free

Nextcloud web 网页里的设置-系统监控内存固定的 1.7G 不变,没什么用

对了,网页有点奇怪的现象,长时间不访问后再访问要等个 45s 左右才成功,第二次往后就异常地顺畅
@oovveeaarr 改 timeout 没用,容器运行持续一段时间后效率就会变成描述的那样,我问过朋友他也说从资源监控入手,但我除了会 docker stats 和容器内 top 之外,就不知道有什么办法了

物理硬件性能应该是没有瓶颈的,毕竟是软路由的 N 倍; MySQL、Nginx 都在物理系统上跑,同理

剩下的只有可能是虚拟机里的 Docker,但排查起来没有头绪无从下手,Hyper-V 虚拟机本身、Docker for windows 自身、Nextcloud 容器内还有内置的 PHP 和 Apache
@locoz 慢还是小事,问题是超时失败
1  2  3  4  5  6  7  8  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2759 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 24ms · UTC 12:47 · PVG 20:47 · LAX 04:47 · JFK 07:47
Developed with CodeLauncher
♥ Do have faith in what you're doing.