
问题场景: 服务端用 nodejs+mongoose+node-schedule 跑了些定时任务,执行 bulkWrite 操作,代码大概如下:
updateOne: { filter: {id: id}, update: {$set: item}, upsert: false } 在某时刻跑太多任务时,mongodb 偶发性会挂掉,出现以下错误:
MongoBulkWriteError: connection 20 to 127.0.0.1:27017 closed 这时我只能临时执行一下systemctl restart mongod命令重启一下就好了,请问大佬们,这是不是写入的数据太多了超过限制呢?是什么原因呢?该如何优化?谢谢!
1 defunct9 2024-03-15 17:17:05 +08:00 开 ssh ,让我上去看看 |
2 qloog 2024-03-15 19:32:41 +08:00 跑脚本的时候也可以适当的 sleep 个几秒, 让 mongodb 休息下 |
4 CivAx 2024-03-15 19:37:10 +08:00 via iPhone 建议优先检查连接池的配置或者 keepalive 参数,有可能是你调的库默认一直在用 reconnect() 而不是开新连接导致某一时段 TTL 到期被杀掉了。 |
6 dorothyREN &nbp;2024-03-17 01:45:30 +08:00 定时任务 加个锁,顺序执行就行了 |