-
Notifications
You must be signed in to change notification settings - Fork 1.2k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
pika 运行1个月左右会把 CentOS内存吃光,然后被操作系统kill #135
Comments
你用的是哪个版本,pika 2.2.3修复了一个内存的问题 |
被kill 的版本是 2.2.0 那我升级一下 |
@yanjie108 确实是旧版本内存问题, 升级就可以了 |
@baotiao pika 2.2.3 运行了18天被操作系统kill了,生产系统有什么配置修改建议么,谢谢 |
客户端连接数有多少呢?都是什么请求? |
连接数快被kill的时候也没超过2000 Serverpika_version:2.2.3 Datadb_size:162598712782 Loglog_size:5266483112 Clientsconnected_clients:916 Statstotal_connections_received:186159 Replication(MASTER)role:master KeyspaceTime:2017-07-23 21:52:57kv keys:9683606 |
pika一个连接使用4M的内存,而且你用的是mget这样的请求,也有可能把writebuffer撑到大于4M,4M*2000就差不多8G多了,rocksdb又占了5G多,这就已经很大了,你把连接数降一下吧,内存不够 |
好的,thx |
@KernelMaker 抽空帮我看一下,顺便给个优化建议 以下是运行6天的信息,内存也快耗光了 -------------top------------------- -------------info------------------- Serverpika_version:2.2.3 Datadb_size:162505129496 Loglog_size:5372015880 Clientsconnected_clients:1065 Statstotal_connections_received:721103 Replication(MASTER)role:master KeyspaceTime:2017-07-27 10:20:38kv keys:10512249 |
连接数降到300了,,内存呢占用多少呢?我看你发的,连接数1065,算上引擎占用的5g,一共使用14g内存差不多的 info里显示的内存占用仅仅是引擎的占用 |
@KernelMaker 抱歉我没有描述清楚 谢谢 |
@KernelMaker 你们在生产环境没有碰到被kill的情况么 |
@yanjie108 能否把运行时刻的内存信息等等发给我们 |
@yanjie108 如果连接数降不下去,那你只能调小max-open-files配置项,牺牲性能换取一些内存吧,默认5000,你可以调到1000试试 |
@baotiao @KernelMaker 问个小白问题,内存信息指什么?贴了2个日志一个现在的top 一个是被kill时,和pika相关的系统日志,大神有空帮看看 PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND -----------下面是被kill相关的pika系统日志------------ |
你的这种情况不是内存泄漏,就是连接数太多并且请求的数据较大导致的,如果条件允许的话,你可以断开连接观察下内存是否会下降,我们这边也出现过这样的问题,不过机器内存160G,所以影响不大,之前pika线上有过内存占用50G,我们断开所以连接观察,内存迅速回落至8G,还是推荐你减少连接数,1000多连接挂在pika上其实没太大意义 |
好的,�谢谢 |
有没有和redis一样的配置设置最大占用内存?
系统配置8核16G
buffer用的默认配置
Pika write-buffer-size
write-buffer-size : 268435456
The text was updated successfully, but these errors were encountered: