OOM killer ฆ่าสิ่งที่มีมากมาย (?) RAM ฟรี


11

ดูเหมือนว่าฆาตกร OOM จะฆ่าสิ่งต่าง ๆ แม้ว่าจะมี RAM ว่างมากกว่าเพียงพอในระบบของฉัน:

กราฟการใช้หน่วยความจำ (ความละเอียดเต็ม)

กราฟการใช้ประโยชน์ IO (ความละเอียดเต็ม)

27 นาทีและกระบวนการ 408 ครั้งต่อมาระบบเริ่มตอบกลับอีกครั้ง ฉันรีบูตเครื่องใหม่ประมาณหนึ่งชั่วโมงหลังจากนั้นไม่นานหลังจากนั้นการใช้หน่วยความจำกลับสู่ปกติ (สำหรับเครื่องนี้)

เมื่อตรวจสอบฉันมีกระบวนการที่น่าสนใจสองสามอย่างที่ทำงานบนกล่องของฉัน:

USER       PID %CPU %MEM    VSZ   RSS TTY      STAT START   TIME COMMAND
[...snip...]
root      1399 60702042  0.2 482288 1868 ?     Sl   Feb21 21114574:24 /sbin/rsyslogd -i /var/run/syslogd.pid -c 4
[...snip...]
mysql     2022 60730428  5.1 1606028 38760 ?   Sl   Feb21 21096396:49 /usr/libexec/mysqld --basedir=/usr --datadir=/var/lib/mysql --user=mysql --log-error=/var/log/mysqld.log --pid-file=/var/run/mysqld/mysqld.pid --socket=/var/lib/mysql/mysql.sock
[...snip...]

เซิร์ฟเวอร์เฉพาะนี้ใช้งานมาประมาณ 8 ชั่วโมงและนี่เป็นเพียงสองกระบวนการเท่านั้นที่มี ... คี่ค่า ความสงสัยของฉันคือ "สิ่งอื่น ๆ " กำลังเกิดขึ้นซึ่งอาจเกี่ยวข้องกับค่าที่ไม่ไวต่อความรู้สึกเหล่านี้ โดยเฉพาะฉันคิดว่าระบบคิดว่ามันไม่ได้อยู่ในความทรงจำเมื่อในความเป็นจริงมันไม่ใช่ ท้ายที่สุดก็คิดว่า rsyslogd ใช้ CPU 55383984% อย่างต่อเนื่องเมื่อค่าสูงสุดทางทฤษฎีคือ 400% ในระบบนี้

นี่คือการติดตั้ง CentOS 6 ล่าสุดอย่างเต็มที่ (6.2) พร้อม RAM 768MB ข้อเสนอแนะเกี่ยวกับวิธีการคิดออกว่าทำไมสิ่งนี้เกิดขึ้นจะได้รับการชื่นชม!

แก้ไข: แนบ vm sysctl tunables .. ฉันเล่นกับ swappiness (เห็นได้ชัดจากการเป็น 100), และฉันยังใช้งานสคริปต์ที่น่ากลัวอย่างยิ่งซึ่งทิ้งบัฟเฟอร์และแคชของฉัน (ทำให้ vm.drop_caches เป็น 3) + ซิงค์ดิสก์ทุก ๆ ครั้ง 15 นาที. นี่คือเหตุผลว่าทำไมหลังจากรีบูตข้อมูลที่แคชเพิ่มขึ้นเป็นขนาดปกติ แต่จากนั้นก็หายไปอย่างรวดเร็วอีกครั้ง ฉันรู้ว่าการมีแคชเป็นสิ่งที่ดีมาก แต่จนกว่าฉันจะได้รับการคิดออก ...

ที่น่าสนใจก็คือในขณะที่ pagefile ของฉันเพิ่มขึ้นในระหว่างเหตุการณ์มันถึงเพียง ~ 20% ของการใช้งานที่เป็นไปได้ทั้งหมดซึ่งไม่เคยมีเหตุการณ์ OOM จริง ในอีกด้านหนึ่งของสเปกตรัมดิสก์ไปอย่างแน่นอนถั่วในช่วงเวลาเดียวกันซึ่งเป็นลักษณะของเหตุการณ์ OOM เมื่อ pagefile ในการเล่น

sysctl -a 2>/dev/null | grep '^vm':

vm.overcommit_memory = 1
vm.panic_on_oom = 0
vm.oom_kill_allocating_task = 0
vm.extfrag_threshold = 500
vm.oom_dump_tasks = 0
vm.would_have_oomkilled = 0
vm.overcommit_ratio = 50
vm.page-cluster = 3
vm.dirty_background_ratio = 10
vm.dirty_background_bytes = 0
vm.dirty_ratio = 20
vm.dirty_bytes = 0
vm.dirty_writeback_centisecs = 500
vm.dirty_expire_centisecs = 3000
vm.nr_pdflush_threads = 0
vm.swappiness = 100
vm.nr_hugepages = 0
vm.hugetlb_shm_group = 0
vm.hugepages_treat_as_movable = 0
vm.nr_overcommit_hugepages = 0
vm.lowmem_reserve_ratio = 256   256     32
vm.drop_caches = 3
vm.min_free_kbytes = 3518
vm.percpu_pagelist_fraction = 0
vm.max_map_count = 65530
vm.laptop_mode = 0
vm.block_dump = 0
vm.vfs_cache_pressure = 100
vm.legacy_va_layout = 0
vm.zone_reclaim_mode = 0
vm.min_unmapped_ratio = 1
vm.min_slab_ratio = 5
vm.stat_interval = 1
vm.mmap_min_addr = 4096
vm.numa_zonelist_order = default
vm.scan_unevictable_pages = 0
vm.memory_failure_early_kill = 0
vm.memory_failure_recovery = 1

แก้ไข: และแนบข้อความ OOM ครั้งแรก ... เมื่อตรวจสอบอย่างใกล้ชิดมันก็บอกว่ามีบางสิ่งที่ชัดเจนที่จะหลีกเลี่ยงพื้นที่สว็อปทั้งหมดของฉันได้เช่นกัน

Feb 21 17:12:49 host kernel: mysqld invoked oom-killer: gfp_mask=0x201da, order=0, oom_adj=0
Feb 21 17:12:51 host kernel: mysqld cpuset=/ mems_allowed=0
Feb 21 17:12:51 host kernel: Pid: 2777, comm: mysqld Not tainted 2.6.32-71.29.1.el6.x86_64 #1
Feb 21 17:12:51 host kernel: Call Trace:
Feb 21 17:12:51 host kernel: [<ffffffff810c2e01>] ? cpuset_print_task_mems_allowed+0x91/0xb0
Feb 21 17:12:51 host kernel: [<ffffffff8110f1bb>] oom_kill_process+0xcb/0x2e0
Feb 21 17:12:51 host kernel: [<ffffffff8110f780>] ? select_bad_process+0xd0/0x110
Feb 21 17:12:51 host kernel: [<ffffffff8110f818>] __out_of_memory+0x58/0xc0
Feb 21 17:12:51 host kernel: [<ffffffff8110fa19>] out_of_memory+0x199/0x210
Feb 21 17:12:51 host kernel: [<ffffffff8111ebe2>] __alloc_pages_nodemask+0x832/0x850
Feb 21 17:12:51 host kernel: [<ffffffff81150cba>] alloc_pages_current+0x9a/0x100
Feb 21 17:12:51 host kernel: [<ffffffff8110c617>] __page_cache_alloc+0x87/0x90
Feb 21 17:12:51 host kernel: [<ffffffff8112136b>] __do_page_cache_readahead+0xdb/0x210
Feb 21 17:12:51 host kernel: [<ffffffff811214c1>] ra_submit+0x21/0x30
Feb 21 17:12:51 host kernel: [<ffffffff8110e1c1>] filemap_fault+0x4b1/0x510
Feb 21 17:12:51 host kernel: [<ffffffff81135604>] __do_fault+0x54/0x500
Feb 21 17:12:51 host kernel: [<ffffffff81135ba7>] handle_pte_fault+0xf7/0xad0
Feb 21 17:12:51 host kernel: [<ffffffff8103cd18>] ? pvclock_clocksource_read+0x58/0xd0
Feb 21 17:12:51 host kernel: [<ffffffff8100f951>] ? xen_clocksource_read+0x21/0x30
Feb 21 17:12:51 host kernel: [<ffffffff8100fa39>] ? xen_clocksource_get_cycles+0x9/0x10
Feb 21 17:12:51 host kernel: [<ffffffff8100c949>] ? __raw_callee_save_xen_pmd_val+0x11/0x1e
Feb 21 17:12:51 host kernel: [<ffffffff8113676d>] handle_mm_fault+0x1ed/0x2b0
Feb 21 17:12:51 host kernel: [<ffffffff814ce503>] do_page_fault+0x123/0x3a0
Feb 21 17:12:51 host kernel: [<ffffffff814cbf75>] page_fault+0x25/0x30
Feb 21 17:12:51 host kernel: Mem-Info:
Feb 21 17:12:51 host kernel: Node 0 DMA per-cpu:
Feb 21 17:12:51 host kernel: CPU    0: hi:    0, btch:   1 usd:   0
Feb 21 17:12:51 host kernel: CPU    1: hi:    0, btch:   1 usd:   0
Feb 21 17:12:51 host kernel: CPU    2: hi:    0, btch:   1 usd:   0
Feb 21 17:12:51 host kernel: CPU    3: hi:    0, btch:   1 usd:   0
Feb 21 17:12:51 host kernel: Node 0 DMA32 per-cpu:
Feb 21 17:12:51 host kernel: CPU    0: hi:  186, btch:  31 usd:  47
Feb 21 17:12:51 host kernel: CPU    1: hi:  186, btch:  31 usd:   0
Feb 21 17:12:51 host kernel: CPU    2: hi:  186, btch:  31 usd:   0
Feb 21 17:12:51 host kernel: CPU    3: hi:  186, btch:  31 usd: 174
Feb 21 17:12:51 host kernel: active_anon:74201 inactive_anon:74249 isolated_anon:0
Feb 21 17:12:51 host kernel: active_file:120 inactive_file:276 isolated_file:0
Feb 21 17:12:51 host kernel: unevictable:0 dirty:0 writeback:2 unstable:0
Feb 21 17:12:51 host kernel: free:1600 slab_reclaimable:2713 slab_unreclaimable:19139
Feb 21 17:12:51 host kernel: mapped:177 shmem:84 pagetables:12939 bounce:0
Feb 21 17:12:51 host kernel: Node 0 DMA free:3024kB min:64kB low:80kB high:96kB active_anon:5384kB inactive_anon:5460kB active_file:36kB inactive_file:12kB unevictable:0kB isolated(anon):0kB isolated(file):0kB present:14368kB mlocked:0kB dirty:0kB writeback:0kB mapped:16kB shmem:0kB slab_reclaimable:16kB slab_unreclaimable:116kB kernel_stack:32kB pagetables:140kB unstable:0kB bounce:0kB writeback_tmp:0kB pages_scanned:8 all_unreclaimable? no
Feb 21 17:12:51 host kernel: lowmem_reserve[]: 0 741 741 741
Feb 21 17:12:51 host kernel: Node 0 DMA32 free:3376kB min:3448kB low:4308kB high:5172kB active_anon:291420kB inactive_anon:291536kB active_file:444kB inactive_file:1092kB unevictable:0kB isolated(anon):0kB isolated(file):0kB present:759520kB mlocked:0kB dirty:0kB writeback:8kB mapped:692kB shmem:336kB slab_reclaimable:10836kB slab_unreclaimable:76440kB kernel_stack:2520kB pagetables:51616kB unstable:0kB bounce:0kB writeback_tmp:0kB pages_scanned:2560 all_unreclaimable? yes
Feb 21 17:12:51 host kernel: lowmem_reserve[]: 0 0 0 0
Feb 21 17:12:51 host kernel: Node 0 DMA: 5*4kB 4*8kB 2*16kB 0*32kB 0*64kB 1*128kB 1*256kB 1*512kB 0*1024kB 1*2048kB 0*4096kB = 3028kB
Feb 21 17:12:51 host kernel: Node 0 DMA32: 191*4kB 63*8kB 9*16kB 2*32kB 0*64kB 1*128kB 1*256kB 1*512kB 1*1024kB 0*2048kB 0*4096kB = 3396kB
Feb 21 17:12:51 host kernel: 4685 total pagecache pages
Feb 21 17:12:51 host kernel: 4131 pages in swap cache
Feb 21 17:12:51 host kernel: Swap cache stats: add 166650, delete 162519, find 1524867/1527901
Feb 21 17:12:51 host kernel: Free swap  = 0kB
Feb 21 17:12:51 host kernel: Total swap = 523256kB
Feb 21 17:12:51 host kernel: 196607 pages RAM
Feb 21 17:12:51 host kernel: 6737 pages reserved
Feb 21 17:12:51 host kernel: 33612 pages shared
Feb 21 17:12:51 host kernel: 180803 pages non-shared
Feb 21 17:12:51 host kernel: Out of memory: kill process 2053 (mysqld_safe) score 891049 or a child
Feb 21 17:12:51 host kernel: Killed process 2266 (mysqld) vsz:1540232kB, anon-rss:4692kB, file-rss:128kB

คุณสามารถให้การส่งออกของsysctl -a 2>/dev/null | grep '^vm'?
แพทริค

ที่เพิ่ม หวังว่าคุณ (หรือใครบางคน) สามารถค้นหาสิ่งที่ฉันพลาด
Kyle Brantley

สิ่งเดียวที่ทำให้ฉันโดดเด่นคือการovercommit_memoryตั้งค่า การตั้งค่าเป็น 1 ไม่ควรทำให้เกิดพฤติกรรมนี้ แต่ฉันไม่เคยมีความจำเป็นต้องตั้งค่าให้เป็น 'overcommit เสมอ' มาก่อนดังนั้นจึงไม่มีประสบการณ์มากนัก เมื่อดูหมายเหตุอื่นที่คุณเพิ่มคุณกล่าวว่าการแลกเปลี่ยนนั้นใช้ไปเพียง 20% อย่างไรก็ตามตามที่การถ่ายโอนข้อมูลเข้าสู่ระบบ OOM Free swap = 0kBที่ แน่นอนว่าการแลกเปลี่ยนนั้นใช้ไปแล้ว 100%
Patrick

คำตอบ:


13

ฉันแค่ดูที่บันทึกการทิ้งขยะและฉันถามถึงความถูกต้องของกราฟนั้น สังเกตเห็นบรรทัด 'Node 0 DMA32' บรรทัดแรก มันบอกว่าfree:3376kB, และmin:3448kB low:4308kBเมื่อใดก็ตามที่ค่าอิสระลดลงต่ำกว่าค่าต่ำ kswapd ควรจะเริ่มทำการแลกเปลี่ยนจนกว่าค่านั้นจะได้รับการสำรองสูงกว่าค่าสูง เมื่อใดก็ตามที่ฟรีลดลงต่ำกว่านาทีระบบจะค้างโดยทั่วไปจนกว่าเคอร์เนลจะได้รับข้อมูลสำรองสูงกว่าค่าต่ำสุด ข้อความนั้นยังระบุว่ามีการใช้การสลับอย่างสมบูรณ์ตามที่ระบุFree swap = 0kBไว้
โดยทั่วไปแล้วจะเรียก kswapd แต่การแลกเปลี่ยนเต็มดังนั้นจึงไม่สามารถทำอะไรได้และค่า pages_free ยังคงต่ำกว่าค่า pages_min ดังนั้นทางเลือกเดียวคือเริ่มต้นฆ่าสิ่งต่าง ๆ จนกว่าจะสามารถรับ Pages_free ได้
คุณมีหน่วยความจำไม่เพียงพอ

http://web.archive.org/web/20080419012851/http://people.redhat.com/dduval/kernel/min_free_kbytes.htmlมีคำอธิบายที่ดีมากเกี่ยวกับวิธีการทำงาน ดูส่วน 'การใช้งาน' ที่ด้านล่าง


1
ดังนั้น OP จึงต้องการแรมเพิ่มมากขึ้นจริงๆ ...
ewwhite

หน่วยความจำเพิ่มเติมหรือหาอะไรกินมัน
Patrick

ฉันใส่เส้นบนกราฟนั้นอย่างแม่นยำมาก มันหยุดการบันทึกข้อมูล ~ 1-2m ก่อนที่กระบวนการแรกจะถูกฆ่าและกลับมาบันทึกข้อมูลอีกครั้ง ~ 4-5m หลังจากที่ถูกฆ่าครั้งสุดท้าย ณ จุดนี้ฉันเดิมพันว่ากระบวนการบางอย่างไปยุ่งเหยิงและเริ่มทุบตีหน้าไฟล์ของฉัน - ในที่สุดเมื่อมันได้ทุกอย่างแล้วมันก็ฆ่ากระบวนการที่ใช้งานได้โดยไม่ต้องใช้ไฟล์เพจเช่นกันซึ่งเป็นสาเหตุที่ข้อมูลกลับมา pagefile ถูกยกระดับ แต่ไม่เต็ม ข้อเสนอแนะเกี่ยวกับวิธีตรวจสอบสิ่งที่ทำสิ่งนี้จะยินดี!
Kyle Brantley

@KyleBrantley คุณสร้างค่าอะไรในการสร้างกราฟ ข้อเสียอย่างหนึ่งของระบบหน่วยความจำเสมือนของ linux คือไม่มีคำจำกัดความที่เป็นรูปธรรมว่า 'ฟรี' มีหลายวิธีในการกำหนด 'หน่วยความจำฟรี' สิ่งที่สำคัญเท่าที่ kswapd ใช้คือค่า pages_free สำหรับการแลกเปลี่ยนฟรีฉันไม่รู้ว่าคุณควรอ่านค่าใดซึ่งจะอยู่ไกลมาก วิธีเดียวที่จะเห็นสิ่งที่กินหน่วยความจำคือการบันทึกภาพรวมอย่างต่อเนื่องของกระบวนการทั้งหมดในกล่องและดูสิ่งที่ใช้หน่วยความจำทั้งหมดเมื่อนักฆ่า oom เริ่มถั่ว
Patrick

2
ใช่ฉันหมดความจำ ฉันกระทบกระเทือนการโลภผ่านบันทึกเพื่อพบว่ากระบวนการลูกอาปาเช่ของฉันถูกฆ่าซ้ำ ๆ ซึ่งทำให้ฉันรู้ว่าฉันมีกระบวนการเด็กที่ไม่มีที่สิ้นสุดซึ่งสามารถเริ่มได้ สิ่งที่ต้องทำก็คือบอทบล็อกอัตโนมัติที่ส่งคำขอจำนวนมาก / วินาทีไปที่โฮสต์เพื่อให้ล้มลง Tweaking apache แก้ไขทุกอย่าง
Kyle Brantley

3

กำจัดสคริปต์ drop_caches นอกจากนี้คุณควรโพสต์ส่วนที่เกี่ยวข้องของคุณdmesgและ/var/log/messagesเอาท์พุทแสดงข้อความ OOM

หากต้องการหยุดพฤติกรรมนี้ฉันขอแนะนำให้ลองsysctlปรับค่านี้ นี่เป็นระบบ RHEL / CentOS 6 และทำงานอย่างชัดเจนกับทรัพยากรที่มีข้อ จำกัด มันเป็นเครื่องเสมือนหรือไม่?

ลองแก้ไข/proc/sys/vm/nr_hugepagesและดูว่ายังมีปัญหาอยู่หรือไม่ นี่อาจเป็นปัญหาการกระจายตัวของหน่วยความจำ แต่ดูว่าการตั้งค่านี้สร้างความแตกต่างหรือไม่ หากต้องการทำการเปลี่ยนแปลงอย่างถาวรให้เพิ่มvm.nr_hugepages = valueของคุณ/etc/sysctl.confและเรียกใช้sysctl -pเพื่ออ่านไฟล์ปรับแต่งอีกครั้ง ...

ดูเพิ่มเติมที่: การตีความเคอร์เนลข้อความ "การจัดสรรเพจล้มเหลว" ข้อความ


เพิ่มข้อความนักฆ่าคนแรก ในขณะที่ MySQL เป็น RAM ที่เข้มข้นที่สุดที่ฉันใช้ฉันได้ปรับมันลงเพื่อไม่ให้ทำงานหนักเกินไปเช่นกันดังนั้นนอกเหนือจากค่าบ้าคลั่งที่ฉันเห็นอยู่ด้านบนฉันไม่สงสัยจริงๆ (5.1% ใช้งานหน่วยความจำได้ดีทุกสิ่งพิจารณาแล้ว) เป็น VPS พร้อม RAM 768MB ฉันจะอ่านบน nr_hugepages และยิงมันขอบคุณ!
Kyle Brantley

@ whitewhite การจัดสรรว่า hugepages จำนวนมากจะฆ่ากล่อง กล่องนี้มี RAM 768mb เท่านั้นและด้วย hugepagesz เริ่มต้นที่ 2mb ที่จะจัดสรร 2gb hugepages กล่องจะไม่สามารถจัดการกับมันได้และจะตายทันที
Patrick

Updated ค่าควรเพิ่มขึ้นจากศูนย์แม้ว่า
ewwhite

มันยังซับซ้อนกว่านั้นอีก คุณต้องตั้งค่าการอนุญาตเพจขนาดใหญ่และต้องกำหนดค่า mysql ให้ใช้เพจขนาดใหญ่ไม่เช่นนั้นคุณจะจัดสรรสิทธิ์โดยไม่ต้องมีเหตุผล
Patrick

2

ไม่มีข้อมูลในกราฟจากเมื่อ OOM killer เริ่มทำงานจนกว่าจะสิ้นสุด ฉันเชื่อในกรอบเวลาที่กราฟถูกขัดจังหวะว่าในความเป็นจริงการบริโภคหน่วยความจำจะขัดขวางและไม่มีหน่วยความจำอีกต่อไป มิฉะนั้นจะไม่ใช้ O killer killer หากคุณดูกราฟหน่วยความจำฟรีหลังจากที่นักฆ่า OOM หยุดคุณจะเห็นว่ามันลดลงจากค่าที่สูงขึ้นกว่า แต่ก่อน อย่างน้อยก็ทำงานได้อย่างถูกต้องทำให้หน่วยความจำว่าง

โปรดทราบว่าพื้นที่สว็อปของคุณเกือบจะถูกใช้อย่างเต็มที่จนกระทั่งรีบูต นั่นเป็นสิ่งที่แทบไม่เคยดีเลยและมีสัญญาณว่ามีหน่วยความจำว่างเหลืออยู่เพียงเล็กน้อย

เหตุผลที่ไม่มีข้อมูลสำหรับกรอบเวลานั้นเนื่องจากระบบไม่ว่างกับสิ่งอื่น ๆ ค่า "ตลก" ในรายการกระบวนการของคุณอาจเป็นผลลัพธ์ไม่ใช่สาเหตุ มันไม่เคยได้ยินมาก่อน

ตรวจสอบ /var/log/kern.log และ / var / log / ข้อความคุณสามารถหาข้อมูลอะไรได้บ้าง

หากการบันทึกหยุดลงให้ลองทำอย่างอื่นถ่ายโอนรายการกระบวนการไปยังไฟล์ทุก ๆ วินาทีเช่นเดียวกับข้อมูลประสิทธิภาพของระบบ เรียกใช้ด้วยลำดับความสำคัญสูงดังนั้นจึงยังสามารถทำงานได้ (หวังว่า) เมื่อโหลดเพิ่มขึ้น แม้ว่าถ้าคุณไม่มีเคอร์เนลที่จองไว้ (บางครั้งระบุว่าเป็น "เซิร์ฟเวอร์" เคอร์เนล) คุณอาจโชคไม่ดีในเรื่องนั้น

ฉันคิดว่าคุณจะพบว่ากระบวนการที่ใช้ (คือ) ใช้ CPU% มากที่สุดในช่วงเวลาที่ปัญหาของคุณเริ่มต้นเป็นสาเหตุ ฉันไม่เคยเห็น rsyslogd ทั้ง mysql ประพฤติเช่นนั้น ผู้ร้ายมีแนวโน้มมากขึ้นคือแอปพลิเคชัน Java และแอปที่ขับเคลื่อนด้วย GUI เช่นเบราว์เซอร์


ไม่มีข้อมูลในช่องว่างดังกล่าวเนื่องจากการโหลดบนกล่องมีสูงมากจนทุกสิ่งรวมถึงเอเจนต์การตรวจสอบบดขยี้จนหยุดชะงัก ตัวแทนไม่เคยถูกฆ่าจริง ๆ ในช่วงเวลาที่ใกล้ตาย แต่มันไม่สามารถรายงานข้อมูลใด ๆ ได้เช่นกัน พื้นที่สว็อปของฉันใช้ได้จริง มันใช้ทั้งหมด 130 ~ 512MB ก่อนที่จะรีบูท rsyslogd ได้รับการกำหนดค่าให้รายงานรายงานไปยังตำแหน่งเครือข่ายซึ่งทุกอย่างที่เกิดขึ้นนั้นถูกบันทึกไว้ - และนอกเหนือจากนั้นจะฆ่ากระบวนการ 408 กระบวนการ (บางกระบวนการเป็นเด็ก apache ที่รีสตาร์ท) ไม่มีอะไรโดดเด่น
Kyle Brantley

ฉันอาจยกเลิกการทำรายการกระบวนการทั้งหมดไปยังไฟล์ (หรือเครือข่าย) ทุกสองสามวินาทีถ้าฉันไม่สามารถเข้าใจได้ว่าเกิดอะไรขึ้นที่นี่จริง ๆ ขอบคุณสำหรับความคิดที่ดี
Kyle Brantley

ใช่คุณควรทำเช่นนั้นตรวจสอบให้แน่ใจว่าคุณได้บันทึกการใช้ CPU ของแต่ละกระบวนการดูที่ "top -b" (โหมดแบทช์) กระบวนการที่แหลมอาจเป็นผู้ร้าย
aseq
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.