<div dir="ltr">adding varnish-misc back<div><br></div><div>Try mounting it as tmpfs (with exec rights), this files will get a log of IO, so one usual suspects is that you are killing your filesystem with them<br clear="all"><div><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div>-- <br></div>Guillaume Quintard<br></div></div></div><br></div></div><br><div class="gmail_quote"><div dir="ltr">On Mon, Dec 10, 2018 at 4:48 PM Marc Fournier <<a href="mailto:marc.fournier@camptocamp.com">marc.fournier@camptocamp.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br>
Hello Guillaume,<br>
<br>
No, the binaries are on an overlay2 filesystem (docker container), but<br>
/var/lib/varnish itself is bound to a directory on the host's<br>
filesystem, which is ext4.<br>
<br>
This machine does run in a VM (amazon EC2) though. But nothing in dmesg<br>
indicates any OS- or hardware level problem.<br>
<br>
Thanks !<br>
<br>
Marc<br>
<br>
Guillaume Quintard <<a href="mailto:guillaume@varnish-software.com" target="_blank">guillaume@varnish-software.com</a>> writes:<br>
<br>
> Is /var/lib/varnish mounted as tmpfs?<br>
><br>
> -- <br>
> Guillaume Quintard<br>
><br>
><br>
> On Fri, Nov 9, 2018 at 5:25 PM Marc Fournier <<a href="mailto:marc.fournier@camptocamp.com" target="_blank">marc.fournier@camptocamp.com</a>><br>
> wrote:<br>
><br>
>><br>
>> Hello,<br>
>><br>
>> I'm struggling figuring out a problem that occurs rarely, and random<br>
>> times, on different machines with the same setup (so excluding hardware<br>
>> problems). This leads to varnish not answering any requests anymore for<br>
>> several minutes.<br>
>><br>
>> Running on a 8 CPU amazon EC2 instance with the following parameters:<br>
>> varnishd -F -f /etc/varnish/config.vcl -I /etc/varnish/settings.cli -n<br>
>> varnishd -s malloc,8G -a <a href="http://127.0.0.1:8080" rel="noreferrer" target="_blank">127.0.0.1:8080</a>,PROXY<br>
>><br>
>> When the lockup occurs, the loadavg increases from 0 to about 20 and 2<br>
>> out of 8 CPUs are 100% in iowait mode (maybe because I use 2 threadpools ?)<br>
>><br>
>> There is plenty of free memory, and no disk IO activity, nothing in<br>
>> dmesg. Apart from varnish, there's haproxy and a couple of varnishlog<br>
>> and other monitoring tools running on these machines.<br>
>><br>
>> The 2 non-default settings I set are:<br>
>> thread_pool_min 1000<br>
>> timeout_idle 45<br>
>><br>
>> On specificity: the backends set quite short TTLs on the objects they<br>
>> produce (less than 10s), but grace time is set to 300s, so I was<br>
>> wondering is there might be a side-effect with the Transient store.<br>
>><br>
>> Any hint or clue would be much welcome !<br>
>><br>
>> Below are the log messages and the output of varnishstat -1:<br>
>><br>
>> 2018-10-24T02:40:27.455363000Z Error: Child (14) not responding to CLI,<br>
>> killed it.<br>
>> 2018-10-24T02:40:27.455899000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error (hdr)<br>
>> 2018-10-24T02:41:27.512111000Z Error: Child (14) not responding to CLI,<br>
>> killed it.<br>
>> 2018-10-24T02:41:27.512321000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error (hdr)<br>
>> 2018-10-24T02:42:27.571685000Z Error: Child (14) not responding to CLI,<br>
>> killed it.<br>
>> 2018-10-24T02:42:27.571883000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error (hdr)<br>
>> 2018-10-24T02:43:27.598954000Z Error: Child (14) not responding to CLI,<br>
>> killed it.<br>
>> 2018-10-24T02:43:27.599156000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error (hdr)<br>
>> 2018-10-24T02:44:27.645895000Z Error: Child (14) not responding to CLI,<br>
>> killed it.<br>
>> 2018-10-24T02:44:27.646108000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error (hdr)<br>
>> 2018-10-24T02:45:03.252791000Z Error: Child (14) not responding to CLI,<br>
>> killed it.<br>
>> 2018-10-24T02:45:03.253069000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error (hdr)<br>
>> 2018-10-24T02:45:03.253274000Z Error: Child (14) not responding to CLI,<br>
>> killed it.<br>
>> 2018-10-24T02:45:03.253465000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error<br>
>> 2018-10-24T02:45:03.253769000Z Error: Child (14) died signal=3 (core<br>
>> dumped)<br>
>> 2018-10-24T02:45:03.254007000Z Debug: Child cleanup complete<br>
>> 2018-10-24T02:45:03.255242000Z Debug: Child (2202) Started<br>
>> 2018-10-24T02:45:03.339992000Z Info: Child (2202) said Child starts<br>
>><br>
>> 2018-11-06T20:03:29.675883000Z Error: Child (2202) not responding to CLI,<br>
>> killed it.<br>
>> 2018-11-06T20:03:29.676394000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error (hdr)<br>
>> 2018-11-06T20:04:29.701217000Z Error: Child (2202) not responding to CLI,<br>
>> killed it.<br>
>> 2018-11-06T20:04:29.701422000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error (hdr)<br>
>> 2018-11-06T20:05:29.758068000Z Error: Child (2202) not responding to CLI,<br>
>> killed it.<br>
>> 2018-11-06T20:05:29.758269000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error (hdr)<br>
>> 2018-11-06T20:06:29.781659000Z Error: Child (2202) not responding to CLI,<br>
>> killed it.<br>
>> 2018-11-06T20:06:29.781867000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error (hdr)<br>
>> 2018-11-06T20:07:29.804125000Z Error: Child (2202) not responding to CLI,<br>
>> killed it.<br>
>> 2018-11-06T20:07:29.804336000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error (hdr)<br>
>> 2018-11-06T20:08:29.864111000Z Error: Child (2202) not responding to CLI,<br>
>> killed it.<br>
>> 2018-11-06T20:08:29.864318000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error (hdr)<br>
>> 2018-11-06T20:09:29.873115000Z Error: Child (2202) not responding to CLI,<br>
>> killed it.<br>
>> 2018-11-06T20:09:29.873321000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error (hdr)<br>
>> 2018-11-06T20:10:29.932102000Z Error: Child (2202) not responding to CLI,<br>
>> killed it.<br>
>> 2018-11-06T20:10:29.932307000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error (hdr)<br>
>> 2018-11-06T20:11:29.992180000Z Error: Child (2202) not responding to CLI,<br>
>> killed it.<br>
>> 2018-11-06T20:11:29.992387000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error (hdr)<br>
>> 2018-11-06T20:12:30.052123000Z Error: Child (2202) not responding to CLI,<br>
>> killed it.<br>
>> 2018-11-06T20:12:30.052328000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error (hdr)<br>
>> 2018-11-06T20:13:30.112074000Z Error: Child (2202) not responding to CLI,<br>
>> killed it.<br>
>> 2018-11-06T20:13:30.112275000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error (hdr)<br>
>> 2018-11-06T20:14:30.172123000Z Error: Child (2202) not responding to CLI,<br>
>> killed it.<br>
>> 2018-11-06T20:14:30.172326000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error (hdr)<br>
>> 2018-11-06T20:15:03.116961000Z Error: Child (2202) not responding to CLI,<br>
>> killed it.<br>
>> 2018-11-06T20:15:03.117291000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error (hdr)<br>
>> 2018-11-06T20:15:03.117517000Z Error: Child (2202) not responding to CLI,<br>
>> killed it.<br>
>> 2018-11-06T20:15:03.117747000Z Error: Unexpected reply from ping: 400 CLI<br>
>> communication error<br>
>> 2018-11-06T20:15:03.119003000Z Error: Child (2202) died signal=3 (core<br>
>> dumped)<br>
>> 2018-11-06T20:15:03.119377000Z Debug: Child cleanup complete<br>
>> 2018-11-06T20:15:03.120560000Z Debug: Child (4327) Started<br>
>> 2018-11-06T20:15:03.207214000Z Info: Child (4327) said Child starts<br>
>><br>
>> MAIN.uptime  Â  Â  Â  Â  Â  Â 244472  Â  Â  Â  Â 1.00 Child process uptime<br>
>> MAIN.sess_conn  Â  Â  Â  10813893  Â  Â  Â  44.23 Sessions accepted<br>
>> MAIN.sess_drop  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Sessions dropped<br>
>> MAIN.sess_fail  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Session accept failures<br>
>> MAIN.client_req_400  Â  Â  Â  Â  Â  5  Â  Â  Â  Â 0.00 Client requests received,<br>
>> subject to 400 errors<br>
>> MAIN.client_req_417  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Client requests received,<br>
>> subject to 417 errors<br>
>> MAIN.client_req  Â  Â  Â  Â 11329721  Â  Â  Â  46.34 Good client requests received<br>
>> MAIN.cache_hit  Â  Â  Â  Â  Â 9785347  Â  Â  Â  40.03 Cache hits<br>
>> MAIN.cache_hitpass  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Cache hits for pass.<br>
>> MAIN.cache_hitmiss  Â  Â  Â  Â 87463  Â  Â  Â  Â 0.36 Cache hits for miss.<br>
>> MAIN.cache_miss  Â  Â  Â  Â  Â 439975  Â  Â  Â  Â 1.80 Cache misses<br>
>> MAIN.backend_conn  Â  Â  Â  1233017  Â  Â  Â  Â 5.04 Backend conn. success<br>
>> MAIN.backend_unhealthy  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Backend conn. not<br>
>> attempted<br>
>> MAIN.backend_busy  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Backend conn. too many<br>
>> MAIN.backend_fail  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Backend conn. failures<br>
>> MAIN.backend_reuse  Â  Â  Â  Â  1641618  Â  Â  Â  Â 6.71 Backend conn. reuses<br>
>> MAIN.backend_recycle  Â  Â  Â  1647099  Â  Â  Â  Â 6.74 Backend conn. recycles<br>
>> MAIN.backend_retry  Â  Â  Â  Â  Â  Â  Â  4  Â  Â  Â  Â 0.00 Backend conn. retry<br>
>> MAIN.fetch_head  Â  Â  Â  Â  Â  Â  Â  Â  Â 6  Â  Â  Â  Â 0.00 Fetch no body (HEAD)<br>
>> MAIN.fetch_length  Â  Â  Â  Â  Â  264385  Â  Â  Â  Â 1.08 Fetch with Length<br>
>> MAIN.fetch_chunked  Â  Â  Â  Â  Â  15594  Â  Â  Â  Â 0.06 Fetch chunked<br>
>> MAIN.fetch_eof  Â  Â  Â  Â  Â  Â  1226485  Â  Â  Â  Â 5.02 Fetch EOF<br>
>> MAIN.fetch_bad  Â  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Fetch bad T-E<br>
>> MAIN.fetch_none  Â  Â  Â  Â  Â  Â  Â  Â  Â 1  Â  Â  Â  Â 0.00 Fetch no body<br>
>> MAIN.fetch_1xx  Â  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Fetch no body (1xx)<br>
>> MAIN.fetch_204  Â  Â  Â  Â  Â  Â  Â  Â  Â  8  Â  Â  Â  Â 0.00 Fetch no body (204)<br>
>> MAIN.fetch_304  Â  Â  Â  Â  Â  Â  1367111  Â  Â  Â  Â 5.59 Fetch no body (304)<br>
>> MAIN.fetch_failed  Â  Â  Â  Â  Â  Â  Â  Â 2  Â  Â  Â  Â 0.00 Fetch failed (all causes)<br>
>> MAIN.fetch_no_thread  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Fetch failed (no thread)<br>
>> MAIN.pools  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  2  Â  Â  Â  Â  .  Â Number of thread pools<br>
>> MAIN.threads  Â  Â  Â  Â  Â  Â  Â  Â  Â 2000  Â  Â  Â  Â  .  Â Total number of threads<br>
>> MAIN.threads_limited  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Threads hit max<br>
>> MAIN.threads_created  Â  Â  Â  Â  Â 2012  Â  Â  Â  Â 0.01 Threads created<br>
>> MAIN.threads_destroyed  Â  Â  Â  Â  Â 12  Â  Â  Â  Â 0.00 Threads destroyed<br>
>> MAIN.threads_failed  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Thread creation failed<br>
>> MAIN.thread_queue_len  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â  .  Â Length of session queue<br>
>> MAIN.busy_sleep  Â  Â  Â  Â  Â  Â  Â  3558  Â  Â  Â  Â 0.01 Number of requests sent<br>
>> to sleep on busy objhdr<br>
>> MAIN.busy_wakeup  Â  Â  Â  Â  Â  Â  Â 3558  Â  Â  Â  Â 0.01 Number of requests woken<br>
>> after sleep on busy objhdr<br>
>> MAIN.busy_killed  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Number of requests killed<br>
>> after sleep on busy objhdr<br>
>> MAIN.sess_queued  Â  Â  Â  Â  Â  Â  Â 1288  Â  Â  Â  Â 0.01 Sessions queued for thread<br>
>> MAIN.sess_dropped  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Sessions dropped for<br>
>> thread<br>
>> MAIN.n_object  Â  Â  Â  Â  Â  Â  Â  Â  1645  Â  Â  Â  Â  .  Â object structs made<br>
>> MAIN.n_vampireobject  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â  .  Â unresurrected objects<br>
>> MAIN.n_objectcore  Â  Â  Â  Â  Â  Â  3407  Â  Â  Â  Â  .  Â objectcore structs made<br>
>> MAIN.n_objecthead  Â  Â  Â  Â  Â  Â  3649  Â  Â  Â  Â  .  Â objecthead structs made<br>
>> MAIN.n_backend  Â  Â  Â  Â  Â  Â  Â  Â  Â  2  Â  Â  Â  Â  .  Â Number of backends<br>
>> MAIN.n_expired  Â  Â  Â  Â  Â  Â  Â 438348  Â  Â  Â  Â  .  Â Number of expired objects<br>
>> MAIN.n_lru_nuked  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â  .  Â Number of LRU nuked<br>
>> objects<br>
>> MAIN.n_lru_moved  Â  Â  Â  Â  Â  5255908  Â  Â  Â  Â  .  Â Number of LRU moved<br>
>> objects<br>
>> MAIN.losthdr  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 HTTP header overflows<br>
>> MAIN.s_sess  Â  Â  Â  Â  Â  Â  Â  10813893  Â  Â  Â  44.23 Total sessions seen<br>
>> MAIN.s_req  Â  Â  Â  Â  Â  Â  Â  Â 11329721  Â  Â  Â  46.34 Total requests seen<br>
>> MAIN.s_pipe  Â  Â  Â  Â  Â  Â  Â  Â  Â  1724  Â  Â  Â  Â 0.01 Total pipe sessions seen<br>
>> MAIN.s_pass  Â  Â  Â  Â  Â  Â  Â  Â 1017203  Â  Â  Â  Â 4.16 Total pass-ed requests<br>
>> seen<br>
>> MAIN.s_fetch  Â  Â  Â  Â  Â  Â  Â  1457178  Â  Â  Â  Â 5.96 Total backend fetches<br>
>> initiated<br>
>> MAIN.s_synth  Â  Â  Â  Â  Â  Â  Â  Â  85381  Â  Â  Â  Â 0.35 Total synthethic<br>
>> responses made<br>
>> MAIN.s_req_hdrbytes  Â  Â  6238979422  Â  Â 25520.22 Request header bytes<br>
>> MAIN.s_req_bodybytes  Â  Â  197010427  Â  Â  Â 805.86 Request body bytes<br>
>> MAIN.s_resp_hdrbytes  Â  Â 6906180092  Â  Â 28249.37 Response header bytes<br>
>> MAIN.s_resp_bodybytes  1332774227295  Â 5451643.65 Response body bytes<br>
>> MAIN.s_pipe_hdrbytes  Â  Â  Â  2686309  Â  Â  Â  10.99 Pipe request header bytes<br>
>> MAIN.s_pipe_in  Â  Â  Â  Â  Â  Â  1409866  Â  Â  Â  Â 5.77 Piped bytes from client<br>
>> MAIN.s_pipe_out  Â  Â  Â  Â  Â  17882349  Â  Â  Â  73.15 Piped bytes to client<br>
>> MAIN.sess_closed  Â  Â  Â  Â  Â  Â  33230  Â  Â  Â  Â 0.14 Session Closed<br>
>> MAIN.sess_closed_err  Â  Â  Â  Â  Â 5187  Â  Â  Â  Â 0.02 Session Closed with error<br>
>> MAIN.sess_readahead  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Session Read Ahead<br>
>> MAIN.sess_herd  Â  Â  Â  Â  Â  Â  4943201  Â  Â  Â  20.22 Session herd<br>
>> MAIN.sc_rem_close  Â  Â  Â  Â  10784144  Â  Â  Â  44.11 Session OK  REM_CLOSE<br>
>> MAIN.sc_req_close  Â  Â  Â  Â  Â  Â 21829  Â  Â  Â  Â 0.09 Session OK  REQ_CLOSE<br>
>> MAIN.sc_req_http10  Â  Â  Â  Â  Â  Â  932  Â  Â  Â  Â 0.00 Session Err REQ_HTTP10<br>
>> MAIN.sc_rx_bad  Â  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Session Err RX_BAD<br>
>> MAIN.sc_rx_body  Â  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Session Err RX_BODY<br>
>> MAIN.sc_rx_junk  Â  Â  Â  Â  Â  Â  Â  Â  Â 5  Â  Â  Â  Â 0.00 Session Err RX_JUNK<br>
>> MAIN.sc_rx_overflow  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Session Err RX_OVERFLOW<br>
>> MAIN.sc_rx_timeout  Â  Â  Â  Â  Â  Â 4250  Â  Â  Â  Â 0.02 Session Err RX_TIMEOUT<br>
>> MAIN.sc_tx_pipe  Â  Â  Â  Â  Â  Â  Â  1724  Â  Â  Â  Â 0.01 Session OK  TX_PIPE<br>
>> MAIN.sc_tx_error  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Session Err TX_ERROR<br>
>> MAIN.sc_tx_eof  Â  Â  Â  Â  Â  Â  Â  Â  543  Â  Â  Â  Â 0.00 Session OK  TX_EOF<br>
>> MAIN.sc_resp_close  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Session OK  RESP_CLOSE<br>
>> MAIN.sc_overload  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Session Err OVERLOAD<br>
>> MAIN.sc_pipe_overflow  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Session Err PIPE_OVERFLOW<br>
>> MAIN.sc_range_short  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Session Err RANGE_SHORT<br>
>> MAIN.sc_req_http20  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Session Err REQ_HTTP20<br>
>> MAIN.sc_vcl_failure  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Session Err VCL_FAILURE<br>
>> MAIN.shm_records  Â  Â  Â  Â  921799607  Â  Â  3770.57 SHM records<br>
>> MAIN.shm_writes  Â  Â  Â  Â  Â  82947584  Â  Â  Â 339.29 SHM writes<br>
>> MAIN.shm_flushes  Â  Â  Â  Â  Â  Â  Â 1821  Â  Â  Â  Â 0.01 SHM flushes due to<br>
>> overflow<br>
>> MAIN.shm_cont  Â  Â  Â  Â  Â  Â  Â  961287  Â  Â  Â  Â 3.93 SHM MTX contention<br>
>> MAIN.shm_cycles  Â  Â  Â  Â  Â  Â  Â  Â 436  Â  Â  Â  Â 0.00 SHM cycles through buffer<br>
>> MAIN.backend_req  Â  Â  Â  Â  Â  2862111  Â  Â  Â  11.71 Backend requests made<br>
>> MAIN.n_vcl  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  2  Â  Â  Â  Â 0.00 Number of loaded VCLs in<br>
>> total<br>
>> MAIN.n_vcl_avail  Â  Â  Â  Â  Â  Â  Â  Â  2  Â  Â  Â  Â 0.00 Number of VCLs available<br>
>> MAIN.n_vcl_discard  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Number of discarded VCLs<br>
>> MAIN.vcl_fail  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 VCL failures<br>
>> MAIN.bans  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 1  Â  Â  Â  Â  .  Â Count of bans<br>
>> MAIN.bans_completed  Â  Â  Â  Â  Â  Â  Â 1  Â  Â  Â  Â  .  Â Number of bans marked<br>
>> 'completed'<br>
>> MAIN.bans_obj  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â  .  Â Number of bans using obj.*<br>
>> MAIN.bans_req  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â  .  Â Number of bans using req.*<br>
>> MAIN.bans_added  Â  Â  Â  Â  Â  Â  Â  Â  Â 1  Â  Â  Â  Â 0.00 Bans added<br>
>> MAIN.bans_deleted  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Bans deleted<br>
>> MAIN.bans_tested  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Bans tested against<br>
>> objects (lookup)<br>
>> MAIN.bans_obj_killed  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Objects killed by bans<br>
>> (lookup)<br>
>> MAIN.bans_lurker_tested  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Bans tested against<br>
>> objects (lurker)<br>
>> MAIN.bans_tests_tested  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Ban tests tested against<br>
>> objects (lookup)<br>
>> MAIN.bans_lurker_tests_tested  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Ban tests tested<br>
>> against objects (lurker)<br>
>> MAIN.bans_lurker_obj_killed  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Objects killed by<br>
>> bans (lurker)<br>
>> MAIN.bans_lurker_obj_killed_cutoff  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Objects<br>
>> killed by bans for cutoff (lurker)<br>
>> MAIN.bans_dups  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Bans<br>
>> superseded by other bans<br>
>> MAIN.bans_lurker_contention  Â  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Lurker gave<br>
>> way for lookup<br>
>> MAIN.bans_persisted_bytes  Â  Â  Â  Â  Â  Â  Â  Â  Â  16  Â  Â  Â  Â  .  Â Bytes used by<br>
>> the persisted ban lists<br>
>> MAIN.bans_persisted_fragmentation  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â  .  Â Extra bytes<br>
>> in persisted ban lists due to fragmentation<br>
>> MAIN.n_purges  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â  .  Â Number of<br>
>> purge operations executed<br>
>> MAIN.n_obj_purged  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â  .  Â Number of<br>
>> purged objects<br>
>> MAIN.exp_mailed  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 3272785  Â  Â  Â  13.39 Number of<br>
>> objects mailed to expiry thread<br>
>> MAIN.exp_received  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 3272785  Â  Â  Â  13.39 Number of<br>
>> objects received by expiry thread<br>
>> MAIN.hcb_nolock  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  10225413  Â  Â  Â  41.83 HCB Lookups<br>
>> without lock<br>
>> MAIN.hcb_lock  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  348309  Â  Â  Â  Â 1.42 HCB Lookups<br>
>> with lock<br>
>> MAIN.hcb_insert  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  348094  Â  Â  Â  Â 1.42 HCB Inserts<br>
>> MAIN.esi_errors  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 ESI parse<br>
>> errors (unlock)<br>
>> MAIN.esi_warnings  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 ESI parse<br>
>> warnings (unlock)<br>
>> MAIN.vmods  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  1  Â  Â  Â  Â  .  Â Loaded VMODs<br>
>> MAIN.n_gzip  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 1262083  Â  Â  Â  Â 5.16 Gzip<br>
>> operations<br>
>> MAIN.n_gunzip  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 41886  Â  Â  Â  Â 0.17 Gunzip<br>
>> operations<br>
>> MAIN.n_test_gunzip  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Test gunzip<br>
>> operations<br>
>> MAIN.vsm_free  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  973840  Â  Â  Â  Â  .  Â Free VSM space<br>
>> MAIN.vsm_used  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  83960768  Â  Â  Â  Â  .  Â Used VSM space<br>
>> MAIN.vsm_cooling  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â  .  Â Cooling VSM<br>
>> space<br>
>> MAIN.vsm_overflow  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â  .  Â Overflow VSM<br>
>> space<br>
>> MAIN.vsm_overflowed  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Overflowed<br>
>> VSM space<br>
>> MGT.uptime  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  3145114  Â  Â  Â  12.86 Management<br>
>> process uptime<br>
>> MGT.child_start  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 3  Â  Â  Â  Â 0.00 Child process<br>
>> started<br>
>> MGT.child_exit  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Child process<br>
>> normal exit<br>
>> MGT.child_stop  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Child process<br>
>> unexpected exit<br>
>> MGT.child_died  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  2  Â  Â  Â  Â 0.00 Child process<br>
>> died (signal)<br>
>> MGT.child_dump  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  2  Â  Â  Â  Â 0.00 Child process<br>
>> core dumped<br>
>> MGT.child_panic  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Child process<br>
>> panic<br>
>> MEMPOOL.busyobj.live  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  8  Â  Â  Â  Â  .  Â In use<br>
>> MEMPOOL.busyobj.pool  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 11  Â  Â  Â  Â  .  Â In Pool<br>
>> MEMPOOL.busyobj.sz_wanted  Â  Â  Â  Â  Â  Â  Â  Â 65536  Â  Â  Â  Â  .  Â Size requested<br>
>> MEMPOOL.busyobj.sz_actual  Â  Â  Â  Â  Â  Â  Â  Â 65504  Â  Â  Â  Â  .  Â Size allocated<br>
>> MEMPOOL.busyobj.allocs  Â  Â  Â  Â  Â  Â  Â  Â  2875324  Â  Â  Â  11.76 Allocations<br>
>> MEMPOOL.busyobj.frees  Â  Â  Â  Â  Â  Â  Â  Â  Â 2875316  Â  Â  Â  11.76 Frees<br>
>> MEMPOOL.busyobj.recycle  Â  Â  Â  Â  Â  Â  Â  Â 2862130  Â  Â  Â  11.71 Recycled from<br>
>> pool<br>
>> MEMPOOL.busyobj.timeout  Â  Â  Â  Â  Â  Â  Â  Â  108162  Â  Â  Â  Â 0.44 Timed out<br>
>> from pool<br>
>> MEMPOOL.busyobj.toosmall  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Too small to<br>
>> recycle<br>
>> MEMPOOL.busyobj.surplus  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Too many for<br>
>> pool<br>
>> MEMPOOL.busyobj.randry  Â  Â  Â  Â  Â  Â  Â  Â  Â  13194  Â  Â  Â  Â 0.05 Pool ran dry<br>
>> MEMPOOL.req0.live  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 3  Â  Â  Â  Â  .  Â In use<br>
>> MEMPOOL.req0.pool  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  14  Â  Â  Â  Â  .  Â In Pool<br>
>> MEMPOOL.req0.sz_wanted  Â  Â  Â  Â  Â  Â  Â  Â  Â  65536  Â  Â  Â  Â  .  Â Size requested<br>
>> MEMPOOL.req0.sz_actual  Â  Â  Â  Â  Â  Â  Â  Â  Â  65504  Â  Â  Â  Â  .  Â Size allocated<br>
>> MEMPOOL.req0.allocs  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 7871304  Â  Â  Â  32.20 Allocations<br>
>> MEMPOOL.req0.frees  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  7871301  Â  Â  Â  32.20 Frees<br>
>> MEMPOOL.req0.recycle  Â  Â  Â  Â  Â  Â  Â  Â  Â  7850975  Â  Â  Â  32.11 Recycled from<br>
>> pool<br>
>> MEMPOOL.req0.timeout  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  82821  Â  Â  Â  Â 0.34 Timed out<br>
>> from pool<br>
>> MEMPOOL.req0.toosmall  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Too small to<br>
>> recycle<br>
>> MEMPOOL.req0.surplus  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 2158  Â  Â  Â  Â 0.01 Too many for<br>
>> pool<br>
>> MEMPOOL.req0.randry  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 20329  Â  Â  Â  Â 0.08 Pool ran dry<br>
>> MEMPOOL.sess0.live  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 14  Â  Â  Â  Â  .  Â In use<br>
>> MEMPOOL.sess0.pool  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 13  Â  Â  Â  Â  .  Â In Pool<br>
>> MEMPOOL.sess0.sz_wanted  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 512  Â  Â  Â  Â  .  Â Size requested<br>
>> MEMPOOL.sess0.sz_actual  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 480  Â  Â  Â  Â  .  Â Size allocated<br>
>> MEMPOOL.sess0.allocs  Â  Â  Â  Â  Â  Â  Â  Â  Â  5407625  Â  Â  Â  22.12 Allocations<br>
>> MEMPOOL.sess0.frees  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 5407611  Â  Â  Â  22.12 Frees<br>
>> MEMPOOL.sess0.recycle  Â  Â  Â  Â  Â  Â  Â  Â  Â 5342462  Â  Â  Â  21.85 Recycled from<br>
>> pool<br>
>> MEMPOOL.sess0.timeout  Â  Â  Â  Â  Â  Â  Â  Â  Â  184908  Â  Â  Â  Â 0.76 Timed out<br>
>> from pool<br>
>> MEMPOOL.sess0.toosmall  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Too small to<br>
>> recycle<br>
>> MEMPOOL.sess0.surplus  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 30850  Â  Â  Â  Â 0.13 Too many for<br>
>> pool<br>
>> MEMPOOL.sess0.randry  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  65163  Â  Â  Â  Â 0.27 Pool ran dry<br>
>> MEMPOOL.req1.live  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 4  Â  Â  Â  Â  .  Â In use<br>
>> MEMPOOL.req1.pool  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  18  Â  Â  Â  Â  .  Â In Pool<br>
>> MEMPOOL.req1.sz_wanted  Â  Â  Â  Â  Â  Â  Â  Â  Â  65536  Â  Â  Â  Â  .  Â Size requested<br>
>> MEMPOOL.req1.sz_actual  Â  Â  Â  Â  Â  Â  Â  Â  Â  65504  Â  Â  Â  Â  .  Â Size allocated<br>
>> MEMPOOL.req1.allocs  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 7870901  Â  Â  Â  32.20 Allocations<br>
>> MEMPOOL.req1.frees  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  7870897  Â  Â  Â  32.20 Frees<br>
>> MEMPOOL.req1.recycle  Â  Â  Â  Â  Â  Â  Â  Â  Â  7850560  Â  Â  Â  32.11 Recycled from<br>
>> pool<br>
>> MEMPOOL.req1.timeout  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  82989  Â  Â  Â  Â 0.34 Timed out<br>
>> from pool<br>
>> MEMPOOL.req1.toosmall  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Too small to<br>
>> recycle<br>
>> MEMPOOL.req1.surplus  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 1794  Â  Â  Â  Â 0.01 Too many for<br>
>> pool<br>
>> MEMPOOL.req1.randry  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 20341  Â  Â  Â  Â 0.08 Pool ran dry<br>
>> MEMPOOL.sess1.live  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 17  Â  Â  Â  Â  .  Â In use<br>
>> MEMPOOL.sess1.pool  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 18  Â  Â  Â  Â  .  Â In Pool<br>
>> MEMPOOL.sess1.sz_wanted  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 512  Â  Â  Â  Â  .  Â Size requested<br>
>> MEMPOOL.sess1.sz_actual  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 480  Â  Â  Â  Â  .  Â Size allocated<br>
>> MEMPOOL.sess1.allocs  Â  Â  Â  Â  Â  Â  Â  Â  Â  5406276  Â  Â  Â  22.11 Allocations<br>
>> MEMPOOL.sess1.frees  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 5406259  Â  Â  Â  22.11 Frees<br>
>> MEMPOOL.sess1.recycle  Â  Â  Â  Â  Â  Â  Â  Â  Â 5340931  Â  Â  Â  21.85 Recycled from<br>
>> pool<br>
>> MEMPOOL.sess1.timeout  Â  Â  Â  Â  Â  Â  Â  Â  Â  184777  Â  Â  Â  Â 0.76 Timed out<br>
>> from pool<br>
>> MEMPOOL.sess1.toosmall  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Too small to<br>
>> recycle<br>
>> MEMPOOL.sess1.surplus  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 30947  Â  Â  Â  Â 0.13 Too many for<br>
>> pool<br>
>> MEMPOOL.sess1.randry  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  65345  Â  Â  Â  Â 0.27 Pool ran dry<br>
>> SMA.s0.c_req  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  4309927  Â  Â  Â  17.63 Allocator<br>
>> requests<br>
>> SMA.s0.c_fail  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â 0.00 Allocator<br>
>> failures<br>
>> SMA.s0.c_bytes  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 127888920949  Â  523122.98 Bytes<br>
>> allocated<br>
>> SMA.s0.c_freed  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 127714379518  Â  522409.03 Bytes freed<br>
>> SMA.s0.g_alloc  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 3072  Â  Â  Â  Â  .  Â Allocations<br>
>> outstanding<br>
>> SMA.s0.g_bytes  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  174541431  Â  Â  Â  Â  .  Â Bytes<br>
>> outstanding<br>
>> SMA.s0.g_space  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 8415393161  Â  Â  Â  Â  .  Â Bytes<br>
>> available<br>
>> SMA.Transient.c_req  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 3511659  Â  Â  Â  14.36 Allocator<br>
>> requests<br>
>> SMA.Transient.c_fail  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0  Â  Â  Â  Â 0.00 Allocator<br>
>> failures<br>
>> SMA.Transient.c_bytes  Â  Â  Â  Â  Â  Â  Â 17678767500  Â  Â 72314.08 Bytes<br>
>> allocated<br>
>> SMA.Transient.c_freed  Â  Â  Â  Â  Â  Â  Â 17678606604  Â  Â 72313.42 Bytes freed<br>
>> SMA.Transient.g_alloc  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 196  Â  Â  Â  Â  .  Â Allocations<br>
>> outstanding<br>
>> SMA.Transient.g_bytes  Â  Â  Â  Â  Â  Â  Â  Â  Â  160896  Â  Â  Â  Â  .  Â Bytes<br>
>> outstanding<br>
>> SMA.Transient.g_space  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0  Â  Â  Â  Â  .  Â Bytes<br>
>> available<br>
>> VBE.conf-2018-11-06_142400.default.happy  Â  Â  Â  Â  Â  0  Â  Â  Â  Â  .  Â Happy<br>
>> health probes<br>
>> VBE.conf-2018-11-06_142400.default.bereq_hdrbytes  Â 1601813566<br>
>> 6552.14 Request header bytes<br>
>> VBE.conf-2018-11-06_142400.default.bereq_bodybytes  Â  197010427<br>
>>  805.86 Request body bytes<br>
>> VBE.conf-2018-11-06_142400.default.beresp_hdrbytes  Â 1481249422<br>
>> 6058.97 Response header bytes<br>
>> VBE.conf-2018-11-06_142400.default.beresp_bodybytes  47877555284<br>
>> 195840.65 Response body bytes<br>
>> VBE.conf-2018-11-06_142400.default.pipe_hdrbytes  Â  Â  Â  Â 2718879<br>
>> 11.12 Pipe request header bytes<br>
>> VBE.conf-2018-11-06_142400.default.pipe_out  Â  Â  Â  Â  Â  Â  1409866<br>
>>  5.77 Piped bytes to backend<br>
>> VBE.conf-2018-11-06_142400.default.pipe_in  Â  Â  Â  Â  Â  Â  17882349<br>
>> 73.15 Piped bytes from backend<br>
>> VBE.conf-2018-11-06_142400.default.conn  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  8<br>
>> .  Â Concurrent connections to backend<br>
>> VBE.conf-2018-11-06_142400.default.req  Â  Â  Â  Â  Â  Â  Â  Â  Â 2875327<br>
>> 11.76 Backend requests sent<br>
>> LCK.backend.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  3<br>
>>  0.00 Created locks<br>
>> LCK.backend.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0<br>
>>  0.00 Destroyed locks<br>
>> LCK.backend.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  5750647<br>
>> 23.52 Lock Operations<br>
>> LCK.backend_tcp.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  1<br>
>>  0.00 Created locks<br>
>> LCK.backend_tcp.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0<br>
>>  0.00 Destroyed locks<br>
>> LCK.backend_tcp.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  9038321<br>
>> 36.97 Lock Operations<br>
>> LCK.ban.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  1<br>
>>  0.00 Created locks<br>
>> LCK.ban.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0<br>
>>  0.00 Destroyed locks<br>
>> LCK.ban.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  5084447<br>
>> 20.80 Lock Operations<br>
>> LCK.busyobj.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  3213172<br>
>> 13.14 Created locks<br>
>> LCK.busyobj.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  3214904<br>
>> 13.15 Destroyed locks<br>
>> LCK.busyobj.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 30427598<br>
>>  124.46 Lock Operations<br>
>> LCK.cli.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  1<br>
>>  0.00 Created locks<br>
>> LCK.cli.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0<br>
>>  0.00 Destroyed locks<br>
>> LCK.cli.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  81496<br>
>>  0.33 Lock Operations<br>
>> LCK.exp.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  1<br>
>>  0.00 Created locks<br>
>> LCK.exp.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0<br>
>>  0.00 Destroyed locks<br>
>> LCK.exp.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 13382080<br>
>> 54.74 Lock Operations<br>
>> LCK.hcb.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  1<br>
>>  0.00 Created locks<br>
>> LCK.hcb.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0<br>
>>  0.00 Destroyed locks<br>
>> LCK.hcb.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 696280<br>
>>  2.85 Lock Operations<br>
>> LCK.lru.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  2<br>
>>  0.00 Created locks<br>
>> LCK.lru.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0<br>
>>  0.00 Destroyed locks<br>
>> LCK.lru.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  8967041<br>
>> 36.68 Lock Operations<br>
>> LCK.mempool.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  5<br>
>>  0.00 Created locks<br>
>> LCK.mempool.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0<br>
>>  0.00 Destroyed locks<br>
>> LCK.mempool.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 60929423<br>
>>  249.23 Lock Operations<br>
>> LCK.objhdr.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  349642<br>
>>  1.43 Created locks<br>
>> LCK.objhdr.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  346251<br>
>>  1.42 Destroyed locks<br>
>> LCK.objhdr.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  75491395<br>
>>  308.79 Lock Operations<br>
>> LCK.pipestat.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 1<br>
>>  0.00 Created locks<br>
>> LCK.pipestat.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0<br>
>>  0.00 Destroyed locks<br>
>> LCK.pipestat.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  1724<br>
>>  0.01 Lock Operations<br>
>> LCK.sess.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  10813321<br>
>> 44.23 Created locks<br>
>> LCK.sess.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  10813836<br>
>> 44.23 Destroyed locks<br>
>> LCK.sess.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  16814084<br>
>> 68.78 Lock Operations<br>
>> LCK.vbe.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  1<br>
>>  0.00 Created locks<br>
>> LCK.vbe.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0<br>
>>  0.00 Destroyed locks<br>
>> LCK.vbe.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  81489<br>
>>  0.33 Lock Operations<br>
>> LCK.vcapace.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  1<br>
>>  0.00 Created locks<br>
>> LCK.vcapace.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0<br>
>>  0.00 Destroyed locks<br>
>> LCK.vcapace.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0<br>
>>  0.00 Lock Operations<br>
>> LCK.vcl.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  1<br>
>>  0.00 Created locks<br>
>> LCK.vcl.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0<br>
>>  0.00 Destroyed locks<br>
>> LCK.vcl.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  5815522<br>
>> 23.79 Lock Operations<br>
>> LCK.vxid.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 1<br>
>>  0.00 Created locks<br>
>> LCK.vxid.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0<br>
>>  0.00 Destroyed locks<br>
>> LCK.vxid.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  2346<br>
>>  0.01 Lock Operations<br>
>> LCK.waiter.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 2<br>
>>  0.00 Created locks<br>
>> LCK.waiter.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0<br>
>>  0.00 Destroyed locks<br>
>> LCK.waiter.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  19733708<br>
>> 80.72 Lock Operations<br>
>> LCK.wq.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 3<br>
>>  0.00 Created locks<br>
>> LCK.wq.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 0<br>
>>  0.00 Destroyed locks<br>
>> LCK.wq.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  56100309<br>
>>  229.48 Lock Operations<br>
>> LCK.wstat.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  1<br>
>>  0.00 Created locks<br>
>> LCK.wstat.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0<br>
>>  0.00 Destroyed locks<br>
>> LCK.wstat.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 21802570<br>
>> 89.18 Lock Operations<br>
>> LCK.sma.creat  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  2<br>
>>  0.00 Created locks<br>
>> LCK.sma.destroy  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0<br>
>>  0.00 Destroyed locks<br>
>> LCK.sma.locks  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â 15639885<br>
>> 63.97 Lock Operations<br>
>><br>
>> Thanks !<br>
>><br>
>> Marc Fournier<br>
>> _______________________________________________<br>
>> varnish-misc mailing list<br>
>> <a href="mailto:varnish-misc@varnish-cache.org" target="_blank">varnish-misc@varnish-cache.org</a><br>
>> <a href="https://www.varnish-cache.org/lists/mailman/listinfo/varnish-misc" rel="noreferrer" target="_blank">https://www.varnish-cache.org/lists/mailman/listinfo/varnish-misc</a><br>
>><br>
> _______________________________________________<br>
> varnish-misc mailing list<br>
> <a href="mailto:varnish-misc@varnish-cache.org" target="_blank">varnish-misc@varnish-cache.org</a><br>
> <a href="https://www.varnish-cache.org/lists/mailman/listinfo/varnish-misc" rel="noreferrer" target="_blank">https://www.varnish-cache.org/lists/mailman/listinfo/varnish-misc</a><br>
</blockquote></div>