ПРОЕКТЫ 


  АРХИВ 


Apache-Talk @lexa.ru 

Inet-Admins @info.east.ru 

Filmscanners @halftone.co.uk 

Security-alerts @yandex-team.ru 

nginx-ru @sysoev.ru 


  СТАТЬИ 


  ПЕРСОНАЛЬНОЕ 


  ПРОГРАММЫ 



ПИШИТЕ
ПИСЬМА












     АРХИВ :: nginx-ru
Nginx-ru mailing list archive (nginx-ru@sysoev.ru)

[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: Узкое место



man lsof

В сообщении от 27 августа 2008 11:57 Alexander Dolgarev написал(a):
> Да, похоже ухкое место - это винт.
>
> Вот нормальная работа:
> Linux 2.6.18.8-0.7-default (KM31216)     08/27/2008
>
> avg-cpu:  %user   %nice %system %iowait  %steal   %idle
>            6.28    0.02    2.33    1.10    0.00   90.27
>
> Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s
> avgrq-sz avgqu-sz   await  svctm  %util
> sda          0.29   2.36  3.50  2.05   79.29   36.70    39.65    18.35
> 20.89     0.16   29.42   4.97   2.76
> sdb          0.00   0.00  0.00  0.00    0.00    0.00     0.00     0.00
> 10.40     0.00    0.93   0.93   0.00
>
> avg-cpu:  %user   %nice %system %iowait  %steal   %idle
>           29.93    0.00   19.45    0.50    0.00   50.12
>
> Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s
> avgrq-sz avgqu-sz   await  svctm  %util
> sda          0.00   0.00  0.50  0.00    3.98    0.00     1.99     0.00
> 8.00     0.01   24.00  24.00   1.19
> sdb          0.00   0.00  0.00  0.00    0.00    0.00     0.00     0.00
> 0.00     0.00    0.00   0.00   0.00
>
> avg-cpu:  %user   %nice %system %iowait  %steal   %idle
>           30.67    0.00   19.45    0.00    0.00   49.88
>
> Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s
> avgrq-sz avgqu-sz   await  svctm  %util
> sda          0.00  12.44  0.00 11.94    0.00  199.00     0.00    99.50
> 16.67     0.03    2.33   2.33   2.79
> sdb          0.00   0.00  0.00  0.00    0.00    0.00     0.00     0.00
> 0.00     0.00    0.00   0.00   0.00
>
> avg-cpu:  %user   %nice %system %iowait  %steal   %idle
>           28.68    0.00   20.95    0.50    0.00   49.88
>
> Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s
> avgrq-sz avgqu-sz   await  svctm  %util
> sda          0.00   0.00  2.00  0.00   16.00    0.00     8.00     0.00
> 8.00     0.01    4.00   5.00   1.00
> sdb          0.00   0.00  0.00  0.00    0.00    0.00     0.00     0.00
> 0.00     0.00    0.00   0.00   0.00
>
> avg-cpu:  %user   %nice %system %iowait  %steal   %idle
>           29.43    0.00   20.45    0.25    0.00   49.88
>
> Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s
> avgrq-sz avgqu-sz   await  svctm  %util
> sda          7.50   0.00 100.50  0.00  876.00    0.00   438.00     0.00
> 8.72     0.85    8.52   8.34  83.80
> sdb          0.00   0.00  0.00  0.00    0.00    0.00     0.00     0.00
> 0.00     0.00    0.00   0.00   0.00
>
> avg-cpu:  %user   %nice %system %iowait  %steal   %idle
>           28.68    0.00   21.45    0.00    0.00   49.88
>
> Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s
> avgrq-sz avgqu-sz   await  svctm  %util
> sda          0.00   3.50  0.00 10.00    0.00  112.00     0.00    56.00
> 11.20     0.05    5.20   2.80   2.80
> sdb          0.00   0.00  0.00  0.00    0.00    0.00     0.00     0.00
> 0.00     0.00    0.00   0.00   0.00
>
>
> Вот ненормальная при включенном VBox:
> Linux 2.6.18.8-0.7-default (KM31216)     08/27/2008
>
> avg-cpu:  %user   %nice %system %iowait  %steal   %idle
>            6.28    0.02    2.33    1.10    0.00   90.27
>
> Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s
> avgrq-sz avgqu-sz   await  svctm  %util
> sda          0.29   2.36  3.51  2.05   79.33   36.70    39.67    18.35
> 20.89     0.16   29.42   4.97   2.76
> sdb          0.00   0.00  0.00  0.00    0.00    0.00     0.00     0.00
> 10.40     0.00    0.93   0.93   0.00
>
> avg-cpu:  %user   %nice %system %iowait  %steal   %idle
>            0.25    0.00    0.75   49.25    0.00   49.75
>
> Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s
> avgrq-sz avgqu-sz   await  svctm  %util
> sda          0.00  15.00 120.50  4.00  964.00  156.00   482.00    78.00
> 9.00     2.07   16.66   8.05 100.20
> sdb          0.00   0.00  0.00  0.00    0.00    0.00     0.00     0.00
> 0.00     0.00    0.00   0.00   0.00
>
> avg-cpu:  %user   %nice %system %iowait  %steal   %idle
>            0.25    0.00    0.25   49.38    0.00   50.12
>
> Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s
> avgrq-sz avgqu-sz   await  svctm  %util
> sda          0.50   0.00 169.65  0.00 1365.17    0.00   682.59     0.00
> 8.05     1.32    7.84   5.85  99.30
> sdb          0.00   0.00  0.00  0.00    0.00    0.00     0.00     0.00
> 0.00     0.00    0.00   0.00   0.00
>
> avg-cpu:  %user   %nice %system %iowait  %steal   %idle
>            0.00    0.00    0.50   49.75    0.00   49.75
>
> Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s
> avgrq-sz avgqu-sz   await  svctm  %util
> sda          0.00   8.50 220.50  4.00 1768.00  104.00   884.00    52.00
> 8.34     1.11    4.94   4.43  99.40
> sdb          0.00   0.00  0.00  0.00    0.00    0.00     0.00     0.00
> 0.00     0.00    0.00   0.00   0.00
>
> avg-cpu:  %user   %nice %system %iowait  %steal   %idle
>            0.50    0.00    0.75   48.88    0.00   49.88
>
> Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s
> avgrq-sz avgqu-sz   await  svctm  %util
> sda          0.00   0.00 218.00  0.50 1752.00    4.00   876.00     2.00
> 8.04     1.05    4.81   4.55  99.40
> sdb          0.00   0.00  0.00  0.00    0.00    0.00     0.00     0.00
> 0.00     0.00    0.00   0.00   0.00
>
> avg-cpu:  %user   %nice %system %iowait  %steal   %idle
>            0.25    0.00    0.00   49.62    0.00   50.13
>
> Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s
> avgrq-sz avgqu-sz   await  svctm  %util
> sda          0.00   0.00 188.06  0.00 1504.48    0.00   752.24     0.00
> 8.00     1.32    7.03   5.15  96.92
> sdb          0.00   0.00  0.00  0.00    0.00    0.00     0.00     0.00
> 0.00     0.00    0.00   0.00   0.00
>
>
> После того как перенесли образ винды на другой винт sdb особо не помогло:
> Linux 2.6.18.8-0.7-default (KM31216)     08/27/2008
>
> avg-cpu:  %user   %nice %system %iowait  %steal   %idle
>            6.28    0.02    2.33    1.11    0.00   90.26
>
> Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s
> avgrq-sz avgqu-sz   await  svctm  %util
> sda          0.30   2.36  3.53  2.05   79.95   36.72    39.97    18.36
> 20.92     0.16   29.35   4.97   2.77
> sdb          0.00   0.27  0.00  0.00    0.02    0.82     0.01     0.41
> 287.36     0.00  307.72   3.27   0.00
>
> avg-cpu:  %user   %nice %system %iowait  %steal   %idle
>            0.25    0.75   49.63   49.38    0.00    0.00
>
> Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s
> avgrq-sz avgqu-sz   await  svctm  %util
> sda          9.55  24.12 129.15  4.02 1101.51  229.15   550.75   114.57
> 9.99     1.28    9.55   7.52 100.10
> sdb          0.00   1.01  0.00  4.02    0.00   44.22     0.00    22.11
> 11.00     0.01    2.50   2.50   1.01
>
> avg-cpu:  %user   %nice %system %iowait  %steal   %idle
>            0.25    0.25   50.37   49.13    0.00    0.00
>
> Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s
> avgrq-sz avgqu-sz   await  svctm  %util
> sda          9.41   0.00 216.83  0.00 1845.54    0.00   922.77     0.00
> 8.51     2.27   10.42   4.58  99.21
> sdb          0.00   0.00  0.00  0.00    0.00    0.00     0.00     0.00
> 0.00     0.00    0.00   0.00   0.00
>
> avg-cpu:  %user   %nice %system %iowait  %steal   %idle
>            0.75    1.00   50.00   48.26    0.00    0.00
>
> Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s
> avgrq-sz avgqu-sz   await  svctm  %util
> sda          8.50   9.50 206.50  0.50 1724.00   76.00   862.00    38.00
> 8.70     2.70   11.57   4.84 100.20
> sdb          0.00   0.00  0.00  0.00    0.00    0.00     0.00     0.00
> 0.00     0.00    0.00   0.00   0.00
>
> avg-cpu:  %user   %nice %system %iowait  %steal   %idle
>            0.25    0.50   49.75   49.50    0.00    0.00
>
> Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s
> avgrq-sz avgqu-sz   await  svctm  %util
> sda         12.44   3.48 181.59  5.47 1552.24   79.60   776.12    39.80
> 8.72     2.30   13.87   5.33  99.70
> sdb          0.00   1.49  0.00  4.48    0.00   51.74     0.00    25.87
> 11.56     0.01    1.33   1.33   0.60
>
> avg-cpu:  %user   %nice %system %iowait  %steal   %idle
>            0.50    0.75   49.63   49.13    0.00    0.00
>
> Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s
> avgrq-sz avgqu-sz   await  svctm  %util
> sda          5.00   0.00 188.50  0.00 1548.00    0.00   774.00     0.00
> 8.21     2.14   11.45   5.32 100.20
> sdb          0.00   0.00  0.00  0.00    0.00    0.00     0.00     0.00
> 0.00     0.00    0.00   0.00   0.00
>
>
>
> Отсюда вопрос, что нужно VBox от винта, вообще как посмотреть, какой
> процесс открыл какие файлы (вообще все его открытые дескрипторы), чтобы эти
> файлы перенести на sdb.
>
>
> 2008/8/27 Vladimir Rusinov <vladimir@xxxxxxxxxxxxxx>
>
> > 2008/8/26 Alexander Dolgarev <a.dolgarev@xxxxxxxxx>
> >
> >> Есть вопрос по производительности.
> >> Стоял nginx-0.7.6, который проксировал запросы на бэкенды, находящиеся
> >> на других серверах (скорость между ними не очень), производительность
> >> устраивала. Потребовалось запустить на сервере прогу под винду, была
> >> поставлена виртуальная машина VirtualBox от Sun, на ней эта прога,
> >> которая лазит по интернет через маскарадинг (NAT) на этом хосте.
> >> Производительность сервера nginx резко упала, при этом памяти
> >> достаточно, процессор используется на полную всего один из двух, канал
> >> тоже свободен, замеряли скорость - почти не упала. Вопрос в том, где
> >> узкое место? Отключаем виртуальную машину - все опять в порядке. Чего не
> >> хватает nginx?
> >>
> >>
> >>
> >> Может проблема в интенсивном использвании жесткого диска, хотя такого не
> >> замечено (какие подскажите средства диагностики, какой процесс сколько
> >> совершает операций I/O),
> >
> > Возможно.
> > Если у вас linux, попробуйте iostat (находится в пакадже sysstat в
> > RedHat, в других - не уверен).
> >
> > Попробуйте увеличить размер буферов, чтобы nginx диск не дергал.
> >
> > --
> > Vladimir Rusinov
> > http://greenmice.info/

-- 
С уважением,
        Вячеслав Кузнецов
        ООО "АВТО.РУ"
        тел. 8(499)730-8-730 (доб. 112)


 




Copyright © Lexa Software, 1996-2009.