ПРОЕКТЫ 


  АРХИВ 


Apache-Talk @lexa.ru 

Inet-Admins @info.east.ru 

Filmscanners @halftone.co.uk 

Security-alerts @yandex-team.ru 

nginx-ru @sysoev.ru 


  СТАТЬИ 


  ПЕРСОНАЛЬНОЕ 


  ПРОГРАММЫ 



ПИШИТЕ
ПИСЬМА












     АРХИВ :: nginx-ru
Nginx-ru mailing list archive (nginx-ru@sysoev.ru)

[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: Общий proxy cache для нескольких фронтенд-серверов



On Fri, Jun 05, 2009 at 04:21:50PM +0400, ываукп Лвапу wrote:

> >Я бы смотрел в сторону NFS, потому что 20 воркеров - это не смертельно.
> 
> Согласен, но за 20 воркеров разговора не было. Воркеров 8, а 20 это загрузка 
> сервера :) Может ли nginx залипнуть в результате частых HUP до того, чтобы не 
> отвечать по 80-му порту, если proxy_temp_path и proxy_cache_path размещены на 
> NFSv4, а сервер нагружен приложением (не вебсервером)?

Воркер может не отвечать, если он заблокировался в NFS.

> >Нет, я считаю что схема с хранением кэша от нескольких nginx'ов на NFS
> нежизнеспособна.
> 
> Согласен, мне тоже не нравится nfs, вместо него можно взять что-нибуть а-ля 
> drbd. Лишь бы nginx умел аккуратно обновлять инфу о кеше в памяти.

drbd отличается от локальных дисков тем, что у последних предсказуемое
время ответа (10-20ms).

> Вобщем-то, и это не совсем кошерные костыли. Почему вообще возникла 
> возможность кеширования через proxy_module вместо например реализации в nginx 
> записи в memcached? Если бы это было, проблема с централизацией кеша отпала 
> бы сама собой :)

Потому что локальный кэш
1) отдаётся с помощью senfile() куда быстрее, чем с соседней машины (или даже
   из memcached'а на этой же машине);
2) сохраняется после перезагрузки;
3) ограничен не памятью, а дисковым пространством, то есть, можно
   закэшировать много маловостребованных данных.


-- 
Игорь Сысоев
http://sysoev.ru



 




Copyright © Lexa Software, 1996-2009.