ПРОЕКТЫ 


  АРХИВ 


Apache-Talk @lexa.ru 

Inet-Admins @info.east.ru 

Filmscanners @halftone.co.uk 

Security-alerts @yandex-team.ru 

nginx-ru @sysoev.ru 


  СТАТЬИ 


  ПЕРСОНАЛЬНОЕ 


  ПРОГРАММЫ 



ПИШИТЕ
ПИСЬМА












     АРХИВ :: nginx-ru
Nginx-ru mailing list archive (nginx-ru@sysoev.ru)

[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Использование нескольки memcached серверов


  • To: nginx-ru@xxxxxxxxx
  • Subject: Использование нескольки memcached серверов
  • From: "TDz TDz" <tdz@xxxxxxxxxxxx>
  • Date: Wed, 23 May 2007 15:36:26 +0200

Здравствуйте,

я старался следить за рассылкой извините если вопрос использование нескольки мемкешей уже обсуждался. На данный момент насколько я понимаю не реализованы пулы memcached серверов, также мы знаем что memcached использует распределение нагрузки на уровне клиентской библиотеки. Представим себе такую схему - 2 вебсервера, на каждом по локальному memcached и копия приложения либо выделенный сервер с приложением. Приложение например PHP или Ruby работает с пулом мемкешей и пишет и на server1 и на server2 в memcached какой-то кеш, который nginx может выдавать напрямую либо использовать через SSI

Проблема в том что nginx читать умеет только из одного memcached - как в этой ситуации реализовать правильную работу с кешем, тоесть чтоб проверялись оба memcached и локальный, и второй (удалённый по сути)?

Для двух серверов можно использовать обработчик 404 ошибки - попробуй прочесть из локального, если мол ошибка то иди читай из удалённого, если и там ошибка то proxy_pass / fastcgi_pass на приложение. А как быть с ростом количества серверов? Есть какое-то более удобное/практичное решение проблемы?

Заранее благодарен,
TDz


 




Copyright © Lexa Software, 1996-2009.