ПРОЕКТЫ 


  АРХИВ 


Apache-Talk @lexa.ru 

Inet-Admins @info.east.ru 

Filmscanners @halftone.co.uk 

Security-alerts @yandex-team.ru 

nginx-ru @sysoev.ru 


  СТАТЬИ 


  ПЕРСОНАЛЬНОЕ 


  ПРОГРАММЫ 



ПИШИТЕ
ПИСЬМА












     АРХИВ :: nginx-ru
Nginx-ru mailing list archive (nginx-ru@sysoev.ru)

[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: Раздача контента с NFS share


  • To: nginx-ru@xxxxxxxxx
  • Subject: Re: Раздача контента с NFS share
  • From: squirl <andriy.tovstik@xxxxxxxxx>
  • Date: Tue, 19 Jan 2010 14:42:35 +0200
  • Dkim-signature: v=1; a=rsa-sha256; c=relaxed/relaxed; d=gmail.com; s=gamma; h=domainkey-signature:received:received:content-type:mime-version :subject:from:in-reply-to:date:content-transfer-encoding:message-id :references:to:x-mailer; bh=8DH4Vp0TlhStnzutDjCKlCzEubNeG3lx/0ezXA4wfq0=; b=oHFp9D66pAw8hL/2LDvQDY/b/jThiCOzGsJdwap5okoYh/2f1bY9N4rhQ6CXV0qVMa x6xCEXDPF1IoxP/i06XHp4CByj5ktGg668zsdAvNoueGpGCME6wRPlC0syR0unz306/j bCiFMHGe266TVSo6Mg8ANJ5R66JDrUwZ4QEXY=
  • Domainkey-signature: a=rsa-sha1; c=nofws; d=gmail.com; s=gamma; h=content-type:mime-version:subject:from:in-reply-to:date :content-transfer-encoding:message-id:references:to:x-mailer; b=prg2XIQLYdoT33X71IQ+V2I271IpekK2aMad7FO3Wnq9UYf/uh1bzgqYHQSGgcIIif bMzDBHhAiqRNv9udUBX0iU70swnE7iWnS6VW6H3aETRgRNz3L2a6ZqYLKe+wDd6OMdIU uC4SfLAoSmgwHMUNJrGKy5pdLHo2aDhNmrqrM=
  • In-reply-to: <0778bd54205d6855ecd0d9bfd8222aed.NginxMailingListRussian@xxxxxxxxxxxxxxx>
  • References: <0778bd54205d6855ecd0d9bfd8222aed.NginxMailingListRussian@xxxxxxxxxxxxxxx>

а зачем вам вообще использовать NFS share? 

пусть CMS пишет файлики на обе машины по WebDAV, например.

19 янв. 2010, в 14:18, Timur Bakeyev написал(а):

> Доброго всем времени суток!
> 
> Есть следующая задача - CMS пишет загружаемые веб-девелоперами файлики на NFS 
> share, после чего эти файлики надо раздавать с двух load balanced машин с 
> NGINX. Балансировка сделана частично для надежности, частично для 
> распределения нагрузки на серверы. Файлики в большинстве своем мелкие - 
> картинки, CSS, JS скрипты, мелкая HTML статика.
> 
> Очевидно, что непосредственно раздавать контент с достаточно медленного NFS 
> диска - это получать проблемы с производительностью, а трафик при этом 
> достаточно большой. Посему рассматриваются 3 варианта, весь вопрос в том, 
> какой из них даст наилучшую производительность и надежность.
> 
> 1. То, что используется сейчас. На каждой машине NGINX сконфигурирован с 
> двумя виртуальными серверами. Один слушает на локальном IP адресе(запустить 
> на unix sockets так и не удалось) и раздает контент с NFS диска. Второй 
> виртуальный сервер выступает в роли кеширующего прокси для первого и раздает 
> контент для внешних пользователей.
> 
> 2. Реализовать схему с 2 отдельными процессами NGINX, как описано в 
> http://forum.nginx.org/read.php?21,33543. В принципе, она близка к 1-ой, за 
> исключением использования по одному процессу на каждую из задач.
> 
> 3. Использовать сторонний модуль nginx_ngx_slowfs_cache ( 
> http://labs.frickle.com/nginx_ngx_slowfs_cache/ ), который, в принципе, и 
> создан для подобных конфигураций.
> 
> Вопрос, какой из этих вариантов предпочтительнее и надежнее.
> 
> С уважением,
> Тимур Бакеев.
> 
> Posted at Nginx Forum: 
> http://forum.nginx.org/read.php?21,42981,42981#msg-42981
> 
> 
> _______________________________________________
> nginx-ru mailing list
> nginx-ru@xxxxxxxxx
> http://nginx.org/mailman/listinfo/nginx-ru

---
WBR, Andriy Tovstik
UNIX System Administrator
Skype: andriy.tovstik
JabberID: squirl@xxxxxxxxxxxxxx
Nick-handle: SQ22-UANIC



_______________________________________________
nginx-ru mailing list
nginx-ru@xxxxxxxxx
http://nginx.org/mailman/listinfo/nginx-ru


 




Copyright © Lexa Software, 1996-2009.