ПРОЕКТЫ 


  АРХИВ 


Apache-Talk @lexa.ru 

Inet-Admins @info.east.ru 

Filmscanners @halftone.co.uk 

Security-alerts @yandex-team.ru 

nginx-ru @sysoev.ru 


  СТАТЬИ 


  ПЕРСОНАЛЬНОЕ 


  ПРОГРАММЫ 



ПИШИТЕ
ПИСЬМА












     АРХИВ :: nginx-ru
Nginx-ru mailing list archive (nginx-ru@sysoev.ru)

[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

proxy q



Здравствуйте!

Есть nginx, который принимает https GET запросы и отдает их бэкенду по http.

Задача стоит такая, чтобы отдавать ответ клиенту, по мере выдачи его
бэкендом, а не тогда, когда бэкенд окончит request.

Пробовал играться с буферами для этой цели, вроде:

        location  /myurl/ {
         proxy_buffers 2 1;
         proxy_busy_buffers_size 1;
         proxy_header_buffer_size 1;
         proxy_pass   http://backend/;
        }

Предпологая, что в этом случае nginx будет отдавать ответ backend'а
клиенту сразу, как только получит хоть один байт.
 Но в итоге лишь получают от nginx 502 Bad Gateway.

Можно ли как-то решить эту задачу стандартными средствами?

Я уже задавал этот вопрос Игорю Сысоеву, но ступил и некорректно
сформулировал задачу. Спросил, можно ли потоково передавать запрос
клиента бэкенду. Он ответил что это невозможно в текущей реализации.
А что насчет обратной задачи? Передавать ответ бэкенда по мере его выдачи 
клиенту.

Спасибо.

-- 
Alexander Burnos




 




Copyright © Lexa Software, 1996-2009.