Doberman26rus
Ноя. 30, 2012 13:56:01
Есть всего один скрипт, который выполняет всего одно действие. Нужно дать к нему доступ через веб но вся проблема в скорости. речь идет о милисекундах.
Я пока остановился на FasCGI Что еще можете предложить?
appetito
Ноя. 30, 2012 14:08:17
WSGI как ни странно (мы ж на форуме про питон…)
все зависит от того, как долго выполняется действие в скрипте. Простая WSGI обертка под быстрым сервером будет давать ну очень неболшой оверхед.
Doberman26rus
Ноя. 30, 2012 14:14:19
Буду смотреть в сторону WSGI + nginx
Скрипт делает SELECT из одной таблицы и формирует xml. Таблица большая правда
Lexander
Ноя. 30, 2012 14:27:03
Если результат выполнения скрипта кешируемый - то кешировать.
Тот же nginx прекрасно кеширует повторяющуюся динамику без лишних накладных расходов.
Если результат скрипта объемный и явно можно выделить повторяющиеся блоки, то пусть скрипт генерирует только эти блоки, которые объединит и закеширует varnish.
Ну и залить все что можно в память.
Если памяти мало и нет возможности расширения, SSD наше все.
Doberman26rus
Дек. 5, 2012 12:48:35
Вобщем по политическим причинам от nginx пришлось отказаться, пришлось использовать apache + wsgi. MySQL тоже выкинул из этого списка, а поиск осуществлял при помощи Sphinx. Результатом стало время выполнения около 0.02 с.
Результат неплохой, но думаю с nginx будет еще быстрее
o7412369815963
Дек. 5, 2012 12:56:57
Я
вот так настраивал uwsgi и nginx.
Какие объемы данных, что за данные, какие запросы?
Результат неплохой, но думаю с nginx будет еще быстрее
Тут тормоза, наверно, в формировании xml а не в веб сервере.
MySQL тоже выкинул из этого списка, а поиск осуществлял при помощи Sphinx.
В сфинксе же только индексы, данные все равно нужно брать в базе.
Doberman26rus
Дек. 5, 2012 13:33:52
В сфинксе же только индексы, данные все равно нужно брать в базе.
Я тоже так думал. Но нет. Можно полностью скопировать всю таблицу/базу или только нужные поля.
Какие объемы данных, что за данные, какие запросы?
80 млн записей