Найти - Пользователи
Полная версия: Необходимо максимально оптимизировать сайт
Начало » Python для экспертов » Необходимо максимально оптимизировать сайт
1 2
Zapili.net
Здравствуйте, уважаемые. Надо уменьшить время загрузки страниц и оптимизировать сайт zapili.net в целом. Буду рад любым советам и рекомендациям, а так же другим замечаниям, которые вы посчитаете нужными. По дизайну тоже бы неплохо, а то у меня “замылился” уже взгляд. За практическую помощь готов отблагодарить размещением баннера на 1 месяц бесплатно, при условии близкой тематики.
Заранее спасибо всем, кто откликнется.
PS. Если не там создал топик, то перенесите.
unkier
на чем оно написано то ?
Zapili.net
Сайт сделан на Django(Python). В качестве сервера nginx + uwsgi. Javascript фреймворк jQuery.
Chern
Пагинация результатов выдачи так и просится
o7412369815963
Скорость вроде нормальная,
но если ещё нужно ускорить то можно выдачу перевести на ajax + клиентский рендеринг страниц, для дизайна можно заюзать фреймворк Twitter Bootstrap
Zapili.net
Ок спс за участие. Плагин lazyload сейчас стоит.
Может не к вам, но я в этом не шарю. Как закрыть от индексации и поиска гугла zapili.net/query/list.txt , сейчас плачевная ситуация, из-за http://www.google.ru/search?q=0dnoklassniki+school+23+odnoklassniki+moya+stranitza+vhod&channel=linkdoctor гугл сайт воспринимает как мусорку, при этом с яшей таких проблем нет.
unkier
Zapili.net
Ок спс за участие. Плагин lazyload сейчас стоит.
Может не к вам, но я в этом не шарю. Как закрыть от индексации и поиска гугла zapili.net/query/list.txt , сейчас плачевная ситуация, из-за http://www.google.ru/search?q=0dnoklassniki+school+23+odnoklassniki+moya+stranitza+vhod&channel=linkdoctor гугл сайт воспринимает как мусорку, при этом с яшей таких проблем нет.

robots.txt ?

а по поводу оптимизации. всё кешировать по самые памидоры.
Zapili.net
А можно, как для нуба, что конкретно там поправить?
unkier
Zapili.net
А можно, как для нуба, что конкретно там поправить?:)

а мы о чем ?)
если про роботс тхт, то там можно прописать урлы по которым не будут ходить роботы. в гугле всё есть.

если про кеширование, то оно должно быть включено. всё должно братся из кеша. и кеш даже можно прогревать самостоятельно. дока джанги исчерпываюше всё описывает.
Zapili.net
В чем тогда моя ошибка?
В robots.txt
User-agent: *
Disallow: /gop/*
Disallow: /query/*

В яше все ОК и не одна из запрещенных страниц не индексируется.
А вот в гугле вся эта х*рня индексируется будь здоров. Например - http://gyazo.com/fb97ff5461576a5328ced751845e57e9
This is a "lo-fi" version of our main content. To view the full version with more information, formatting and images, please click here.
Powered by DjangoBB