Search by WMSN

Foxi, в ожидаемой обнове доргена ты мог бы допилить ограничитель парса/создания контента, а то раз в сутки чересчур разгоняется и нагружает httpd ?

Answers:

Если уж на то пошло, то запилено должна быть автогенерация с выбором шанса. К примеру 1/50 заход будет генерировать новую пагу.

Значит ботов в это время больше приходит. В роботсе Crawl-delay может поставить, но это замедлит индексацию. Ну и лишних перебанить foxi.biz

Твоя нагрузка не нагрузка

amess, Делается легко - rand(1,50).

amess, Но это не уберегает систему от «стаи собак», когда одну и ту же страницу одновременно генерит несколько процесов. Я поэтому Фокси и спрашивал, почему он игнорирует фреймворки. В указанном мной фреймворке это решается классом mutex - постановка заданий в поток.

Mik Foxi, да не очень хочется Crawl ограничивать, а левых ботов нет, только янд. и гугл.

Поп Гундяев, а какие показатели ЛА считать большой нагрузкой для ssd 3 x 2.1 GHz 3GB ram? порой до 5.6 доходит. i.imgur.com

Поп Гундяев, ты создаешь пролемы там, где их нету. Вероятность одновременного обновления одной записи стремится к нулю. И если это случится - 0.001% сиюминутной нагрузки это ниочем. Ты же предлагаешь вообще убить диск сервера (лок файл по умолчанию хранится на диске?), чтоб проверять вероятность которая скорее всего не случится.

Shtrix1, LA для 3 ядер = 3 это типа 100% загрузка процессора.

к-во ядер * 2 = умеренный LA

Mik Foxi, А что лучше неконтролируемая нагрузка или все таки часть ресурсов тратить на контроль. На счет вероятности - я очень часто наблюдаю в логах одновременное обращение 2-3х ботов гугла к сайту. Вот здесь и возникает 2-5 кратная нагрузка.