Даже для написанных мною программ эта работает как-то очень медленно. Тратить на скачивание, парсинг и запихивание в базу данных жж-поста по три секунды — это как-то очень тупо. А хотя... Надеюсь, что их надо будет скачать меньше десятка тысяч... А то у меня max_execution_time в 20000 секунд выставлено.

А, всё, всё равно уже сорвалось. Надо бы что-то придумать на предмет случаев, когда из-за сбоя соединения всё срывается... А впрочем, само оно всё равно не запустится.

Как запускать команду типа file ('http://volokhonsky.livejournal.com') так, чтобы при сбое соединения, оно бы пробовало ещё разок десять это сделать?

В общем, если всё будет хорошо, то завтра вечером база данныз с десятком-другим тысяч постов и десятком тысяч комментариев отправится к Антону. И теперь будет уже не моя очередь в пять утра страдать раздумьями над алгоритмами. Ну так на то он у нас и structure_maker.

Похожие записи: