Скрипт Паралельного считывания страниц и выборки
Скрипт Паралельного считывания страниц и выборки инфы из нее по условию:
1. пример применения скрипт лезет по поисковикам с поиском ссылок по запросу "газонная трава",
вынимает УРЛ и сравнивает со своим списком УРЛ (www.gazon.net), когда находит совпадение, то записывает в тхт файл результат: "газонная трава"; www.gazon.net; 12 (подразумевается место в списке результатов поисковика); www.gazon.net/semena/trava/gazon/cena..... (полная ссылка на найденную поисковиком страницу);Дата_и_Время
Исходные данные для скрипта Минимальный веб интерфейс для загрузки файлов и запуска скрипта :
загружаем "Список_УРЛ_для_Анализа;Ключевые_Словосочетания_Для_Поисковиков.тхт" csv файл (разделители: ";" и перенос строки)
кнопка "Поехали"
результат: видим открытый ф-л с результатами "Позиции.тхт" в браузере, по желаню жмем кнопку "Сохронить ЕГО" или "Новый Поиск"
+ желательно скрипт может запускаться по расписанию 1 раз в сутки и сохранять ф-л "Позиции_по_УРЛ_www.gazon.net_08_02_13
2.Второе использование этого скрипта - поиск УРЛ и е-меил в страницах найденных поисковиком по зпросу "Газонная трава ". С списком УРЛ - исключенных из обхода, е-меилов - исключенных из запоминания. Остальное аналогично, Настройки: глубина перехода по ссылкам, ограничение поиска по времени (к рим.: 1 час) или по кол-вц резов (100е-меиа)
пишите конкретные!!! предложения сюда!!!