Парсер веб-страниц
Необходимо написать приложение, которое (средствами curl) будет посещать веб-страницы (представляясь краулером), собирать с них необходимые данные (от размера страницы и заголовков до произвольных кусков текста, всего более 30 параметров), и сохранять их в кеш на основе БД Redis. Отдельный скрипт по крону должен переносить данные из Redis в MySQL.
Программа должна корректно работать при запуске большого числа копий (более 1000).
Приложение необходимо написать на языке PHP-7 с использованием современных принципов ООП. Доступ к веб-страницам осуществляется с помощью сURL. (Возможно рассмотрение другого ЯП для разработки приложения, но только в случае доказательства неоспоримого преимущества в скорости работы, и выигрыше в требуемых ресурсах, а также при наличии опыта в написании подобных приложений на желаемом ЯП.)
Опыт работы с подобными задачами очень приветствуется.