Создать краулер парсер для сохранения информации и поиска запросов
1.1. на компьютер сохранялись pdf-файлы из определенных диалогов в телеграмме в формате word;
1.2. на компьютер сохранялись pdf-файлы с определенных сайтов в формате word (ссылки на сайты предоставлю при обсуждении задания).
2. Далее из этих файлов надо сделать так, чтобы:
2.1. по запросу на определенную тему создавались отдельные файлы в формате word со статьями из скачанных pdf-файлов. Грубо говоря, информация находилась по хэштегу и сохранялась в отдельном файле.
или
2.2. в названии газеты присваивался хэштег, чтобы по нему можно было потом найти статью.
3. А также сделать так, чтобы:
независимо от меня ежедневно отслеживались новости в интернете по заданной теме и сохранялись на компьютер в файлах формата word.
Я вижу это в формате телеграмм-бота, где:
1. я могу направлять запрос на исполнение одной из вышеперечисленных функций.
2. он будет предлагать еженедельную выгрузку вышеперечисленных функций.
Сейчас я все это делаю вручную. Готов рассмотреть предложения по форматам
Насколько я понимаю можно использовать это: https://blog.apify.com/top-11-open-source-web-craw...
По срокам не горит. В течение месяца приемлемо.
Бюджет предлагайте.