SEO_PYTHON_2NEURON Telegram 107
Как массово освежить evergreen контент для блога – пошаговая инструкция?

К нам пришёл на продвижение сайт крупного маркетингового агентства.

Первое что я сделал - полез в Яндекс метрику посмотреть какие странички на данный момент генерируют трафик. Само-собой, это блог, но странички которые паровозят траф, зачастую датируются периодом 2014-2020г. Актуальность материалов тоже не всегда отвечает веяниям времени.

План
1. Запускаем лягушку по сайту, выгружаем урлы блога, с помощью Xpath выражений вытаскиваем дату публикации статьи. Выгружаем в эксель все статьи со старой датой
2. Идем в метрику, выгружаем визиты из поиска по урлу и с помощью ВПР цепляем к нашей табличке ещё один столбец с посещаемостью. Отсеиваем дохлые страницы.
3. Пишем скрипт на python, который будет делать следующее:
4. Импортирует Эксель файл с помощью библиотеки Pandas далее заходит на каждый URL и с помощью Python requests выгружает структуру документа. Метатеги title, description, заголовки h1, h2. Можно вытащить текст самого документа или его часть при необходимости. Если дергаем текст – делаем цепочку каскадных промптов, чтобы уложиться в окно контекста.
5. Далее скрипт стучится в Google Geminy по API и отправляет ему следующий промпт: «Посмотри содержимое статьи она датирована {2018 г.} проверь на актуальность и дай рекомендации как мне обновить контент исходя из реалий 2025 г. Также оцени по пятибальной шкале уровень актуальности контента, который я тебе отправил. 5 - актуально, 1 - неактуально. Лучше заюзать Geminy так у него самая актуальная база и хорошо с фактчекингом. Будет кривовато по тексту, по этому рекомендации лучше сгрузить в Chat GPT или Claude, чтобы он привел текст в нормальный вид. Если файл большой – обрабатывать по абзацам.
6. Добавляем все рекомендации в отдельный столбик в Pandas Dataframe. Оценку свежести контента добавляем в соседний столбец.
7. Выгружаем наш датафрейм в Excel файл и передаем его в отдел контента.

Сколько бы на эту задачу затратил кожаный, исходя из того что таких страниц на сайте порядка 400?

Сколько затратил я?
Учитывая наработки - 2 часа. Сколько времени на это потратит June python разработчик имея под боком ChatGPT - 4 часа.
🔥23😁74👍3🤡2



tgoop.com/seo_python_2neuron/107
Create:
Last Update:

Как массово освежить evergreen контент для блога – пошаговая инструкция?

К нам пришёл на продвижение сайт крупного маркетингового агентства.

Первое что я сделал - полез в Яндекс метрику посмотреть какие странички на данный момент генерируют трафик. Само-собой, это блог, но странички которые паровозят траф, зачастую датируются периодом 2014-2020г. Актуальность материалов тоже не всегда отвечает веяниям времени.

План
1. Запускаем лягушку по сайту, выгружаем урлы блога, с помощью Xpath выражений вытаскиваем дату публикации статьи. Выгружаем в эксель все статьи со старой датой
2. Идем в метрику, выгружаем визиты из поиска по урлу и с помощью ВПР цепляем к нашей табличке ещё один столбец с посещаемостью. Отсеиваем дохлые страницы.
3. Пишем скрипт на python, который будет делать следующее:
4. Импортирует Эксель файл с помощью библиотеки Pandas далее заходит на каждый URL и с помощью Python requests выгружает структуру документа. Метатеги title, description, заголовки h1, h2. Можно вытащить текст самого документа или его часть при необходимости. Если дергаем текст – делаем цепочку каскадных промптов, чтобы уложиться в окно контекста.
5. Далее скрипт стучится в Google Geminy по API и отправляет ему следующий промпт: «Посмотри содержимое статьи она датирована {2018 г.} проверь на актуальность и дай рекомендации как мне обновить контент исходя из реалий 2025 г. Также оцени по пятибальной шкале уровень актуальности контента, который я тебе отправил. 5 - актуально, 1 - неактуально. Лучше заюзать Geminy так у него самая актуальная база и хорошо с фактчекингом. Будет кривовато по тексту, по этому рекомендации лучше сгрузить в Chat GPT или Claude, чтобы он привел текст в нормальный вид. Если файл большой – обрабатывать по абзацам.
6. Добавляем все рекомендации в отдельный столбик в Pandas Dataframe. Оценку свежести контента добавляем в соседний столбец.
7. Выгружаем наш датафрейм в Excel файл и передаем его в отдел контента.

Сколько бы на эту задачу затратил кожаный, исходя из того что таких страниц на сайте порядка 400?

Сколько затратил я?
Учитывая наработки - 2 часа. Сколько времени на это потратит June python разработчик имея под боком ChatGPT - 4 часа.

BY SEO Python 2 Нейрона


Share with your friend now:
tgoop.com/seo_python_2neuron/107

View MORE
Open in Telegram


Telegram News

Date: |

While the character limit is 255, try to fit into 200 characters. This way, users will be able to take in your text fast and efficiently. Reveal the essence of your channel and provide contact information. For example, you can add a bot name, link to your pricing plans, etc. Telegram message that reads: "Bear Market Screaming Therapy Group. You are only allowed to send screaming voice notes. Everything else = BAN. Text pics, videos, stickers, gif = BAN. Anything other than screaming = BAN. You think you are smart = BAN. With the sharp downturn in the crypto market, yelling has become a coping mechanism for many crypto traders. This screaming therapy became popular after the surge of Goblintown Ethereum NFTs at the end of May or early June. Here, holders made incoherent groaning sounds in late-night Twitter spaces. They also role-played as urine-loving Goblin creatures. Developing social channels based on exchanging a single message isn’t exactly new, of course. Back in 2014, the “Yo” app was launched with the sole purpose of enabling users to send each other the greeting “Yo.” In the next window, choose the type of your channel. If you want your channel to be public, you need to develop a link for it. In the screenshot below, it’s ”/catmarketing.” If your selected link is unavailable, you’ll need to suggest another option.
from us


Telegram SEO Python 2 Нейрона
FROM American