Большое обновление WordKeeper: бесплатный сборщик семантики

Привет всем!

Давно ничего не писал в блог, да и времени особо не было. Много всякой работы. В ближайшее время хочу написать пост о том, что было заработано, мысли, дальнейшие планы, но пока поговорим о wordkeeper. (https://word-keeper.ru)

Некоторые уже слышали про этот инструмент и активно используют его в своих проектах. Он абсолютно бесплатный.

За время работы сервиса (с 21.08.2018 года):

  • Скачено из yandex.wordstat ~ 3.000.000 запросов
  • Создано ~ 1000 проектов
  • Зарегано 176 человек. 

Долгое время сервис не обновлялся, но сейчас я решил исправить этот недочет. Т.к. сам им пользуюсь. Это большое обновление, в которое вложено много сил и времени. Конечно, остались еще баги, но со временем все приведу в порядок. Трудно говорить о какой-то стабильности в работе, когда приходится работать с Яндексом и его антибот системой. Если уж даже у кейколлектора забит весь тех раздел проблемами, то о чем тут говорить :)

Также я постарался учесть множество пожеланий людей, которые писали мне на почту или в чат сервиса.

Итак, обновление.

1. Полностью изменил дизайн. Уменьшил шапку у сайта.

Серьезно поработал над дизайном

2. Увеличил рабочую площадь в проекте. Теперь окно бьется на 2 части. И во второй части появились вкладки с различным функционалом.

Функциональные табы

Вкладки:

  • Слова. Здесь всем привычный стеммер. Показывает количество слов в проекте. Кстати, эти слова можно выделить и автоматически удалить из ядра. Повышает скорость чистки семантики.
  • Группы. Это раздел тоже изменился: появился ТОП15, поработал над дизайном, функциональная кнопка "В буфер" для копирования запросов из группы. При нажатии на колонку частоты, она сменится на другую (если такова была собрана).
    Вкладка группы
  • Заметки. Небольшая область для ваших заметок или ТЗ. Используйте как хотите, или не используйте :) 
    Поле для вашей фантазии :)
  • Инструменты. Здесь будет сборник инструментов для работы с ядром. Пока реализован только 1 инструмент: чистка по частотке. Можно быстро отсеять низкочастотные фразы из ядра. Секундное дело!

3. Полностью переработан функционал создания нового проекта. Сменил дизайн, теперь можно выбрать стоплист, появилась глубина сбора, и то чего многие ждали: сбор сразу нужных частотностей ("W", "!W"). 

Глубина сбора сейчас такая:

  • Макс 80 фраз, каждая по 200 слов. Для быстрого парсинга и любителей низкочастоток.
  • Макс 40 фраз, каждая по 400 слов.
  • Макс 16 фраз, каждая по 1000 слов.
  • Макс 8 фраз , каждая по 2000 слов.
  • Макс 4 фразы, каждая по 4000 слов.
  • Макс 2 фразы, каждая по 8000 слов. Для очень глубокого погружения :)

4. Появились Стоплисты. Теперь можно создать стоплист (фразы которые исключить из проекта) и использовать его в различных проектах.

Список стопслов

5. Теперь при сборе семантики или частотности можно находится в самом проекте. Правда, любые изменения с ядром сохранены не будут. Поэтому можно только смотреть и ждать конца сбора :)

6. Полностью переписан метод сбора фраз и частотностей. Улучшена многопоточность. 

  • Скорость сбора фраз: 1000 запросов/ минута 
  • Скорость сбора частотностей: 4000 запросов/ минута

П.С. Если у вас есть хорошие аккаунты Яндекс почты прошлых годов (без банов яндекса), то вы могли бы помочь мне в улучшении проекта и увеличении скорости сбора. 

Спасибо всем, кто поддерживал.

Псс, парень, коммент будет?

Ginger Dog https://ggds.ru

А зачем он нужен?

Ответить

Трудно сказать, когда есть Кей коллектор :) делал изначально для себя, было удобно делиться с коллегами по работе. И я мог из любого места проверить то, что сделано или запустить сбор нужных фраз. Никаких чудес сервис не предоставляет, так, мини инструмент для тех, кто видит в этом смысл, как я.

Ответить

Devvver devvver.ru

Млин, ну без возможности вбива за один раз 100 запросов это все не серьезно :(
Топ 15 - зачем вот его парсить если нельзя экспортировать?
Критикую не ради поглумиться, а вижу то что необходимо, а его нет.

Ответить

Топ15 экспорт в ближайшее время добавлю. Парсить по 100 ключам - сомневаюсь. Дело в том, что сервис то публичный и если каждый будет вбивать по 100 запросов... Даже если 2к парсить за запрос, то это 200.000 слов или 200 минут с текущей скоростью. Боюсь, что онлайн сервис это не потянет :)

Ответить

Ну и плюс можно парсить высокочастотную. 8.000 запросов - это достаточно серьезное число для парсинга. Можно будет увеличить до 10.000. практически любое высокочастотное слово раскроет все нужные слова. Плюс теперь можно стоплист сделать.

Ответить

Devvver devvver.ru

Павел, какой мне прок от глубины? Я вот не догоняю. Он все равно по всем ключам не ходит, вбить главный запрос и ждать - все не спарсит. Значит надо вбивать ВЧ запросы. Но большинство ВЧ запросов между собой пересекаются. У них часть ядра общего если парсить по 8К - мне жизни не хватит. Я вот для парсинга примерно 40% запросов в своей нише вбил порядка 120 отдельных СЧ и получил порядка 40 файлов. Это все не удобно нифига, получается море ручной работы. Потом еще объединять эти файлы. Объединил - а дальше что? Ведь получил только 40% ядра. Выход - добивать остальные ключи вбивая НЧ. И если у меня было порядка 120 СЧ, но НЧ порядка 1000 штук. И ты предлагаешь их вбивать по 4 штуки за раз?
> По поводу вбивать 100 запросов, о это 200.000 слов или 200 минут с текущей скоростью
Так сделай задержку, текущая нагрузка не такая большая. Сделай очередь запросов.
Второе - не будет там 200К запросов. Вбиваются не ВЧ, а СЧ запросы. Посмотри мои запросы в сервисе. Там по 400-500 ключей. А чтобы какие то бараны не вбили ВЧ - сделай проверку. Видишь запрос который имеет 100К - пиши ему как Моаб - уважаемый запросиков очень много, вбейте СЧ.

Ответить

Я тебя понял. Подумаю, как можно это реализовать, чтобы и пользователи не ждали кучу времени и под бан яндекса не попасть.
Пока что сделал следующее нововедение:
1. 16 запросов по 1000 фраз
2. 40 запросов по 400 фраз
3. 80 запросов по 200 фраз

Ответить

seoonly.ru http://seoonly.ru/

Шикардос)!

Ответить

Добавить комментарий