Деньги, как известно, имеют различные функции. Одной из них является непрестанное движение денег в обращении, обслуживание процесса обращения. Без выполнения деньгами этой функции торговля была бы невозможна.

Аналіз логів сайту за допомогою Screaming Frog SEO Log File Analyser

Навіщо потрібно аналізувати логи сайту і за допомогою яких інструментів це можна зробити, я вже писала вам в цій статті .

У наш час не всі здатні проаналізувати логи сайту, а тим більше вручну (як це робилося раніше). Але іноді це зробити необхідно і навіть дуже корисно, адже працюючи з логами ви стикаєтеся з первинною інформацією: кожне відвідування сайту роботом і людиною відображається в них повністю.

Що ж вони можуть розповісти? Давайте розглянемо на прикладі. Ось як виглядає одна строчка з журналу:

Навіщо потрібно аналізувати логи сайту і за допомогою яких інструментів це можна зробити, я вже писала вам в цій   статті
  • домен;
  • IP-адреса, з якого був перехід;
  • точний час відвідування запиту;
  • сама сторінка, яка була відвідана краулер;
  • код відповіді, з якими стикаються і роботи, і люди;
  • розмір сторінки в байтах;
  • user-agent - ім'я клієнта, який звернувся до сервера, за допомогою якого можна дізнатися який браузер і робот звертався до сторінки.

А тепер уявіть, як виглядають логи, які містять не пару відвідувань, а кілька сотень, а то і тисяч відвідувань робота.

А тепер уявіть, як виглядають логи, які містять не пару відвідувань, а кілька сотень, а то і тисяч відвідувань робота

Дуже складно аналізувати такі дані вручну, чи не так? Я не кажу, що це неможливо. Ось тільки витратите на цей аналіз ви дуже багато часу.

На щастя, зараз вже є маса інструментів для аналізу логів сайту, як платних, так і безкоштовних. Переглянувши кілька з них, я зупинилася на інструменті від Screaming Frog - SEO Log File Analyser. Саме йому і присвячений мій сьогоднішній огляд.

Інструмент платний: 1 ліцензія - 99 $ на рік. Але є і безкоштовна версія, яка має деякі обмеження:

  • 1 проект;
  • Всього 1000 рядків в журналі подій;
  • Відсутня безкоштовна технічна підтримка.

Дізнатися більш детальну інформацію і завантажити програму можна тут .

Якщо думаєте, що програма зробить все за вас, то ви помиляєтеся. Так, вона зробить велику частину роботи, тобто збере всі дані в купу і представить їх у зручному і зрозумілому вигляді. А вам залишиться найголовніша задача - проаналізувати ці дані, зробити висновки і скласти рекомендації.

Що ж все-таки робить цей інструмент?

  • Визначає проскановані URL: дізнайтеся, які саме посилання Googlebot і інші пошукові роботи можуть сканувати, коли і як часто.

Визначає проскановані URL: дізнайтеся, які саме посилання Googlebot і інші пошукові роботи можуть сканувати, коли і як часто

  • Показує частоту сканування: дізнайтеся які сторінки пошукові роботи відвідують найбільш часто і скільки URL-адрес скануються щодня.
  • Знаходить непрацюючі посилання і помилки: показує всі коди відповідей, непрацюючі посилання і помилки, з якими роботи пошукових систем зіткнулися при скануванні сайту.

Знаходить непрацюючі посилання і помилки: показує всі коди відповідей, непрацюючі посилання і помилки, з якими роботи пошукових систем зіткнулися при скануванні сайту

  • Перевіряє наявність редиректів: знаходить тимчасові і постійні редіректи, з якими стикаються пошукові роботи.
  • Допомагає оптимізувати краулінговий бюджет: покаже ваші найбільш і найменш часто проскановані URL, з метою виявити втрати і підвищити ефективність сканування.
  • Знаходить неотсканірованние урли і сторінки-сироти: можна імпортувати список URL-адрес і порівняти їх з даними логів для виявлення невідомих сторінок або URL-адрес, які Googlebot не в змозі обробити.
  • Дозволяє об'єднати і порівняти будь-які дані.

Отже, приступимо. Думаю, з установкою програми у вас не виникне проблем. Тому переходимо до основного етапу - завантаженнями.

Імпортувати можна 2 види даних:

  • лог-файли;
  • список URL (в excel форматі).

Для початку, розповім, як імпортувати файли логів.

Перш за все, вам буде потрібно дістати з сервера лог-файли (access.log) вашого сайту. Вони часто зберігаються в папці / logs / або / access_logs /, і через FTP ви можете завантажити ці файли на ваш комп'ютер.

Для того, щоб у вас було достатньо даних для аналізу, я б порекомендувала використовувати лог-файли за місяць.

Після того як ви їх завантажили просто натискаєте кнопку "Import" і вибираєте пункт «Log file».

Далі після завантаження даних, вам потрібно буде придумати назву проекту (тут робіть як зручно, головне щоб потім було зрозуміло) і вибрати часовий пояс.

Далі після завантаження даних, вам потрібно буде придумати назву проекту (тут робіть як зручно, головне щоб потім було зрозуміло) і вибрати часовий пояс

Після цього з'явиться головне вікно панелі управління: Після цього з'явиться головне вікно панелі управління:   Тут ви можете відразу побачити, які пошукові роботи заходили на ваш сайт і як часто, скільки сторінок вони відвідують і т Тут ви можете відразу побачити, які пошукові роботи заходили на ваш сайт і як часто, скільки сторінок вони відвідують і т.д.

Після цього ви можете переходити до більш глибокого аналізу. Наприклад, можна визначити, які URL-адреси найбільш повільно завантажуються, а які дуже часто відвідуються.

Також можна побачити які коди відповідей віддають посилання. Для цього переходите на вкладку «Response Codes», де у вас є можливість відфільтрувати урли по типу коду. Таким чином, ви можете знайти помилки.

Таким чином, ви можете знайти помилки

А також я виявила цікаву штуку

джерело: http://vlada-rykova.com/analiz-logov-sayta/


Даний матеріал є приватною записом члена спільноти Club.CNews.
Редакція CNews не несе відповідальності за його зміст.

Що ж вони можуть розповісти?
Дуже складно аналізувати такі дані вручну, чи не так?
Що ж все-таки робить цей інструмент?