Статьи

Енциклопедія інтернет-маркетингу: Аудит сайту. Оцінка внутрішніх факторів сайту

  1. SEOnews запускає новий проект для фахівців і клієнтів «Енциклопедія інтернет-маркетингу» . Щотижня...
  2. Перевірка файлу Sitemap.xml
  3. Перевірка кодів відповіді сервера
  4. Перевірка визначення головного дзеркала сайту
  5. Аналіз способів формування URL сторінок
  6. Пошук малоінформативних сторінок
  7. Пошук дублювання головної сторінки
  8. Пошук дублювання внутрішніх сторінок за різними адресами
  9. Пошук помилки характерною для багатомовних сайтів
  10. Аналіз сторінки результатів пошуку
  11. Пошук однаковою (відсутньої) метаінформації
  12. Аналіз кількості зовнішніх посилань
  13. Аналіз текстового наповнення сайту
  14. Аналіз якості точок входу
  15. Пошук розмітки мікроформатами

SEOnews запускає новий проект для фахівців і клієнтів «Енциклопедія інтернет-маркетингу» . Щотижня редакція публікуватиме навчальні матеріали, авторами яких стануть фахівці провідних агентств на ринку. У підсумку ми плануємо випустити повне, практично корисне і актуальне електронне керівництво.

***

Аудит сайту. Оцінка внутрішніх факторів сайту

Керівник напрямку досліджень

Комплексний SEO-аудит - це всебічне дослідження сайту і аналіз різних факторів, з ним пов'язаних, що дозволяє визначити поточний стан веб-ресурсу, а також його слабкі і сильні сторони. У нього входить ряд перевірок, які можна розділити на:

1. Аналіз внутрішніх факторів.

2. Аналіз зовнішніх факторів.

3. Аналіз поведінкових факторів.

Внутрішній аналіз сайту (аналіз внутрішніх чинників) - перше, що необхідно зробити, починаючи роботи по пошуковому просуванню. Оптимальним є усунення проблем до індексації сайту пошуковими системами, а також до початку роботи з зовнішніми факторами. Правильно виходити з того, що в індекс віддається сайт, близький до ідеального.

Під аналізом зовнішніх чинників мається на увазі дослідження середовища, що оточує сайт (джерела посилань, конкуренти, соціальні сигнали і т.д.). Велика частина таких перевірок проводиться періодично.

Аналіз поведінкових факторів - перевірка того, як сайт вирішує завдання користувачів. Виконується на сайті, який має достатній для статистичного аналізу обсяг аудиторії. Найчастіше це динамічні перевірки, які повинні проводитися регулярно.

В рамках даного матеріалу розглянемо оцінку внутрішніх чинників сайту.

Перевірка стану файлу Robots.txt

Robots.txt - текстовий файл, розташований на сайті, призначений для роботів пошукових систем, повинен бути доступний за адресою site.ru/robots.txt. У цьому файлі веб-майстер може вказати параметри індексування свого сайту як для всіх роботів відразу, так і для кожної пошукової системи окремо.

Завдяки налаштуванням в robots.txt можна виключити індексацію сторінок, що перешкоджають коректному поданням сайту в результатах пошуку.

Найчастіше виключаються технічні сторінки, різні сортування, версії для друку і т.д.

Перевірка robots.txt включає в себе: перевірку наявності файлу на сайті, пошук можливих помилок, а також визначення повноти директив, що забороняють індексацію документів, не призначених для роботів пошукових систем.

Перевірка файлу Sitemap.xml

Файл Sitemap - це файл, розташований на сайті і містить додаткову інформацію про документах, що підлягають індексації. За допомогою файлу Sitemap можна повідомити робота пошукової системи, які сторінки потрібно індексувати, як часто оновлюється інформація, а також індексування яких адрес найбільш важливо.

Наявність такого файлу дозволяє в більш короткі строки проводити індексацію нових документів на сайті.

Необхідно перевірити наявність самого файлу (найчастіше він розташовується за адресою ***. Ru / sitemap.xml), вказівка ​​посилання на sitemap.xml в файлі robots.txt, повноту покриття сайту і перевірити сам файл в валідаторі:

Перевірка кодів відповіді сервера

Код стану HTTP (код відповіді сервера) - частина першого рядка відповіді сервера при запитах по протоколу HTTP. Він являє собою ціле число з трьох арабських цифр. Перша цифра вказує на клас стану. За кодом відповіді зазвичай слід відокремлена пропуском пояснює фраза англійською мовою, яка роз'яснює людині причину саме такої відповіді.

  • Для доступних сторінок обов'язковий код відповіді 200.
  • Для неіснуючих сторінок вірний код відповіді - 404.

Отримати код відповіді можна, наприклад, тут:. Перевіряється головна і кілька внутрішніх сторінок. Всі вони повинні повертати код відповіді 200 OK:

Перевіряються кілька варіантів сторінок зі свідомо невірними адресами. Під час відвідування таких повинен повертатися код відповіді 404:

Нерідко зустрічаються CMS, де сторінка «Документ не знайдено» не дає 404 код відповіді сервера. Необхідно провести відповідне доопрацювання CMS.

Перевірка визначення головного дзеркала сайту

Дзеркалами вважаються сайти, які є повними або частковими копіями. Копії визначаються за випадковим збігом контенту на сторінках з однаковими адресами (site1.com/page.html і site2.com/page.html). Наприклад, в більшості випадків хости site.com і www.site.com є дзеркалами, так як контент сторінок, доступних за однаковими адресами, не відрізняється.

Сайт повинен бути доступний тільки по одному з варіантів звернення: або із зазначенням папки www, або без цієї папки (або seonews.ru). Другорядне дзеркало має віддавати 301 код відповіді сервера з перенаправленням на головне дзеркало. Якщо сайт проіндексований, то рекомендується залишити ту версію, яку обрав робот пошукової системи.

На даному етапі перевіряються коди відповіді дзеркал сайту (з www, без www, з https, без https). Код відповіді 200 повинен бути тільки у одного варіанта, всі інші повинні віддавати 301 код відповіді з перенаправленням на головне дзеркало:

Аналіз способів формування URL сторінок

URL-адреси безлічі динамічних сайтів складаються з доменного імені та перерахування параметрів, що відповідають за формування вмісту сторінки (site.ru/catalogue.php?http_id_part=174&http_id_prod=623), часто зустрічаються псевдостатічние адреси, де параметри замінюються на человекочітаемие фрагменти (site.ru / catalog / 9-dzhinsy-briuki).

Деякі параметри в URL-адресу є незначними, тобто з ними або без них сторінка містить одну і ту ж інформацію. Це призводить до того, що інформація на сайті починає дублюватися. Пошукові системи негативно ставляться до цієї ситуації, так як дублювання контенту призводить до зростання індексної бази, при цьому обсяг корисної інформації залишається тим самим.

Якщо на сайті є відвідуваність, список всіх параметрів можна отримати у відповідному розділі Яндекс.Метрики.

Ось так виглядає список параметрів середньостатистичного сайту на Bitrix.

На зображенні вище наведений список з 38 параметрів, які зустрічаються в адресах сторінок сайту. Більшість параметрів є технічними (наприклад, sphrase_id - підсвічування слів в результатах пошуку, back_url_admin - адреса попередньої сторінки при невірної авторизації) і не передбачається індексація сторінок їх містять.

Якщо сайт не має відвідуваності, рекомендуємо вивантажити його однією з програм: Xenu, Screaming Frog SEO Spider або NetPeak Spider (далі програми сканування сайту) і обробити отриманий список адрес, виявивши всі допустимі параметри.

На даному етапі необхідно проаналізувати, який внесок вносить кожен параметр в формування вмісту сторінки. Якщо додавання параметра не приводить до появи додаткового контенту, він додається в robots.txt для виключення індексації таких адрес.

Пошук малоінформативних сторінок

Малоінформативні сторінки містять недостатню кількість інформації для того, щоб бути проіндексованими пошуковими системами або високо ранжируватися за відповідними пошуковими запитами. Необхідно або заборонити індексацію таких сторінок, або доповнити сторінки текстовим контентом.

Проводиться пошук сторінок, які не містять ніякої корисної інформації, крім, наприклад, меню сайту. Знайти сторінки можна, скориставшись програмою сканування, відсортувавши документи за розміром.

Пошук дублювання головної сторінки

Часто зустрічається ситуація, коли головна сторінка сайту дублюється по внутрішнім адресами. Наприклад, в CMS Bitrix головна сторінка дублюється при додаванні до доменного імені index.php. наприклад: https://www.seonews.ru/index.php - ця сторінка не закрита в robots.txt і може бути проіндексована пошуковими системами:

На даному етапі необхідно знайти можливі способи дублювання головної сторінки і виключити їх індексацію.

Пошук дублювання внутрішніх сторінок за різними адресами

Аналогічно головній сторінці часто зустрічаються дублікати внутрішніх сторінок сайту. Наведемо кілька можливих прикладів.

  1. Однакові за змістом сторінки, які відрізняються тільки символом "/" в кінці URL-адреси.
  1. Сторінки, доступні як за ЧПУ-адресами, так і за адресами з параметрами. Коли рівнозначні site.com/company/overview і site.ru/?cat=2.
  1. Поява однакових сторінок при видаленні частини адреси: site.com/company/overview або site.com/overview.
  1. Дублювання сторінок при додаванні імені файлу (зокрема актуально для Bitrix). Коли рівнозначні site.ru/calendar/ і site.ru/calendar/index.php.
  1. Дублювання за рахунок незначних параметрів в URL (описано вище).

Необхідно вивчити сайт, з метою встановити принципи формування адрес сторінок. Це дозволить виявити потенційні місця виникнення дублювання однакових сторінок за різними адресами.

Програмою сканування сайту можна скористатися як з одним із способів пошуку дублів контенту. В отриманій структурі можна знайти сторінки однакового розміру.

Пошук помилки характерною для багатомовних сайтів

Якщо на сайті є різні мовні версії, для кожної з них повинен бути написаний власний унікальний контент. Необхідно визначити, чи використовується на сайті багатомовність, і перевірити, які тексти розташовані на інших мовних версіях. Якщо вміст дублюється, необхідно ці дублі видалити і наповнити розділи відповідними текстами.

Аналіз сторінки результатів пошуку

Зустрічається помилка, коли результати пошуку по сайту відкриті для індексації роботами пошукових систем. Сторінки не закриті в robots.txt і віддають код відповіді сервера 200. При цьому для кожного пошукового запиту формується унікальний url. Таким чином пошуковий робот індексує контент, який прямо заборонений в ліцензії пошукових систем.

Необхідно визначити, як формується сторінка з результатами пошуку. Якщо пошуковий запит міститься в url, такі сторінки повинні бути закриті в robots.txt.

Пошук однаковою (відсутньої) метаінформації

Тег title (метаінформація) - основний з факторів ранжирування сторінок в пошукових системах. Вміст цього тега виводиться в заголовку сторінки.

Кожна сторінка повинна мати унікальний заголовок, релевантний її вмісту. У цьому випадку сайт потенційно здатний залучати більшу кількість користувачів за рахунок підвищення видимості в пошукових системах.

Необхідно виявити принципи формування метаінформації на сайті. Якщо існують правила, через які виводиться однакова або відсутня метаінформація, необхідно внести відповідні зміни в CMS.

Крім малоефективного ручного пошуку таких сторінок можна скористатися програмою для сканування сайту, відсортувавши результат за отриманими title. Другим способом є побудова користувальницького звіту в Google Analytics (якщо на сайті є відвідуваність і відкритий доступ до статистики):

В результаті отримуємо наступну таблицю, де наведено зведення тайтлів всіх сторінок сайту.

Аналіз кількості зовнішніх посилань

Кількість зовнішніх посилань - важливий показник якості сайту. Якщо сайт посилається на безліч інших ресурсів, які не відповідають його тематиці, це може послужити причиною для санкції з боку пошукових систем.

Необхідно визначити кількість зовнішніх посилань, уважно перевірити ресурси-одержувачі. Рекомендується по можливості максимально скоротити кількість прямих вихідних посилань, які б не були рекомендацією для користувача сайту. Зовнішні посилання допустимі, але повинні доповнювати і розширювати контент.

Аналіз текстового наповнення сайту

При пошуковому просуванні принципово, щоб на сайті були розміщені унікальні тексти, які мають цінність для цільової аудиторії сайту.

Необхідно перевірити максимальну кількість текстів на сайті на унікальність. Не варто починати пошукове просування, якщо на сайті немає оригінального контенту, яка не продубльований у відкритій частині Інтернету. Існує безліч сервісів, які дозволяють перевірити як окремі сторінки, так і сайт в цілому.

Аналіз якості точок входу

Під якістю точок входу розуміються кількісні показники, що описують перші взаємодія користувача з сайтом. Найчастіше це показник відмов - скільки користувачів подивилися тільки одну сторінку - і час перегляду сторінки.

Необхідно перевірити поведінкові характеристики точок входу на сайт. Надмірна кількість відмов або значення, сильно відрізняються від середніх по сайту, повинні насторожити. Необхідно виявити причину такої поведінки користувачів і при необхідності внести корективи.

Пошук розмітки мікроформатами

Мікроформати - це формати семантичної розмітки (X) HTML-сторінок, що дозволяють зробити контент доступним для обробки роботами. Мікроформати дають можливість явно вказати смислове значення окремих блоків тексту, доповнивши існуючу HTML-розмітку спеціальними блоками.

Необхідно перевірити розмітку відповідними мікроформатами контенту на сайті (адреси, зображення, відео і т.д.). Впровадження мікроформатів дозволить поліпшити видимість сайту в вертикальних пошуках.

Наведений вище базовий перелік перевірок дозволить виявити більшу частину проблем веб-ресурсу, а також дозволить коректно проіндексувати сайт в пошукових системах.

Php?
Ru/?

Новости