Технічне SEO для автосалонів: Частина 1

З попередньої вступної статті про технічне SEO стало зрозуміло, що просування сайту без пошукової оптимізації можна порівняти з побудовою будинку без фундаменту. У цьому пості ми продовжуємо збирати SEO-пазл і ділитися з вами більш детальною інформацією про основні аспекти технічного SEO, які допоможуть вам максимізувати видимість в пошукових системах, індексацію і, в кінцевому рахунку, рейтинг. Отже, деякі рекомендації, які стосуються важливих аспектів технічного SEO-аудиту:

Виконайте перехід з HTTP на HTTPS

HTTPS (Hypertext Transport Protocol Security) – це захищений протокол HTTP, який активується після встановлення SSL (Secure Socket Layer)- сертифікату. Протокол https дозволяє зашифрувати особисту інформацію користувача (номери телефонів, e-mail та ін.), щоб вона не потрапила до рук третіх осіб. Якщо ви на своєму сайті пропонуєте заповнити форму на проходження тест-драйву автомобіля, або виконати вхід в особистий кабінет, наприклад, то перехід на на протокол HTTPS -це необхідність.

Для звичайних користувачів буква “s” в кінці “http” означає, що сайту можна довіряти. Таким чином збільшується Trust Rank ресурсу.

Важливий момент при переході з HTTP на HTTPS – налаштування 301 редиректу, після якого потрібно перевірити сайт на відсутність помилок.Технічне SEO для автосалонів: виконайте перехід на https

Як SSL-сертифікат впливає на ранжування в пошукових системах?

  • 84% користувачів відмовляється купувати з сайту без протоколу HTTPS (За даними дослідження компанії GlobalSign);
  • Google відзначає HTTP-сайти як небезпечні, попереджаючи користувачів про це. Це істотно знижує відвідуваність;
  • сайти з безпечним з’єднанням завантажуються набагато швидше, а як відомо, швидкість завантаження впливає на ранжування;
  • перша сторінка органічної Google-видачі на 40% складається з сайтів з HTTPS протоколом;
  • з 2014 року алгоритми Google враховують наявність SSL-сертифікату.
  • численні дослідження підтвердили наявність зв’язку між HTTPS і кращим ранжуванням.

Реалізуйте автоматичне генерування карти сайту – SiteMap

Можливо, вам вже відомо, що карта вашого сайту – один з найважливіших інструментів SEO оптимізації. Від неї залежить швидкість і коректність індексації сторінок. Файл sitemap повідомляє пошуковим системам про структуру вашого сайту, дозволяє визначити сторінки і додати їх в результати пошуку.

Під час перевірки карти сайту, переконайтеся, що вона:

  1. Чиста. Карта сайту повинна залишатися без помилок, редиректів і URL-адрес, закритих від індексації; в іншому випадку пошукові системи проігнорують ваш ресурс.
  2. Оновлена. Переконайтеся, що ваша карта сайту оновлюється щоразу, як новий контент додається на ваш сайт (або видаляється з нього) – це допоможе пошуковим системам швидко виявити новий контент.
  3. Лаконічна. Google не скануватиме файл Sitemap, в якому більше 50 000 URL-адрес. В ідеалі, для гарантованого сканування важливих сторінок, потрібно щоб sitemap містив якомога менше даних і не перевищував розмір 10 мб.
  4. Зареєстрована в Search Console. Надайте Google доступ до вашої карти сайту. Ви можете зробити це вручну, відправивши файл за допомогою Google Search Console, або вказати його місце розташування в будь-якому місці файлу robots.txt наступним чином:

Карта сайту (приклад): https://automoto.ua/sitemap.xml

Створіть файл robots.txt

Файл robots.txt – це індексний файл на вашому сайті, який розміщується в кореневому каталозі і дозволяє обмежити доступ пошукових систем до певних файлів і папок. Завдяки йому ви можете запобігти скануванню Google-ботами (і іншими пошуковими системами) певних сторінок на вашому сайті. Робиться це для того, щоб важлива інформація, яку не повинні бачити сторонні особи, не потрапила у видачу. Обмеження за розміром robots.txt- не більше 500 кб.

Як працює robots.txt?

Два головних завдання пошукових систем:

  • Збір контенту в інтернеті;
  • Індексація цього контенту в такий спосіб, щоб він відповідав запитам користувачів, які шукають інформацію.

Під час скануванні пошукові системи переходять за посиланнями і переміщуються між сайтами, як і звичайні користувачі. Перед тим як просканувати сайт спочатку робот-краулер буде шукати файл robots.txt. Таким чином бот розуміє чи обмежують йому доступ до контенту, чи ні. Якщо файл robots.txt не містить вказівок, які забороняють будь-які дії (або якщо на сайті відсутній файл robots.txt), він буде продовжувати сканувати іншу інформацію на сайті.

Як дізнатися чи є на вашому ресурсі файл robots.txt? Просто введіть назву кореневого домена, потім додайте /robots.txt в кінці URL-адреси. Наприклад, example.com/robots.txt. Якщо немає .txt-сторінки, то в даний час файл robots.txt відсутній.Технічне SEO для автосалонів: створення файлу robots.txt

Оптимізуйте robots.txt для SEO

Те, як ви будете оптимізувати robots.txt залежить від контенту, який розміщується на сайті. Існує безліч способів використання robots.txt з користю для себе. Розглянемо деякі з найпоширеніших. (Майте на увазі, що використовувати robots.txt для блокування сторінок від пошукових систем – табу).
Зазвичай файл robots.txt застосовують для того, щоб спростити роботу пошуковим роботам, пропонуючи їм не сканувати важливі елементи вашого сайту.
Можливо, вам буде цікаво дізнатися, які типи сторінок слід виключати з індексації. Ось кілька типових ситуацій:
Цілеспрямовано дубльований контент. Хоча дублікація контенту вважається поганою ідеєю, але є кілька випадків, коли це прийнятно і необхідно. Наприклад, якщо у вас є зручна для роздруківки версія сторінки, то, технічно, – це дубльований контент. В такому випадку ви можете “сказати” ботам, щоб вони не сканували одну з цих версій (зазвичай це версія для друку).
Це також зручно, якщо ви тестуєте деякі сторінки з однаковим контентом, але з різним дизайном.
Сторінки подяки (thank you pages). Сторінка подяки після запису на тест-драйв – одна з улюблених сторінок маркетолога, тому що вона свідчить про нового потенційного клієнта. Чи не так? Як виявилося, деякі “thank you pages” доступні у видачі. Це означає, що люди можуть мати вільний доступ до цих сторінок і обійти процес введення персональних даних на сайті. А це вже погана новина. Якщо ви закриєте від індексації сторінки подяки, то можете бути спокійними, що їх бачать тільки “потрібні” люди.
Оскільки немає універсальних правил, до яких сторінок потрібно обмежувати доступ, файл robots.txt потрібно створювати з урахуванням специфіки вашого сайту.
Кожен проект є унікальним і вимагає індивідуального підходу, тому, якщо у вас виникли труднощі чи запитання, ви можете отримати безкоштовну консультацію від фахівців. Для цього потрібно заповнити контактну форму нижче:

Безкоштовна консультація по технічному SEO-аудиту для вашого автосалону!

Введіть номер телефону


Оптимізуйте швидкість завантаження сайту

Після виходу алгоритму Google Speed ​​Update в червні 2018 року швидкість завантаження сайту стала офіційним фактором ранжування.
У першу чергу слід звернути увагу на час відгуку сервера.
Якщо людина готова терпляче чекати підігріву їжі в мікрохвильовій печі близько 2 хвилин, то чекати поки завантажиться сторінка – не більше 3 секунд. Тут важливу роль грає TTFB (Time To First Byte).

Що таке Time To First Byte?

Коли користувач обирає ваш сайт в пошуковій видачі, то їх веб-браузер запитує інформацію (байти) з сервера. TTFB – це кількість мілісекунд, які потрібні браузеру для отримання першого байту відповіді з вашого веб-сервера.
Згідно Google, TTFB вашого сайту повинен складати 200 мілісекунд, або навіть менше. Якщо ваш сайт працює повільніше, то можуть виникнути дві проблеми:

  • Відвідувач покине ваш ресурс і перейде на сайт вашого конкурента.
  • Постраждає видимість сайту, оскільки Google враховує TTFB при ранжуванні.

Середній час відгуку сервера становить 100-500 мс. Google наголошує, що орієнтується на 200 мс.
Оптимальна швидкість TTFB:

  • 100 мс для статичного контенту (контент, який вже існує на сервері у вигляді файлів)
  • 200-500 мс для динамічного контенту (контент, який об’єднується з бази даних і шаблонів, наприклад WordPress)

Як поліпшити TTFB вашого сайту?

Зробити це можна шляхом кешування динамічних сторінок. Кешування ваших сторінок робить сторінки “попередньо заготовленими”, тобто HTML готовий до роботи, як тільки браузер запитує сторінки. Ось кілька способів кешування:

  1. Модулі WordPress. Такі плагіни, як WP Super Cache, допоможуть вам кешувати ваші динамічні сторінки. В плагіні зберігаються недавно використані дані, до яких користувачі можуть швидко отримати доступ.
  2. Хостинг WordPress, який автоматично кешується. Хостинг WordPress може надати вам можливості кешування, які покращують TTFB вашого сайту.
  3. Конфігурація сервера. Звичайний спосіб кешування файлів (але не динамічного контенту) полягає в налаштуванні веб-файлу .htaccess. Важливо: незначні помилки в цьому файлі можуть призвести до серйозних проблем, тому рекомендується найняти професіонала.
  4. CDN (Content delivery network) – технологія доставки контенту (текст, фото) яка дозволяє швидко віддавати контент користувачеві. Тобто, якщо дана технологія реалізована для фотографій (найпопулярніше застосування), то користувачеві з Києва фотографія буде завантажена з сервера Києва, а не з Вінниці.

В наступній статті ми детальніше розглянемо способи підвищення швидкості завантаження сайту.

Технічне SEO для автосалонів: встановлення Google Lighthouse

Встановити розширення Google Light House

Lighthouse – безкоштовний інструмент з відкритим кодом, що працює в автоматичному режимі. Створений, щоб оцінювати якість пошукової оптимізації сторінок сайту, відслідковувати час завантаження сайту, доступність і юзабіліті. Даний інструмент розглядає веб-сайт на основі різних факторів ранжування, які використовують пошукові системи Google.

Google розширює можливості LightHouse і поки він доступний лише на англійській мові. Але функціонал нескладний і розібратися в ньому не проблематично.

Можливості Google LightHouse

Аудит Lighthouse показує результати по 5 категоріям, кожна з яких оцінюється від нуля до ста:

  1. Performance (Продуктивність). Як швидко завантажується ваш сайт і як швидко користувачі мобільних пристроїв отримують доступ до ресурсу.
  2. Progressive Web App (Прогресивні веб-додатки). Грунтуючись на безлічі вимог і критеріїв (одним з яких є перехід на HTTPS), LightHouse визначає наскільки ваш сайт відповідає стандартам PWA. Google приділяє особливу увагу PWA, так як вони сприяють підвищенню продуктивності мобільних пристроїв і можуть підняти рейтинг в пошукових системах.
  3. Accessibility (Розширений доступ). Цей показник включає в себе близько 35 ознак доступності до перегляду людям з обмеженими можливостями.
  4. Best Practices (Кращі практики) Перевіряє чи відповідає ресурс передовим практикам веб-розробки (застосування HTTP / 2, наприклад).
  5. SEO (Пошукова оптимізація). Аудит 9 ключових показників пошукової оптимізації. Деякі сторонні інструменти або розширення для SEO-аудиту можуть здатися вам кориснішими, але все одно LightHouse покаже наскільки добре оптимізований ваш сайт.
    Безумовно, рекомендації Google LightHouse не є абсолютною істиною в пошуковому просуванні, однак, вкажуть вам на недоліки і помилки, які потрібно виправити.

Підсумок

Коли ви дочитаєте до кінця всю серію статей, у вас буде чітке розуміння основ пошукової оптимізації, що допоможе контролювати позиції сайту автосалону у видачі.
Нам цікаво почути вашу думку, якими принципами пошукової оптимізації керуєтеся ви? Про які аспекти хотілося б дізнатися детальніше? Залишайте відгуки в коментарях!

0 відповіді

Залишити коментар

Хочете приєднатися до обговорення?
Ласкаво просимо!

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *