Десять популярних SEO – міфів про просування в Google

Привіт, Хабрахабр!

При просуванні сайтів в Google в середовищі веб-майстрів виникли і утвердились кілька SEO – міфів і помилок.

Причини — відсутність інформації або підтверджень від першоджерела (Google); неуважне прочитання або неправильне розуміння довідкової інформації.


1. Існування «Пісочниці»
Існує думка, що Google застосовує до молодих сайтів якийсь алгоритм, що впливає на їх ранжування.

Webeffector у своїй Wiki енциклопедії написав:
«Зовні приміщення сайту в пісочницю виглядає так. З ресурсом, здається, все в порядку, він знаходиться в кеші Google, ніяких претензій до нього не висловлюється. Однак на сторінці видачі ресурс не тільки не з'являється при наборі в пошуковому рядку унікальних для цього сайту ключових запитів, але навіть не стоїть на першій сходинці видачі при наборі в пошуковому рядку мережевої адреси сайту! Ресурсу ніби не існує для пошукової машини. Якщо це так, то будьте впевнені – сайт в пісочниці Google. Термін дії фільтра становить від 6 місяців до 1 року».

Що відбувається насправді?

Немає «пісочниці», — розповідає співробітник Google Андрій Липатцев, — пару-трійку місяців ми збираємо про сайті всі дані, і в цей термін він ранжується за тим, що є, а потім може почати ранжируватися як вище, так і нижче.

Те ж саме, але іншими словами, написано поширених питаннях Google:
«На початку сторінки нового сайту можуть ранжуватися без урахування деяких факторів (наприклад, гео-залежність вмісту прим.авт.], які для цього сайту ще не з'ясовані. Можуть бути не відразу визначені повні і нечіткі дублікати сторінок контент, скопійований з інших сайтів, слабо наповнені сторінки, неякісні тексти та інші недоліки сайту. Але в подальшому вони позначаться, і сайт втратить початкові позиції».

2. «Соплі» Google
Напевно, кожен веб-майстер чув про таке поняття, як supplemental index (додатковий індекс) або його сленговом назві «соплі». Прийнято вважати, що отримати список сторінок сайту, які знаходяться в основному індексі, можна використовуючи оператор site:yoursite.ua/&. Відповідно, список сторінок з додаткового індексу нібито можна отримати використовуючи комбінацію site:yoursite.ua -site:yoursite.ua/&.

Підстави вважати, що додатковий індекс Google існував дійсно були. Про нього була публикация в Google Webmaster Central Blog від 31 липня 2007 року.

З моменту публікації минуло майже 8 років, і все змінилося.

«Якщо ввести в адресний рядок site:pdapps.ru/ увесь індекс сторінок, а якщо ввести site:pdapps.ru/& — це основний індекс, який по ідеї повинен бути в пошуку. Поправте, якщо я помиляюся» — запитали Андрія Липатцева на довідковому форумі для веб-майстрів.

Дійсно, помиляєтесь, — відповів він. — Ніякої корисної інформації додавання & до запиту Вам не дає.

Спеціаліст Google, до якого ми звернулися за роз'ясненням ситуації, повідомив, що існування supplemental index – це застаріла інформація.

3. «Фільтри» Google
Фільтр – сленговий термін, що використовується веб-майстрами, який передбачає обробку даних сайту і вплив на ражирование та індексування.

Google не використовує ніякі фільтри. Використання такого сленгу призводить до спотворення змісту повідомлень, оскільки до кінця неясно, що саме той чи інший веб-майстер в даний момент часу розуміє під словом фільтр.

Якщо ви обговорюєте або публікуєте якусь інформацію, пов'язану з Google, бажано використовувати точну термінологію.

Пошукова система Google представляє в спрощеному вигляді якусь подобу годинникового механізму, де усі «деталі» є постійно взаємодіючими один з одним алгоритмами. Тому, якщо ви зіткнулися з пониженням рейтингу сайту в SERP, винятком з індексу і так далі, краще використовувати термін «алгоритм [назва]» або заходи, вжиті вручну.

Ніде в офіційних довідках або публікаціях Google для веб-майстрів, у тому числі в інтерв'ю, слово фільтр не використовується.

4. Вплив поведінкових факторів на ранжування
Ще один SEO – міф полягає в тому, що Google враховує вплив поведінкових факторів для цілей ранжирування. На цю тему веб-майстри масово пишуть статті і ведуть обговорення на форумах.

Google не використовує поведінкові чинники та соціальні сигнали в ранжируванні сайтів. Про це на конференції CyberMarketing-2014 розповів фахівець служби якості пошуку Google Андрій Липатцев[1].

Після цієї заяви майже на всіх конференціях його обов'язково запитують про це. Ну, не вірять веб-майстра в нібито очевидне, і все тут.

Пізніше Андрій Липатцев подтвердил раніше висловлену точку зору:
«Ми не враховуємо дані, що надаються через Google Analytics при ранжируванні. «Накликивание» на посилання у видачі через псевдо-сервіси, подібні юзератору і іже з ним, — даремна витрата ресурсів для веб-майстрів, які могли б з більшою користю використати їх іншим чином». «Мет Катс — такі показники, як CTR і показник відмов не приймаються в увагу в алгоритмі ранжирування».

Для розуміння загального підходу наводимо цитати ще двох співробітників Google.

John Mueller сказав: «я не припускаю, що [поведінку користувачів] це те, що #Google буде використовувати як фактор ранжування.[2]

Використання кліків безпосередньо в ранжируванні не буде мати сенсу із-за шуму,— сказав Gary Illyes[3].

5. До першої зірки не можна
Пам'ятаєте цей слоган в одній з реклам відомого бренда? Серед веб-майстрів побутує думка, що досить додати в код сторінок відповідну валідність розмітку, і в результатах пошукової видачі з'являться розширені сніппети.

Суть в тому, що сама по собі розмітка навіть тричі валидная не є гарантією появи розширеного фрагменту. Рекомендуємо уважно вивчити і обміркувати відповідь Андрія Липатцева.
«… я б рекомендував Вам зайнятися видаленням провідних на сайт покупних посилань, так як при їх наявності показ розширених описів може бути автоматично відключений, і простого їх відхилення може виявитися недостатньо. Після чергової регулярної переоцінки сайту він виявився дещо нижче порога, над яким для сторінок сайтів відображаються розширені описи. Такі переоцінки відбуваються постійно і для всіх сайтів. Враховуючи, що показ розширених описів ні в якому випадку не гарантується, я б просто продовжував працювати над сайтом, як і раніше, надавши Google виробляти свої оцінки та приймати відповідні рішення.
Зауважу, що за запитом site: розширені описи можуть відображатися, так як для нього діють особливі критерії».

6. Усі сторінки повинні бути в індексі
Можна відкрити будь-SEO-форум і знайти там тему «Чому Google індексує сторінку...». Міф заснований на тому, що нібито абсолютно всі сторінки повинні бути в індексі.

Індекс не гумовий, — сказав на одній з конференцій інженер Google Рінат Сафін.

Google bot періодично сканує сайт і передає відповідну інформацію алгоритмами, які відповідають за оцінку якості сайту, ранжування і індексування сторінок.

Припустимо, на сайті є дві сторінки з приблизно однаковим змістом, але одна з них містить більш якісний контент, ніж друга. Ресурси Google теж не безмежні, тому в нашому прикладі індекс буде додана тільки одна сторінка — з більш якісним та інформативним контентом.

Окремі сторінки сайту, можуть бути виключені з індексу. Додатково читайте нашу статтю на Хабрахабр — У вашого сайту проблеми з Google?

Точна кількість проіндексованих сторінок можна дізнатися тільки в Google Search Console.

7. Важливість помилки 404 для SEO
В середовищі веб-майстрів поширена помилка, що наявність на сайті сторінок, які віддають 404 помилку (Error 404 або Not Found стандартний код відповіді HTTP), може негативно позначитися на індексуванні або ранжуванні сайту. Багато веб-майстри вважають, що алгоритм Panda враховує цю інформацію при оцінці якості сайту.

Webmaster Trends Analyst Google Gary Illyes гранично чітко пояснив позицію Google: «Думка, що помилки 404 тягнуть за собою будь-покарання для сайту, в корені невірно».

Веб мінливий, старі посилання можуть вести в нікуди. Гуглоботу такі посилання байдужі [читай, не впливають ні на які показники прим.авт.]. Якщо раптом ви знайдете биті посилання, то просто виправте їх, щоб відвідувачі могли нормально користуватися сайтом, — говорив на одній з відеоконференцій John Mueller. — Я б не розглядав цю проблему, як щось важливе з точки зору SEO. Це просто частина роботи по підтримці сайту — стежити, щоб посилання були в актуальному стані.

помилка 404 на неправильному URL не зашкодить індексації вашого сайту або його ранжування в будь-якому випадку. Навіть якщо таких помилок 100 або 10 мільйонів, вони не зашкодять рейтингу вашого сайту, — пише John Mueller на своїй сторінці Google плюс.

Одинадцятого серпня 2015 року в Twitter обговорювалося питання, чи впливає помилка 404 на те, як алгоритм Panda впливає на рейтинг сайту.

На це питання Gary Illyes дав негативну відповідь.

8. Повернися, я все пробачу
Не секрет, що більшість сайтів використовували чи використовують для просування покупні (неприродні) посилання.

Google вміє розпізнавати такі посилання і, як Віктор Марьяныч з кінофільму «Наша Раша», – жорстоко карає. Отримавши заходи, вжиті вручну, за покупні посилання, сайт може втратити рейтинг і видимість в результатах пошуку.

Домігшись скасування заходів, веб-майстри часто дивуються і запитують, чому не повертаються позиції сайту. Вони забувають, що раніше досягнуті позиції сайт отримав обманним шляхом.

Аналізуючи один з таких сайтів на Довідковому форумі для веб-майстрів, Андрій Липатцев відповів:
«Ви випустили з уваги, що для «оптимізації» сайту хтось займався купівлею посилань. Ефект цього допінгу рано чи пізно повинен був припинитися, що і сталося. На даний момент ваш сайт ранжирується так, як і повинен, без обліку покупних посилань».
9. Я все відхилив
В продовження описаного в пункті вісім омани розглянемо інший міф — «Сайт отримав заходи за покупні посилання? Відхиляйте покупні (неякісні) посилання і буде вам щастя».

Це не зовсім так. Дійсно, додавання таких посилань в інструмент disavow tool — це важлива процедура «лікування» потерпілого сайту. Але цього явно недостатньо.

Згідно офіційній документації веб-майстер спочатку повинен видалити проблемні посилання. Потім вкрай бажано в запиті на повторну перевірку розмістити посилання на докази здійснення цього процесу. Вимога Google про фізичну видалення проблемних посилань частково обумовлено тим, що видалення раніше відхилених посилань з файлу disavow відновлює статус цього посилального.

Неприродні посилання, які не змогли видалити, додаються в disavow tool.

Читаємо документацію:
Додавання всіх зворотних посилань у файл відхилення не вважається рішенням проблеми, і вам не вдасться пройти перевірку.
В ньому [в запиті на повторну перевірку прим.авт.] докладно описуються дії, вжиті для усунення проблем.
В ньому [в запиті на повторну перевірку прим.авт.] наведено результати ваших дії.
10. Відхилення посилань і Search Console
Деякі веб-майстри вважають, що відправивши у disavow tool посилання з Google Search Console, вона повинна через час зникнути з розділу «посилання на ваш сайт».

Це різні інструменти. На довідковому форумі було поставлено питання – «… є версія, що в панелі веб-майстри відображаються тільки фізично розміщені зворотні посилання і інструмент disavow ніяк не впливає на цей список?». На що Андрій Липатцев (Google) відповів: «Правильна версія».

Посилання, додані в disavow tool, не видалені фізично і тому логічно, що зникнути з Search Consol вони не можуть.

Ми сподіваємося, що викладена в статті інформація буде корисна для веб-майстрів.

Примітки
1. searchengines.ru. Пошукові системи. Google використовує в ранжируванні соціальні і поведінкові сигнали.
2. @SeoTelegraph. Twitter журнал про SEO. Твіт від 12 серп. 2015.
3. Блодгер. Пошукова оптимізація — Як Google визначає якість контенту?

Джерело: Хабрахабр

0 коментарів

Тільки зареєстровані та авторизовані користувачі можуть залишати коментарі.