На пошукових системах лежить величезна відповідальність – надавати користувачам Інтернету інформацію, яка повною мірою задовольняє їх запит. Проте з плином часу, кількість сайтів початок збільшуватися зі швидкістю геометричної прогресії. Не всі вони володіють якісним і корисним контентом, а деякі ресурси створені виключно для отримання прибутку. У зв'язку з цим були створені фільтри пошукових систем, які знижують позиції сайту при видачі або блокують ресурс.
Особливості роботи фільтрів
Перш за все, необхідно розуміти, як працюють фільтри пошукових систем. В цілому пошуковики накладають санкції в декількох випадках: Тексти і микроразметка. Фільтри пошукових систем спрацьовують у випадку, якщо на сайті виявляється велика кількість спаму (заспамленность тексту можна перевірити за допомогою програм на перевірку унікальності тексту). Негативно позначається на якості ресурсу зайва оптимізація, а також надлишок ключових запитів в структурі тексту (заголовки, підзаголовки і т. д.). Посилальна маса. За неприродно швидке нарощування посилальної маси (зокрема зовнішню) ресурс може потрапити під фільтри. Також негативно позначається на пошукової видачі спам в анкор, надлишкова перелінковка і маніпулювання посиланнями. Наприклад, прогін або посилальні кільця. Поведінкові чинники. Під фільтри пошукових систем підпадає також накрутка поведінкових чинників та розміщення на сторінках невидимих елементів, з якими взаємодіє користувач, але не підозрює про це. Непроститльным є перенаправлення користувачів на майданчик, що не відповідає їх запитом. Реклама. Не останню роль у появі санкцій відіграє рекламне вміст сайту. Рекламні оголошення повинні бути нав'язливими або надмірними. Більш того пошуковики можуть понизити у видачі той сайт у якого для мобільних версій «є» агресивна реклама, така як підписка або кліки. Також існують фільтри, що обмежують діяльність сайтів, на сторінках яких був помічений контент категорії «18+» Ідентичні сніппети. Якщо поруч з посиланням в пошуковій видачі з'являється однакова інформація для окремих посилань одного сайту, то це може послужити причиною для накладення на сайт санкцій. Таке часто відбувається з інтернет-магазинах у яких широкий асортимент товарів одного виду. Аффилиаты. Фільтри пошукових систем украй негативно відносяться до груп сайтів, що належать одній кампанії і створені спеціально для того, щоб вивести основний ресурс в ТОП.
Для кожного цього випадку створені спеціальні програми-фільтри або пошукові алгоритми, які ретельно стежать за чистотою оптимізації, запобігаючи появі неякісного контенту в пошуковій видачі. Кожна пошукова система має своїми обмежувачами, які успішно справляються з цим завданням
Основні фільтри «Яндекс»
На великому просторі Рунета «Яндекс» був і залишається основною пошуковою системою. З кожним роком він посилює вимоги до сайтів і створює все нові і нові фільтри. Початківці веб-майстри бояться потрапити під жорстокі санкції цього пошуковика, тому щоб успішно просувати свій ресурс, потрібно знати «ворога в обличчя», тобто мати уявлення про основні фільтри пошукової системи «Яндекс».
АГС «Яндекса», за відгуками інтернет-маркетологів, вважається самим жорстким фільтром, адже свого часу він успішно блокував не одну сотню ресурсів. Основна його діяльність спрямована на боротьбу з сайтами, які продають посилання і підвищують нелегальним чином позиції інших ресурсів, хоча самі по собі не несуть корисної інформації. « Непот-фільтр » був створений за зразком АГС. Проте його завдання більш вузька: блокувати тільки ті ресурси, які продають посилання. Фільтр визначає сайт, який займається несанкціонованої діяльністю, і накладає обмеження, які утилізують посилальну вагу просувається ресурсу. « Ти останній ». Цей фільтр з невигадливою назвою орієнтований тільки на пониження позицій сайтів з неунікальним контентом. Однак це не причина його ігнорувати. Найчастіше піддаються санкціям тексти, в яких унікальність нижче 92%. « Новий домен ». Це, швидше, не фільтр, а свого роду обмеження, що не дозволяє щойно створеного ресурсу займати лідируючі позиції. « Ти спамний ». Фільтр на відстеження спаму уважно стежить за якістю контенту на сайті, та якщо текст переоптимизирован, то позиція ресурсу падає у видачі. Важливо розуміти, що велика кількість ключових запитів не є гарантією того, що сайт займе гарне місце в топі. Будь-яка інформація повинна бути, в першу чергу, корисної для користувача, а вже потім відповідати вимогам пошукових роботів. Навряд чи користувач виявить бажання переглядати простирадло тексту, де за безглуздою "випадковості" практично в кожному реченні присутній ключовий запит, але відсутня необхідна інформація. « Афіліат ». Яндекс уважно стежить за кампаніями, які намагаються просунути свої основні ресурси допомогою створення додаткових сайтів і перелінковки між ними. Якщо на таких майданчиках знаходиться унікальна і корисна інформація, то вони будуть мати право на життя, але якщо контент створений тільки заради контенту, то ресурс можуть запросто заблокувати. « Редирект ». Цей фільтр веде активну боротьбу з дорвеями, тобто з сайтами, перенаправляющими користувачів на ресурс, якого вони не шукали. «Adult». Накладає обмеження на ресурси з "дорослим" контентом. « Поведінкові фактори ». Фільтр відстежує поведінку користувачів, які переходять з посиланням на сайт. Строго фіксується кількість відмов, глибина і тривалість перегляду контенту, які вважаються основними показниками корисності. « Агресивна реклама ». В останні кілька років «Яндекс» почав вести активну боротьбу з нав'язливою і агресивною рекламою, яка заважає перегляду контенту.
Основні фільтри Google
Після "Яндекса" в Росії пошукова система "Гугл" займає друге місце. Відповідно, і її фільтри не залишають без уваги веб-майстра. Найпоширенішими вважаються: « Дубльований контент ». Створений спеціально для накладення санкцій на повторюваної контент. Фільтр знижує позиції тих ресурсів, що розміщають на своїх сторінках неунікальний контент, який неодноразово повторюється. « Sandbox ». Цей фільтр регулює попадання сайту в топ по високочастотним запитам, бореться зі спамом і сумнівним вмістом. « Зростання посилань ». Якщо у ресурсу починає швидко зростати посилальна маса, він знижується у видачі. « Google Bombing ». Цей фільтр накладає санкції на ресурс, в якому надлишок ключових запитів в анкор посилань. « - 30 ». Таке прохолодне, можна навіть сказати, сибірське назва, отримав фільтр, який бореться з численним спамом. До рамок його компетенції, крім стандартних небажаних розсилок, входить блокування редиректів і дорвеїв. « Социтирование ». Для пошукової системи Росії "Гугла" важливо, щоб на ресурс посилалися сайти, близькі за тематикою. Якщо ж сайт підвищує свої позиції, але на нього посилаються ресурси, далекі від основної тематики, то починає діяти цей фільтр. « Швидкість завантаження ». На відміну від "Яндекса", Google контролює швидкість завантаження. Якщо після переходу з пошукової системи на ресурс він повільно завантажується, і це повторюється неодноразово, то сайт втрачає свої позиції. « Supplemental Results ». На деякі сторінки сайту, які не несуть унікальної інформації або на них немає внутрішніх посилань, пошукова система може накласти фільтр. При цьому ресурс з основним контентом не втрачає своїх позицій. « Обмін посиланнями ». Як тільки почалася епопея по створенню сайтів, популярними були ресурси щодо взаємного обміну посиланнями. Тепер, якщо проект раптом починає активно набирати посилальну масу, фільтр знижує його позиції. « Trast Rank ». Або, простіше кажучи, «рівень довіри». Основна мета фільтра - визначити, наскільки авторитетним є проект. Відповідно, чим він авторитетніше, тим вище його позиції. На це впливають кілька факторів: якість посилань і їх загальна маса, кількість контенту, вік доменного імені та перелінковка сторінок ресурсу. « Результат+ ». Або фільтр на додаткові результати. Якщо система раптом вважатиме, що проект схожий на сотні інших і не несе нічого нового, то сторінки сайту потрапляють у додатковий індекс, а не в основний.
АГС
Вище представлені найактуальніші фільтри пошукових систем. Однак деякі з них необхідно розглянути більш докладно. Для початку варто звернути увагу на самого страшного «диктатора» Рунета - АГС "Яндекса". Цей фільтр був створений спеціально, щоб протистояти неякісного контенту в Мережі. Ця назва може використовуватися разом з цифрами «17», «30» або «40», які говорять про версіях програми. Під санкції цього фільтра підпадають майданчики, у яких є вихідні СЕО-посилання. Негативно позначається на позиціях сайту нецікавий і неунікальний контент, з-за якого слід велику кількість відмов користувачів. Дублі, агресивна реклама, дорвеї, редиректи, клоакінг. Крім цього фільтр уважно стежить за функціональністю проектів. Якщо веб-сайту неякісний дизайн або проблеми із завантаженням, то це теж може значно знизити його позиції. Щоб визначити, потрапив проект під фільтр АГС чи ні, варто уважно відстежити процес індексації та рівень відвідуваності. Коли фільтр починає свою чорну справу, то нові сторінки не індексуються пошуковою системою, а старі, які потрапили під санкції, повністю випадають з індексу. Щоб відновити колишні позиції, необхідно зробити з ресурсу справжній шедевр, призначений для задоволення потреб користувачів. Для цього необхідно підігнати технічні характеристики до вимог пошукової системи. Це означає заборонити індексацію сторінок-дублів, видалити СЕО-посилання, зробити зручну навігацію, переглянути рекламні оголошення, видаливши всі агресивні медіа. Користувачі повинні швидко знаходити інформацію, яка може їх зацікавити, і ця інформація повинна бути якісної, нової, корисної та легкою для сприйняття. Контент сайту повинен постійно поповнюватися новими статтями. Тільки коли проект буде відповідати вимогам пошукових систем, можна звертатися в службу підтримки "Яндекса", щоб зняли фільтри.
«Пінгвін»
Але страшні не тільки санкції "Яндекса", фільтрам пошукової системи Google теж потрібно приділити увагу. Якщо АГС стежить за основними характеристиками, які визначають якість проекту, то «Пінгвін» штрафує за штучне нарощування поведінкових факторів. Фільтр «Пінгвін» був створений спеціально, щоб виключити маніпулятивний линкбилдинг при оптимізації веб-сайту.
Розміщення спамний посилань на форумах і блогах, придбання зворотних посилань, надлишок СЕО-анкоров, створення на сторінках проекту невидимих посилань – все це є причиною накладення санкцій. Підпадаючи під фільтр «Пінгвін», сайт починає різко втрачати свої позиції, падає його відвідуваність, а індексація відбувається набагато повільніше, ніж зазвичай. Щоб уникнути сумної долі, потрібно видалити всі неякісні посилання і змінити стратегію просування. Дуже часто майданчик піддається санкціям не одного фільтра. Разом з «Пінгвіном» в гості до веб-майстра може зайти і «Панда». Це ще один фільтр пошукової системи Google. Якщо на сайті публікується матеріал з унікальністю нижче 90% можна бути впевненим, що ресурс знаходиться під двома цими «приборкувачами».
«Панда»
Фільтр «Панда» відповідає за якість веб-сайту в цілому. Неякісні проекти позбавляються значної частки трафіку, а в деяких випадках повністю випадають з пошуку. Якість майданчиків оцінюється за такими характеристиками: Контент. Якість вмісту визначають не тільки роботи, які сканують його на унікальність і корисність, але і асесори – аттестаторы, виставляють контенту незалежні оцінки. Крім цього, впливає задоволеність користувача інформацією. Про це говорять глибина перегляду і час, проведений на сайті. Не можна, щоб інформація дублювалася або була відверто краденою (тобто з низькою унікальністю). Власники і користувачі. Все, що є на сайті, і сам проект зобов'язані в першу чергу орієнтуватися на користувача. Тобто повинен бути хороший дизайн, зручний і зрозумілий інтерфейс, щонайменше некоректною і нав'язливої реклами. Сайт може отримати пенальті, якщо рекламні блоки розміщені вгорі сторінки, а саме вміст - внизу. Карається також і нечитабельность текстів.
Як і в інших випадках, якщо сайт починає різко втрачати свої позиції і трафік, а випадають сторінки з індексу, висока ймовірність того, що проект потрапив під фільтр «Панда». Щоб позбутися від обмежень пошукових роботів, потрібно змінити стратегію оптимізації, підвищити якість матеріалів і функціональність веб-сайту. В такому питанні допоможуть наступні маніпуляції: Технічний аудит . Необхідно переконатися, що веб-сайт нормально функціонує, добре вантажиться, відсутні биті посилання. Якість . Ще раз перевірити матеріали ресурсу на предмет унікальності та якості. Всі матеріали, що викликають питання, замінити. Чистота запорука успіху . Якщо присутні сторінки без вмісту або з маленькими абзацами текстів, їх потрібно прибрати, доповнити або замінити. Тобто необхідно провести чищення, позбувшись від непотрібних фрагментів діяльності веб-майстра. Регулярність . Сайт повинен постійно оновлюватися. Хоча б раз в тиждень потрібно додавати нові публікації.
"Баден-Баден"
У 2017 році вийшло оновлення фільтра пошукової системи Яндекс «Баден-Баден», що викликало небувалий ажіотаж серед веб-майстрів. Хтось стверджував, що цей пошуковий алгоритм стане застосовувати жорсткі санкції до ресурсів, на яких буде помічено хоча б натяк на спам, а хтось спокійно твердив, що він не стане революційним поштовхом в СЕО-оптимізації.
Самі розробники запевняють, що значно поліпшили алгоритм, який «карав» переоптімізірованниє сторінки. Хоча все ще незрозуміло, став новий "Баден-Баден" заміною звичним фільтрів або ж є частиною загального алгоритму. Якщо схилятися до другого варіанту, то веб-майстрам буде досить важко визначити, під які санкції потрапив їх ресурс. "Баден-Баден" бореться з неякісним контентом шляхом виключення з пошуку текстів, де багато ключових запитів. Однак його дія поширюється не на весь проект, а на окремий документ (сторінку). Простіше кажучи, якщо на сайті є один неякісний текст, то лише сторінка, на якій він розміщений, випаде з пошуку, в іншому ресурс збереже свої позиції і основну частину трафіку. Проте не варто розслаблятися. За одним фільтром може бути безліч інших. Тому необхідно збільшити видимість ресурсу, переглянути всі СЕО-тексти на предмет переоптимизации і видалити техніки, які приховують СЕО-наповнення від пошуковиків.
На пульсі
Вимоги пошукових систем однакові для всіх майданчиків, однаковими є і покарання за їх невиконання. Якщо проект раптом почав втрачати трафік і знизився у видачі, значить, він виразно потрапив під санкції пошукових систем. Щоб тримати руку на пульсі, необхідно постійно перевіряти поступає трафік, причому не тільки кількість, але і його джерела. Тому кожному вебмастеру необхідно навчитися управляти пошуковими фільтрами. Як включити пошуковий фільтр? Це досить просте завдання. При реєстрації сайту в пошуковій системі веб-майстер отримує особистий кабінет, в якому може стежити за змінами, які відбуваються з його проектом ("Яндекс. Вебмастер" або Google Analytics). Перейшовши на цю сторінку, потрібно відкрити адміністративну панель, вибрати цікаву для вас майданчик і відкрити розділ «Фільтри». У більшості випадків достатньо активувати вбудовані обмежувачі, але для деяких випадків необхідно створювати індивідуальні власні обмеження.
Навіщо це потрібно? Наприклад, якщо сайт належить великій компанії, то висока ймовірність того, що на нього щодня будуть заходити співробітники. А якщо на цьому майданчику є чат або форум, на якому вони можуть спілкуватися між собою, то логічно припустити, що працівники будуть з задоволенням проводити час на веб-ресурсі фірми. Проте вони не є цільовою аудиторією. Але пошукова система фіксує всі відвідування. Щоб логічно продумати стратегію оптимізації, необхідно виключити зі звітів пошукачів інформацію про перехід з локальної мережі фірми користувачів. Для цієї мети існують і настроювані фільтри. Простіше кажучи, настроювані веб-майстром фільтри дають можливість отримати виключно ту інформацію, яка буде необхідна для просування ресурсу. Це стосується не тільки певних IP-адрес, але переходів з конкретних каталогів, сайтів і поведінкових характеристик.
Що виходить в залишку?
Фільтри пошукових систем покращуються з кожним роком. І точно так само з кожним роком веб-майстри покращують оптимізацію своїх сайтів. При цьому не всі і не завжди йдуть довгим і безпечним шляхом, а нерідко намагаються скоротити стежку до вершини авантюрними та карними методами.
По суті, фільтри пошукових систем не такі вже й страшні, вони вимагають цілком буденних речей: Якісного контенту. Ненав'язливій реклами. Відсутність заборонених матеріалів. Зрозумілого інтерфейсу і грамотного просування, яке полягає в природному нарощування посилальної маси і внутрішній перелінковці.
Рада
Природно, такий шлях довгий, потрібно близько півроку, щоб вивести сайт в топ по основним ключовим запитам, але якщо він туди вже потрапив, то його позиція буде набагато стабільніша, ніж у тих, які зайняли це місце нечесним способом. Це тільки на початку розвитку інтернет-епопеї можна було безкарно розбавляти маленькі фрагменти текстів ключовими запитами і швидко просуватися в пошуковій видачі. Зараз все змінилося. Пошукові системи акцентують увагу на якісному наповненні ресурсів. У пріоритеті тепер оригінальний, авторський контент, який може дати вичерпну відповідь на питання користувача. Тому якщо немає бажання ставати жертвою санкцій, потрібно зосередити основну увагу на вирішенні саме цього питання, і лише після прийматися за нарощування посилальної маси і залучення відвідувачів.