SEO Ideas


Kanal geosi va tili: ko‘rsatilmagan, ko‘rsatilmagan
Toifa: ko‘rsatilmagan


Роздуми, спостереження та суб'єктивна думка одного SEO-спеціаліста.
Завжди відкритий до дискусії та обговорень: http://t.me/Marko_Fedorenko

Связанные каналы  |  Похожие каналы

Kanal geosi va tili
ko‘rsatilmagan, ko‘rsatilmagan
Toifa
ko‘rsatilmagan
Statistika
Postlar filtri


В одному з своїх твітів J. Mueller відповідаючи на питання по ссилках поділився цікавим посиланням - https://usability.yale.edu/web-accessibility/articles/links
рекомендую до ознайомлення


https://youtu.be/pHu0o8S4WAg
Цікавий і досить позитивний подкаст про майбутнє SEO від гуглерів John, Martin та Gary.
Якщо коротко:
1. url/ip нікуди не зникнуть (капітани очевидність =)
2. сеошникам варто знати html
3. сеошникам варто розуміти javascript
4. імовірно, що в майбутньому контент генеруватимуть машини і це ок, якщо він буде вичитуватись експертами
5. Джон і Гарі не підтримують впровадження нових мета-тегів, оскільки зараз є більш, ніж достатньо інструментів для управління, які можна використовувати. (тут цікаво було послухати про те, що в команд бувають дивні ідеї і вони не завжди встигають проконтролювати їх)
6. Структуровані дані на думку Мартіна будуть підтримуватись, але він гадає, що вони навчаться краще розуміти сторінки де немає розмітки. Але добре буде, якщо додатково вебмайстри будуть розмічати сторінки, як додатковий сигнал для їх систем.
7. Експериментують з index-push, але Мартін скептично налаштований, бо якщо всі почнуть пушити урли, він не розуміє як пошуковики будуть обробляти всі ці дані.
8. web apps - будуть мати нові можливості, для них seo може стати більш актуальним

Без жартів про: SEO is Dead не обійшлось


Google генерує sitelinks на контентні зони документу - про це написав Brodie Clark в своєму твіттері ще минулого тижня. А тут в статті він з прикладами розкрив про що мова - https://brodieclark.com/scroll-to-sitelinks-google/


Одна із старих ідей до тесту якої руки не дійшли. Колись задумався над тим, що не бачив в реалізації використання breadcrumbs в оптимізації сторінок пагінації.
І в документації Google (https://developers.google.com/search/docs/advanced/structured-data/breadcrumb) - A breadcrumb trail on a page indicates the page's position in the site hierarchy
і в специфікації Schema - https://schema.org/BreadcrumbList - The position property is used to reconstruct the order of the items in a BreadcrumbList The convention is that a breadcrumb list has an itemListOrder of ItemListOrderAscending (lower values listed first), and that the first items in this list correspond to the "top" or beginning of the breadcrumb trail, e.g. with a site or section homepage
- вказується, що breadcrumbs уточнюють положення сторінок в ієрархії сайту.
Звідси цілком логічним рішенням мала б бути розмітка breadcrumbs на сторінках пагінації, що відкриті для індексації, як додатковий сигнал того, що вони є дочірніми для основної сторінки.
Технічний приклад того, що я маю на увазі:

{
"@context": "https://schema.org",
"@type": "WebPage",
"name": "Сторінка 2 - Смартфони Xiaomi",
"description": "Друга сторінка категорії Смартфони Xiaomi",
"breadcrumb": {
"@context": "https://schema.org",
"@type": "BreadcrumbList",
"itemListElement": [{
"@type": "ListItem",
"position": 1,
"item": {
"@id": "https://example.com/xiaomi",
"name": "Смартфони Xiaomi"
}
},
{
"@type": "ListItem",
"position": 2,
"item": {
"@id": "https://example.com/dresses/xiaomi/page-2",
"name": "Сторінка 2"
}
}
]
}
}


Нотатка з 24 квітня 2019 року
"Ввечері переглянув патент гугла Determining trustworthiness and compatibility of a person. Завдання даної розробки полягає в тому, щоб за футпринтами людини (назвемо так практично все наше цифрове життя) визначити її реальність.

Фактично для компанії, яка проіндескувала 30 трильйонів веб-сторінок, завдання нескладне, враховуючи обсяги даних якими вона володіє.
Система передбачає наявність бази даних ідентифікованих людей. З того що згадується в патенті в ній агрегується інформація з усіх відкритих джерел, включаючи мікророзмітку веб сторінок, соціальні мережі, бази даних з доступом по API (згадуються персональні ідентифікатори як посвідчення водія, свідоцтво про шлюб і т.д.), інформацію надану самою людиною (тут думаю мається на увазі інформація з облікових записів Google і всіх сервісів компанії).
Втім, якщо задуматися, то визначити реальність автора не так уже й важко."
Загалом цікавий патент - https://patents.google.com/patent/US9070088


Семантична верстка один з холіварів серед SEO-спеціалістів, одні вважають, що вона має вплив на ранжування інші вважають, що це марна трата часу.
John Mueller каже, що Google "don't do anything special with tags" - https://twitter.com/JohnMu/status/1441357916410314763
про текст всередині тегу Джон пише, що він трактується аналогічно, як інший текст на сторінці - https://twitter.com/JohnMu/status/708300431777275904
З мого особистого досвіду використання семантичних тегів позитивно впливає на ранжування.
Проте варто пам'ятати про пріоритезацію задач, якщо на сайті мільйони дублів сторінок і банальних помилок, то ніяка семантична верстка тут не допоможе.


Скрипт, який дозволяє вивантижити всі дані зі звітів Охоплення GSC
Формує їх в зручні для аналіу файли csv та xls
https://jlhernando.com/blog/index-coverage-extractor/


Найкраща підбірка регулярок для роботи з GSC серед усіх які я зустрічав.
https://www.jcchouinard.com/regex-in-google-search-console/
В статті можна почерпнути ідей як розширити своє використання GSC для аналізу проектів


Під час фільтрації за сторінкою чи запитом загальні показники "збігається" та "не збігається" можуть не дорівнювати невідфільтрованому підсумку.

Наприклад, додавання підсумків для "Запити, які містять:миша" та "Запити, що не містять:миша", може не дорівнювати загальній сумі кліків чи показів, при перегляді без фільтрації. Це пов’язано з тим, що анонімні запити при застосуванні фільтрів відсіюються з даних, а самі дані додатково скорочуються через обмеження обслуговування.

Якщо на вашому сайті є значна кількість анонімних запитів, ви можете побачити значну розбіжність між загальною кількістю кліків та сумою, що вирахувана з фільтрів (кількість запитів, що містять some_string + кількість запитів, які не містять some_string). Це пов’язано з тим, що анонімні запити пропускаються, коли застосовується фільтр.
https://support.google.com/webmasters/answer/7576553?hl=en


https://www.devisedlabs.com/blog/largest-contentful-paint-lcp-hack
робоча маніпуляція з LCP-описано як обдурити Chrome щоб він в CRUX писав красиві циферки.
Якщо коротко то в розділ head впроваджується прозора картинка з відключеною можливістю взаємодії. Користувачам вона не заважає і не видно, а браузер її заміряє як LCP
До впровадження не рекомендую, так як краще робити нормально орієнтуючись на користувачів, але якщо дуже дуже дуже треба показати результат з мінімальними зусиллями то поки працює.




Validator Schema - https://validator.schema.org/


Наглядна демонстрація того, чому важлива стабільна робота сайту.
Невеликий проект - ціль збір лідів для малого бізнесу. Сфера послуг.
Сайт приліг на 2 години на вихідних. В цей час на одну із сторінок завітав гуглобот. В результаті вона була виключена з індексу.
З цікавого в GSC - сторінка позначена як проіндексована, а при перевірці по оператору site: її не було в результатах.
Після реіндексу позиції вернулись.


Як спалити PBN?

Як правило ми говоримо про інструментарій, але де-факто основна наша ціль знайти веб-краулер який не заблокований власником мережі сайтів, до бази якого можна отримати доступ.

Як правило популярні аналізатори беклінків типу Ahrefs, Serpstat, Majestic, Semrush блокуються в першу чергу.

Часто упускають: publicwww, SEO Spy Gass, Bing.
В будь-якому випадку потрібно розуміти специфіку ніші та гео.

14 ta oxirgi post ko‘rsatilgan.

105

obunachilar
Kanal statistikasi