• Уважаемый Гость! Так как вы ещё пока не являетесь нашим пользователем, большая часть форума для вас недоступна.
    Войти ⬅ или ➡ Зарегистрироваться

СЕО новости

Нужно ли ведение новостей на форуме или все кому надо и так следят за новостями?

  • Сам слежу, дублирование новостей здесь не нужно.

  • Не всегда удается следить за новостями, нужно дублирование здесь.

  • Достаточно самых интересных новостей за неделю.

  • Вообще не слежу за новостями в мире СЕО, но хочу быть в курсе.

  • Это вообще про что тут написано?


Результаты будут видны только после голосования.

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Google: мы одинаково обрабатываем ссылки на HTTP и HTTPS-сайтах

На днях сотрудник Google Джон Мюллер заявил в Twitter, что ссылки на HTTP-страницах так же ценны для поисковой системы, как и ссылки на HTTPS-ресурсах, и обрабатываются одинаково.

Мюллер написал об этом в комментариях к недавнему опросу. В нём SEO-специалистов просили поделиться своим мнением о том, передают ли незащищённые сайты меньше авторитетности и PR, чем защищённые.

В опросе приняли участие всего 56 человек. Большинство из них ответили отрицательно.

Мюллер в свою очередь заявил:
«Я не знаю об авторитетности, но мы относимся к ссылкам на HTTP так же, как и к ссылкам на HTTPS-сайтах».

Google выкатывает новый дизайн десктопной выдачи

Google запускает новый дизайн для десктопной страницы результатов поиска. Сообщение об этом опубликовал в Twitter сотрудник Google Дэнни Салливан.
1579077704076.png

Названия доменов стали более заметными. Рядом с названиями сайтов начали отображаться фавиконы. Надпись «Реклама» получила черный цвет.

Google запускает редизайн для страницы результатов поиска с декстопных устройств

В целом, новый дизайн выдачи для декстопов повторяет дизайн, который Google запустил в мае 2019 года для мобильных устройств. По сообщению Google, новый дизайн поможет пользователям лучше ориентироваться в результатах поиска и быстрее находить ответ на запрос.

Напомним, ранее Google объявил об обновлении основного алгоритма

Google приступил к запуску January 2020 Core Update

Google объявил о запуске очередного обновления основного алгоритма, которое получило название January 2020 Core Update.

Поскольку это обновление основного алгоритма, то оно повлияет на результаты поиска по всему миру.

Рекомендации Google по апдейтам этого типа остаются прежними. Ознакомиться с ними можно здесь.

Напомним, что обновления основного алгоритма призваны повысить релевантность результатов поиска для пользователей. Ухудшение позиций отдельных страниц после апдейта не обязательно говорит о том, что с ними что-то не так. Скорее всего, Google начал расценивать их как менее релевантные.

Если позиции страницы упали, стоит посмотреть, что ранжируется выше, и подумать, как предоставить более полезное и релевантное решение для пользователей.

Предыдущее обновление основного алгоритма было запущено в сентябре.

Яндекс.Вебмастер перестал отображать title

Сегодня на многих аккаунтах в Яндекс.Вебмастере наблюдается ошибка с «отсутствующими» title. Об этом сообщил Александр Денисов (агентство Kite) на своей странице в Facebook.

По наблюдениям Александра, на данный момент значительных изменений в выдаче не обнаружено:
«Предполагаю, что эта ошибка не более, чем глюк Вебмастера, по аналогии с недавней рассылкой сообщений о фильтре малополезного контента. На ранжировании проектов такая ошибка скорее всего не скажется».

Руководитель службы Яндекса по работе с вебмастерами Михаил Сливинский подтвердил это предположение, сообщив, что техподдержка Вебмастера уже работает над устранением проблемы. И на результаты поиска полученные оповещения никак не должны повлиять.

На вопрос о возможности обратной ситуации, когда в результатах поиска какие-то ошибки учитываются, но в Вебмастере при этом не отображаются, Сливинский ответил, что Яндекс старается максимально синхронизировать сообщения в Вебмастере с состоянием сайта в поиске.

Google рассказал, как оптимизировать сайты для алгоритма BERT

Сотрудник Google Джон Мюллер ответил на вопрос, как оптимизировать сайты для алгоритма BERT. Мюллер дал более развернутый ответ, чем его коллега Дэнни Салливан, который ранее сообщал, что «нет ничего, что можно оптимизировать для BERT».

Один из вебмастеров поинтересовался, какие работы в области SEO можно сделать, чтобы оптимизировать сайт для алгоритма BERT. Посмотреть ответ можно ниже, начиная с отметки 18:32:


Мюллер начал ответ с объяснения цели запуска данного алгоритма. Он сообщил, что с помощью BERT Google пытается лучше понять текст.

С одной стороны, запуск BERT дает нам лучшее понимание вопросов и запросов, которые задают пользователи. С другой стороны, алгоритм позволяет нам лучше понять текст на странице.


«Запросы не являются чем-то, на что вы можете повлиять в плане SEO», – сообщил Мюллер.

Затем он дал несколько советов, как работать с текстовым контентом:

Текст на странице – это то, на что вы можете повлиять. Наша рекомендация по сути сводится к следующему: пишите естественно. Большинство алгоритмов пытаются понять естественный текст, а также понять, каким темам посвящена эта страница, чтобы найти наилучшее соответствие запросу.


«Если есть что-то, что вы можете сделать для оптимизации под алгоритм BERT, так это убедиться, что на ваших страницах естественный текст... Вместо того, чтобы использовать как можно больше ключевых слов, пишите естественно».
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Google запустил новый органический блок с популярными товарами

Google объявил о запуске нового органического блока «Popular Products» в мобильной поисковой выдаче. Пока он выводится только по запросам, связанным с одеждой и обувью, но в будущем компания планирует расширить количество охватываемых категорий.

Google начал тестировать показ товаров в органической выдаче в прошлом году. Теперь компания официально объявила о запуске.

Новый блок «Popular Products» формируется на основе товарных фидов, загруженных в Google Merchant Center. Поисковик определяет популярные товары и отображает их в одном блоке, позволяя пользователям фильтровать результаты по стилю, магазину и размеру. Все результаты содержат ссылку на сайт продавца.

В каких странах запущен новый блок, в компании не уточнили.

Google: структурированные данные не влияют на ранжирование

На днях сотрудник Google Дэнни Салливан заявил в Twitter, что добавление структурированных данных не является обязательным, а их наличие не влияет на ранжирование.

Это не новая информация, но Салливан решил прояснить этот вопрос ещё раз в ответ на один из постов в Twitter.

Так, фуд-блогер Ребекка Айзенберг написала в сервисе, что получила оповещение от Google, где говорилось об ошибке в разметке. При этом она неправильно истолковала его смысл. В частности, она решила, что если не добавит на карточки рецептов указанное свойство, то Google уберёт их из результатов поиска.

Этот пост привлёк внимание Салливана, который позже опубликовал твит через свой официальный аккаунт Google Search Liaison, чтобы более детально рассмотреть эту ситуацию.

«Вчера была высказана обеспокоенность по поводу того, что информация о калориях необходима для включения рецептов в результаты поиска Google или получения ими хороших позиций. Это не так. Более того, подобные структурированные данные не влияют на ранжирование в веб-поиске».

Далее он добавил, что создатели контента могут использовать структурированные данные как дополнительный способ улучшить свои страницы в результатах поиска. На ранжирование это не влияет. Использование разметки лишь помогает тем страницам, которые уже ранжируются, выглядеть более привлекательно для потенциальных посетителей.

Салливан также отметил, что Google пересмотрит те формулировки, которые используются в оповещениях Search Console, чтобы избежать такого рода недопониманий в будущем.

Google показывает неправильный URL в поисковых сниппетах

Зарубежные вебмастера заметили, что Google начал показывать неправильный URL в поисковых сниппетах в отдельных случаях.

В частности, поисковик добавляет префикс «www» туда, где его не должно быть. Например, при поиске по запросу [harwoods] в сниппете отображается адрес harwoods.www.uk.com, тогда как на самом деле он выглядит так: www.harwoods.uk.com

При этом по клику на результат пользователь попадает на указанную страницу. Однако неправильный адрес может вводить в заблуждение.

Сотрудник Google Джон Мюллер заявил в Twitter, что инженеры поиска в курсе этой проблемы и уже работают над её решением.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Первые результаты январского обновления алгоритма Google

Январский апдейт Google затронул сайты из сферы здравоохранения и финансов. А еще интернет-магазины и медиа.

Издание Search Engine Land опросило ряд поставщиков данных, чтобы выяснить, как последнее обновление основного алгоритма Google – January 2020 Core Update – повлияло на результаты поиска.

Как известно, Google приступил к запуску обновления 13 января. По состоянию на 17 января его внедрение было по большей части завершено, но полный запуск обычно занимает порядка двух недель.

Все провайдеры данных, опрошенные Search Engine Land, сошлись на том, что январское обновление было крупным и повлияло на большое количество сайтов.

RankRanger
Директор по маркетингу RankRanger Морди Оберштейн (Mordy Oberstein) отметил, что ниша YMYL (Your money or Your life) была затронута очень сильно:
«Это огромное обновление. В топе SERP наблюдаются крупные изменения в таких нишах, как «Здоровье» и «Финансы», и невероятные увеличения по всем нишам, если смотреть на топ-10 результатов в целом».

«За исключением сегмента “Розничной торговли”, который, по моим наблюдениям, был в фокусе обновления от 6 декабря, January 2020 Core Update – это намного более крупное обновление по всем категориям и по каждой позиции в ранжировании», — добавил Оберштейн.

SEMRush
В SEMRush предоставили следующий комментарий:

«Мы можем видеть, что последнее обновление Google было довольно крупным и затронуло практически все категории».

Наиболее волатильными категориями (где колебания были максимально выраженными) являются «Спорт и новости», «Онлайн-сообщества», «Игры», «Искусство и развлечения» и «Финансы».

При этом в SEMRush добавили, что крупные изменения наблюдались по всем категориям, поэтому можно предположить, что данное обновление не было нацелено на какую-либо конкретную тематику.

На диаграмме ниже показана сравнительная волатильность по мобильным и десктопным результатам поиска

Sistrix
Компания Sistrix традиционно опубликовала анализ очередного апдейта Google в своём блоге.

По данным компании, в ходе этого обновления домены, относящиеся к YMYL-тематике, были переоценены поисковым алгоритмом, что привело к изменениям в видимости.

При этом те домены, которые уже были затронуты такими обновлениями, вероятно, будут затронуты снова.

Что касается абсолютных колебаний, то с каждым последующим обновлением они уменьшаются. Google становится более точным в своих оценках и не сильно отклоняется от предыдущих оценок.

SearchMetrics
Основатель SearchMetrics Маркус Тобер (Marcus Tober) предоставил следующий комментарий:

«January Core Update обратил некоторые предыдущие изменения – в лучшую или худшую сторону, в зависимости от сайта. Это ещё одно обновление основного алгоритма, где был пессимизирован «тонкий» контент и где Google сделал упор на YMYL. Это обновление, по-видимому, не повлияло на такое большое количество страниц, как мартовское или сентябрьское. Но оно имеет схожие характеристики».

Он также привёл несколько примеров.

Так, сайт Onhealth.com был среди «победителей» после March 2019 Core Update и «проигравших» после September 2019 Core Update. При этом в ходе January Core Update сайт снова оказался в числе тех, у кого наблюдались положительные изменения.

Другой ресурс, Verywellhealth.com, был в числе «проигравших» в ходе нескольких таких обновлений.

Draxe.com, который переживал как подъёмы, так и падения во время Core Updates, в этом обновлении улучшил свои позиции на 83%.

Общая картина
В целом, согласно представленным данным, обновление было широким, коснулось практически всех категорий и принесло как улучшения, так и потери.

Google скрывает отзывы на компании под ссылкой «More»

Англоязычные пользователи заметили, что Google начал скрывать отзывы на компании в результатах поиска под ссылкой «More».

При этом ответы владельцев компаний на вопросы пользователей показываются.

Что это – сбой или тест, на данный момент не понятно. Зарубежные вебмастера склоняются к тому, что скорее тест.

В Google пока не прокомментировали эту ситуацию.

Google прекращает поддержку разметки Data-vocabulary.org

С 6 апреля 2020 года Google больше не будет использовать разметку Data-vocabulary.org для создания расширенных результатов. Об этом сообщается в официальном блоге компании для вебмастеров. Начиная с сегодняшнего дня Search Console будет рассылать предупреждения для тех страниц, которые используют схемы из словаря Data-vocabulary.org, чтобы владельцы сайтов могли подготовиться к предстоящим изменениям.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Google больше не будет дублировать URL из избранных сниппетов на 1-й странице

Google объявил, что сайты, которые попадают в блок с ответом (featured snippet или избранный сниппет), больше не будут дублироваться на первой странице результатов поиска. Теперь они будут показываться на второй странице.

Это изменение было запущено по всему миру вчера, 22 января.

Для владельцев тех сайтов, из контента которых Google формирует избранные сниппеты, это означает, что их URL теперь будет появляться на первой странице только один раз. Ранее он отображался дважды: в блоке с ответом и в основной выдаче.

Согласно Google, это изменение позволит упорядочить выдачу и облегчит пользователям нахождение нужных результатов. При этом избранные сниппеты будут включаться в число топ-10 результатов, отображаемых на первой странице.

На Яндекс.Картах появились «Маршруты для малого и среднего бизнеса»

Яндекс добавил в веб-версию Карт «Маршруты для малого бизнеса». Инструмент поможет небольшим компаниям с собственной доставкой составлять и оптимизировать маршруты для водителей.

«Маршруты для малого бизнеса» работают на технологиях Яндекс.Маршрутизации — логистической платформы, которую используют крупные транспортные компании и курьерские сервисы. Базовая версия — бесплатная. Работать с ней просто: логист в любом порядке добавляет на карту адреса, которые нужно посетить курьерам, затем нажимает кнопку «Оптимизировать» и получает маршрут. Можно добавить до 50 адресов, выбрать дату и спланировать доставку на нужный день, а также переслать готовый маршрут на телефон курьера. Он откроется в приложении Яндекс.Карт.

Алгоритм «Маршрутов для малого бизнеса» умеет рассчитывать, какой путь короче и займет меньше времени. Чтобы выдать оптимальный результат, он перебирает все возможные комбинации заданных мест, учитывая прогноз загруженности дорог. После оптимизации время в пути уменьшается на 15-20%.

Инструмент подходит компаниям с небольшим числом штатных или наемных водителей. Например, магазинам, кафе и химчисткам, которые развозят заказы по городу или нескольким районам.

Как вертикализация и zero-click будут влиять на локальный поиск Google в 2020 году

Автор: Дэмиан Роллисон (Damian Rollison) – вице-президент по продуктовой стратегии Brandify. Компания специализируется на решениях в области локального SEO.

В своём недавнем посте в блоге SparkToro сооснователь Moz и эксперт в области поискового маркетинга Рэнд Фишкин предсказал, что 2020 станет тем годом, когда Google превратится из «поисковой системы для всех» во «всеобщего конкурента».

В своих прогнозах Фишкин ссылается на монополию Google в веб-поиске и на тренд, связанный с ростом так называемых «zero-click запросов» — когда поисковая сессия заканчивается без перехода на сайты, а пользователь получает всю необходимую информацию и ответы прямо в поисковой выдаче.

Фишкин подкрепляет свои аргументы рядом примеров, среди которых песенный портал Genius, который судится с Google за показ текстов песен в поисковой выдаче, новостные сайты, страдающие от снижения трафика, туристические ресурсы, такие как Expedia и Kayak, и другие.

Рекомендации кафе и ресторанов, прогноз погоды, видеоигры — практически каждая вертикаль была затронута влиянием нескольких взаимосвязанных функций, активно развиваемых Google. В их числе значатся:
?Готовые ответы
?Карточки Сети знаний
?Поисковые вертикали
?Zero-click транзакции (программа Reserve with Google)
?Транзакции дальше вниз по воронке (Google Shopping, Google Travel)
?Карусели
?Блоки локальной выдачи (Local Pack)

Все эти направления взаимосвязаны как технологически, так и стратегически.

С технологической точки зрения речь идёт о построении Сети знаний и повсеместном применении машинного обучения – практически во всём, что Google предлагает в поиске.

С точки зрения стратегии Google продвигает каждый потенциально приемлемый источник информации и стремится занять ведущие позиции в каждой вертикали.

В данной статье мы хотим поделиться собственными мыслями о том, как всё это влияет на локальный поиск в тех направлениях, которые с высокой вероятностью будут расширены в 2020 году.

Нам кажется, что Google очень внимательно следил за тем, как пользователи совершают поиск в разных вертикалях – от путешествий и магазинов до ресторанов и услуг – и тонко настраивал функции локального поиска, чтобы создать еще более вертикализированный UX и получить ещё большую долю воронки.

Предпринимая эти шаги, Google хочет усилить свои позиции в локальном поиске и защитить себя от конкурентов. Другими словами, Google хочет быть самой лучшей поисковой системой в этом сегменте во всём мире. Добившись лидерства в универсальных вариантах использования поиска, далее компания, скорее всего, будет двигаться в сторону усиления вертикализации. И это ещё не все.

В сценарии, где поисковая система добивается результатов, превосходящих самые смелые мечтания, нишевые сайты и каталоги, которые пока ещё обслуживают значительную часть населения, уходят со сцены, и тогда для соединения потребителей и бизнеса остаётся только Google. И это то направление, в котором движется компания.

Google значительно обновил документацию по mobile-first индексации

Команда Google Webmasters сообщила о внесении «значительных изменений» в документацию по mobile-first индексации.

С обновлённой документацией можно ознакомиться по ссылке. В интернет-архиве Wayback Machine доступна версия за 12 декабря.

Консультант по международному SEO Айман Лукил (Aymen Loukil) опубликовал обзор основных изменений в Twitter.

Вот те обновления, которые он нашёл:
?Фокус на одинаковом контенте в мобильной и десктопной версиях сайта;
?Одинаковые метатеги robots;
?Ресурсы должны быть доступными для сканирования;
?Одинаковые структурированные данные в обеих версиях;
?URL-адреса в мобильных структурированных данных должны указывать на мобильные страницы;
?Одинаковые метатеги (title, description);
?Высококачественные изображения;
?Одинаковый альтернативный текст для мобильных и десктопных изображений;
?Используйте поддерживаемые форматы видео;
?Не размещайте видео внизу страницы;
?Никаких взаимодействий на основе lazyload.

Рекомендации для сайтов с отдельными URL (m.dot):
?Мобильная версия не должна выдавать ошибку;
?Подтверждение обеих версий в Search Console;
?Один и тот же файл robots.txt;
?Корректно внедрённые атрибуты rel=canonical и rel=hreflang;
?Не используйте фрагменты URL для мобильных страниц;
?Не используйте один URL для нескольких мобильных страниц.

В русскоязычной версии документации эти изменения пока не отражены.

Джон Мюллер о скрытом тексте на сайтах

На днях сотрудник Google Джон Мюллер ответил на вопрос касательно скрытого текста на сайтах.

Так, один из вебмастеров написал в Reddit, что два его самых крупных конкурента в поиске используют скрытый текст, наполненный ключевыми словами, и занимают более высокие позиции в выдаче. Он спросил, можно ли с этим что-нибудь сделать.

Согласно ответу Мюллера, вебмастер переоценивает влияние скрытого текста.

«Другой сайт не опередит ваш только потому, что использует скрытый текст. И наоборот, одно лишь наличие скрытого текста на странице не приведёт к тому, что сайт будет исключён из Google».

Мюллер отметил, что поисковик использует большое количество сигналов в ранжировании и на конечный результат влияет множество факторов. Кроме того, Google понимает, что сайты не идеальны и приспосабливается к этому.

«Многие сайты ошибаются, многие по случайности имеют скрытый текст, сайты не идеальны и наши алгоритмы работают, чтобы справляться с этими недостатками. Иногда это означает, что сайт, который ранжируется в топе поисковой выдачи, — тот, что наши алгоритмы посчитали хорошим соответствием запросу пользователя – это ресурс, на котором многие вещи реализованы технически некорректно».

Позже Мюллер также опубликовал следующий пост в Twitter:

«Позвольте открыть вам секрет: существует множество алгоритмов, и вам не нужно побеждать в каждом из них, чтобы добиться успеха в поиске».
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Google ещё больше размыл грань между рекламой и органическими результатами

Эксперты бьют тревогу и обвиняют компанию в использовании "тёмных паттернов"

После редизайна десктопной поисковой выдачи Google, запущенного на прошлой неделе, грань между рекламой и органическими результатами стала ещё более размытой. Об этом сообщает The Verge, ссылаясь на обсуждения в Twitter и на других площадках.

Многие эксперты считают, что в случае последнего редизайна Google речь идёт об использовании «тёмных паттернов» (англ. dark patterns) – уловок в интерфейсе, призванных ввести пользователей в заблуждение.

В новом UI реклама и органические результаты имеют похожее оформление, в связи с чем пользователи могут чаще путать эти результаты, принимая рекламу за органику и наоборот. Особенно это актуально для англоязычной выдачи, где реклама обозначается коротким словом «Ad», а новый ярлык очень напоминает фавиконы, которые отображаются рядом с обычными результатами.

Ранние данные, собранные Digiday, свидетельствуют о том, что после редизайна SERP пользователи стали чаще кликать на рекламу.

IT-редактор The Guardian Алекс Херн (Alex Hern) – один из многих комментаторов, которые указали на данную проблему.

Эти тенденции к размытию грани между платными и органическими результатами становятся особенно очевидными, если вспомнить, как выглядела поисковая выдача Google до 2013 года. Тогда спутать рекламу с другими результатами было сложно:

Отметим, что во время запуска этого оформления в мобильной версии поиска Google заявил, что добавление фавиконов призвано облегчить пользователям «сканирование» выдачи и нахождение нужных результатов.

При этом многие эксперты считают, что цели Google были совсем другими. И на самом деле компания не столько хотела улучшить опыт пользователей, сколько увеличить свой доход от рекламы.

Эту версию отчасти подкрепляют данные, собранные Digiday. Но пока ещё мало информации, чтобы делать обоснованные выводы.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Google ответил на частые вопросы об изменениях в работе Featured Snippets

На прошлой неделе Google объявил, что больше не будет дублировать те URL, которые отображаются в блоках с ответами (featured snippets или избранные сниппеты) на первой странице выдачи. В комментариях к посту на эту тему в Twitter сотрудник поиска Дэнни Салливан поделился более подробной информацией по этому изменению.

Он опубликовал своего рода FAQ, который включает 7 пунктов:
?Изменение в работе избранных сниппетов было названо дедупликацией;
?Обновление было запущено в глобальном масштабе;
?Оно не повлияло на избранные сниппеты с видео;
?Изменение пока не повлияло на тот вариант featured snippets, который напоминает панель знаний, но начнёт влиять на него позже (в ближайшие дни).
?Дедупликация не повлияла на блоки «Главные новости» и «Interesting Finds».
?Смещение дублированного URL на вторую страницу поисковой выдачи – это, скорее, баг, а не запланированное изменение. Если URL-адреса, которые показываются в избранных сниппетах, также ранжируются на второй странице, то эти результаты могут быть удалены.
?Обновление не повлияет на данные отчёта об эффективности в Search Console.

Дэнни Салливан также ответил на вопрос о том, вернётся ли сайт на ранее занимаемые «высокие позиции» в органической выдаче, если потеряет избранный сниппет.

По его словам, для попадания в featured snippets сайт должен ранжироваться в топе выдачи. Соответственно, он вполне может вернуться на эти позиции после выпадения из блока с ответом.

Джон Мюллер о ранжировании новых сайтов

Во время последней видеовстречи для вебмастеров сотрудник Google Джон Мюллер ответил на вопрос касательно ранжирования новых сайтов.

Так, один из вебмастеров спросил: могут ли новые сайты занимать высокие позиции в выдаче только благодаря хорошему контенту? Или для этого нужно, чтобы прошло какое-то время, и это основной фактор?

«Теоретически, может ли сайт, которому всего лишь неделя или две, занимать топовые позиции в Google по ультраконкурентным запросам, например [обувь]? Только благодаря контенту, учитывая, что это самая важная часть основного алгоритма?

Если нет, тогда время – это фактор, когда дело касается ранжирования страниц в высоко конкурентных тематиках, независимо от того, насколько хороши эти страницы, если они не создаются на уже устоявшихся сайтах».

По словам Мюллера, ранжирование нельзя свести всего лишь к двум сигналам – контенту и времени. Их на самом деле намного больше.

Что касается новых сайтов, то Google производит предварительную оценку сайтов и ранжирует их на основе этих оценок.

Иногда в результате сайт может поначалу ранжироваться выше, чем он того заслуживает, или ниже. Со временем по мере того, как Google получает больше данных (больше сигналов), ситуация выравнивается.

В некоторых случаях Google изначально правильно оценивает сигналы нового сайта, но не всегда.

«Мы используем множество различных факторов, когда речь идёт о сканировании, индексировании и ранжировании. Иногда это означает, что абсолютно новые сайты занимают высокие позиции в поиске. Иногда же может понадобиться больше времени, чтобы всё устаканилось», — объяснил Мюллер.

В связи с тем, что новые сайты посылают не так много сигналов, Google прогнозирует их позиции и использует оценочные значения.

На чём основаны эти оценки, Мюллер не уточнил.

Выводы:
?Google ранжирует новые сайты на основе оценочных данных.
?Поскольку у новых сайтов практически нет других сигналов, кроме on-page (ссылочные и поведенческие факторы близки к нулю), то, вероятно, именно эти сигналы Google и учитывает в процессе оценки. Поисковик также может использовать исторические данные по тем сайтам, которые публикуют похожий контент.
?Время не является важным фактором ранжирования. Идея о времени как факторе ранжирования тесно связана с теорией Google Sandbox, согласно которой новые сайты не могут занимать высокие позиции, пока не пройдёт какое-то время. Но Google неоднократно опровергал предположения о существовании такой «песочницы».
?В определении позиций для новых сайтов принимает участие большое количество алгоритмов.

Google протестирует новые места размещения для фавиконов на десктопах

Google объявил, что протестирует ещё несколько вариантов оформления результатов поиска на десктопах. Компания решила это сделать, исходя из обратной связи, полученной от пользователей в отношении последнего редизайна.

В комментарии Search Engine Land представитель Google заявил, что мобильный редизайн, запущенный в мае 2019 года, был положительно воспринят пользователями, поскольку теперь они могут быстрее понимать, откуда поступает информация, а благодаря новому ярлыку чётко видеть рекламу.

Что касается редизайна десктопной выдачи, запущенного около недели назад, то ранние тесты были положительными. Однако в компании решили протестировать ещё несколько изменений, исходя из откликов пользователей:

«Хотя ранние тесты для десктопов были положительными, мы всегда учитываем обратную связь от пользователей».

В частности, Google хочет поэкспериментировать с отображением и размещением фавиконов.

«Наши эксперименты начнутся сегодня. В течение следующих нескольких недель, пока мы проводим тестирование, некоторые [пользователи] могут не видеть фавиконы, в то время как другие могут видеть их в разных местах размещения», — сообщил представитель компании в пятницу, 24 января.

При этом англоязычные пользователи начали видеть эти изменения ещё до официального заявления Google
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Яндекс.Метрика приглашает протестировать новый код счетчика

Яндекс.Метрика сообщила о разработке новой, облегченной версии кода счетчика. Тестовая сборка, по сравнению с текущей версией кода, весит в пять раз меньше и загружается в пять раз быстрее. В связи с этим Яндекс приглашает сайты принять участие в закрытом бета-тестировании нового кода счетчика.

Сайты, которые хотят принять участие в тесте, должны соответствовать двум критериям:
  • трафик от 10 тысяч посетителей в неделю,
  • передача расширенных данных, это могут быть ecommerce-события, данные контентной аналитики, параметры визитов и посетителей.

Участники тестирования должны будут делиться обратной связью по работе тестовой версии кода с командой разработчиков Метрики.

Узнать подробности можно в блоге Метрики, а оставить заявку на тестирование можно здесь.

Сейчас идет отладка нового кода на внутренних проектах и в ближайшие недели начнется закрытое бета-тестирование — при этом подать заявку на участие можно уже сейчас, заполнив короткую форму.

Главная задача закрытой беты — проверить, что новый код надежно собирает данные в самых разных условиях.

Самое главное условие — нужно будет делиться обратной связью по работе тестовой версии кода. На все вопросы участников теста будет отвечать непосредственно команда разработчиков Метрики.

Важное уточнение: в тестовой сборке пока не будет Вебвизора и тепловых карт, но они обязательно появятся в более поздних версиях. Те, кто хочет участвовать в тесте и при этом продолжать пользоваться Вебвизором, могут оставить текущий код счетчика на тех страницах, для которых важны записи визитов и тепловые карты. А на менее значимые страницы можно установить тестовую сборку.

Заявки на тестирование принимаются до конца февраля. Затем всем, кто записывался в бету, будет сообщено, подходят ли их счетчики для тестирования.

Джон Мюллер: ссылки в PDF-файлах не передают никаких сигналов

Во время последней видеовстречи для вебмастеров сотрудник Google Джон Мюллер заявил, что ссылки в PDF-файлах обрабатываются так же, как ссылки, закрытые атрибутом nofollow, и не передают никаких сигналов.

«Касательно SEO. Поскольку в PDF-файлах нет способа узнать, что ссылки — это действительно ссылки, которые вы хотите использовать для передачи сигналов, то мы обычно рассматриваем эти ссылки как текстовые, которые мы также находим в текстовых файлах. По сути, аналогично nofollow-ссылкам: мы видим ссылку и можем посмотреть, куда она ведёт. Однако в большинстве случаев мы не будет направлять какие-либо сигналы через эти ссылки», — отметил Мюллер.

Примечательно, что ранее другой сотрудник Google – Гэри Илш – отмечал, что такие ссылки передают PageRank и другие сигналы. Он заявлял об этом дважды: в 2011 году в посте, посвящённом PDF в результатах поиска Google, и в 2015 году, в ответ на вопрос одного из SEO-специалистов.

На противоречие в высказываниях Илша и Мюллера обратил внимание консультант по интернет-маркетингу Гленн Гейб.

В ответ на это Мюллер заявил, что Илш, вероятно, прав и сейчас, что вызвало ещё больше вопросов по поводу обработки ссылок в PDF.

В дальнейшем обсуждении, отвечая на комментарии Гейба, Мюллер отметил, что на самом деле это не так важно, поскольку ссылки в PDF-файлах практически не значимы с точки зрения SEO:

«Речь не о проблемах, а о каком-либо практическом эффекте в веб-поиске. Сосредоточьтесь на юзабилити, но не ждите от них чего-то большего».
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Поведенческие факторы в Яндексе – новый виток накруток

В последнее время в социальных сетях и профессиональных сообществах все чаще стали появляться «крики души» различных SEO-специалистов по поводу того, что стало практически невозможно в Яндексе «белыми» методами противостоять накрутке поведенческих факторов.

Предложений на рынке о «гарантированном» выводе в топ Яндекса за считанные дни становится все больше, и все чаще SEO-специалисты слышат от клиентов предложения в духе «А может накрутить по-быстрому, раз ваши профессиональные методы буксуют?». Складывается впечатление, что Яндекс катастрофически упускает контроль над ситуацией с накруткой поведенческих факторов, которая из маргинального занятия ловкачей грозит в скором времени превратиться чуть ли не в отраслевой стандарт поисковой оптимизации.

В связи с этим вспоминается ситуация с ссылочным ранжированием. В начале 2000-х годов в алгоритме Яндекса появились ссылочные факторы, а к середине «нулевых» они набрали колоссальный вес. Тут же стали появляться искусственные ссылки, позволявшие очень быстро вывести сайт в топ поисковой выдачи. Яндекс старательно обозначал свое негативное отношение к таким ссылкам, очень не рекомендовал их использовать, но никаких действенных методов по противостоянию подобным ссылкам не предпринимал.

В итоге SEO-специалисты (тогда называвшиеся оптимизаторами) довольно быстро прошли путь от неприятия ссылочной торговли до ее активного использования. Буквально на глазах сформировалась целая индустрия по купле-продаже ссылок, на добрый десяток лет ставшая основным методом поискового продвижения. Самое неприятное было то, что вес ссылочных факторов был настолько высок, что покупные ссылки позволяли выводить в топ поисковой выдачи практически любой сайт, независимо от его качества и способности решать задачу пользователя, основным фактором была величина ссылочного бюджета. А главным навыком SEO-специалиста стало умение закупать ссылки на ссылочной бирже.

Бездействие Яндекса по отношению к покупным ссылкам на фоне декларируемого негативного отношения к них было довольно странным. Причем сотрудники Яндекса уже тогда умели достаточно точно определять SEO-ссылки. Так, в знаменитом «Мадридском докладе» от 2009-го года упоминалась точность определения в 94%. В качестве одной из возможных причин происходящего в среде оптимизаторов ходило поверье, что полная фильтрация коммерческого ссылочного ухудшает внутренние метрики качества поиска, в чем не заинтересованы многие сотрудники Яндекса, чьи KPI «завязаны» на эти метрики.

И лишь только в 2015-м году Яндекс решился на радикальные действия по отношению к искусственным ссылкам, запустив алгоритм «Минусинск», ознаменовавшийся массовыми санкциями в отношении сайтов, активно закупавших коммерческие ссылки. Впрочем, к тому времени вес ссылочных факторов стал стремительно уменьшаться. Их место как меры авторитетности и качества сайта заняли поведенческие факторы.

Они были введены в алгоритм ранжирования под названием «Арзамас» еще в 2009-м году. Причем кликовые факторы ранжирования (то есть учитывающие поведение пользователей на странице поисковой выдачи и кликабельность сниппетов) практически сразу же получили большой вес, и в 2009-2011 годах даже немногочисленные искусственные клики на документы, находящиеся на низких местах поисковой выдачи, позволяли выводить их за очень короткий срок в топ выдачи по этим запросам.

Как и в случае с ссылочным ранжированием, стали появляться сервисы, предлагающие услуги накликивания результатов поиска с помощью ботов. Но надо отдать должное Яндексу, он не стал закрывать на это глаза. В мае 2011-го года было объявлено о санкциях за эмуляцию действий пользователей, классифицировав их как один методов поискового спама. В отличие от ситуации с ссылочным ранжированием, одними декларациями дело не ограничилось. Была произведена показательная «порка» ряда довольно известных сайтов, что возымело определенный эффект – накликивать результаты поиска с помощью ботов стало опасно, и массовое развитие этого направления прекратилось.

Однако через два года начался новый виток массовой накрутки поведенческих факторов – выполнение реальными пользователями за вознаграждение заданий по переходу на указанные сайта из результатов поиска и выполнение определенных действий на них. Для этих целей стали активно использоваться так называемые биржи заданий. Вторую жизнь получили специализированные публичные сервисы по накрутке поведенческих факторов, ставшие массово привлекать исполнителей для выполнения действий.

Но Яндекс и в это раз отреагировал достаточно быстро. В мае 2014-го года появилось очередное заявление о недопустимости подобных методов и о санкциях, примененных к некоторым сайтам, однако масштабы санкций были довольно незначительны, и массовая накрутка поведенческих сайтов продолжалась. И тогда в декабре 2014-го года Яндекс нанес гораздо более ощутимый удар, сотни сайтов потеряли позиции буквально по всем запросам. Возвращение позиций после отказа от накрутки стало возможным только через 6-8 месяцев. Это было очень показательно и действенно. Индустрия накрутки поведенческих опять ушла в глубокое подполье.

Этот удар по индустрии накрутки ПФ вкупе с алгоритмами «Минусинск», ударившем по коммерческим ссылкам, и «Баден-Баден», ударившем по текстовому спаму, значительно оздоровили ситуацию в области SEO-услуг. SEO-специалисты начали реально помогать делать полезные и удобные сайты. Спам и накрутки стали опасны и непопулярны.

Казалось бы, проблема была решена. Но к 2018-му году стали опять заметны случаи стремительного появления в топах поисковой выдачи сайтов «из ниоткуда». Наиболее вероятным объяснением подобному могла быть только накрутка ПФ. Это явление становилось все более заметным, и в декабре 2018-го года Яндекс разродился очередным грозным предупреждением, в котором опять упоминал о системах автоматического накликивания.

Однако, в отличие от предыдущих случаев, за целый год, прошедший со времени этого заявления, никаких практических действий от Яндекса не последовало. И на данный момент можно смело констатировать факт, что накрутка поведенческих факторов в очередной раз приобрела массовый характер. Едва ли не более массовый, чем прежде.

Причем бездействие Яндекса только стимулирует ее бурный рост. Все чаще различные SEO-специалисты начинают публично бахвалиться, что они могут вывести в топ за считанные дни буквально любой сайт. А те, кто исповедуют «белые» методы, стали все чаще публично сожалеть о том, что они не в состоянии с их помощью противостоять тем, кто использует накрутку.

Все это, на мой взгляд провоцирует очень опасное развитие ситуации, когда рынок SEO-услуг снова уйдет в «тень», и главным навыком SEO-специалиста станет умение ловко эмулировать действия пользователей. И на этом фоне бездействие Яндекса вызывает очень большую тревогу.

Анализ ситуации позволяет предположить, что массовые накрутки сейчас осуществляются с помощью мобильного трафика. Казалось бы, даже если Яндекс по какой-то причине не может эффективно отфильтровать подобную эмуляцию пользователей, то что может быть проще, нежели просто не учитывать мобильный трафик при расчете значений поведенческих факторов как слишком мусорный сигнал? Но видимо, сотрудники Яндекса в силу каких-то внутренних причин, не могут себе этого позволить. Сразу же всплывают аналогии с коммерческими ссылками «доминусинских» времен, которые Яндекс упорно отказывался фильтровать. Не исключено, что из-за слишком большого веса, который имеют поведенческие факторы в алгоритме ранжирования на данный момент, исключение мобильного трафика также может ухудшить внутренние метрики качества поиска. В чем могут быть незаинтересованы сотрудники Яндекса, чьи KPI увязаны с этими метриками.

Но если сотрудники Яндекса в ближайшее время не смогут справиться с ситуацией, то, боюсь, SEO-индустрия рискует окончательно свалиться в яму обмана и читерства.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Google Chrome начнет блокировать все объявления на сайтах c навязчивой рекламой

Компания Google анонсировала новые правила показа видеорекламы для своего браузера Chrome. В соответствии с новыми правилами будут блокироваться продолжительные рекламные ролики, которые нельзя пропустить, а также записи, занимающие большую часть экрана и появляющиеся в процессе просмотра видео.

Сегодня организация Coalition for Better Ads, разработавшая Better Ads Standards (Правила ненавязчивой рекламы), представила новые стандарты для рекламы в видео и заявила, что владельцы сайтов должны прекратить показ навязчивой рекламы в течение следующих четырех месяцев. Поэтому Google, входящий в коалицию, с 5 августа 2020 года начнет блокировать в своем браузере Chrome все объявления на сайтах, которые постоянно показывают подобную навязчивую рекламу, — независимо от страны. YouTube, как и другие сайты с видеоконтентом, будут проходить проверку на соответствие положениям Better Ads Standards.

«Наша команда работает над тем, чтобы пользователи не испытывали неудобств при просмотре рекламы. Для соблюдения новых стандартов Google собирается обновить планы для всех рекламных платформ, включая YouTube, а также использовать результаты исследования Coalition for Better Ads при разработке продуктов в будущем», — сообщили в Google.

Всем вебмастерам и владельцам сайтов, на которых есть рекламные объявления, желательно воспользоваться отчетом о качестве рекламы. Он показывает, насколько тот или иной сайт соответствует стандартам для рекламы по оценке Chrome. На этой неделе он будет обновлен, чтобы издатели могли выявлять и устранять проблемы, связанные с нарушением новых стандартов.

Яндекс.Метрика меняет дефолтную модель атрибуции

В отчетах с данными по источникам трафика Яндекс.Метрики, где раньше по умолчанию использовалась модель атрибуции «Последний переход», теперь будет применяться модель «Последний значимый переход».

Новая модель, в отличие от «Последнего перехода», позволяет сделать больше полезных выводов для продвижения сайта, а не для технического анализа. Например, понять, насколько хорошо отработали те или иные каналы привлечения пользователей.

Из-за смены модели атрибуции по умолчанию трафик перераспределится между источниками: внутренних переходов и прямых заходов станет меньше, переходов из других источников — больше.

При необходимости переключить модель атрибуции обратно на «Последний переход» можно в любой момент.

Google Chrome начнёт блокировать загрузки смешанного контента

Команда Google Chrome объявила, что браузер постепенно начнёт блокировать загрузки смешанного контента — HTTP-файлов на HTTPS-страницах.

Новая инициатива связана с ранее анонсированными планами по блокировке всего смешанного контента на защищённых страницах.

На данный момент Chrome никак не обозначает загрузку незащищённого контента на HTTPS-страницах.

Chrome 82, который выйдет в апреле, начнёт показывать предупреждение для таких загрузок. На первом этапе оно коснётся исполняемых файлов, таких как .apk и .exe.

В окне загрузки появится сообщение о том, что файл «не может быть скачан безопасно».

Google начнёт запуск этих предупреждений с Windows, macOS, Linux и Chrome OS, а затем перейдёт к Android и iOS.

Переход к полной блокировке загрузки незащищённых файлов будет осуществлён в несколько этапов:
?Chrome 81 (март 2020): добавление сообщений в консоль с предупреждением о всех загрузках смешанного контента.
?Chrome 82 (апрель 2020): предупреждение о загрузке незащищённых исполняемых файлов.
?Chrome 83 (июнь 2020): блокировка загрузки незащищённых исполняемых файлов. Браузер также начнёт показывать предупреждения для относящихся к смешанному контенту архивов (.zip) и образов дисков (.iso).
?Chrome 84 (август 2020): блокировка незащищённых исполняемых файлов, архивов и образов дисков. Браузер также начнёт предупреждать пользователей по всем другим загрузкам, связанным со смешанным контентом, за исключением изображений, аудио, видео и текстовых форматов.
?Chrome 85 (сентябрь 2020): браузер начнёт предупреждать о загрузке HTTP-изображений, аудио, видео и текстовых файлов. Chrome также будет блокировать все другие загрузки смешанного контента.
?Chrome 86 (октябрь 2020): браузер будет блокировать все загрузки смешанного контента.

Вебмастера заметили признаки крупного обновления алгоритма Google

На выходных зарубежные вебмастера заметили признаки крупного обновления поискового алгоритма Google. Об этом свидетельствуют их сообщения на тематических форумах (WebmasterWorld, Black Hat World, Google Webmaster Help), в Twitter и на других площадках.

Жители форума Searchengines.guru также заметили изменения по своим ресурсам.

Колебания в выдаче начали наблюдаться примерно с пятницы, 7 февраля. В социальных сетях эта тема стала активно обсуждаться немного позже – в субботу-воскресенье.

Владельцы сайтов говорят о значительном снижении трафика. Так, у одного из вебмастеров трафик резко упал с 4000-5000 пользователей в день до всего лишь 600-700. И ситуация продолжает ухудшаться.

Что касается тематик, то пока непонятно, какие из них были больше всего затронуты. Среди пострадавших значатся ресурсы на тему криптовалют.

При этом, как удалось выяснить западному SEO-эксперту Гленну Гейбу, на данные инструментов не повлияли изменения, связанные с избранными сниппетами. Так что, зафиксированные ими колебания имеют другую причину.

В целом, судя по масштабу обсуждений и данным сервисов мониторинга, можно говорить о довольно крупном обновлении. При этом оно охватывает не только западный сегмент интернета, но и рунет.

В Google пока не прокомментировали эту ситуацию.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Яндекс напомнил о возможности ускорить обход страниц при помощи Метрики

Команда Яндекс.Вебмастера напомнила вебмастерам о возможности информировать поисковой робот Яндекса о новых страницах сайта при помощи счетчика Метрики.

Для этого необходимо привязать счетчик Метрики к сайтам в Вебмастере и включить опцию «Обход по счетчикам».

Для подключения «Обхода по счетчику»нужно:
?Перейти на страницу «Индексирование → Обход по счетчикам» в Вебмастере.
?Посмотреть примеры страниц, которые могут попасть в поиск, если они подготовлены для сайта.
?Включить обход.

Чтобы проверить, какие страницы участвуют в поиске, необходимо открыть раздел «Индексирование → Обход по счетчикам» и посмотреть примеры страниц, которые попадут в поиск, если они доступны для сайта. Далее следует нажать кнопку «Примеры страниц» напротив счетчика, к которому привязан сайт.

Выяснить, участвуют ли в поиске нежелательные страницы, можно в разделе Страницы в поиске.

Стоит обратить внимание, что отключение обхода не удаляет страницы из результатов поиска. Чтобы убрать страницы из поисковой выдачи, необходимо использовать стандартные методы защиты от индексации: пароль, ограничения в файле robots или метатег, http-заголовок noindex.

К одному счетчику можно привязать несколько доменов или несколько счетчиков к одному сайту.

Google: объединение сайтов требует больше времени на обработку, чем смена домена

На днях сотрудник Google Джон Мюллер ответил в Twitter на вопросы, связанные с объединением сайтов.

Так, один из вебмастеров рассказал, что недавно перенёс небольшой сайт на новый домен, по сути, присоединив его к другому ресурсу. При этом он использовал инструмент изменения адреса. Между тем в результатах поиска Google по-прежнему показываются старые страницы, хотя с них настроена переадресация 301 на новые.

Вебмастер спросил, нужно ли удалить старые страницы из сервера, чтобы они пропали из SERP.

Мюллер ответил, что делать этого не следует:
«Никогда не используйте инструменты удаления для перемещений сайтов. Инструмент удаления URL не влияет на каноникализацию и не ускоряет перенос. В итоге вы просто получите меньше трафика».

Кроме того, описанная ситуация вполне нормальна для объединений сайтов – они требуют больше времени на обработку:

«Нет, вам ничего не нужно делать, чтобы [старые страницы пропали из выдачи]. Когда вы объединяете сайты, а не просто меняете домены, то это занимает гораздо больше времени. При использовании инструмента удаления URL вы не получите вообще никакого трафика для старого домена, поэтому я не бы рекомендовал это делать».

В Search Console появились отчёты по отзывам

Google представил новые отчёты в Search Console, которые призваны дать вебмастерам больше информации о расширенных результатах с отзывами.

Новые опции включают:
?Отчёт по отзывам (review snippets) в разделе «Улучшения». Новый отчёт о статусе расширенных результатов доступен для тех сайтов, которые добавили соответствующие структурированные данные. Теперь они смогут видеть ошибки и предупреждения, связанные с разметкой отзывов.
?Поддержку отзывов в инструменте проверки расширенных результатов.
?Данные по отзывам в отчёте об эффективности. Чтобы просмотреть эти сведения, нужно использовать параметр «Вид в поиске».

Согласно Google, отзывы – один из самых часто используемых типов структурированных данных в интернете. Их внедряют миллионы сайтов.

Google отключит старую версию YouTube на десктопах

Google объявил, что планирует отключить старую версию десктопного интерфейса YouTube в марте.

В августе 2017 года разработчики запустили переработанную версию YouTube на десктопах, в которой используется Material Design. До сих пор у пользователей была возможность переключаться между старым и новым интерфейсом, но скоро её не станет.

В последние годы Google запустил множество новых функций, которые недоступны в более старой версии сервиса. Поэтому компания решила прекратить её существование.

Начиная со следующего месяца пользователям будет доступна только текущая версия YouTube.

Те люди, которые используют старый интерфейс, начнут видеть оповещения «Switch to the new YouTube».

Google: подсчитывать слова у сайтов в ТОПе бессмысленно для SEO

Сотрудник Google Джон Мюллер сообщил, что подсчитывать слова у сайтов в ТОПе бессмысленно. Тексты, содержащие определенное количество слов, не помогут страницам ранжироваться лучше.

Наличие того же количества слов, что и в статье, которая высоко ранжируется в ТОПе, не приведет к тому, что ваши страницы займут первое место, как и наличие множества USB-зарядных устройств не доставит вас на Луну, – написал Мюллер в Twitter.
Сотрудник Google Джон Мюллер сообщил, что подсчитывать слова у сайтов в ТОПе бессмысленно

Заметим, что анализ длины текстов и ключевых слов у сайтов, занимающих верхние позиции в выдаче, является распространенной практикой среди SEO-специалистов. Существуют даже сервисы по анализу SERP, которые включают функцию подсчета слов и рекомендуют определенное количество знаков страницам, которые хотят успешно ранжироваться. Джон Мюллер утверждает, что в этом нет никакого смысла.

При этом специалист по поисковому маркетингу с 20-летним стажем Роджер Монтти замечает: просто размещение контента с определенным количеством слов действительно не улучшит рейтинг сайта в выдаче. Но есть один нюанс, который SEO-специалисты, практикующие анализ контента конкурентов, упускают из вида.

Аудит клиентских сайтов показывает, что переписанный контент довольно часто отклоняется от темы и становится менее релевантным.

Поэтому Монтти рекомендует сначала понять намерения пользователей, которые вводят запросы, а потом уже под эти намерения создавать релевантные тексты для страниц.

Напомним, ранее Джон Мюллер сообщил, что сайты нуждаются в продвижении, чтобы хорошо ранжироваться.

Неподтверждённый апдейт Google: колебания продолжаются
Выдачу «трусит» уже 5-6 дней


Зарубежные вебмастера продолжают активно обсуждать последнее крупное, но по-прежнему не подтверждённое обновление Google.

Уже прошло около 5-6 дней с момента его предполагаемого запуска, но колебания в выдаче до сих пор продолжаются, что подтверждают и сообщения владельцев сайтов на различных площадках, и данные инструментов отслеживания SERP.

Эксперты отрасли отмечают, что эта ситуация нетипична для обновлений Google, даже для Core Updates – чтобы такие крупные колебания длились так долго.

На форумах WebmasterWorld и Black Hat World обсуждения продолжаются. В Twitter также появляются новые сообщения.

Консультант G-Squared Interactive Гленн Гейб высказал предположение, что это может быть какой-то тест, а не апдейт. Так, по одному из наблюдаемых им сайтов позиции то падают, то возвращаются.

Мэри Хейнс также считает последнее обновление нетипичным и «странным». В Twitter она рассказала о значительных улучшениях по ряду клиентов, но отметила, что объяснить их сложнее, чем обычно.

В Google по-прежнему никак не комментируют эту ситуацию.

В Google прокомментировали февральское обновление алгоритма Но ничего нового не сказали

Сотрудник Google Дэнни Салливан наконец прокомментировал последнее «неофициальное» обновление поискового алгоритма, которое в отрасли назвали February 2020 Update.

При этом он ограничился короткой и уже привычной для вебмастеров фразой: «Мы вносим обновления всё время». И предложил перечитать предыдущие заявления компании касательно апдейтов, сделанные в ноябре.

Тогда Салливан подтвердил запуск нескольких алгоритмических обновлений и объяснил, что Google вносит такие изменения каждую неделю, на регулярной основе.

На этот раз Салливан прямо не подтвердил запуск обновления, но намекнул на то, что оно было.

Как известно, Google официально сообщает лишь о масштабных обновлениях основного алгоритма, которые в компании называют Core Updates.

Google объяснил, что такое SEO, в новом видео

Google объяснил, что такое SEO и обозначил лучшие SEO-практики, которые стоит использовать владельцам бизнеса, в новом видео серии Search for Beginners.

Поскольку эти рекомендации ориентированы на новичков и тех людей, которые не обладают глубокими знаниями в SEO, то большинству вебмастеров они уже знакомы.

Согласно Google, SEO связано с использованием правильных слов и предоставлением релевантной информации потенциальным клиентам.

Для этого важно убедиться, что сайт содержит полезную для пользователей информацию по таким пунктам, как:
?Ассортимент
?Цены
?Часы работы
?Местоположение

Что касается страниц товаров, то Google рекомендует использовать изображения вместе описаниями. Описания должны содержать ключевые слова, такие как названия брендов, цвета, а также название самого товара.

Другие, более общие рекомендации включают следующие пункты:
?Создавайте короткие и ёмкие заголовки страниц.
?Используйте подзаголовки, которые передают тему страницы.
?Заполните раздел «О нас», чтобы он включал контактную информацию, описание компании и те страны, в которых вы работаете.
?Используйте описательный альтернативный текст для изображений.

Не вдаваясь в детали, Google также посоветовал владельцам сайтов держаться подальше от техник «чёрного SEO», которые предназначены для обмана поисковых алгоритмов.

«У Google есть много способов обнаружить обманные методы. Эти меры предосторожности помогают обеспечить актуальность и точность результатов поиска для пользователей. В результате большинство этих техник не работают», — заверили в компании.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Google Мой бизнес начал оповещать об удалении отзывов

Google Мой бизнес начал оповещать владельцев бизнеса об удалении отзывов из их профилей в поиске. Об этом рассказал бывший сотрудник GMB и Adwords под ником Francisco CV в Twitter.

Email-уведомление имеет следующий заголовок: «Мы удалили отзыв о вашем бизнес-профиле». Отправителем является Google Мой бизнес.

По словам Francisco CV, он впервые заметил такое уведомление.

Благодаря новой функции специалистам по локальному SEO и владельцам бизнеса будет проще отслеживать отзывы по своим профилям.


Google обновил алгоритм локального поиска

Зарубежные вебмастера заметили признаки крупного обновления в локальном поиске Google. Колебания в выдаче начались 14 февраля и продолжаются до сих пор.

Согласно сообщениям на тематических площадках, апдейт повлиял на позиции всех компаний, которые ранжируются в блоке локальной выдачи (Local Pack) и в результатах поиска в Google Картах.

Инструмент мониторинга локальной выдачи Google BrightLocal Local Rankflux также показал крупные колебания на этих выходных.

Сервис отслеживает ежедневные изменения в позициях по 14 тыс. ключевых слов.

Эксперты в области локального поиска поделились своими мнениями по возможному апдейту на форуме Local Search.

Джой Хоукинс:
«Мы определённо видим много изменений. Но мы не собираемся ничего делать, пока не пройдет несколько дней, и мы не увидим, что останется.

Стефани Ньютон из BrightLocal написала в пятницу, 14 февраля:
«Для понимания: 4,78 – это наивысший показатель, который мы когда-либо видели (не считая сбоя в августе 2019 года). Это даже выше, чем то, мы наблюдали при запуске обновления “Bedlam” в ноябре».

Позже в тот же день другая сотрудница BrightLocal под ником Rosie добавила:
«По сравнению с “обычным” днём вероятность того, что компании останутся на той же позиции, что и вчера, стала на 50% ниже. Обычно, 35-55% компаний не видят никаких изменений, но сегодня их было только 26%».

Она также отметила, что по состоянию на 14 февраля наблюдалось значительное снижение позиций (более чем на 10 пунктов) по большему числу компаний. Доля таких предприятий за сутки выросла на 139%. Между тем это довольно небольшое число от общего количества бизнесов (0,27% на 13.02.20; 0,68% на 14.02.20).

В то же время часть компаний значительно улучшили свои позиции (более чем на 10 пунктов). С 13 по 14 февраля доля таких предприятий выросла на 90% (5,32% от общего числа компаний против 2,71%).

Между тем небольшое повышение уровня колебаний в локальной выдаче Google специалисты BrightLocal наблюдают уже около недели. Так что, это могут быть компании, которые возвращаются на те позиции, которые они занимали перед этими небольшими колебаниями.

Как видно на первом скриншоте, в воскресенье инструмент BrightLocal показал снижение волатильности. Однако в понедельник, 17 февраля, колебания в выдаче снова усилились. При этом они остаются ниже уровня пятницы, в связи с чем эксперты склоняются к выводу, что «худшее» уже позади.

В каком масштабе было запущено это обновление, пока неизвестно. Эксперты, принимавшие участие в обсуждении на форуме Local Search, находятся в Канаде, США и Великобритании.

Яндекс тестирует выдачу с пятью рекламными объявлениями сверху

Яндекс тестирует выдачу, в которой пять первых мест занимает реклама. Тестирование заметил пользователь Сергей Ковалев, который поделился скриншотом нововведения. Сообщение об этом появилось в Telegram-канале «Контекстная реклама».

Яндекс увеличил число рекламы в выдаче

Источник канала «Контекстная реклама» в Яндексе сообщил:

Да, это наш эксперимент с показом пяти объявлений в верхнем блоке, который тестируется на ограниченном количестве рекламодателей. Если по итогу он покажет хорошие результаты, то есть вероятность, что такой вариант выдачи будет принят для постоянных показов и мы сообщим об этом подробнее.
SEOnews запросил официальный комментарий. Пресс-служба Яндекса сообщила, что «преждевременно говорить о какой-либо возможности внедрения» такого варианта выдачи:

«Яндекс постоянно проводит эксперименты с рекламными форматами и выдачей, некоторые эксперименты проводятся периодически, чтобы оценить возможные изменения. Это один из них».

Напомним, на прошлое неделе Яндекс объявил финансовые результаты за четвертый квартал 2019 года и за весь 2019 год. Общая выручка компании от продажи интернет-рекламы выросла за год на 20%.

В Яндекс.Вебмастере появился раздел «Представление в поиске»

Чем информативнее в результатах поиска представлен сайт, тем больше вероятность того, что пользователь выберет именно его. Улучшить отображение сайта помогают такие элементы поисковой выдачи, как сниппеты и специальные ответы.

В Яндекс.Вебмастере появился специальный раздел «Представление в поиске», где собрана подробная информация об этих элементах выдачи и способах влияния на их внешний вид.

Специальные ответы — это элементы поисковой выдачи, которые отображаются в отдельном блоке: в полной версии сайта справа от результатов поиска, в мобильной версии — над или между ними.

Помимо основной информации, как правило, карточка специального ответа содержит дополнительную информацию. Какую именно — зависит от типа объекта. Например, в специальном ответе может быть добавлен контент с сайта или контактные данные организации.

Сниппет — это блок с описанием страницы сайта, который выводится в результатах поиска. Благодаря сниппету пользователь получает представление о странице или нужную информацию, не заходя на сайт.

Чем сниппет привлекательнее и информативнее, тем больше вероятность того, что сайт получит больше внимания пользователей. Вебмастер может повлиять на внешний вид своего сниппета и сделать его гораздо привлекательнее для пользователей, добавив в него дополнительную информацию. Например, фото и цену товаров, контакты организации, фавиконку и другие данные

Bing анонсировал запуск новой версии Webmaster Tools

Поисковая система Bing готовит к запуску новую версию своего сервиса для вебмастеров Webmaster Tools.

На конференции SMX West представитель Bing объявил, что запуск запланирован на первую неделю марта.

Сервис получит обновлённый интерфейс, а также ряд новых функций. В их числе:
?Новый отчёт о ссылках (Backlinks), частью которого является инструмент Disavow.
?Новый отчёт об эффективности, который объединяет отчёты по трафику страниц и ключевым словам в поиске.
?Обновлённая страница «Sitemaps».

На сегодня получить доступ к новой версии можно по ссылке: aka.ms/newbwt.

В ближайшие месяцы Bing планирует перенести все функции из старой версии Webmaster Tools в новую. В процессе переноса вебмастера смогут использовать и старую, и новую версию страниц.

Спустя несколько недель после того, как перенос будет завершён, Bing отключит старую версию сервиса.

Google тестирует очень крупные изображения в результатах поиска

Англоязычные пользователи заметили, что Google тестирует очень крупные картинки в результатах поиска.

Эти изображения относятся к AMP-страницам, которые в рамках теста выводятся в десктопной выдаче.

При этом другие результаты оформлены так же, как и в тесте, который стартовал в начале месяца: заголовок без описания и увеличенное изображение.

Новый эксперимент запущен в ограниченном масштабе.

Google тестирует новые метаданные для лицензируемых изображений

Google объявил о запуске бета-тестирования нового ярлыка и дополнительной информации для лицензируемых изображений в поиске по картинкам.

Новый ярлык «Licenceable» пока не запущен, но Google рекомендует владельцам сайтов заблаговременно подготовить свои ресурсы к этому нововведению. В частности, используя новые метаданные.

Ярлык призван показать пользователям, что по изображению доступна информация о лицензировании.

Google также добавит информацию о лицензировании в описание изображения. Здесь будет отображаться владелец фото/картинки и ссылка на страницу с информацией о том, на каких условиях его можно использовать.

Google: у нас нет такого сигнала, как EAT

На днях сотрудник Google Дэнни Салливан ответил в Twitter на вопрос, связанный с EAT (Expertise, Authority, Trust).

В частности, Салливан объяснил, что у алгоритмов Google нет такого сигнала, а асессоры используют это понятие, чтобы проверить работу поисковой системы.

При этом Салливан отметил, что у Google есть много разных сигналов, которые, если поисковик их правильно понимает, совпадают с тем, как люди могут оценивать EAT.

На вопрос, используются ли данные, полученные от асессоров в обучении алгоритмов, Салливан ответил отрицательно.

О том, что у Google нет такого показателя, как EAT (а также YMYL), ранее также заявлял сотрудник поиска Гэри Илш.

В сети появилась новая обманная тактика линкбилдинга

Зарубежные специалисты отрасли обратили внимание на новую обманную тактику линкбилдинга, которая в последнее время начала довольно активно использоваться в западном SEO-пространстве.

В рамках этой тактики мошенник заявляет, что в статье на выбранном им сайте содержится принадлежащее ему изображение. В обмен на право его использовать он просит поставить ссылку на свой ресурс. На самом деле изображение ему не принадлежит, это лишь уловка.

Обсуждение на эту тему привлекло внимание сотрудника Google Джона Мюллера. Он заявил, что хотел бы посмотреть больше примеров таких обращений.

Будут ли приняты какие-то меры в результате этого расследования, пока непонятно.

Google сократил спамный контент в Картах до менее чем 1%

Google рассказал о роли пользовательского контента в развитии Карт и поделился свежей статистикой.

По данным компании, каждый день люди добавляют в Карты более 20 млн публикаций: оставляют отзывы, оценивают фотографии, отвечают на вопросы других пользователей и обновляют адреса.

При этом Google удалось добиться, чтобы спам составлял менее 1% от всего контента, добавляемого пользователями.

Для выявления спама компания использует машинное обучение. ML-системы определяют спамные профили, нарушающие правила изображения и фейковые отзывы.

При этом в борьбе со спамом задействованы не только машинные средства, но и сотрудники компании.

По итогам 2019 года Google:
?Удалил более 75 млн нарушающих правила отзывов и 4 млн фейковых бизнес-профилей;
?Удалил более 580 млн отзывов и 258 млн бизнес-профилей, о которых сообщили пользователи;
?Проверил и удалил более 10 млн фото и 3 млн видео, которые нарушали правила сервиса.
?Заблокировал более 475 млн учётных записей пользователей.

В Google нашли ссылки на закрытые группы в WhatsApp

На днях стало известно, что поисковые системы, включая Google, индексируют ссылки-приглашения в закрытые группы в WhatsApp. Этот факт обнаружил журналист Джордан Уилдон (Jordan Wildon). Он поделился своим открытием в Twitter: Как выяснилось, ссылки-приглашения индексируются поисковиками и выводятся в результатах поиска. Используя эти ссылки, пользователи могут свободно присоединяться к закрытым группам.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Search Console рассылает email-оповещения о всплесках трафика

Google Search Console рассылает email-оповещения, призванные проинформировать владельцев сайтов о резких всплесках трафика по конкретным страницам. Сервис также приводит возможные причины таких скачков.

Google уже рассылал подобные оповещения ранее, в которых сообщал об увеличении или уменьшении количества переходов, но тогда в них содержались данные за неделю. В новых оповещения приводятся данные за последние три дня. Теперь вебмастера смогут быстрее реагировать на такие всплески.

По словам сотрудника Google Джона Мюллера, оповещения такого рода отправляются, только когда у поисковика есть полезная информация, которой можно поделиться.

Стоит также отметить, что Google информирует только об изменениях в органическом трафика и не рассылает оповещения по всплескам в трафике из других источников. Например таких, как социальные медиа.

Google убирает правосторонние блоки с ответами из выдачи

В этом месяце Google удалил около 60% правосторонних блоков с ответами (featured snippets) из результатов поиска. Об этом свидетельствуют данные инструментов мониторинга SERP Moz и RankRanger.

При этом поисковик не переместил их в основную выдачу – «в центр», как обещал, а просто удалил.

По наблюдениям Морди Обершейтна из RankRanger, обновление затронуло большое количество «продуктовых» ключевых слов, по которым больше не выводятся правосторонние блоки с ответами.

Питер Мейерз из Moz в свою очередь отметил, что MozCast зафиксировал аналогичный спад в районе 15 февраля. При этом он отметил, что на долю правосторонних блоков приходилось около 30% от всех featured snippets. Большинство – это по-прежнему левосторонние блоки.

По состоянию на 14 февраля около 27,5% избранных сниппетов составляли правосторонние блоки. К 24 февраля их доля упала до 10,9%.

Между тем консультант G-Squared Interactive Гленн Гейб отметил, что по-прежнему видит большое количество таких блоков.

По мнению Барри Шварца из Search Engine Roundtable, Google, вероятно, только начал процесс удаления правосторонних блоков. Что с ними будет дальше – будут ли они затем перемещены в центр выдачи или удалены навсегда, на данный момент непонятно.

Google: мы всё ещё используем PageRank
А такого сигнала, как Domain Authority, у поисковой системы по-прежнему нет

На днях сотрудник Google Джон Мюллер заявил, что поисковик продолжает использовать PageRank в ранжировании.

Он также добавил, что это лишь один из множества сигналов. И сейчас PageRank – это уже не совсем то, что было описано в исходном документе. Кроме того, Google использует много других сигналов, которые могут быть намного сильнее.

В Twitter также задали вопрос на тему Domain Authority. В ответ Мюллер в очередной раз повторил, что Google не использует эту метрику в своих алгоритмах.

Что касается тех, кто утверждает обратное, то они ошибаются.

SEO-эксперимент: влияют ли заголовки H1 на ранжирование

UPD (26.02.2020 09:26):
В оригинальный пост Moz были внесены изменения, поэтому мы тоже вносим корректировки в новость. Сайрус Шепард обратил внимание, что SEO-эксперименты ничего не говорят о работе алгоритмов Google. Тестирование не доказывает, что H1 не является фактором ранжирования, а просто показывает, что статистически значимых различий обнаружено не было.

Тестирование не доказывает, что H1 не является фактором ранжирования



Западные SEO-специалисты проверили, влияет ли использование H1 на ранжирование. Известный эксперт Сайрус Шепард совместно с Крейгом Брэдфордом из Distilled провели эксперимент, который длился 8 недель.

SEO-эксперимент
Эксперты провели тестирование в блоге Moz. Они показывали два варианта одной и той же статьи. В одном варианте использовались заголовки H1 наверху страницы, в другом варианте – H2. Затем с помощью аналитических инструментов эксперты измерили разницу в органическом трафике.

Западные SEO-специалисты проверили, влияет ли использование H1 на ранжирование.

Спустя 8 недель результаты показали, что использование H1 вместо H2 не имеет статистически значимой разницы. Алгоритмы Google не видят различий между заголовками. Можно было бы использовать также H3, H4 или вообще не использовать заголовки.

Однако Сайрус Шепард все же рекомендует продолжать использовать H1 для SEO-целей, так как:

  • H1 помогает пользователям лучше ориентироваться в контенте;
  • Google может использовать H1 вместо title;
  • исследования показывают небольшую, но положительную корреляцию между использованием иерархических заголовков на странице (H1, H2, H3) и более высокими позициями в выдаче.
Напомним, в сентябре прошлого года сотрудник Google Джон Мюллер сообщил, что заголовки на страницах увеличивают удобство сайта, но на ранжирование не влияют. В октябре Мюллер снова рассказал, что для поиска заголовки H1 не имеют значения. На странице может быть один H1, несколько или даже ни одного. На рейтинге сайта в поиске это никак не скажется.

Google обновил ярлыки для товаров, рецептов и видео в поиске по картинкам

Google представил обновлённые ярлыки для товаров, рецептов и видео в поиске по картинкам. Они будут запущены позже на этой неделе в десктопной версии поисковой системы.

Теперь по умолчанию это будет лишь схематичное обозначение типа контента, а при наведении курсора мышки на ярлык он будет расширяться и включать дополнительный текст (Product, Recipe или длина видео).

В рамках этого обновления Google также перестанет показывать размеры изображения, которые сейчас отображаются при наведении курсора на картинку в результатах поиска. Эта информация теперь будет доступна только на панели, которая выводится по клику на превью изображения.

Салливан также отметил, что новые ярлыки для лицензируемых изображений продолжают проходить тестирование, поэтому их по-прежнему видят не все пользователи.

Firefox включит DNS-over-HTTPS по умолчанию для пользователей в США

Mozilla объявила, что в ближайшие недели включит новый протокол шифрования DNS-over-HTTPS (DoH) по умолчанию для пользователей Firefox в США.

Firefox станет первым браузером, в котором эта защита будет активирована по умолчанию. Другие браузеры, такие как Chrome, Edge Chromium и Brave, также поддерживают технологию DoH, но включить её можно только вручную.

«DNS поверх HTTPS» – это экспериментальный протокол для выполнения разрешения DNS по протоколу HTTPS. Целью этого метода является повышение конфиденциальности и безопасности пользователей.

Новая технология шифрует ту часть интернет-трафика, которая обычно отправляется по незашифрованному соединению, и которая позволяет другим видеть, какие сайты посещает пользователь, даже если его взаимодействие с сайтом защищено с помощью HTTPS.

В Firefox это обновление запускается постепенно, чтобы разработчики могли оперативно решить любые непредвиденные проблемы.

Пользователи также могут вручную включить DoH в настройках браузера.

В каких ещё странах данная опция будет включена по умолчанию, пока неизвестно. На данный момент в Mozilla продолжают изучать этот вопрос.

Google намерен перевести все сайты на mobile-first индексацию в течение года

Google планирует перевести все сайты на mobile-first индексацию в течение ближайших 6-12 месяцев. Об этом говорится в оповещениях, рассылаемых пользователям Search Console.

В них Google предупреждает вебмастеров о том, что на сайте были выявлены проблемы с переводом на mobile-first индексацию, даёт рекомендации по их устранению и сообщает об ожидаемых сроках перевода всех сайтов на этот тип индексации.

Google накладывает ручные санкции за гостевые посты

В этом месяце отдельные западные вебмастера получили ручные санкции за гостевые посты. Об этом сообщает Search Engine Journal.

Так, один из издателей рассказал, что ему пришло следующее сообщение от Google:
«Мы обнаружили, что некоторые из ваших статей являются гостевыми постами… Мы отключили авторитетность для ваших исходящих ссылок».

В качестве решения поисковик предложил удалить эти ссылки или закрыть их атрибутом nofollow, а затем отправить запрос на повторную проверку.

Из приведённого SEJ письма видно, что под ударом именно платные гостевые посты. Этот издатель не единственный, кто получил ручные санкции за размещение гостевых материалов.

Издатель, рассказавший о проблеме SEJ, отметил, что на сайте нигде не говорится о том, что они принимают гостевые посты.

В Google пока не делали официальных заявлений по этому поводу. Сотрудник поиска Гэри Илш заявил в Twitter, что ему ничего неизвестно о какой-либо целевой кампании в этом направлении.

Согласно правилам Google, в платных ссылках должен использоваться атрибут nofollow или новый атрибут sponsored. В противном случае на сайт могут быть наложены ручные санкции за неестественные ссылки.

В Яндекс.Вебмастере появились новые параметры для сравнения сайтов
1583073880056.png


Команда Яндекс.Вебмастера добавила новые параметры на страницу качества, чтобы вебмастерам было еще удобнее сопоставлять сайты.

Теперь можно будет сравнивать свой сайт с другими по показателям, которые помогают судить о динамике развития сайта внутри бизнес-ниши:
?наличие профиля в Яндекс.Справочнике
?рейтинг магазина на Яндекс.Маркете
?наличие мобильных приложений в Google Play и App Store

Подробнее об отслеживании показателей качества можно прочесть в Помощи.

Google позволит пользователям создавать свои профили в поиске

Google тестирует возможность для пользователей настраивать собственные профили в результатах поиска. Об этом сообщает Android Police.

Информация о новой функциональности содержалась в Справочном центре Google, но она уже удалена.

Согласно Search Engine Journal, в документации говорилось следующее:

«Вы можете создать своё присутствие в поиске Google, заполнив карточку публичного профиля. Вам нужно отправить карточку профиля с релевантной информацией. После этого люди смогут находить ваш профиль в результатах поиска Google».

На данный момент новая функция доступна только в Индии.

Чтобы создать карточку, нужно ввести запрос «Add me to Google», а затем нажать на ссылку «Get started». Пользователи должны ввести своё имя, местоположение и род занятий.

При этом профили не должны содержать рекламу в какой-либо форме. В них также нельзя использовать такие слова, как «best», «only» и «cheapest».

Google также отмечает, что показ карточки профиля в результатах поиска не является гарантированным, но чем больше информации предоставит пользователь, тем более вероятно, что Google покажет созданную им карточку.

Google ответил на статью Moz с критикой изменений в SERP

На днях Питер Мейерс из Moz опубликовал результаты исследования, которое показывает, как поисковые функции в Google сдвигают органические результаты вниз.

Вскоре после публикации сотрудник поиска Дэнни Салливан прокомментировал статью и выводы, сделанные Мейерсом, в Twitter.
Исследование Moz

Проведённое Мейерсом исследование было призвано выяснить, как низко может располагаться органическая позиция #1 в поисковой выдаче.

Изначально такое исследование было проведено в 2013 году. Однако за последние 7 лет поисковая выдача Google претерпела значительные изменения, в связи с чем было принято решение его повторить.

В 2013 году позиция #1 в среднем по выборке (10 000 запросов) начиналась с уровня 375px вниз по странице, в наихудшем сценарии – с 976px.

В 2020 году по более чем 1600 запросам (16,6%) первая позиция была ниже, чем в худшем сценарии в 2013 году.

«Победитель» в этом антирейтинге – запрос [lollipop], по которому первая позиция была расположена ниже всего – начиная с 2938px.

Среди всех топ-10 позиций наихудший результат был зафиксирован для позиции #7 по запросу [surveillance cameras] – 4487px.

В статье Мейерс наглядно показал, что запуск различных поисковых функций, таких как избранные сниппеты, блок «Главные новости» и видеокарусель, а также увеличение максимального количества рекламных объявлений в топе поисковой выдачи привели к заметному смещению традиционных органических результатов вниз.

В качестве рекомендаций Мейерс посоветовал помнить о трёх вещах:
?Львиная доля поискового трафика всё ещё поступает от традиционных органических результатов.
?Поисковые функции – это эволюция вертикальных результатов, таких как новости, видео и картинки, и они по-прежнему имеют органический компонент. Другими словами, это те результаты, для которых можно создавать контент.
?Важно понимать, что многие поисковые функции управляются поисковым намерением. Поэтому важно оптимизировать свой контент для определённых намерений.

Комментарии Дэнни Салливана
Дэнни Салливан считает, что в статье есть несколько ошибочных утверждений.

«Я передам обратную связь. Но когда я читаю что-то вроде “Хотя избранные сниппеты технически считаются органическими” или вижу идею о том, что для запроса “lollipop” первый [органический] результат не является тем крупным видео в самом верху страницы, то кажется, что в статье есть некоторые проблемные предположения…».

«Избранные сниппеты не “технически являются” органическими результатами. Это и есть органические результаты. И игнорирование статей, которые появляются в блоке “Главные новости”, компаний – в блоке локальной выдачи, программ – в блоке по колледжам, воспринимается как устаревшая оценка того, как работает поиск».

При этом он отметил, что уважает труд Мейерса и то, чем он занимается:
«Внесу ясность: я уважаю ту работу, которую вы делаете. И ценю некоторые вещи, которые вы выделили в статье. С другой стороны, возникают вопросы, когда видишь, как в первом примере в верхней части страницы показан органический результат, но вы говорите о результате, расположенном на 2938px вниз, потому что [видео] не является веб-ссылкой».

Мейерс ответил так:
«По сути, я не думаю, что мы подходим к этому с одной и той же точки зрения, и я не могу больше ничего сделать, кроме как не согласиться с этим. Я стараюсь сохранять беспристрастность и отвечаю за каждый материал. И буду продолжать пытаться просвещать людей о различных возможностях в поиске, как и вы».

В целом Салливан подчёркивает, что органические результаты в Google – это не только традиционные ссылки, но и новые блоки, именуемые поисковыми функциями. И если говорить об изменениях в поиске, то важно учитывать, что эти результаты также являются органическими и для них можно проводить оптимизацию.

В принципе, в своей статье Мейерс говорит о том же, но называет поисковые функции результатами, которые «имеют органический компонент», т.е. не являются полностью органическими.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Отзывы о сайте в Яндекс

1583299138171.png
А вы знали где отображаются Отзывы на сайт, которые Яндекс сделал публичными ещё в ноябре.

Оказывается они видны в мобильном Яндекс.Браузере в нижнем углу в адресной строке.

По клику открываются все отзывы о вашем проекте.

Яндекс.Аура стала самостоятельным сервисом

Закрытая социальная сеть Яндекса Аура стала самостоятельным сервисом и переехала с yandex.ru/aura на собственный домен aura.top. Все пользователи социальной сети получили об этом соответствующие уведомления.

Чтобы перейти на новую версию Ауры, необходимо войти через Яндекс, подтвердить номер телефона и принять новое пользовательское соглашение. После этого пользователь увидит свой профиль со всеми прежними постами и комментариями уже на новом домене.

Внимание, при регистрации до 31 мая 2020 года каждый пользователь получает Premium-аккаунт с доступом ко всем сервисами соцсети и без рекламы на 1 год совершенно бесплатно.

При этом все самые первые пользователи Ауры, которые были отмечены специальными ачивками в виде горящей лампочки, получают Premium-аккаунт навсегда — в подарок от разработчиков.

У Let's encrypt обнаружился баг

У Let's encrypt обнаружился баг в коде CAA, в связи с чем некоторые сертификаты отзывают уже сегодня 4 марта.

Подробности бага описаны на форуме:

А проверить, нужно ли перевыпускать сертификат для своего домена можно здесь: https://unboundtest.com/caaproblem.html

Источник:
Google обновил рекомендации по использованию разметки FAQ

Google обновил своё руководство по использованию разметки FAQ, добавив уточнение, которое касается повторяющегося контента.

В частности, в документе появился следующий абзац:

«Если у вас есть FAQ-контент, который часто повторяется на вашем сайте (то есть один и тот же вопрос и ответ появляются на нескольких страницах вашего ресурса), отметьте только один экземпляр этого часто задаваемого вопроса для всего сайта».

Обновление заметил SEO-консультант Кеничи Сузуки (Kenichi Suzuki). Он поделился этой информацией в Twitter.

Сузуки также опубликовал примеры подозрительного использования структурированных данных FAQ на сайте Expedia.

На приведённых им скриншотах видно, что на сайте размечены практически одинаковые вопросы про Токио, которые находятся на разных страницах.

Использование разметки таких образом нарушает обновлённые правила Google. Повторяющиеся нарушения могут привести к выпадению контента сайта из избранных сниппетов.

Google поделился рекомендациями для новостных сайтов в поиске

Google опубликовал краткое руководство с лучшими практиками для тех сайтов, которые публикуют новостной контент.

Рекомендации сосредоточены на инструментах, которые новостные издатели могут использовать, чтобы получать расширенные результаты и создавать лучший опыт для своих пользователей в поиске.

Добавление разметки Article на AMP-страницы
Google настоятельно рекомендует добавлять структурированные данные Article на AMP-страницы, поскольку это позволяет улучшить их представленность в результатах поиска.

Такие страницы появляются в карусели «Главные новости», карусели для одного хоста с расширенными результатами, разделе «Иллюстрированные статьи», а также в расширенных результатах мобильного поиска.

Результаты могут включать в себя изображения, логотипы страниц и другие элементы, привлекающие внимание пользователей.

Google также советует указывать дату публикации, чтобы в результатах поиска пользователи могли видеть, насколько это свежий материал.

Подробнее о добавлении разметки на страницы статей можно прочитать в руководстве на сайте Google Developers.

Разметка прямых трансляций
Те сайты, которые запускают прямые трансляции по различным событиям, могут получать ярлык «LIVE» в результатах поиска. Для этого видео нужно разметить с помощью разметки BroadcastEvent.

Для более быстрого сканирования и индексирования этого типа контента Google также рекомендует использовать Indexing API.

Обновление контента в Google AMP Cache
Сайты могут форсировать обновление контента в Google AMP Cache, отправив соответствующий запрос.

Это полезно в тех случаях, когда содержимое страниц изменяется в ответ на дальнейшее развитие событий.

Специальные компоненты для AMP-страниц
Наконец, Google также рекомендует использовать специальные AMP-компоненты, актуальные для новостных сайтов:
?<amp-live-list>. Позволяет быстро обновлять контент.
?<amp-script>. Позволяет запускать пользовательский JavaScript внутри AMP-страниц.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Гэри Илш заявил, что Google может отказаться от nofollow в будущем

Сотрудник Google Гэри Илш выступил с докладом на конференции Pubcon в Остине, где рассказал подробнее о последних нововведениях в поиске и ответил на вопросы вебмастеров.

Nofollow и новые ссылочные атрибуты
В ходе своего выступления Илш заявил, что в будущем Google может полностью отказаться от nofollow. Тогда поисковик больше не будет требовать от вебмастеров использовать ссылочные атрибуты, а будет самостоятельно определять характер ссылок. «Но сначала нам нужно обучить свой алгоритм», — отметил Илш.

Используя новые атрибуты, рекомендуемые Google (rel=sponsored и rel=ugc), владельцы сайтов помогают алгоритму обучаться.

Илш также отметил, что Google уже использует nofollow как подсказку в ранжировании. При этом в сканировании и индексировании эти подсказки, похоже, пока не используются. Но по цитатам в Twitter не совсем понятно, так ли это на самом деле.

Дедупликация
Дедупликация, которая недавно была запущена для избранных сниппетов (featured snippets), может быть расширена на другие функции в SERP, такие как карусели. Но пока никаких конкретных планов у Google нет.

Новые настройки для сниппетов
Новые настройки, запущенные в сентябре, позволяют регулировать длину поисковых сниппетов, но Илш посоветовал использовать их с осторожностью.

Стандартизация robots.txt
В 2019 году Google начал работу по переводу Robots Exclusion Protocol в разряд официальных стандартов. До этого спецификация robots.txt не менялась долгие годы. Над стандартизацией протокола Google работает в сотрудничестве с другими поисковыми системами.

Noindex
Илш также упомянул директиву noindex и отметил, что только 0,001 сайтов её корректно используют.

Планы Google на 2020 год
В ответ на вопрос, над чем Google будет работать в 2020 году, Илш назвал следующие пункты:
?расширение mobile-first индексации;
?изменения в user-agents;
?учебная программа по оптимизации для BERT.

Что касается последнего пункта, то позже выяснилось, что эта была лишь шуткаА в ходе своего выступления Илш ещё раз повторил, что оптимизировать сайт для BERT невозможно.

В Search Console появились отчёты по отзывам

Google представил новые отчёты в Search Console, которые призваны дать вебмастерам больше информации о расширенных результатах с отзывами.

Новые опции включают:
?Отчёт по отзывам (review snippets) в разделе «Улучшения». Новый отчёт о статусе расширенных результатов доступен для тех сайтов, которые добавили соответствующие структурированные данные. Теперь они смогут видеть ошибки и предупреждения, связанные с разметкой отзывов.
?Поддержку отзывов в инструменте проверки расширенных результатов.
?Данные по отзывам в отчёте об эффективности. Чтобы просмотреть эти сведения, нужно использовать параметр «Вид в поиске».

Согласно Google, отзывы – один из самых часто используемых типов структурированных данных в интернете. Их внедряют миллионы сайтов.

Google накладывает ручные санкции за гостевые посты

В этом месяце отдельные западные вебмастера получили ручные санкции за гостевые посты. Об этом сообщает Search Engine Journal. Так, один из издателей рассказал, что ему пришло следующее сообщение от Google: «Мы обнаружили, что некоторые из ваших статей являются гостевыми постами… Мы отключили авторитетность для ваших исходящих ссылок».

Яндекс.Вебмастер обновил страницу сравнения качества сайта

Были добавлены новые параметры, чтобы вам было ещё легче и удобнее сопоставлять сайты:
— наличие профиля в Яндекс.Справочнике
— рейтинг магазина на Яндекс.Маркете
— наличие мобильных приложений в Google Play и App Store

Напомним, что в данный момент в сравнении есть ещё и такие параметры:
— ИКС
— Знак официальности
— https
— популярный сайт
— выбор пользователя
— наличие турбо-страниц

Данный раздел создан для возможности сравнивать данные своего сайта с данными других сайтов, которые вы сами добавили в список.

Google начал показывать превью PDF в мобильной выдаче

Англоязычные пользователи заметили, что Google начал показывать превью PDF-документов в результатах мобильного поиска. Теперь рядом со сниппетом может отображаться одна из страниц документа. Напомним, что в 2015 году Google начал показывать изображения из PDF-файлов в поиске по картинкам. А в январе 2019-го — создавать блоки с ответами из PDF-документов.

В Яндекс.Вебмастере появилась сортировка отзывов на сайт

Яндекс.Вебмастер добавил новый функционал в отзывы на сайт. Теперь с отзывами стало работать проще — их можно сортировать по дате, релевантности, популярности и рейтингу:
?сначала новые — чтобы посмотреть недавно написанные;
?по популярности — чтобы посмотреть отзывы, которые чаще читают и отмечают пользователи;
?по релевантности — чтобы посмотреть наиболее полезные для пользователей отзывы;
?сначала хорошие — чтобы посмотреть отзывы с оценками сайта 4 и 5;
?сначала плохие — чтобы посмотреть отзывы с оценками сайта 1–3.

Вебмастер может отвечать на отзывы на сайт или организацию прямо в интерфейсе Вебмастера, а его ответ будет отмечен как «официальный ответ».

«Каждый день роботы Вебмастера собирают сводку из новых отзывов с разделением на хорошие и плохие, а также примерами отзывов. Такая статистика будет приходить вебмастеру на почту: это позволит держать руку на пульсе и следить за динамикой отношения пользователей к сайту. Письма будут генерироваться автоматически и приходить всем пользователям, подтвердившим права на сайт в Вебмастере», — уточняют в команде сервиса.

Для удобства статистика по отзывам была также добавлена в еженедельную сводку по сайту.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Google: сайты на Shopify не получают преимуществ в ранжировании

На днях один из вебмастеров спросил в Twitter, предоставляет ли Google какие-либо преимущества в ранжировании такой популярной ecommerce-платформе, как Shopify.

По словам сотрудника поиска Джона Мюллера, алгоритмы Google не учитывают используемую сайтом CMS.

«У нас нет специальных алгоритмов для помощи какой-либо конкретной CMS. Когда на сайте всё реализовано технически правильно, то нет большой необходимости делать что-то особенное :). Возможности для улучшения есть всегда, но хорошая и стабильная основа имеет большое значение».

Он также добавил, что массовое использование и популярность CMS практически ничего не меняет в этом плане.

Google не наказывает сайты за ссылки на HTTP-страницы

На днях сотрудник Google Джон Мюллер подтвердил в Twitter, что с точки зрения SEO ссылки на HTTP-страницы вполне допустимы.

По его словам, Google не наказывает и не пессимизирует сайты, если они ссылаются на незащищённые страницы.

При этом для встроенного контента, такого как изображения и фреймы, необходимо использовать HTTPS

Если же смотреть с точки зрения пользовательского опыта, то по возможности всё же желательно по максимуму ссылаться на HTTPS-страницы.

Google прояснил, в каких случая сайту нужен файл Sitemap

Сотрудник Google Дэниел Вайсберг (Daniel Waisberg) опубликовал новое видео в серии Searсh Console Training, посвящённое отчёту о файлах Sitemap.

Согласно Google, файл Sitemap не является обязательным для сайтов, а использовать его следует, если ресурс попадает в одну из трёх категорий:
?Крупный сайт с большим количеством страниц
?Изолированные страницы на сайте
?Новый сайт или сайт, который часто обновляется

Может ли Google найти страницы без файла Sitemap?
Обычно, если сайт относительно небольшой, а страницы должным образом перелинкованы, то найти контент роботу Googlebot не составит труда.

Если же сайт попадает в одну из трёх категорий, приведённых выше, то использование файла Sitemap поможет Googlebot найти новый контент и покажет, где искать изолированные страницы.

Файл Sitemap также может использоваться для приоритизации сканирования – чтобы указать, какие страницы следует сканировать в первую очередь, что полезно для крупных сайтов.

При этом Sitemap ничего не гарантирует. Другими словами, Google не всегда сканирует каждый URL, добавленный в этот файл.

Обратное тоже верно: если URL не добавлены в файл Sitemap, то это не гарантирует, что Google их не будет сканировать. Google способен находить страницы независимо от того, включены они в карту сайта или нет.

Отсутствие файла Sitemap ничем не грозит сайту
По словам Вайсберга, если у сайта нет файла Sitemap, то ничего страшного в этом нет.

Если вы сомневаетесь, нужен ли сайту файл Sitemap, то чтобы не ошибиться, его можно создать на всякий случай. В большинстве случаев сайт от этого только выиграет.

Google рекомендует автоматически генерируемые файлы Sitemap
Что касается создания файла Sitemap, то Google рекомендует использовать автоматически генерируемые карты сайта вместо тех, которые нужно составлять вручную.

Есть CMS, которые создают файлы Sitemap автоматически. Также существуют WordPress-плагины и расширения для Drupal, которые позволяют выполнить эту задачу.

Если сайт настолько большой, что ему нужно несколько файлов Sitemap, то это также вполне допустимо.

Google не использует валидацию контента по W3C в поиске

Во время последней видеовстречи для вебмастеров сотрудник Google Джон Мюллер заявил, что валидация контента по W3C не влияет на результаты поиска.

Мюллера спросили, могут ли ошибки в HTML-коде, выявленные через валидатор от W3C, замедлять скорость загрузки страницы.

В ответ он заявил, что валидация по W3C никак не влияет на время загрузки страницы и на позиции сайта в результатах поиска.

«Нет, это не влияет на время загрузки страницы… То, что находится на странице, совершенно не имеет значения, за исключением, возможно, большого количества текста, для переноса которого может потребоваться много времени. Но ошибки в HTML не имеют к этому никакого отношения», — объяснил Мюллер.

Он также добавил, что Google не использует валидацию по W3C в поиске.

«В целом мы не используем валидацию по W3C в поиске. Поэтому вам не нужно беспокоиться о том, соответствуют ли ваши страницы этим нормам или нет. Тем не менее, использование валидации – это отличный способ проверить разметку и посмотреть, всё ли в порядке».
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Google анонсировал новый сигнал ранжирования



Google объявил, что в скором будущем начнёт официально учитывать метрики пользовательского опыта в ранжировании.
Поисковик анонсировал новый сигнал Page Experience, который объединяет Core Web Vitals с существующими UX-сигналами, чтобы обеспечить целостную картину качества пользовательского опыта на веб-странице.
В рамках обновления Google также встроит UX-метрики в критерии ранжирования для функции «Главные новости» в мобильном поиске и отменит требование об обязательном использовании AMP для отображения контента в этих блоках.
При этом Google будет по-прежнему поддерживать AMP и ссылаться на ускоренные страницы, когда это уместно.
Компания также обновила инструменты для разработчиков, чтобы помочь владельцам сайтов оптимизировать пользовательский опыт на веб-страницах.
Сроки запуска
В Google понимают, что многие владельцы сайтов в настоящее время заняты теми последствиями, которые повлекла за собой эпидемия COVID-19, поэтому анонсированные изменения в ранжировании будут запущены не ранее 2021 года.
При этом Google предупредит вебмастеров об этом минимум за шесть месяцев до запуска.
Поисковик уже предоставил вебмастерам те инструменты, которые помогут им получить представление об этих показателях и оптимизировать их, но срочной необходимости принимать какие-либо меры на данный момент нет.
Что такое Page Experience
Согласно официальной документации Google, Page Experience – это набор сигналов, которые показывают, как пользователи воспринимают взаимодействие со страницей за рамками её информационной ценности.
Этот сигнал объединяет Core Web Vitals (набор метрик, которые измеряют пользовательский опыт на странице по таким критериям, как эффективность загрузки, интерактивность и визуальная стабильность) и такие показатели, как удобство использования с мобильных устройств (mobile-friendliness), Безопасный просмотр, HTTP и рекомендации в отношении навязчивых межстраничных объявлений.
В Google считают, что оптимизация под эти факторы делает интернет более привлекательным для пользователей по всем веб-браузерам и помогает сайтам развиваться в соответствии с ожиданиями пользователей мобильных устройств.
Больше метрик такого плана в будущем
В Google также отметили, что продолжают работать над определением и измерением различных аспектов опыта взаимодействия пользователей со страницами. В связи с этим компания планирует встроить больше таких сигналов на ежегодной основе – в соответствии с растущими ожиданиями пользователей и расширением тех аспектов UX, которые можно измерить.
Инструменты Google для оптимизации под эти факторы
Чтобы помочь вебмастерам оптимизировать свои ресурсы в связи с предстоящими изменениями, Google уже обновил популярные инструменты для разработчиков, такие как Lighthouse и PageSpeed Insights. Теперь в них также содержится информация о Core Web Vitals.
Google также предоставил соответствующий отчёт в Search Console, который пришёл на смену отчёту о скорости загрузки. Новый отчёт называется «Основные интернет-показатели».
В настоящее время инженеры Google работают над тем, чтобы добавить Core Web Vitals в другие инструменты, предлагаемые компанией.
Ранжирование после внедрения нового сигнала
Несмотря на то, что все компоненты Page Experience важны, Google будет отдавать приоритет страницам с «наилучшей информацией в целом», даже если некоторые аспекты опыта взаимодействия пользователей со страницей будут находиться на низком уровне.
Согласно Google, хороший Page Experience не является более важным, чем наличие качественного релевантного контента. Однако в тех случаях, когда есть несколько страниц с одинаковым содержимым, Page Experience становится более важным для видимости в поиске.
В Google надеются, что включив новые сигналы в поиск, они помогут сделать интернет лучше для всех.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Дополнение по Google Page Experience

Google вводит новый сигнал ранжирования, который будет объединять основные интернет-показатели и существующими сигналами, связанными с UX. Сообщение об этом появилось в блоге Google (https://webmasters.googleblog.com/2020/05/evaluating-page-experience.html).

Новый сигнал ранжирования сейчас находится на ранних стадиях разработки и будет запущен не ранее, чем в следующем году. Он будет называться Page Experience и будет объединять основные интернет-показатели и существующие метрики для оценки UX:
- удобство использования с мобильных устройств,
- HTTPS,
- безопасный просмотр,
- отсутствие навязчивых блоков и вставок.

Новый сигнал будет измерять аспекты того, как пользователи воспринимают опыт взаимодействия с веб-страницей. Оптимизация под эти факторы делает интернет более привлекательным для пользователей со всех браузеров и устройств и помогает сайтам развиваться в соответствии с ожиданиями пользователей мобильных устройств.

Основные интернет-показатели связаны со скоростью загрузки:
- отрисовка самого крупного контента (LCP) – время, за которое браузер отрисовывает самый крупный видимый элемент в области просмотра. Идеальное время – менее 2,5 секунд;
- задержка после первого ввода (FID) – время между первым взаимодействием пользователя со страницей (нажатием на ссылку, кнопку и т. д.) и ответом браузера. Идеальный показатель – <100 мс;
- совокупное смещение макета (CLS) – показатель того, насколько элементы на странице смещаются во время ее загрузки. Идеальное значение показателя – <0,1.

Но не стоит забывать, что хороший опыт от взаимодействия со страницей не отменяет наличия качественного релевантного контента:
Однако в тех случаях, когда существует несколько страниц с одинаковым содержимым, опыт от восприятия страниц (page experience) становится гораздо более важным для видимости в Поиске.
 
  • Like
Реакции: xml

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Вебмастера заметили признаки крупного обновления в Google

Зарубежные вебмастера активно обсуждают крупные изменения в SERP Google, которые могут быть связаны с очередным обновлением поискового алгоритма.

Выраженные колебания в ранжировании сайтов начались примерно с 22 июня. В Google пока не прокомментировали эту ситуацию, но вряд ли подтвердят апдейт, даже если он был. В компании анонсируют только обновления основного алгоритма.

Некоторые специалисты считают, что Google мог частично откатить те изменения, которые были запущены в ходе May 2020 Core Update.

Так, один из пользователей форума Webmaster World рассказал, что позиции по его ресурсам улучшились на 10-20% по сравнению с тем, что было после May 2020 Core Update.

Другие комментарии:
«Я вообще этого не вижу, фактически в субботу мой трафик достиг уровня, которого я не видел с тех пор, как запустил свой сайт 17 лет назад. Трафик всё ещё сильно ограничивается».

«Моё предположение, что это не было откатом. Мы получили хорошие результаты по обоим обновлениям».

«Не знаю, в чём дело. Был ещё один небольшой всплеск в Discover, но он снова ушёл».

«Пока ещё очень рано о чём-то говорить, поэтому я буду следить за этим».

Браузер Safari блокирует Google Analytics на сайтах

Браузер Safari теперь блокирует Google Analytics от отслеживания поведения пользователей на сайтах. Данные об этом содержатся в новом отчёте Privacy Report в Safari для macOS Big Sur – обновлённой версии десктопной операционной системы macOS, пишет AppleInsider.

В новом отчёте пользователи смогут видеть, какие трекеры были заблокированы.

Аналитик Бенедикт Эванс (Benedict Evans) обратил внимание, что среди заблокированных трекеров также упоминается Google Analytics. Он написал об этом в Twitter, хотя на данный момент его твит уже недоступен.

При этом пока непонятно, появилось ли в Safari для macOS что-то новое, что блокирует Google Analytics, или же отчёт Privacy Report показывает то, что уже было реализовано ранее.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Google о текстовом контенте на страницах онлайн-магазинов ?

Нужен ли текст на странице с описанием товара? Если да, то сколько? Каждый владелец торговой площадки имеет свои ответы на эти вопросы, важно также знать, что думают по этому поводу в Google. Отвечает Джон Мюллер:

? «Трудно сказать. С одной стороны, я точно знаю благодаря разговорам с представителями команды мобильного индексирования, что отсутствие текстового контента на страницах с товарами усложняет для нас ранжирование таких страниц. Очевидно, что одних только внутренних ссылок для этого маловато. Поэтому я не могу утверждать, что оптимизированный текст внизу страницы, на которой продается конкретный товар, это однозначно плохо.

Нет, какой-то определенный фрагмент текста должен быть. Он поможет нашим поисковым алгоритмам лучше понять, о чем именно эта страница. Плюс пользователи тоже смогут его прочитать и лучше разобраться в предлагаемой продукции.

С другой стороны, опыт доказывает, что в большинстве случаев на страницах торговых площадок SEO-текста слишком много. 90-95% – ненужный словесный мусор, который рождает серьезную проблему.

Представьте, что есть страница онлайн-магазина, в верхней части которого выложен список товаров, а внизу страницы (под списком) – огромная простыня текста. В этой ситуации наши алгоритмы в буквальном смысле растеряются, пытаясь понять ключевой интент такой страницы. Это коммерческая страница или же все-таки информационная?

На практике возможен вариант, когда Google интерпретирует такую коммерческую страницу как информационную и решит не направлять на нее покупателей. Запросы, по которым люди пытаются найти нужные товары, просто не покажут этот URL-адрес на странице выдачи».


Google добавил в Test My Site рекомендации на основе Core Web Vitals

Google добавил в инструмент Test My Site рекомендации на основе новых показателей Core Web Vitals, представленных в мае.

Эти рекомендации помогут сайтам улучшить пользовательский опыт. Метрики Core Web Vitals сфокусированы на трёх аспектах UX: загрузке, интерактивности и визуальной стабильности.

В рекомендациях Google может предлагать внедрить мобильные платежи, глубокие ссылки, PWA и т.д.

По данным исследования Google/Deloitte, уменьшив время загрузки всего на 0,1 сек, можно повысить коэффициент конверсии на 8%.

Напомним, что инструмент Test My Site от Google стал доступен в России в 2016 году. Он позволяет определить основные показатели, связанные с удобством сайта и скоростью его загрузки на мобильных устройствах и настольных ПК.

Google тестирует звёздочные рейтинги с одной звездой

Англоязычные пользователи заметили, что Google тестирует новый формат звёздочных рейтингов в результатах поиска.

В этой версии расширенные результаты содержат только одну звезду, независимо от того, какой у компании средний балл по оценкам пользователей.

Так, на примере ниже у обеих компаний средняя оценка больше 4. Однако в сниппетах отображается только одна звезда:

Тестирование проводится в ограниченном масштабе.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Яндекс станет альтернативой Google в 8 европейских странах

Компания Google объявила победителей своего аукциона, в рамках которого были выбраны альтернативные поисковые системы для устройств Android в Европе.

Напомним, что в результате антимонопольного расследования в Евросоюзе Google обязали выдавать пользователям окно с выбором поисковой системы по умолчанию. В итоге Google приняли решение регулярно проводить аукционы на место в этом окне.

На период с 1 октября по 31 декабря 2020 года Яндекс будет предлагаться пользователям в качестве поиска по умолчанию в 8 европейских странах: Болгарии, Эстонии, Греции, Венгрии, Латвии, Португалии, Румынии, Кипре.

Отметим, что в предыдущем аукционе на период с июля по октябрь 2020 года Яндекс не смог стать победителем ни в одной стране.

Новый сервис от Cloudflare поможет ускорить сайты на WordPress

Cloudflare анонсировала новый сервис, который позволяет значительно ускорить работу сайтов. Он получил название Automatic Platform Optimization (APO). Первым партнёром в этом направлении стала платформа WordPress, на которой размещены 38% всех сайтов в интернете.

Владельцы сайтов с хостингом на WordPress.com смогут использовать новый сервис бесплатно. Для платных тарифных планов Cloudflare (Professional, Business и Enterprise) эта услуга также будет бесплатной. Для остальных клиентов её стоимость будет составлять $5 в месяц.

Согласно проведённым тестам, использование Automatic Platform Optimization позволяет улучшить показатель Time to First Byte (TTFB) на 72%, а Largest Contentful Paint (LCP, входит в Core Web Vitals) – на 23%.
1602005918672.png
APO смягчает последствия нахождения на общем хостинге, потому что страницы сайта будут выводиться через пограничные сервера Cloudflare, расположенные максимально близко к тому месту, где делается запрос веб-страницы.

Cloudflare выполняет кеширование динамического контента, что позволяет предоставлять всё содержимое сайта из пограничной сети, а это значительно улучшает производительность. Платформа хранит статическую копию WP-сайта и выдаёт её без необходимости выполнять поиск в базе данных или использовать файлы с исходного сервера.

В компании также отметили, что в будущем планируют реализовать интеграцию APO и с другими хостинг-платформами, а не только WordPress.

Google проинформировал о текущем статусе проблем с индексацией

Сотрудник Google Дэнни Салливан сообщил в Twitter о текущем статусе проблем с индексацией.

Речь идёт о двух сбоях, один из которых связан с mobile-first индексацией, а другой – с каноникализацией URL.

Согласно последним данным, на сегодняшний день Google восстановил около 25% канонических URL и около 50% URL, затронутых сбоем, связанным с mobile-first индексацией.

Для сравнения, по состоянию на 3 октября было восстановлено около 10% страниц, выпавших из индекса из-за проблем с каноникализацией, и порядка 25% URL, затронутых сбоем в mobile-first индексации.

В настоящее время инженеры поиска продолжают работу по восстановлению страниц.

Google также планирует добавить примечания о сбоях в те отчёты Search Console, на которые они повлияли. Об этом заявил сотрудник поиска Гэри Илш в Twitter.
 
Сверху