• Уважаемый Гость! Так как вы ещё пока не являетесь нашим пользователем, большая часть форума для вас недоступна.
    Войти ⬅ или ➡ Зарегистрироваться

СЕО новости

Нужно ли ведение новостей на форуме или все кому надо и так следят за новостями?

  • Сам слежу, дублирование новостей здесь не нужно.

  • Не всегда удается следить за новостями, нужно дублирование здесь.

  • Достаточно самых интересных новостей за неделю.

  • Вообще не слежу за новостями в мире СЕО, но хочу быть в курсе.

  • Это вообще про что тут написано?


Результаты будут видны только после голосования.

Temson

Симивод
Сообщения
30
Лучшие ответы
0
Реакции
37
ОРА
5.0
TR
0
В Google Chrome теперь можно переопределять геолокацию для тестирования сайтов

В браузере Google Chrome теперь можно переопределять геолокацию пользователя и задавать другое местоположение, чтобы протестировать, как сайт реагирует на разные места. Для этого достаточно использовать новую функцию в Chrome DevTools.


2019-05-30_15h52_37-581x420.png

Чтобы поменять местоположение, нужно:
  1. Войти в «Инструменты разработчика Chrome» (Chrome DevTools).
  2. Нажать Command+Shift+P (Mac) or Control+Shift+P (Windows, Linux, Chrome OS), чтобы открыть командное меню.
  3. Ввести «sensors», выбрать «Show Sensors» и нажать «Enter». Внизу окна DevTools откроется вкладка Sensors.
  4. В списке «Geolocation» выбрать один из доступных городов или нажать «Custom location», чтобы ввести нужные географические координаты (широту и долготу), или выбрать «Location unavailable», чтобы посмотреть, как ведёт себя сайт, если данных о местоположении пользователя нет.
Новая функция пригодится при тестировании тех интерфейсов, которые показывают разную информацию в зависимости от местонахождения пользователя.
 
Последнее редактирование:
Payeer

Fall3nProff

Симивод
Сообщения
58
Лучшие ответы
0
Реакции
68
ОРА
56.9
TR
0
Обновление краулера Googlebot — что важно знать каждому?
Googlebot — поисковый робот, который сканирует (краулер) и индексирует наши сайты. 7 мая Google объявили о его существенном обновлении.
От сканирования к индексации и ранжированию

Главный вопрос, который задавали специалистам из Google на последних конференциях и в социальных сетях — смогут ли они сделать робот «неувядающим» и актуальным с точки зрения последних браузеров. Google уверяет, что им это удалось.
Теперь Googlebot работает на движке Chromium 74-й версии, вместо уже постаревшей 41-й версии. В дальнейшем движок будет постоянно обновляться, не теряя «свежести» и соответствуя требованиям рендеринга для современных веб-платформ.
Что это значит?
В сравнении с предыдущей версией робота, обновлённый Googlebot поддерживает более 1 000 новых функций. Например:
  • ES6 (последний языковый стандарт JS) и свежий функционал JavaScript.
  • IntersectionObserver for lazy-loading (подгрузка контента при скролле).
  • API для веб-компонентов v1 (Web Components — удобная технология для упрощения и ускорения разработки веб-документов).
Всё эти новшества позволят Googlebot индексировать больше контента, а разработчикам наконец отказаться от использования полифиллов (библиотеки для поддержки новых JS-возможностей в старых браузерах) и транспайлеров (тип компиляции), при условии, что они внедрялись специально для краулера Googlebot.
Тем не менее, некоторые ограничения пока остались и поисковый робот по-прежнему сканирует контент подгруженный с помощью JavaScript значительно медленнее (в реальности — задержка может быть и несколько недель). Так же следует учесть, что Googlebot используется для разных задач внутри компании, но обновился он пока не во всех.
Google рекомендует проверять страницы на наличие возможных JS-ошибок и по возможности подробнее изучить вопрос. Вот, например, советы по ускорению страниц, в том числе с помощью минимизации JS и CSS: https://tools.pixelplus.ru/news/speed-up-your-site.
Экспертное мнение
Вот как комментирует обновление евангелист проекта «Пиксель Тулс», Дмитрий Севальнев:
Обновление, которое могло бы пройти незамеченным для многих, на самом деле, важно для поисковых оптимизаторов. Google ооочень долгое время использовал 41 версию Google Chrome от 2015 года для рендеринга сайтов, что, могло сказываться и на конечной индексации (именно эта версия использовалась в системе Caffeine).
Нововведение может изменить ситуацию и с ранжированием ряда сайтов, в результате их переиндексации. Это относится и к той части SPA-проектов, которые используют технологии Angular, React, Vue.
SPA (Single Page Applications или «одностраничные приложения») — проекты, которые исключают большую часть фоновой активности и сразу загружают сайт (целиком) при первом посещении пользователем страницы. Вместо загрузки новой страницы каждый раз с нуля — необходимый контент загружается динамически.
В ряде случаев, когда применяются реактивные технологии Angular, React и прочие, это может приводить к тому, что в исходном коде документа может отсутствовать часть контента страницы, которую просматривает пользователь.
Для корректной индексации SPA-сайтов, использующих фреймворки Angular и React, можно использовать SSR (server-side rendering), чтобы поисковому роботу (краулеру) отдавался уже готовый контент документов в исходном коде (формировать основной контент документа на стороне сервера).
Стоит помнить, что Google как и ранее, не будет выполнять пользовательские сценарии (клики, скроллинг, взаимодействие с формами и так далее), то есть, все страницы вашего сайта и их основной контент, должны быть доступны по прямым ссылкам сразу в том виде, в котором вы хотите, чтобы они были включены в индекс поисковой системы.
Приведем ниже отличия, которые есть у 41 и 74 версий Chrome, которые могут сказаться на индексации. Полный список отличий доступен по ссылке.

Отличия версий Googlebot

Отличия 41-й и 74-й версий Googlebot

Чем отличается новая версия Googlebot

Внимательно проверьте, как изменятся позиции ваших сайтов после очередного переобхода проекта новым краулером Google и формировании нового индекса и удачи в ТОПе!
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Google объявил об обновлении основного алгоритма

Google официально объявил об обновлении основного алгоритма. Запуск апдейта будет начат сегодня, 3 июня.

«Завтра мы выпускаем широкое обновление основного алгоритма, как мы делаем это несколько раз в год. Этот апдейт получил название June 2019 Core Update. Наши рекомендации касательно таких обновлений остаются прежними», — написал евангелист поиска Дэнни Салливан в Twitter 2 июня.

Он также добавил ссылку на твит от 11 октября 2018 года, в котором говорится, что ничего конкретного в случае апдейтов основного алгоритма делать не нужно, поскольку в ходе таких обновлений Google улучшает своё понимание поисковых запросов и веб-страниц для предоставления более релевантных результатов поиска.

Отметим, что полный запуск обновлений основного алгоритма обычно занимает от недели до двух. Поэтому делать какие-либо выводы в первые дни не стоит. Кроме того, эти апдейты не ориентированы на конкретные ниши – например, так называемый Medic Update охватывал все категории сайтов, а не только тематику «Медицина и здоровье».

=============================================================

Google игнорирует ссылки с сайтов социальных закладок

Google игнорирует сайты социальных закладок и ссылки с них. Об этом заявил сотрудник поиска Джон Мюллер в ответ на вопрос одного из вебмастеров.

Вопрос звучал так:
«Я добавил свой сайт в социальные закладки. Спустя неделю я заметил, что он был помечен как спам. Влияют ли эти страницы на ранжирование?».

Мюллер ответил следующее:
«Я не думаю, что эти страницы будут иметь какое-либо влияние на ваш рейтинг, поскольку мы игнорируем сайты социальных закладок, ссылки оттуда. Это очень, очень старая SEO-стратегия, и мы накопили много опыта в распознавании этого типа ссылок и просто игнорируем их».
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
В Яндекс.Метрике появились отчеты ADFOX

Яндекс добавил в Метрику отчеты, которые позволяют медиаиздателям анализировать показы рекламных блоков на сайте и деньги, полученные с каждого размещения.

Чтобы подключить отчеты, нужно указать номера нужных счетчиков Метрики в настройках личного кабинета ADFOX. Они появятся в интерфейсе в течение суток после подключения.

Сейчас отчеты по ADFOX работают в режиме бета-тестирования. В них доступно множество метрик, в том числе аналитика источников трафика. Это позволит площадкам оценить, какие каналы приводят на сайт лучший трафик и распределить бюджет в их пользу. Чтобы понять, насколько окупаются усилия по наполнению контентом отдельных разделов сайта, можно будет оценить доход каждого из них.

В отчете ADFOX «показы» можно быстро найти разделы или отдельные страницы, на которых выкупается не весь инвентарь. Об этом будет говорить большое количество дефолтных показов — то есть таких, в которых вместо рекламы был показан баннер по умолчанию, так как ни одна система не выкупила показ. Кроме того, с помощью Метрики можно проверить, на всех ли страницах стоят рекламные блоки.

О том, как добавить в Метрику новые отчеты, читайте здесь(yandex.ru/blog/metrika/novye-idei-dlya-povysheniya-dokhoda-ploschadki-dannye-adfox-v-metrike).

Google тестирует бесконечную прокрутку в десктопной выдаче

Англоязычные пользователи заметили, что Google тестирует кнопку «More results» («Ещё результаты») и бесконечную прокрутку в десктопной выдаче.

В 2018 году аналогичная кнопка была запущена в мобильной выдаче, в результате чего пользователям теперь не нужно переходить на другую страницу для просмотра большего числа результатов – они подгружаются на той же странице.

Теперь Google экспериментирует с этим форматом на десктопах. На днях скриншоты нового теста появились в Twitter.

Google также тестирует разделительную черту в поисковой строке.
 

Temson

Симивод
Сообщения
30
Лучшие ответы
0
Реакции
37
ОРА
5.0
TR
0
ФСБ потребовала у Яндекса ключи для дешифровки данных пользователей Почты и Диска


Несколько месяцев назад ФСБ направила в Яндекс требование предоставить ключи для дешифровки данных пользователей сервисов Яндекс.Почта и Яндекс.Диск. Источники на ИТ-рынке утверждают, что за истекшее время Яндекс так и не предоставил в спецслужбу ключи, хотя по закону на это отводится не более десяти дней.

Требование ФСБ основывается на том, что сервисы Яндекс.Почта и Яндекс.Диск находятся в реестре организаторов распространения информации (ОРИ), то есть интернет-площадок, на которых пользователи могут обмениваться сообщениями. Согласно закону Яровой, с 20 июля 2016 года Центр оперативно-технических мероприятий ФСБ может потребовать от любого сервиса из реестра ОРИ передать ему «информацию, необходимую для декодирования принимаемых, передаваемых, доставляемых и (или) обрабатываемых электронных сообщений пользователей сети интернет».

Представитель пресс-службы Яндекса, на просьбу прокомментировать ситуацию, сообщил лишь, что компания «работает в полном соответствии с действующим законодательством», отказавшись отвечать на вопросы о том, действительно ли Яндекс получил требование от ФСБ предоставить ключи шифрования и не передал их.
По словам источника на ИТ-рынке, в Яндексе считают, что ФСБ слишком широко трактует нормы закона Яровой:

«Спецслужба требует от компании предоставить сессионные ключи, которые, по сути, дают доступ не только, например, к сообщениям в почте, но и позволяют анализировать весь трафик от пользователей к находящимся в реестре ОРИ сервисам Яндекса. Не говоря уже о том, что дешифровка всего трафика в рамках пользовательской сессии несет значительные риски в плане безопасности».

Консультант по информационной безопасности Cisco Systems Алексей Лукацкийподтверждает, что «сессионный ключ в любом случае шифрует логин и пароль, которые пользователь передает на сервер в процессе авторизации, так что передача такого ключа ФСБ может дать доступ к аутентификационным данным пользователя».
Он указал также, что Яндекс использует систему Single Sign-On, при которой, авторизовавшись в Яндекс.Почте, можно без повторной аутентификации перейти в Яндекс.Музыку, Яндекс.Диск и любой другой сервис компании:

«Ключ шифрования при переходе в разные сервисы должен быть свой, но если это не так, то это архитектурная проблема, которая может открыть доступ к данным в разных сервисах Яндекса. Тогда передавать сессионный ключ, конечно, небезопасно».

Партнер Центра цифровых прав Саркис Дарбинян пояснил, что непредоставление ключей шифрования в установленный срок является нарушением действующего Кодекса об административных правонарушениях. По закону ФСБ должна составить протокол об административном правонарушении и, если суд признает Яндекс виновным по статье 13.31 КоАП, может назначить компании штраф в размере до 1 млн рублей.

По его словам, если компания и после этого не предоставит ключи шифрования, Роскомнадзор вынесет ей предписание об устранении нарушения, на исполнение которого дается не менее 15 дней:

«В случае неисполнения предписания Роскомнадзор, в теории, может обратиться в суд с требованием заблокировать на территории России сервисы, ключи шифрования от которых отказываются предоставить. Во всяком случае такая процедура была использована в истории с блокировкой Telegram, в законе же прямо не указаны полномочия Роскомнадзора и ФСБ в данной ситуации».

Напомним, в апреле прошлого года, из-за отказа поделиться с ФСБ ключами шифрования, в России был заблокирован мессенджер Telegram. Основатель Telegram Павел Дуров отказался передавать информацию, мотивируя это защитой частной жизни и политикой конфиденциальности.


Яндекс прокомментировал сообщения о запросе ФСБ ключей шифрования


Яндекс прокомментировал сообщения о запросе ФСБ ключей для дешифровки данных пользователей сервисов Яндекс.Почта и Яндекс.Диск.
В пресс-службе компании подчеркнули, что закон Яровой, согласно которому поступил запрос, применяется ко всем организаторам распространения информации, доступным на территории РФ, включая все почтовые сервисы, мессенджеры и социальные сети:

«В законе говорится о предоставлении информации, “необходимой для декодирования сообщений”, из него не следует требование о передаче ключей, которые необходимы для расшифровки всего трафика. Цель закона — соблюдение интересов безопасности, и мы полностью разделяем важность этой цели. При этом исполнение закона возможно без нарушения приватности данных пользователей».

Также в Яндексе считают важным соблюдение баланса между безопасностью и приватностью пользователей, а также принципа равноприменимости регулирования для всех участников рынка. О том, когда поступил запрос от ФСБ, и был ли он исполнен, в компании прямо не пояснили.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Google не показывает историю ручных санкций в новом Search Console

Западные специалисты заметили, что Google не показывает историю ручных санкций в новом Search Console. Между тем эта информация доступна в старой версии сервиса.

В сентябре 2018 года Google добавил в справочный документ по ручным санкциям новый подраздел: «Как увидеть меры, принятые в отношении моего сайта в прошлом?».

В нём говорится, что сведения о таких санкциях, а также данные об отправленных ранее запросах на проверку и о результатах таких проверок, можно просмотреть внизу соответствующего отчёта.

В документе также отмечается, что эта информация хранится как минимум год, даже если у сайта сменился владелец.

Однако, как заметили специалисты, в новой версии Search Console этих сведений нет. Появятся ли они в нём в будущем, неизвестно.

=============================================================

Гэри Илш об атрибуте alt и отказе от альтернативного текста

На днях один из SEO-специалистов поинтересовался в Twitter, нужен ли Google альтернативный текст или можно оставлять атрибут alt пустым.

Его вопрос выглядел так:
«Случайная мысль. Я наблюдаю, как всё больше экспертов по доступности говорят клиентам, чтобы они оставляли большинство своих атрибутов alt пустыми, потому что текст под ними избыточен. Так можем ли мы исследовать отказ от атрибутов alt как фактора ранжирования?»

Ему ответил сотрудник Google Гэри Илш:
«Имхо, если текст вокруг изображения является релевантным, то оставлять атрибуты alt пустыми вроде бы нормально. Но у поисковых систем определённо будет меньше данных, из которых они смогут определить, о чём идёт речь на изображении. Поэтому как минимум в некоторых случаях это может значительно влиять на трафик из Google Картинок».

Таким образом, хотя поисковик и способен анализировать текст вокруг изображения, атрибут alt ему всё ещё нужен.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Firefox теперь блокирует Google Analytics, но не полностью

На днях Mozilla выпустила обновлённую версию браузера Firefox, который по умолчанию блокирует third party cookies и трекеры. Среди них – и Google Analytics.

В ответ на вопросы специалистов в Mozilla объяснили, что это изменение призвано обеспечить конфиденциальность данных пользователей.

«Чьи данные, как вы утверждаете, мы забираем? Я говорю, что это данные пользователя, а пользователь имеет право сохранять их конфиденциальность. Если пользователь хочет поделиться своими данными о трафике с веб-сайтом, он может отключить защиту от отслеживания», — отметил разработчик Mozilla Аса Доцлер (Asa Dotzler).

Другой сотрудник Mozilla под ником Nukeador также добавил:

«Большинство трекеров собирают идентифицируемые агрегированные данные, включая фингерпринтинг пользователя без уведомления. Пришло время прекратить такие злоупотребления».

Однако позже он отметил, что большинство данных Google Analytics не пострадают от этого изменения.

«Аналитическая функциональность GA (используемая для подготовки отчётов для владельца сайта) основана на first party cookies. Поэтому пользователи по-прежнему будут учитываться в статистике по сайту, как и пользователи Apple ITP».

Также далее выяснилось, что блокировка JS-скриптов, используемых для отправки данных в GA, осуществляется при выборе «Strict» режима в настройках конфиденциальности. При этом по умолчанию включен стандартный режим.


Google обеспечит большее разнообразие доменов в SERP

Google сообщил о внедрении изменения, которое призвано обеспечить большее разнообразие доменов в результатах поиска.

Запуск этого обновления был начат около двух дней назад. При этом оно не связано с апдейтом основного алгоритма, запущенным на днях.

В результате этого изменения Google не будет показывать больше двух результатов из одного и того же домена в топе поисковой выдачи по конкретному запросу.

«Сейчас в Поиске Google запускается новое изменение, призванное обеспечить большее разнообразие сайтов в наших результатах. Это изменение означает, что теперь обычно вы не будете видеть больше двух ссылок из одного и того же сайта в топ-результатах», — говорится в сообщении компании.

При этом Google оставил за собой право показывать больше двух результатов, когда это оправданно. В частности, если это позволит обеспечить большую релевантность результатов поиска по определённому запросу. Возможно, так будет происходить по брендовым запросам, когда пользователи ищут конкретную компанию.

Что касается поддоменов, то в большинстве случаев они будут учитываться как отдельные результаты.

«Поддомены обрабатываются как части корневого домена. Таким образом, ссылки из поддоменов и корневого домена будут расцениваться как результаты из одного и того же сайта».

Но и здесь возможны исключения. Если Google посчитает, что показ поддоменов обеспечит большую релевантность, то он может их оставить.

Также стоит отметить, что это изменение затронуло только основные результаты и не коснулось поисковых функций, таких как карусели главных новостей, изображений и т.д.

Сотрудник Google Дэнни Салливан также объяснил, что это не совсем обновление, и оно не будет иметь такого же сильного влияния на сайты.

«Лично я не стал бы думать об этом как об апдейте. Это изменение не касается ранжирования. Те сайты, которые ранжировались высоко, продолжат занимать высокие позиции. Мы только не будем показывать так много страниц», — отметил Салливан.

В целом это изменение, вероятно, больше всего отразится на тех сайтах, которые пытаются монополизировать выдачу по конкретным запросам.


Google снова обновил алгоритм: что о нем известно

Команда Search Engine Land собрала первые данные по недавнему апдейту основного алгоритма Google – June 2019 Core Update. В материале приводятся комментарии сотрудников Google, информация, взятая из отчетов инструментов мониторинга, а также наблюдения вебмастеров. Стоит отметить, что окончательные выводы делать пока рано – запуск обновления не завершен.
Данные инструментов мониторинга
Статистику по апдейту уже опубликовали Sistrix, RankRanger, SearchMetrics и Moz.
Представители компании Sistrix опубликовали пост в блоге, в котором поделились данными за 5 июня. Компания отслеживает данные по Великобритании:
Данные Sistrix
По данным Sistrix, последнее обновление охватило большее число доменов, чем в предыдущие разы.
RankRanger предоставил некоторые данные напрямую Search Engine Land и опубликовал некоторые данные в Twitter. Инструмент отслеживает изменения по США.
Самые крупные изменения были зафиксированы в таких сферах, как «гемблинг», «здоровье» и «финансы».
Данные RankRanger
Представитель Moz Питер Мейерс заявил, что несколько сайтов из медицинской тематики сильно улучшили свои позиции, а по другим – в том же сегменте – позиции упали. Больших сдвигов в области функций SERP замечено не было.


Google: такой сигнал ранжирования, как HTTPS, не стоит игнорировать

На днях сотрудник Google Гэри Илш заявил в Twitter, что такой сигнал ранжирования, как HTTPS, не стоит игнорировать.

«Я не могу назвать точное число, но этот сигнал влияет на достаточное количество запросов, чтобы я его не игнорировал», — написал Илш.

Он также отметил, что невалидный SSL-сертификат не повлияет на этот сигнал. Но он может влиять на другие факторы.

«Недействительный сертификат будет влиять на другие вещи. При этом я точно знаю, что сам сигнал [HTTPS] затронут не будет: если у вас есть HTTPS, то вы получите импульс [в ранжировании]».

Вопрос по сертификатам возник после того, как сотрудник Google Джон Мюллер отметил, что они должны быть валидными:

«Смена SSL-сертификата не повлияет на позиции, если он действительный. Тем не менее, есть много причин для изменений в ранжировании – от вещей, имеющих отношение к самому сайту (качество), до внешних факторов (конкуренция) и обновлений алгоритма, связанных с релевантностью».
 

Temson

Симивод
Сообщения
30
Лучшие ответы
0
Реакции
37
ОРА
5.0
TR
0
Google: не игнорируйте фактор HTTPS

Поисковик напоминает о важности безопасного протокола в качестве сигнала ранжирования сайтов.

В Твиттере замечено очередное обращение к сотрудникам Google по поводу HTTPS-протокола:

«Среди огромного множества факторов ранжирования (около 9 тыс.) как часто на первые роли выходит безопасность соединения?»

Краткий ответ от Гари Илша:

«Точные цифры я назвать не могу, зато могу с уверенностью заявить, что по многим поисковым запросам наличие безопасного протокола является одним из определяющих факторов ранжирования. Учитывая это, я бы не стал игнорировать данный сигнал».

Также эксперт подчеркнул, что неправильная работа сертификата может негативно отразится на многих вещах. Следовательно, HTTPS-протокол нуждается в правильной настройке.


UbBcZz3jk3Q.jpg
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Криптопортал CCN закрывается после июньского апдейта Google

В течение суток после запуска обновления дневная выручка издания упала на 90%

Медиакомпания Hawkfish сообщила, что с 10 июня крупное криптовалютное издание CCN, запущенное 6 лет назад, прекращает свою работу, а команда проекта переходит на новостную платформу HVY.com. Причиной такого решения стало резкое падение трафика, наблюдаемое после июньского обновления основного алгоритма Google.

За сутки мобильный трафик ресурса обвалился на 71%. При этом показатели таких ведущих криптоизданий, как CoinDesk и Cointelegraph, просели на 34,6% и 21,1% соответственно.

По данным SEO-анализатора Sistrix, видимость CCN в Google упала с 1,2 до менее чем 0,6. Хотя со спадами трафика издание уже сталкивалось раньше, на этот раз справиться с ними не удалось. Как объяснил глава Hawkfish Йонас Борчгревинк (Jonas Borchgrevink), компания значительно увеличила команду портала, а если пытаться его сохранить, то придётся пойти на сокращения.

«Поэтому, да, это изменение со стороны Google оказало значительное влияние на нас, как небольшую независимую новостную организацию, которая никогда не получала внешнего финансирования. Деньги, которые мы зарабатывали на рекламе, направлялись на развитие команды», — отметил Борчгревинк.

После апдейта Google дневная выручка издания упала более чем на 90%.

Компания обратилась за помощью к SEO-сообществу, опубликовав сообщение на форуме Google Webmaster Help. Однако, по словам Борчгревинка, полученные советы не помогли.

Поскольку Google не объясняет нюансов своих обновлений, пострадавшие могут только «гадать, предполагать и экспериментировать», пока их банковские счета позволяют это делать, добавил руководитель.

Один из вебмастеров, которые откликнулись на сообщение Борчгревинка, высказал мнение, что столь сильное снижение трафика могло быть вызвано тематикой ресурса. Возможно, Google отнёс его в категорию YMYL (Your Money Your Life) и, соответственно, начал предъявлять более высокие требования к его качеству и авторитетности.

Однако Борчгревинк с этим не согласен, поскольку ССN – это одно из крупнейших изданий в криптосфере, имеющее высокую авторитетность в сообществе, открыто ведущее свою деятельность и не публикующее спонсированный контент под видом органического.

В своём заявлении Борчгревинк выдвинул три требования к Google касательно новостных организаций:
?Предупреждать о планируемых изменениях в алгоритме за три месяца до их внедрения и пояснять, каким образом можно избежать связанных с ними негативных последствий.
?Если новостная организация рискует потерять более 20% трафика, предупредить её об этом и объяснить, как можно это предотвратить.
?Привлечь местные власти в тех регионах, где компания занимает лидирующую позицию на рынке поиска, для создания аполитичных групп, которые бы проверяли обновления алгоритма с точки зрения демократии и свободы слова.

Он также призвал новостные организации по всему миру, журналистов, редакторов и других работников этой сферы поддержать его требования, чтобы совместными усилиями чего-то добиться от Google.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Исследование Rookee: от публикации контента до новых позиций, когда ждать результат
Оригинальный контент по заявлениям Яндекса и Google — один из основных признаков качественного сайта, который помогает в индексировании и улучшает ранжирование. Но практически все, кто начинает наполнять сайт качественным контентом, сталкиваются с проблемой оценки результата и роста позиций. В итоге владельцы сайтов делают скоропостижные выводы, на ходу меняют контент-политику, проводят ошибочные корректировки – тратят время, нервы и деньги.
Специалисты сервиса Rookee провели исследование и выяснили, сколько времени проходит от момента выкладки контента на сайт до его влияния на позиции в выдаче.
В течение 6 недель специалисты анализировали страницы сайтов, которые поделили на две большие группы:
  • домены до года (сайты с возрастом от 6 до 12 месяцев);
  • домены старше 3 лет.
В исследовании приняли участие сайты следующих тематик:
22.0.PNG

Все страницы тестируемых сайтов поделили примерно на равные части и провели контентные работы по трем направлениям:
  • создание новых страниц с оригинальным контентом;
  • замена текста на уже имеющихся страницах без изменения URL;
  • корректировка имеющихся текстов с увеличением объема, расширением тематического, ассоциативного LSI-ядра ключевых слов, связанных с тематикой и структурой сайта.
Условия эксперимента

Во время исследования на тестируемых страницах и доменах не проводилось никаких работ, кроме контентных. Все страницы уже были оптимизированы и проиндексированы.
Позиции сайтов замерили до начала работы с контентом. Для каждой страницы был подобран пул из четырех основных запросов (в основном средне- и низкочастотные). Далее провели запланированные работы, используя только качественный и уникальный контент, после чего все страницы были отправлены на переиндексацию в Яндекс.Вебмастер.
Позиции отслеживались ежедневно в Яндексе и Google в течение 6 недель после выкладки контента. Из эксперимента исключили сильно отклоняющиеся от среднего значения данные. Таких оказалось немного: 1–1,5 % страниц в каждой подгруппе.
Итоговые выводы были сделаны по средним в подгруппе значениям.
Отметим, что в данном эксперименте не важно выросли или упали позиции.

В ходе эксперимента были выявлены отличия в скорости индексации страниц сайта по тематикам:

Коммерческие страницы
И товары, и услуги показали примерно одинаковую скорость индексации. Новые страницы попадают в индекс через 3–5 дней после выкладки контента, копии старых изменяются с достаточно большим разбросом по сроку: 4–8 дней.

Информационные сайты и инфостраницы коммерческих сайтов
В этой тематике получен самый неоднозначный результат по скорости переиндексации. Примерно у 30 % тестируемых страниц сохраненная копия изменилась за 2 дня. Большинство остальных – в срок 4–7 дней.

Новостные ресурсы
Самое быстрое время обновления кэша в поисковых системах (1–2 дня). В выборке участвовали как сайты категории СМИ с официальным статусом, так и новостные порталы, включая региональные ресурсы. Большая часть из них отдает RSS-ленты.
Влияние на позиции новых URL новостных сайтов также показали самый быстрый результат. На большой части страниц изменения произошли сразу после публикации контента и индексации.
Страницы с частично обновленным контентом, у которых URL остался неизменным, переиндексируются дольше — 4–7 дней в поисковых системах Яндекс и Google. Отметим, что около 1,5 % страниц переиндексировались в Google только через 14 дней.

Наблюдения и выводы

Первое изменение позиций происходит через 3–7 дней после изменения текстовой копии страниц. Но запросы продолжает «штормить» еще некоторое время. Особенно это характерно для поисковой системы Яндекс. К более устойчивой позиции с плавной динамикой запросы приходят примерно через 2 недели после обновления сохраненной копии. Далее наступает некоторая стагнация, но через 3–4 недели позиции порядка 57 % запросов снова меняются — и этот результат остается стабильным.

Рассмотрим проекты с ростом позиций в выдаче
Для 68 % страниц с новым и старым URL при полной замене текста получили положительный импульс в ранжировании в поисковых системах Google и Яндекс.
22.1.jpg

График по темпу роста позиций для страниц, показавших рост после индексации в выдаче поисковых систем Яндекс и Google.
Для страниц с готовыми текстами, в которые только внесли изменения, позиции выросли у 42 % в Яндексе и у 31 % в Google.
22.2.jpg

График проектов, у которых не менее 50 % запросов показали рост в поисковых системах Яндекс и Google.
Согласно эксперименту, процесс учета текстовых изменений поисковой системой Яндекс можно поделить на 3 этапа:
  1. Первичная индексация изменений (обновление сохраненной копии документа).
  2. Предварительный отбор документов поисковой системой, выкладка текстового индекса. Первое изменение позиций, обычно происходит только через 4–7 дней после индексации. В этот период можно увидеть изменение позиций, которые часто оказываются нестабильными и продолжают меняться.
  3. Итоговое ранжирование — второе заметное изменение позиций обычно происходит через 3–5 недель после индексации изменений.
Позиции могут меняться и после этого периода (нельзя исключать влияние поведенческих, социальных и прочих факторов, которые для эксперимента отключить не представляется возможным), но изменения плавные с явно отслеживаемым направлением динамики.

В поисковой системе Google позиции начинают меняться уже через 2–3 дня после индексации. Изменения продолжаются около 2 недель, но их динамика более плавная, чем у Яндекса. Позиции, полученные в Google, стабильнее, значительные скачки наблюдались у 26 % запросов в рамках топ-20. В среднем, позиции в Google стабилизируются быстрее, чем в Яндексе.
Согласно результатам эксперимента, срок установления устойчивой позиции примерно равный и для страниц, показавших рост позиций, и для тех, чей рейтинг в выдаче упал.
Rookee tab.jpg

Срок изменения сохраненной копии у старых и новых доменов в среднем не отличается. Но позиции у старых доменов немного быстрее реагируют на изменения, растут на большее количество пунктов, их меньше «штормит» в течение всего периода.

Выводы

В понятие «текст проиндексирован» SEO-специалисты часто вкладывают разный смысл. Проиндексированный (попавший в кэш поисковых систем) текст влияет на позиции не сразу. Кроме того, позиции могут меняться еще некоторое время после публикации текста. Первое «быстрое» изменение позиции по запросу (особенно в Яндексе) нестабильно.
Согласно результатам исследования, среднее время окончательного принятия решения о позиции для страницы с новым текстом у поисковых систем составляет 4–5 недель.
Позиции для страниц с готовым текстом, в которые вносились доработки, стабилизируются на 1–2 недели раньше (однако в нашем случае такие страницы показывали меньше положительной динамики по позициям).
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Яндекс прокомментировал массовую пессимизацию сайтов за перенаправление на автоподписки

С начала апреля на форуме Searchengines.guru ведется горячее обсуждение массовой пессимизации сайтов из-за некачественных рекламных блоков Adsense.

Многие вебмастера отметили падение трафика на своих ресурсах в несколько раз, при том, что в Кабинете вебмастера не появлялось никаких предупреждений о наложении каких-либо санкций. При этом в мобильной выдаче некоторые обнаруживали для сайтов предупреждения о возможных платных подписках.

О том, что сайт перссимизирован из-за размещения некачественных рекламных блоков, вебмастера узнавали только из переписки со службой поддержки Яндекса, которая объясняла, что:

Периодически сайт показывает пользователям мобильного интернета контент, который не индексируется поисковым роботом, и перенаправляет посетителей на страницы с подпиской на платные контент-услуги. Это затрудняет использование сайта и может вводить пользователя в заблуждение, что негативно сказывается на качестве сайта.

Сопоставив данные об имеющемся на пессимизированных сайтах рекламном контенте, вебмастера пришли к выводу, что фильтр Яндекса налагается из-за некачественного содержания блоков Adsense, которые действительно содержат много мусорной рекламы и платных подписок.

Пресс-служба Яндекса так прокомментировала происходящее:
«В 2015 году мы опубликовали пост про внедрение алгоритма, обнаруживающего перенаправление пользователей на страницы с подпиской на платные контент-услуги мобильных операторов. Мы рекомендуем вебмастерам более тщательно контролировать содержимое сайта, в том числе размещаемой рекламы, и следить за поведением пользователей на своих сайтах. В частности, если большая часть пользователей, попадая на сайт, оказывается в итоге на странице с платной подпиской, алгоритмы ограничивают такие сайты в ранжировании, так как мы заботимся о том, чтобы при переходе с результатов поиска на сайт пользователь быстро, эффективно и безопасно решал стоящую перед ним задачу.

Алгоритм анализирует поведение пользователей на сайтах, учитывая как контент веб-страниц, так и рекламу, которая на них размещается. Если реклама мешает пользователю решать задачу или, хуже того, вводит в заблуждение, то это негативно сказывается на пользовательском опыте и соответственно на нашей оценке качества сайта.

Мы также постоянно работаем над улучшением информирования вебмастеров в кабинете Вебмастера о возможных рисках, связанных с индексированием и ранжированием сайтов в Поиске Яндекса».


Автоматическая проверка содержимого сайта Яндексом, по словам Платона Щукина, занимает около месяца:

«Наши алгоритмы регулярно мониторят сайты, внесенные изменения они отследят автоматически. Им нужно несколько раз проверить ваш сайт и убедиться, что нарушений на нем действительно нет и что эта ситуация со временем не меняется. Если никаких нареканий со стороны алгоритмов не будет, то в течение месяца ограничения будут сняты».

По свидетельству вебмастеров, время от начала переписки с Платонами до снятия пессимизирующего фильтра — месяц-полтора. В Кабинете вебмастера никаких пометок о наложении фильтра за перенаправление на платные подписки не показывается.

Проверить свой сайт на наличие фильтра можно так:
?зайти в поиск с сотовой сети
?ввести в поисковую строку site:ваш сайт
?просмотреть все страницы на наличие предупреждения о возможных автоподписках

Если есть предупреждения об автоподписках на вашем ресурсе — писать Платонам. И не только Платонам, но и сюда — Форум сообщества Google Adsense , так как по свидетельству многих вебмастеров качество содержимого рекламных блоков в этой сети уже давно оставляет желать лучшего.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Google упраздняет настройку для указания основного домена в Search Console

Google сообщил, что в Search Console больше не будет возможности указать основной домен. Эта настройка будет упразднена. Другими словами, Google не собирается переносить её из старой версии сервиса в новую.

Данная настройка позволяла указать тот домен, который вебмастер хотел бы видеть в результатах поиска. Теперь же Google способен самостоятельно выбрать основной домен, используя ряд сигналов. Поэтому было принято решение отказаться от этой функции.

В компании также предупредили, что текущая конфигурация, заданная с помощью настройки «Основной домен», после её упразднения учитываться не будет.

Чтобы сообщить Google, какой домен является предпочтительным, можно использовать способы, приведённые в справочном документе, посвящённом консолидации повторяющихся URL.

В частности, теперь для этого можно использовать:
?атрибут rel="canonical"
?HTTP-заголовок rel="canonical"
?файл Sitemap
?код статуса 301 для URL удалённых страниц

На данный момент вебмастерам желательно проверить, не изменился ли канонический URL, отображаемый в поиске, после заявления Google. Если изменения были, то тогда рекомендуется использовать способы, перечисленные выше.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Яндекс.Поиск начнет чаще показывать неканонические страницы
Неканонические страницы начнут чаще показываться в поиске Яндекса.

Как пояснили в команде Яндекс.Поиска, внутренние исследования показывают, что страницы, размеченные как неканонические могут быть полезны, а их наличие в поиске может влиять на качество и полноту ответа на запрос пользователя:

«Например, если для темы форума владелец сайта указал канонической страницу с началом ветки, то многие важные и нужные ответы, которые были даны пользователями позже, на поиск не попадают. Другой пример: бывает, что какое-то литературное произведение разбито на страницы и в качестве канонической прописана первая страница. В результате сайт не находится по запросу-цитате, соответствующей тексту за пределами первой страницы. Поэтому теперь в поиске неканонические страницы будут появляться чаще».

Они будут показаны в том случае, если являются более релевантными запросу и их контент существенно отличался от канонической версии во время сканирования роботом.

В Вебмастере такие страницы можно увидеть на странице «Страницы в поиске» с пометкой «Неканоническая». Кроме этого теперь будут показываться статусы «Каноническая» и «Каноническая страница не указана» для всех страниц, попавших в поиск.

Если канонические страницы настроены на сайте без ошибок, то никаких дополнительных действий от вебмастера не требуется. Для сайтов, имеющих много неканонических страниц, которые сильно отличались от канонических, возможен прирост количества страниц в Поиске. Впрочем, канонические страницы по-прежнему попадают на поиск гораздо чаще и имеют более высокий приоритет при показе в результатах поиска. Объем трафика для каждого конкретного сайта существенно не изменится.


Google запустит блокировщика рекламы Chrome по всему миру с 9 июля
Блокировщик рекламы, встроенный в Google Chrome, начнет работать по всему миру с 9 июля 2019 года. До этого фильтрация некачественной рекламы была доступна только пользователям Chrome в Северной Америке и Европе.

При переходе на страницу с некачественной рекламой через Chrome фильтр заблокирует показ объявлений. При этом пользователь увидит сообщение, что объявление заблокировано, и может «разрешить показ рекламы на этом сайте».

Напомним, что Google внедрил блокировщик «раздражающей» и «навязчивой» рекламы в свой браузер в феврале 2018 года, после того, как компания присоединилась к Coalition for Better Ads (Коалиция за лучшую рекламу). Согласно стандартам Коалиции под критерии «навязчивой» рекламы попадают 12 типов объявлений. Для десктопных платформ: всплывающие окна, видеообъявления со звуком, баннеры с обратным отсчетом времени, крупные закрепленные блоки. Для мобильных сайтов: всплывающие окна, всплывающие анимированные объявления, реклама, занимающая более 30% от экрана, полноэкранные баннеры, объявления с обратным отсчетом, автовоспроизведение со звуком, закрепленные на странице объявления, объявления с прокруткой.

Google Chrome заблокирует раздражающую рекламу

Проверить, есть ли на вашем сайте реклама, которая нарушает стандарты Better Ads, можно в Search Console.


В Яндекс.Справочнике появились Профили компаний с собственными URL
Карточки организаций в Яндкекс.Справочнике получили большое обновление и новое название — Яндекс.Профиль. Теперь Профиль организации доступен в виде отдельной страницы с собственным URL-адресом, которым можно поделиться. Информация с нее попадет в сервисы Яндекса и позволит привлечь дополнительный трафик.

Если ранее в Справочнике в карточке компании можно было разместить описание компании, официальные фото, отзывы и место расположения, то теперь можно создавать публикации, чтобы информировать клиентов об акциях и новостях, а обновленные прайс-листы позволят загружать сразу много товаров с фотографиями и ценой. Эта информация будет отображаться в интерактивных ответах и карточке компании в поисковой выдаче Яндекса и Яндекс.Картах для рубрик, связанных с авто, медициной, красотой и едой.


Google перестанет поддерживать директиву noindex в robots.txt
Начиная с 1 сентября Google перестанет поддерживать неопубликованные и неподдерживаемые правила в Robots Exclusion Protocol. Это значит, что поисковик больше не будет поддерживать директиву noindex в файле robots.txt.

«В интересах поддержания здоровой экосистемы и подготовки к возможным будущим релизам с открытым исходным кодом мы переведём в разряд устаревшего весь код, который обрабатывает неподдерживаемые и неопубликованные правила (такие, как noindex) 1 сентября 2019 года», — говорится в сообщении компании.

В качестве альтернативы директиве noindex в robots.txt Google предлагает использовать следующие варианты:
?Noindex в метатегах robots;
?Коды ответа сервера 404 и 410;
?Disallow в robots.txt;
?Инструмент удаления URL в Search Console;
?Защиту паролем. Если на странице не используется разметка для платного контента, то использование логина и пароля для доступа к содержимому страницы обычно приводит к её удалению из индекса Google.
 

Fall3nProff

Симивод
Сообщения
58
Лучшие ответы
0
Реакции
68
ОРА
56.9
TR
0
Неканонические страницы в Поиске

Часто на сайтах присутствуют страницы с разными URL, но с одинаковым или очень похожим содержанием. С помощью атрибута rel=«canonical» вебмастера могут указать, какая страница является «канонической» — предпочтительной для индексации и появления в результатах поиска. Остальные, неканонические версии как правило в поиск не попадают.

Наши исследования показывают, что страницы, размеченные как неканонические могут быть полезны, а их наличие в поиске может влиять на качество и полноту ответа на запрос пользователя. Например, если для темы форума владелец сайта указал канонической страницу с началом ветки, то многие важные и нужные ответы, которые были даны пользователями позже, в поиск не попадают. Другой пример: бывает, что какое-то литературное произведение разбито на страницы и в качестве канонической прописана первая страница. В результате сайт не находится по запросу-цитате, соответствующей тексту за пределами первой странице. Поэтому теперь в поиске неканонические страницы будут появляться чаще.

Они будут показаны в том случае, если они более релевантны запросу и их контент существенно отличался от канонической версии во время сканирования роботом. В Вебмастере такие страницы можно увидеть на странице «Страницы в поиске» с пометкой «Неканоническая». Помимо этого статуса мы начали показывать статусы «Каноническая» и «Каноническая страница не указана» для всех страниц, попавших в поиск.

orig



Если канонические страницы настроены на сайте без ошибок, то никаких дополнительных действий от вебмастера не требуется. Для сайтов, имеющих много неканонических страниц, которые сильно отличались от канонических, возможен прирост количества страниц в Поиске. Впрочем, канонические страницы по-прежнему попадают в поиск гораздо чаще и имеют более высокий приоритет при показе в результатах поиска. Объем трафика для каждого конкретного сайта существенно не изменится.

Источник:
Код:
https://webmaster.yandex.ru/blog/nekanonicheskie-stranitsy-v-poiske
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Google: возраст домена ни на что не влияет

На днях сотрудник Google Джон Мюллер в очередной раз заявил, что возраст домена не влияет на ранжирование, несмотря на широко распространённый миф об обратном.

И новые и старые домены могут занимать высокие позиции, и возраст в данном случае роли не играет – Google ориентируется на другие факторы. Поэтому ожидать более высоких позиций для более старого домена (как и для нового) не стоит.

Вопрос на эту тему был поднят одним из пользователей Twitter. Он спросил, является ли возраст домена значимым фактором в современном SEO. В комментариях известные западные эксперты по поисковому маркетингу, включая Рэнда Фишкина, Билла Славски и других, отметили, что этот фактор не учитывается Google.

При этом один из участников обсуждения написал, что возраст домена помогает только быстрее завоевать доверие Google и может быть одним из 200+ факторов ранжирования. На что Мюллер ответил, что возраст домена ни на что не влияет.

Далее он также добавил:
«Я не вижу, как возраст сам по себе может быть хорошим сигналом. Контент не становится автоматически лучше только потому, что он более старый».
 

Fall3nProff

Симивод
Сообщения
58
Лучшие ответы
0
Реакции
68
ОРА
56.9
TR
0
Google: возраст домена ни на что не влияет

На днях сотрудник Google Джон Мюллер в очередной раз заявил, что возраст домена не влияет на ранжирование, несмотря на широко распространённый миф об обратном.

И новые и старые домены могут занимать высокие позиции, и возраст в данном случае роли не играет – Google ориентируется на другие факторы. Поэтому ожидать более высоких позиций для более старого домена (как и для нового) не стоит.

Вопрос на эту тему был поднят одним из пользователей Twitter. Он спросил, является ли возраст домена значимым фактором в современном SEO. В комментариях известные западные эксперты по поисковому маркетингу, включая Рэнда Фишкина, Билла Славски и других, отметили, что этот фактор не учитывается Google.

При этом один из участников обсуждения написал, что возраст домена помогает только быстрее завоевать доверие Google и может быть одним из 200+ факторов ранжирования. На что Мюллер ответил, что возраст домена ни на что не влияет.

Далее он также добавил:
«Я не вижу, как возраст сам по себе может быть хорошим сигналом. Контент не становится автоматически лучше только потому, что он более старый».
Лично мое мнение - возраст домена это катализатор, рассмотрим 2 случая:
1)представим, что сайт хороший и существует 12 лет, представляете сколько ПФ, естественных и покупных ссылок и т.д. он набрал за это время? Представим, что есть не уступающий по качеству сайт, но с молодым доменом, когда он нагонит старый сайт?
2)представим, что так себе сайт существует 12 лет, за это время он кое-как набрал ссылочную, ПФ на нем так сяк все это время было. Крутой сайт(функционал, дизайн, контент и т.д.) с молодым доменом вполне его обгонит в течение года, а вот уже молодому среднему сайту будет тяжеловато тянуться до старого, дольше времени уйдет.
Конечно если 12 лет сайтом никто не занимался и он висел вне зоны видимости, то возраст никакой роли не сыграет, но если им занимались - догонять будет сложно(ну я с учетом только белых методов говорю).
Случай из практики (по Яндексу): 1)домен попал под ПФ 2)сменил домен 3)новый домен проиндексировался, но только 50-60% от предыдущих топовых запросов удалось на новом домене вывести 4)год всяческих доработок и переработок сайта и контента, вылизывание всего чего можно, но 60% преодолеть не удавалось 5)проверил старый домен и убедился, что он вышел из под ПФ 6)вернул старый домен и приклеил новый к нему зеркалом, ждал настороженно месяц, позиции колбасило 7) спустя месяца 80% в ТОП-10 8)еще через месяц 95% и сейчас стабильно держится 90+ как и раньше было.
Т.е. от смены домена сайт хуже не стал, но накопленных факторов старого домена видимо не имел и также высоко ранжироваться не мог.
P.S. Не смог промолчать, часто эта дискуссия идет, интересны другие мнения.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Джон Мюллер: как Google ранжирует страницы, заблокированные в robots.txt

Во время последней видеовстречи для вебмастеров сотрудник Google Джон Мюллер объяснил, как определяется релевантность запросу для тех страниц, что заблокированы от сканирования с помощью robots.txt.

Как стало известно ранее, Google может индексировать заблокированные в robots.txt страницы, если на них есть ссылки. Но как Google определяет, по каким типам запросов ранжировать эти URL?

Вопрос к Мюллеру звучал так:
«Сегодня все говорят о намерении пользователя. Если страница заблокирована через robots.txt, но ранжируется, как Google определяет релевантность её контента запросу?»

Мюллер ответил, что Google не может просмотреть заблокированный контент. Поэтому ему приходится искать другие пути, чтобы сравнить текущий URL c другими.

В большинстве случаев Google будет приоритизировать индексацию других страниц сайта, которые более доступны и не заблокированы от сканирования.

При этом иногда в результатах поиска могут выводиться заблокированные страницы. Это происходит в тех случаях, когда Google считает, что такое решение оправдано. Релевантность таких страниц будет определяться по ссылкам, указывающим на них.

В WP-плагине Ad Inserter обнаружили серьёзную уязвимость безопасности

В популярном WordPress-плагине Ad Inserter, предназначенном для вставки рекламных блоков на сайты, обнаружили серьёзную уязвимость безопасности. На данный момент она уже закрыта.

Уязвимость получила название Authenticated Remote Code Execution (RCE) и была помечена как критическая. Она была выявлена 12 июля командой WordFence и закрыта разработчиками уже на следующий день, 13 июля. RCE влияет на версии 2.4.21 и ниже.


«В пятницу 12 июля команда Threat Intelligence обнаружила уязвимость в Ad Inserter – плагине для WordPress, установленном на более чем 200 000 сайтов. Эта уязвимость позволяла аутентифицированным пользователям (подписчикам и выше) выполнять произвольный PHP-код на сайтах, используя плагин.

Мы в частном порядке сообщили об этой проблеме разработчику плагина, который выпустил патч на следующий день. Обнаруженная уязвимость считается критической проблемой безопасности», — говорится на сайте WordPress Fence.

Google опубликовал руководство по основам JavaScript SEO

Линк

На сайте Google Developers появилось новое руководство, посвящённое основам JavaScript SEO. Авторами документа стали сотрудники компании Мартин Сплит и Лиззи Харви.

В руководстве приводится по большей части та же информация, которая озвучивалась в серии видео на тему JavaScript SEO, выпущенных ранее в этом году.

В целом документ сосредоточен на том, как сделать так, чтобы JS-контент индексировался Google.

Начинается он с описания трёхэтапного процесса обработки JavaScript-контента – сканирования, рендеринга и индексирования.

Затем приводится несколько простых советов о том, как сделать JS-контент «более дружественным» к Google:
?Уникальные заголовки и описания. JavaScript может использоваться для изменения метаописаний и тайтлов.
?Совместимый код. Чтобы обеспечить совместимость кода с Googlebot рекомендуется следовать руководству по устранению проблем с JS, связанных с поиском.
?Коды состояния HTTP. В Google советуют использовать коды состояния, чтобы сообщить Googlebot, что страница не должна сканироваться или индексироваться, или же о том, что она была перемещена на новый URL.
?Метатеги robots. Google предупредил, что использование JavaScript для изменения метатагов robots может приводить не к тем результатам, которые ожидались. Если владелец сайта хочет использовать JS для изменения содержимого этих тегов, то значение тега не должно быть равно «noindex».
?Lazy-loading. Чтобы сэкономить интернет-трафик и улучшить производительность, «ленивую загрузку» рекомендуется использовать только для тех изображений, которые будут просматриваться пользователями.

Из-за сбоя в Google у многих пользователей отображаются не все результаты поиска

Некоторые пользователи заметили, что результаты поиска в Google стали отображаться неполностью. Об этом свидетельствуют их сообщения на форумах компании.

Неполная визуализация SERP наблюдается на мобильных устройствах.

Согласно комментарию одного из пользователей, сбой произошёл в районе 20 июля.

Точный масштаб проблемы пока неизвестен.

В Google признали наличие сбоя и заявили, что уже работают над его устранением.

«Мы знаем, что для некоторых пользователей страница результатов поиска может отображаться не полностью. Мы активно работаем над устранением этого бага», — написал евангелист поиска Дэнни Салливан в Twitter.

Как отмечают эксперты, этот сбой может привести к снижению поискового трафика для ряда сайтов. Но в Google уже активно работают над тем, чтобы побыстрее решить проблему.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
В России запретят анонимно пополнять электронные кошельки (Не СЕО)

Обладатели анонимных электронных кошельков Яндекс.Деньги, QIWI Кошелек, WebMoney, PayPal, VK Pay и других аналогичных систем не смогут пополнять их наличными через платежные терминалы и офисы операторов сотовой связи — для этого нужно будет использовать банковский счет. Соответствующие положения содержатся в поправках в закон о национальной платежной системе, которые 26 июля одобрил Совет Федерации. Документ, который еще должен подписать президент Владимир Путин, вступит в силу после официального опубликования.

Согласно поправкам неидентифицированные клиенты смогут «предоставлять денежные средства оператору электронных денежных средств только с использованием банковского счета». Раньше такого требования в законе не содержалось, что позволяло физлицам пополнять кошельки наличными без предоставления документов.

Анатолий Аксаков, глава комитета Госдумы по финансовому рынку:
«Эти поправки внесены по просьбе службы финансового мониторинга, так как эти кошельки могут использоваться для финансирования распространения наркотиков, терроризма и т.д. Теперь пользователи анонимных кошельков смогут их пополнять только с помощью банковского счета, благодаря чему будет известен источник денежных средств».

Таким образом пополнение кошелька с банковского счета позволит точно идентифицировать личность плательщика и заблокировать его счет при подозрении в выполнении незаконной операции.

Search Console начал оповещать о прекращении поддержки noindex в robots.txt

Google начал рассылать через Search Console оповещения тем вебмастерам, которые добавили директиву noindex в robots.txt. В них говорится, что эти записи должны быть удалены, поскольку 1 сентября поддержка noindex в этом файле будет полностью прекращена.

«Google обнаружил, что файл robots.txt вашего сайта содержит неподдерживаемое правило “noindex”. Это правило никогда официально не поддерживалось Google, а с 1 сентября 2019 года оно перестанет работать. Посетите наш Справочный центр, чтобы узнать, как блокировать страницы, чтобы они не попадали в индекс Google», — гласит текст оповещения.

При этом некоторые специалисты получают много таких оповещений.


Keyword Planner в Google Ads будет показывать самые релевантные варианты КС

Google Ads обновил Планировщик ключевых слов, чтобы рекламодатели могли видеть самые релевантные варианты КС.

Например, если будет введено слово «ботинки», то среди вариантов могут значится «женские ботинки», «мужские ботинки», «рабочие ботинки» и «ковбойские ботинки». У рекламодателей также будет возможность расширить поиск, добавив рекомендуемые слова к начальному слову.

Помимо помощи в приоритизации ключевых слов, Google Ads также запустил ещё две новые функции, которые призваны дать больший контроль над показом вариантов КС.
В их числе:
?Фильтрация на основе сайта. Возможность фильтровать варианты КС таким образом, чтобы отображались только те ключевые слова, которые наиболее тесно связаны с компанией (на основании её сайта).
?Исключение брендов. Возможность исключать те варианты ключевых слов, которые содержат брендовые термины.

На данный момент все эти изменения запущены только в англоязычной версии сервиса. На других языках они станут доступны позже в этом году.

Google: появление блока с быстрыми ссылками в сниппетах занимает около месяца

Во время последней видеовстречи для вебмастеров сотрудник Google Джон Мюллер ответил на вопрос касательно сроков появления блока с дополнительными ссылками (Sitelinks) в поисковых сниппетах.

По словам Мюллера, по сравнению с другими типами разметки быстрые ссылки обрабатываются дольше, а их появление в результатах поиска занимает около месяца.

Это связано с тем, что Google хочет убедиться, что эти страницы будут доступны на сайте в долгосрочной перспективе.

Другие типы разметки Google сканирует один или два раза перед показом в результатах поиска. Разметка для дополнительных ссылок обрабатывается дольше.

Мюллер также напомнил, что добавление разметки не гарантирует появление расширенных сниппетов в результатах поиска. При принятии решения о показе этой информации, Google обычно ориентируется на её полезность для пользователей.

Легальные онлайн-кинотеатры отметят в поиске специальными значками

Легальные онлайн-кинотеатры вскоре можно будет легко отличить от пиратских сайтов в поисковой выдаче — у официальных площадок появится специальная отметка. Такую поправку в закон о кинематографии подготовило Министерство культуры РФ.

Идея меток возникла после долгих споров о том, как ограничить пиратов в поисковой выдаче. Этим ограничениям посвящена новая версия антипиратского закона, который готовится на площадке Роскомнадзора и профильного объединения — Медиа-коммуникационного союза.

Параллельно эта же тема стала предметом торга при подготовке законопроекта о подсчете онлайн-просмотров контента, который готовит Минкульт. Согласно готовящемуся документу, все видеосервисы рунета обяжут отчитываться о просмотрах фильмов, так же как традиционные кинотеатры.

Сервисы, которые начнут передавать данные о просмотрах, будут перечислены в специально создаваемом Минкультом реестре легальных площадок, они и получат специальную метку в поисковиках. Такие поправки войдут в законопроект об учете онлайн-просмотров.

77% сайтов, попадающих в «колдунщики», находятся не на первой позиции в выдаче

Сервис SEOWORK проанализировал проекты, чтобы выяснить, как часто в поисковых системах сайты оказываются на нулевой позиции и что нужно, чтобы попасть в «колдунщик».

Исследование колдунщиков в Google

Специалисты выделили позиции по запросам, которые используются колдунщиками поисковых систем, и отметили их в качестве нулевой позиции.

Как попасть в колдунщик поисковых систем, исследование

Затем специалисты провели анализ всех данных, загруженных в платформу.

Ключевые выводы исследования:

  • 71% проектов среди всех отслеживаемых имеют хотя бы один запрос с нулевой позицией в Google.
  • 77% из отслеживаемых запросов, которые попадают в «колдунщик», находятся не на первой позиции в выдаче. Это значит, что страницы, которые располагаются ниже первой позиции, но попадают в «колдунщик» (на нулевую позицию), теоретически имеют CTR и трафик выше, чем запрос на первой позиции.
Запросы, попадающие на нулевую позицию в выдаче



  • «Колдунщик» присутствует также в мобильной выдаче и в региональном поиске.
  • Чаще всего «колдунщик» появляется по коммерческим запросам с упоминанием слов «цена» и «стоимость», а также по информационным запросам, содержащим запросы «как», «сколько», «виды».
  • Самый большой шанс попасть в «колдунщик» имеют сайты, чьи документы содержат структурированный контент (таблицы, списки). Наличие микроразметки не повышает вероятность нахождения запроса на нулевой позиции.
  • Чаще всего присутствие «колдунщика» встречается по запросам медицинской тематики.


Google: такого понятия, как ключевые слова LSI, не существует

На днях сотрудник Google Джон Мюллер в ответ на вопрос одного из вебмастеров заявил в Twitter, что такого понятия, как LSI-ключи, не существует.

«Такого понятия, как ключевые слова LSI, нет. Любой, кто говорит вам обратное, ошибается», — написал Мюллер.

Яндекс тестирует блок с похожими запросами в выдаче

Яндекс запустил в выдаче новый тест – блок «Поиск по похожим запросам», работающий аналогично блоку «Похожие запросы» в поиске Google. Запросы появляются после возврата в выдачу под тем органическим результатом, по которому пользователь переходил. Нововведение заметил SEO-специалист из Санкт-Петербурга Павел Лукин.



В «похожие запросы» попадают первые четыре результата из блока «Вместе с […] ищут», который располагается в нижней части страницы.



По механику новая функция Яндекса похожа на блок «Похожие запросы» в Google:



Напомним, сейчас Яндекс работает над новым рекламным форматом «Суперответ», напоминающим колдунщики.
 

SmartFox

Симбаводы
Сообщения
287
Лучшие ответы
1
Реакции
329
ОРА
216.2
TR
0
Факторы ранжирования Google 2019: опрос SEO-специалистов и личный анализ Рэнда Фишкина

Линк на статью

Рэнд сравнил ответы последнего опроса с данными опросов MOZ за 2015, 2013, 2011, 2009, 2007 и 2005 годы и обнаружил ряд интересных тенденций:

?Впервые контент получил оценку выше, чем ключевые фразы и ссылки. В первые годы опросов в качестве основного фактора ранжирования фигурировали ключевики, позже на первое место вышли ссылки и продержались почти десятилетия. Теперь главный фактор — контент, что отражает успехи Google в области удовлетворения пользовательского интента.
?Ценность анкорного текста уменьшается. Раньше фактор всегда получал высокие оценки, а в 2019 году даже не попал в топ-10. Рэнд считает, что это не совсем правильно, но согласен с тем, что Google отказалась от чрезмерной зависимости от анкоров при ранжировании.
?Мобилопригодность и скорость загрузки превзошли ожидания. По личным ощущениям Рэнда от публичных заявлений Google, эти характеристики не являются прямыми факторами ранжирования, хотя косвенно способны влиять на остальные (например, поведенческие). Для него высокие оценки оказались сюрпризом и отражают то, что специалисты склонны объединять корреляцию и причинность.
?Объём контента и возраст сайта. Показатели также коррелируют с высокими позициями, но технически не используются Google в ранжировании. Рэнд удивлён (и даже немного разочарован) довольно высоким оценкам.
?Фильтрация по геопозиции. Рэнд признаёт, что самая большая ошибка в опросе — отсутствие данных о странах и языках, с которыми работают респонденты. Эти данные могут иметь большое значение при оценке факторов ранжирования, и в будущем он обещает показать эти различия.

Google начал принимать меры в отношении арендованных поддоменов

В середине августа Google прояснил свою позицию по арендованным поддоменам и подпапкам. В частности, поисковик заявил, что аренда части другого сайта не является прямым нарушением правил для вебмастеров, однако размещённый там контент должен соответствовать тематике основного ресурса.

В конце августа западные вебмастера заметили, что Google начал понижать позиции контента, размещённого в арендованных подпапках.

Так, например, Гленн Гейб из G-Squared Interactive заметил падение позиций раздела с купонами на погодном сайте. В целом, по его наблюдениям, были затронуты сайты в США и Европе.

При этом, как отметил пользователь под ником LoisH, поддоменов эти изменения не коснулись.

На тот момент Google пессимизировал сторонний контент в подпапках, не относящийся к тематике ресурса.

Теперь же похоже, что Google начал принимать меры и в отношении арендованных поддоменов. Изменения в позициях были зафиксированы в районе 5 сентября.

При этом другие поддомены, наоборот, улучшили свои позиции. Предполагается, что им каким-то образом удалось избежать санкций.

В Google пока не комментируют эту ситуацию.

Google изменил подход к обработке nofollow и представил 2 новых атрибута для ссылок

Google объявил об изменении своего подхода к обработке атрибута “nofollow” и представил ещё два атрибута, призванных помочь ему более точно определять природу ссылок.

Так, теперь в ранжировании Google будет расценивать “nofollow” как подсказку, а не директиву. В компании объяснили, что с момента запуска этого атрибута в 2005 году его роль изменилась, в связи с чем и было принято решение о внедрении другого подхода к его обработке.

Новые атрибуты, представленные Google, призваны дополнить “nofollow”. В их числе значатся следующие:
?rel=”sponsored”. Этот атрибут предназначен для обозначения платных ссылок – созданных в результате рекламного, спонсорского и другого, предполагающего оплату, сотрудничества.
?rel=”ugc”. Этот атрибут рекомендован для ссылок внутри UGC-контента, такого как комментарии и посты на форумах.

Что касается rel=”nofollow”, то теперь этот атрибут рекомендуется использовать в тех случаях, когда есть желание сослаться на страницу, но при этом не передавать ей ссылочный вес.

Все три атрибута будут расцениваться Google как рекомендация, какие ссылки следует учесть или исключить в поиске. Эти подсказки — наряду с другими сигналами – призваны помочь поисковой системе лучше понять, как правильно анализировать и использовать ссылки.

Анализ всех ссылок также поможет Google лучше понимать искусственные ссылочные паттерны. Благодаря переходу на модель подсказок, поисковик больше не будет терять важную информацию о ссылках. При этом у владельцев сайтов останется возможность указать, какие ссылки не должны получать вес.

Когда эти изменения вступят в силу?
Все атрибуты ссылок – “sponsored”, “ugc” и “nofollow” – уже работают и учитываются как подсказки в ранжировании.

В сканировании и индексировании атрибут “nofollow” начнёт учитываться как подсказка с 1 марта 2020 года.

Yoast: Google не должен был единолично менять подход к обработке rel=nofollow

Основатель и директор по продукту Yoast Джуст де Волк (Joost de Valk) раскритиковал Google за изменение подхода к обработке ссылочного атрибута rel=“nofollow”, который теперь будет расцениваться поисковой системой как подсказка, а не директива. Своими мыслями он поделился в личном блоге.

По мнению де Волка, Google не должен был в одностороннем порядке вносить эти изменения. Он отметил, что атрибут rel=”nofollow” также поддерживают Bing [прим.ред. – в Bing заявили, что всегда воспринимали nofollow как подсказку], Яндекс, Baidu и другие поисковые системы. То же самое касается атрибута nofollow в метатеге robots. Поэтому неправильно, что Google самостоятельно принимает решения об изменении «законов» работы интернета.

Де Волк отметил, что именно Google ввёл в обиход атрибут rel=”nofollow”, что даёт ему некоторое право менять этот «стандарт». Однако метатег robots со значением nofollow существовал примерно с 1996, но в компании также изменили свой подход к его трактовке.

Что касается применения новых атрибутов ”ugc” и ”sponsored”, предложенных Google, то здесь тоже есть свои нюансы. Например, WordPress может автоматически добавлять rel=”nofollow” к ссылкам в комментариях, однако теперь нужно изменить rel=”nofollow” на rel=”nofollow ugc”. При этом мы не можем изъять nofollow, поскольку не все поисковые системы поддерживают ”ugc”.

В своём FAQ по этому изменению Google отмечает, что использование новых атрибутов по большей части необязательно и можно обойтись привычным nofollow. Однако, по мнению де Волка, поскольку Google занимает лидирующую позицию на рынке поиска, вебмастера будут делать всё, чтобы его «задобрить».

Завершая свой пост, де Волк задаётся вопросом: почему нет законодательства, которое мешало бы вносить такие изменения в одностороннем порядке.

WordPress добавит поддержку нового атрибута rel=ugc в следующем релизе

Основатель Yoast и бывший директор по маркетингу WordPress Джуст де Волк (Joost de Valk) заявил в Twitter, что WP добавит поддержку нового атрибута rel=”ugc” в следующем релизе.

По его словам, это несложная задача для разработчиков, поскольку это изменение на уровне одной строки в базе кода.

Google прояснил, в какую часть страницы можно добавлять разметку JSON-LD

Google выпустил очередное видео в справочной серии #AskGoogleWebmasters. Темой нового выпуска стала разметка JSON-LD. В частности, в какой части страницы она может быть размещена.

Вопрос к Google звучал так:
«Можно ли добавлять разметку JSON-LD в нижнюю часть тега <body> вместо <head>? Похоже, что это хорошо работает для многих сайтов».

Сотрудник Google Джон Мюллер ответил, что да, это вполне допустимо. Он также напомнил, что Google поддерживает три формата разметки структурированных данных: RDF, Microdata и JSON-LD. Последний тип разметки также можно добавлять на страницы через JavaScript.

Google начал продвигать оригинальные новостные материалы в поиске

Теперь эти публикации будут занимать более высокие позиции и дольше оставаться в результатах поиска

Google обновил свой алгоритм, чтобы показывать больше оригинальных новостных материалов в результатах поиска. Об этом рассказал вице-президент Google News Ричард Гинграс (Richard Gingras) в официальном блоге компании.

Обновлённый алгоритм будет продвигать те публикации, которые являются исходными источниками информации. Теперь эти материалы будут лучше ранжироваться в основном поиске, Google News и Google Discover. Они также будут дольше оставаться в новостных кластерах по определённой теме в Google Новостях и в результатах поиска по релевантным запросам в Google.

Когда именно были запущены эти изменения, Гинграс не уточнил. В своём посте он заявил о «последних нескольких месяцах». При этом Google продолжает работать над улучшением этих алгоритмов.

Масштабы запуска
В комментарии Search Engine Land представитель Google отметил, что на данный момент эти обновления запущены в основном поиске и скоро также будут внедрены в Google News и Google Discover. В компании также уточнили, что это глобальный запуск, который затронет все страны мира.

Как Google определяет оригинальные материалы
Ричард Гинграс не дал точного ответа на этот вопрос, но отметил, что Google не ограничивается анализом мировых и локальных новостных источников.

В настоящее время поисковик продолжает работать над тем, чтобы повысить видимость оригинальных новостных материалов, и в будущем те издания, которые публикуют такой контент, будут получать всё больше и больше трафика.
 
Сверху