Страница полузащищенная
Послушайте эту статью
Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Поисковая оптимизация ( SEO ) является процесс улучшения качества и количества трафика веб - сайта к веб - сайт или веб - страницы от поисковых систем . [1] SEO нацелен на неоплаченный трафик (известный как «естественные» или « обычные » результаты), а не на прямой или платный трафик . Неоплаченный трафик может исходить от различных видов поиска, включая поиск изображений , видео поиск , академический поиск , [2] поиск новостей и отраслевые вертикальные поисковые системы.

В качестве стратегии интернет-маркетинга SEO рассматривает, как работают поисковые системы, запрограммированные на компьютере алгоритмы, которые диктуют поведение поисковой системы, что люди ищут, фактические условия поиска или ключевые слова, вводимые в поисковые системы, и какие поисковые системы предпочитают их целевая аудитория. . SEO выполняется, потому что веб-сайт будет получать больше посетителей из поисковой системы, когда веб- сайт занимает более высокое место на странице результатов поисковой системы (SERP). Эти посетители потенциально могут быть преобразованы в клиентов. [3]

История

Веб-мастера и поставщики контента начали оптимизировать веб-сайты для поисковых систем в середине 1990-х годов, когда первые поисковые системы каталогизировали раннюю сеть . Первоначально всем веб-мастерам нужно было только отправить адрес страницы или URL-адрес различным системам, которые отправили бы поисковому роботу для сканирования этой страницы, извлечения из нее ссылок на другие страницы и возврата информации, найденной на странице для индексации. . [4] В этом процессе паук поисковой системы загружает страницу и сохраняет ее на собственном сервере поисковой системы. Вторая программа, известная как индексатор, извлекает информацию о странице, такую ​​как слова, которые она содержит, где они расположены, любой вес для определенных слов, а также все ссылки, содержащиеся на странице. Вся эта информация затем помещается в планировщик для последующего сканирования.

Владельцы веб-сайтов осознали ценность высокого рейтинга и видимости в результатах поисковых систем [5], создавая возможности как для белых, так и для черных специалистов по SEO. По мнению отраслевого аналитика Дэнни Салливана , фраза «поисковая оптимизация», вероятно, вошла в употребление в 1997 году. Салливан считает Брюса Клея одним из первых, кто популяризировал этот термин. [6]

Ранние версии алгоритмов поиска полагались на предоставленную веб-мастером информацию, такую ​​как метатег ключевого слова или файлы индекса в таких системах, как ALIWEB . Мета-теги предоставляют руководство по содержанию каждой страницы. Однако использование метаданных для индексации страниц оказалось менее чем надежным, поскольку выбор веб-мастером ключевых слов в метатеге потенциально может быть неточным представлением фактического содержания сайта. Неточные, неполные и противоречивые данные в метатегах могли и действительно приводили к ранжированию страниц по нерелевантным поисковым запросам. [7] [ сомнительно ] Поставщики веб-контента также манипулировали некоторыми атрибутами в HTMLисточник страницы в попытке получить высокий рейтинг в поисковых системах. [8] К 1997 году разработчики поисковых систем осознали, что веб-мастера прилагают усилия, чтобы получить высокий рейтинг в своей поисковой системе, и что некоторые веб-мастера даже манипулируют своим рейтингом в результатах поиска, наполняя страницы избыточными или нерелевантными ключевыми словами. Ранние поисковые системы, такие как Altavista и Infoseek , скорректировали свои алгоритмы, чтобы веб-мастера не могли манипулировать рейтингом. [9]

В значительной степени полагаясь на такие факторы, как плотность ключевых слов , которые находились исключительно под контролем веб-мастеров, ранние поисковые системы страдали от злоупотреблений и манипуляций с ранжированием. Чтобы предоставлять лучшие результаты своим пользователям, поисковые системы должны были адаптироваться, чтобы их страницы результатов отображали наиболее релевантные результаты поиска, а не несвязанные страницы, заполненные многочисленными ключевыми словами недобросовестными веб-мастерами. Это означало отход от сильной зависимости от плотности терминов к более целостному процессу оценки семантических сигналов. [10]Поскольку успех и популярность поисковой системы определяется ее способностью выдавать наиболее релевантные результаты для любого заданного поиска, низкое качество или нерелевантные результаты поиска могут побудить пользователей искать другие источники поиска. В ответ поисковые системы разработали более сложные алгоритмы ранжирования с учетом дополнительных факторов, которыми веб-мастерам было труднее манипулировать.

Компании, использующие чрезмерно агрессивные методы, могут исключить веб-сайты своих клиентов из результатов поиска. В 2005 году Wall Street Journal сообщил о компании Traffic Power , которая якобы использовала высокорисковые методы и не сообщала об этих рисках своим клиентам. [11] Журнал Wired сообщил, что та же компания подала в суд на блогера и SEO-специалиста Аарона Уолла за то, что он написал о запрете. [12] Мэтт Каттс из Google позже подтвердил, что Google действительно запретил Traffic Power и некоторых своих клиентов. [13]

Некоторые поисковые системы также обратились к индустрии SEO и являются частыми спонсорами и гостями конференций, веб-чатов и семинаров по SEO. Основные поисковые системы предоставляют информацию и рекомендации по оптимизации веб-сайта. [14] [15] У Google есть программа Sitemaps, которая помогает веб-мастерам узнать, есть ли у Google какие-либо проблемы с индексированием их веб-сайтов, а также предоставляет данные о посещаемости веб-сайта Google. [16] Инструменты Bing для веб-мастеров позволяют веб-мастерам отправлять карту сайта и веб-каналы, позволяют пользователям определять «скорость сканирования» и отслеживать статус индекса веб-страниц.

В 2015 году сообщалось, что Google разрабатывает и продвигает мобильный поиск как ключевую функцию в будущих продуктах. В ответ многие бренды начали использовать другой подход к своим стратегиям интернет-маркетинга. [17]

Отношения с Google

В 1998 году два аспиранта Стэнфордского университета , Ларри Пейдж и Сергей Брин , разработали "Backrub", поисковую машину, которая опиралась на математический алгоритм для оценки значимости веб-страниц. Число, вычисляемое алгоритмом, PageRank , является функцией количества и силы входящих ссылок . [18] PageRank оценивает вероятность того, что данная страница будет достигнута веб-пользователем, который случайным образом просматривает веб-страницы и переходит по ссылкам с одной страницы на другую. Фактически это означает, что некоторые ссылки сильнее других, так как страница с более высоким PageRank с большей вероятностью будет достигнута случайным веб-серфером.

Пейдж и Брин основали Google в 1998 году. [19] Google привлекал постоянных поклонников среди растущего числа пользователей Интернета , которым нравился его простой дизайн. [20] Учитывались внешние факторы (такие как PageRank и анализ гиперссылок), а также факторы на странице (такие как частота ключевых слов, метатеги , заголовки, ссылки и структура сайта), чтобы Google мог избежать видимых манипуляций. в поисковых системах, которые учитывают только факторы страницы для своего ранжирования. Хотя PageRank было труднее игры , веб - мастера уже разработали ссылку строительные инструменты и схемы влияния на Inktomiпоисковая система, и эти методы оказались одинаково применимы к игровому PageRank. Многие сайты сосредоточены на обмене, покупке и продаже ссылок, часто в массовом масштабе. Некоторые из этих схем или ссылочных ферм предполагали создание тысяч сайтов с единственной целью - рассылать ссылочный спам . [21]

К 2004 году поисковые системы включили в свои алгоритмы ранжирования широкий спектр нераскрытых факторов, чтобы уменьшить влияние манипуляций со ссылками. В июне 2007 года Саул Ханселл из New York Times заявил, что Google ранжирует сайты, используя более 200 различных сигналов. [22] Ведущие поисковые системы, Google , Bing и Yahoo , не раскрывают алгоритмы, которые они используют для ранжирования страниц. Некоторые специалисты по SEO изучили различные подходы к поисковой оптимизации и поделились своим личным мнением. [23] Патенты, относящиеся к поисковым системам, могут предоставить информацию для лучшего понимания поисковых систем. [24]В 2005 году Google начал персонализировать результаты поиска для каждого пользователя. В зависимости от истории предыдущих поисков Google создавал результаты для авторизованных пользователей. [25]

В 2007 году Google объявил кампанию против платных ссылок, передающих PageRank. [26] 15 июня 2009 г. компания Google сообщила, что они приняли меры для смягчения последствий изменения рейтинга PageRank за счет использования атрибута nofollow в ссылках. Мэтт Каттс , известный инженер-программист в Google, объявил, что Google Bot больше не будет обрабатывать любые ссылки nofollow таким же образом, чтобы поставщики услуг SEO не использовали nofollow для формирования PageRank. [27] В результате этого изменения использование nofollow привело к испарению PageRank. Чтобы избежать описанного выше, инженеры SEO разработали альтернативные методы, которые заменяют теги nofollowed на обфусцированный JavaScript.и, таким образом, позволяют формировать PageRank. Кроме того, было предложено несколько решений, которые включают использование фреймов , Flash и JavaScript. [28]

В декабре 2009 года Google объявил, что будет использовать историю веб-поиска всех своих пользователей для заполнения результатов поиска. [29] 8 июня 2010 года была анонсирована новая система веб-индексирования под названием Google Caffeine . Google Caffeine, созданный для того, чтобы пользователи могли находить результаты новостей, сообщения на форумах и другой контент гораздо раньше после публикации, чем раньше, изменил способ обновления индекса Google, чтобы все было быстрее, чем раньше. По словам Кэрри Граймс, разработчика программного обеспечения, анонсировавшего использование кофеина для Google, «кофеин обеспечивает на 50 процентов более свежие результаты при поиске в Интернете, чем наш последний индекс ...» [30] Google Instant, поиск в реальном времени, был введен в конце 2010 года с целью сделать результаты поиска более своевременными и релевантными. Исторически сложилось так, что администраторы сайтов тратили месяцы или даже годы на оптимизацию веб-сайта для повышения его поискового рейтинга. С ростом популярности социальных сетей и блогов ведущие поисковые системы внесли изменения в свои алгоритмы, чтобы свежий контент мог быстро ранжироваться в результатах поиска. [31]

В феврале 2011 года Google объявил об обновлении Panda , которое наказывает веб-сайты, содержащие контент, дублированный с других веб-сайтов и источников. Исторически сложилось так, что веб-сайты копировали контент друг с друга и благодаря этой практике получали выгоду в поисковых системах. Однако Google внедрил новую систему, которая наказывает сайты, содержание которых не является уникальным. [32] Google Penguin 2012 года попытался наказать веб-сайты, которые использовали манипулятивные методы для повышения своего рейтинга в поисковой системе. [33] Хотя Google Penguin был представлен как алгоритм, нацеленный на борьбу со спамом, он действительно ориентирован на спам-ссылки [34]оценивая качество сайтов, с которых приходят ссылки. Обновление Google Hummingbird 2013 года включало изменение алгоритма, призванное улучшить обработку естественного языка Google и семантическое понимание веб-страниц. Система обработки языка Hummingbird подпадает под недавно признанный термин « разговорный поиск », когда система уделяет больше внимания каждому слову в запросе, чтобы страницы лучше соответствовали значению запроса, а не нескольким словам. [35] Что касается изменений, внесенных в оптимизацию поисковых систем для издателей и авторов контента, Hummingbird предназначен для решения проблем, избавляясь от нерелевантного контента и спама, что позволяет Google создавать высококачественный контент и полагаться на них как на «доверенных» авторов.

В октябре 2019 года Google объявил, что начнет применять модели BERT для поисковых запросов на английском языке в США. Двунаправленные представления кодировщика от трансформаторов (BERT) были еще одной попыткой Google улучшить обработку естественного языка, но на этот раз для того, чтобы лучше понимать поисковые запросы своих пользователей. [36] С точки зрения поисковой оптимизации, BERT призван упростить подключение пользователей к релевантному контенту и повысить качество трафика, поступающего на веб-сайты, которые ранжируются на странице результатов поиска.

Методы

Индексирование

Поисковые системы используют сложные математические алгоритмы для определения того, какие веб-сайты ищет пользователь. На этой диаграмме, где каждый кружок представляет веб-сайт, программы, иногда называемые пауками, проверяют, какие сайты ссылаются на какие другие сайты, со стрелками, представляющими эти ссылки. Предполагается, что веб-сайты, получающие больше входящих или более сильных ссылок, имеют большее значение и то, что ищет пользователь. В этом примере, поскольку веб-сайт B является получателем многочисленных входящих ссылок, он занимает более высокое место в поисковой сети. И ссылки «переносятся», так что веб-сайт C, даже если он имеет только одну входящую ссылку, имеет входящую ссылку с очень популярного сайта (B), а сайт E - нет. Примечание: проценты округлены.

Ведущие поисковые системы, такие как Google , Bing и Yahoo! , используйте сканеры для поиска страниц с результатами алгоритмического поиска. Страницы, на которые есть ссылки со страниц, проиндексированных другими поисковыми системами, не нужно отправлять, потому что они обнаруживаются автоматически. Yahoo! Directory и DMOZ , два основных каталога, которые закрылись в 2014 и 2017 годах соответственно, требовали ручной подачи и редакционной проверки людьми. [37] Google предлагает консоль поиска Google , для которой XML- файл Sitemapканал можно создать и отправить бесплатно, чтобы гарантировать, что все страницы будут найдены, особенно страницы, которые нельзя обнаружить, автоматически следуя ссылкам [38] в дополнение к их консоли отправки URL. [39] Yahoo! ранее использовала платную службу отправки, которая гарантировала сканирование по цене за клик ; [40] однако эта практика была прекращена в 2009 году.

Сканеры поисковых систем могут учитывать ряд различных факторов при сканировании сайта. Не каждая страница индексируется поисковыми системами. Расстояние между страницами от корневого каталога сайта также может быть фактором, определяющим, будут ли страницы сканироваться. [41]

Сегодня большинство людей ищут в Google с помощью мобильных устройств. [42] В ноябре 2016 года Google объявил о серьезных изменениях в способе сканирования веб-сайтов и начал делать индекс в первую очередь для мобильных устройств, что означает, что мобильная версия данного веб-сайта становится отправной точкой для того, что Google включает в свой индекс. [43] В мае 2019 года Google обновил механизм рендеринга своего поискового робота, сделав его последней версией Chromium (74 на момент анонса). Google сообщил, что они будут регулярно обновлять движок рендеринга Chromium до последней версии. [44] В декабре 2019 года Google начал обновлять строку User-Agent своего сканера, чтобы отразить последнюю версию Chrome, используемую их службой рендеринга. Задержка заключалась в том, чтобы дать веб-мастерам время обновить свой код, который отвечал на определенные строки User-Agent бота. Google провел оценки и был уверен, что влияние будет незначительным. [45]

Предотвращение сканирования

Чтобы избежать нежелательного содержания в индексах поиска, веб-мастера могут дать указание "паукам" не сканировать определенные файлы или каталоги через стандартный файл robots.txt в корневом каталоге домена. Кроме того, страницу можно явно исключить из базы данных поисковой системы с помощью метатега, специфичного для роботов (обычно <meta name = "robots" content = "noindex">). Когда поисковая система посещает сайт, файл robots.txt, расположенный в корневом каталоге- это первый просканированный файл. Затем файл robots.txt анализируется и сообщает роботу, какие страницы не следует сканировать. Поскольку сканер поисковой системы может хранить кэшированную копию этого файла, он может иногда сканировать страницы, сканирование которых веб-мастер не желает. Страницы, сканирование которых обычно предотвращается, включают страницы для входа в систему, такие как корзины покупок, и пользовательский контент, например результаты внутреннего поиска. В марте 2007 года Google предупредил веб-мастеров, что они должны предотвратить индексацию результатов внутреннего поиска, поскольку эти страницы считаются поисковым спамом. [46] В 2020 году Google отменил стандарт (и открыл исходный код своего кода) и теперь рассматривает его как подсказку, а не директиву. Чтобы гарантировать, что страницы не проиндексированы, необходимо включить метатег роботов на уровне страницы. [47]

Повышение известности

Различные методы могут повысить известность веб-страницы в результатах поиска. Перекрестные ссылки между страницами одного и того же веб-сайта для предоставления большего количества ссылок на важные страницы могут улучшить его видимость. Написание контента, который включает часто используемые ключевые слова, чтобы соответствовать широкому кругу поисковых запросов, будет иметь тенденцию к увеличению трафика. Обновление контента, чтобы поисковые системы часто сканировали, может придать сайту дополнительный вес. Добавление релевантных ключевых слов к метаданным веб-страницы, включая тег заголовка и метаописание , будет иметь тенденцию улучшать релевантность поисковых списков сайта, тем самым увеличивая посещаемость. Канонизация URL-адресов веб-страниц, доступных через несколько URL-адресов, с использованием элемента канонической ссылки[48] или через переадресацию 301 могут помочь убедиться, что ссылки на разные версии URL учитываются в рейтинге популярности ссылок страницы.

Белая шляпа против техник черной шляпы

Методы SEO можно разделить на две большие категории: методы, которые компании поисковых систем рекомендуют как часть хорошего дизайна («белая шляпа»), и методы, которые поисковые системы не одобряют («черная шляпа»). Поисковые системы стараются минимизировать влияние последних, в том числе спам-индексации . Отраслевые комментаторы классифицировали эти методы и практикующих, которые их применяют, либо как белые , либо как черные . [49] Белые шляпы, как правило, дают результаты, которые сохраняются надолго, в то время как черные ожидают, что их сайты в конечном итоге могут быть заблокированы временно или навсегда, как только поисковые системы обнаружат, что они делают. [50]

Методика SEO считается белой шляпой, если она соответствует рекомендациям поисковых систем и не содержит обмана. Поскольку руководство для поисковых систем [14] [15] [51] не написано как серия правил или заповедей, это важное различие, которое следует отметить. Белая шляпа SEO - это не только следование рекомендациям, но и обеспечение того, чтобы контент, который индексирует поисковая система и впоследствии ранжировал, был таким же контентом, который увидит пользователь. Совет в белой шляпе, как правило, сводится к созданию контента для пользователей, а не для поисковых систем, а затем к тому, чтобы сделать этот контент легкодоступным для онлайн-алгоритмов «пауков», вместо того, чтобы пытаться обмануть алгоритм с его предполагаемой цели. Белая шляпа SEO во многом похожа на веб-разработку, которая способствует доступности, [52] хотя эти два не идентичны.

Black Hat SEO пытается улучшить рейтинг способами, которые не одобряются поисковыми системами, или включают обман. В одной из техник черной шляпы используется скрытый текст в виде текста, окрашенного аналогично фону, в невидимом элементе div или за пределами экрана. Другой метод дает другую страницу в зависимости от того, запрашивается ли страница посетителем-человеком или поисковой системой, метод, известный как маскировка . Еще одна категория, которую иногда используют, - это серая SEO . Это что-то среднее между подходами «черная шляпа» и «белая шляпа», когда используемые методы позволяют избежать наказания сайта, но не способствуют созданию лучшего контента для пользователей. Gray hat SEO полностью сосредоточен на повышении рейтинга в поисковых системах.

Поисковые системы могут наказывать сайты, которые они обнаруживают, используя методы черной или серой шляпы, либо снижая их рейтинг, либо полностью удаляя их списки из своих баз данных. Такие штрафы могут применяться либо автоматически алгоритмами поисковых систем, либо при проверке сайта вручную. Одним из примеров было удаление Google в феврале 2006 года как BMW Germany, так и Ricoh Germany за использование обманных методов. [53] Обе компании, однако, быстро извинились, исправили проблемные страницы и были восстановлены на странице результатов поисковой системы Google. [54]

Как маркетинговая стратегия

SEO не является подходящей стратегией для каждого веб-сайта, и другие стратегии интернет-маркетинга могут быть более эффективными, например, платная реклама через кампании с оплатой за клик (PPC) , в зависимости от целей оператора сайта. Маркетинг в поисковых системах (SEM) - это практика разработки, запуска и оптимизации рекламных кампаний в поисковых системах. Его отличие от SEO проще всего описать как разницу между платным и неоплачиваемым приоритетом в результатах поиска. SEM уделяет больше внимания известности, чем релевантности; Разработчики веб-сайтов должны уделять SEM первостепенное значение с точки зрения видимости, поскольку большинство из них переходят к основным спискам своих поисковых запросов. [55]Успешная маркетинговая кампания в Интернете может также зависеть от создания высококачественных веб-страниц для привлечения и убеждения пользователей Интернета, настройки программ аналитики, позволяющих владельцам сайтов измерять результаты, и повышения коэффициента конверсии сайта . [56] В ноябре 2015 года Google выпустил для общественности полную 160-страничную версию своих рекомендаций по оценке качества поиска [57], которая показала смещение их внимания к «полезности» и локальному мобильному поиску . В последние годы рынок мобильной связи резко вырос, обогнав использование настольных компьютеров, как показывает StatCounter.в октябре 2016 года, когда они проанализировали 2,5 миллиона веб-сайтов и обнаружили, что 51,3% страниц были загружены с помощью мобильных устройств. [58] Google была одной из компаний, которые используют популярность использования мобильных устройств, поощряя веб-сайты использовать свою консоль поиска Google , тест на удобство мобильных устройств, который позволяет компаниям сравнивать свой веб-сайт с результатами поисковой системы и определять, как удобны для пользователей их веб-сайты.

SEO может обеспечить адекватную окупаемость инвестиций . Однако поисковым системам не платят за органический поисковый трафик, их алгоритмы меняются, и нет никаких гарантий продолжения переходов. Из-за отсутствия гарантии и неопределенности бизнес, который сильно зависит от трафика поисковых систем, может понести серьезные убытки, если поисковые системы перестанут отправлять посетителей. [59] Поисковые системы могут изменять свои алгоритмы, влияя на рейтинг сайта в поисковых системах, что может привести к серьезной потере трафика. По словам генерального директора Google Эрика Шмидта, в 2010 году Google внес более 500 изменений в алгоритм - почти 1,5 раза в день. [60] Для операторов веб-сайтов разумной деловой практикой считается освобождение от зависимости от трафика поисковых систем.[61] Помимо доступности с точки зрения поисковых роботов (о чем говорилось выше), веб-доступность для пользователей становится все более важной для SEO.

Международные рынки

Методы оптимизации хорошо адаптированы к доминирующим поисковым системам на целевом рынке. Рыночные доли поисковых систем варьируются от рынка к рынку, как и конкуренция. В 2003 году Дэнни Салливан заявил, что на Google приходится около 75% всех поисковых запросов. [62] На рынках за пределами США доля Google часто больше, и Google остается доминирующей поисковой системой в мире по состоянию на 2007 год. [63] По состоянию на 2006 год доля Google на рынке Германии составляла 85–90%. [64] Хотя в то время в США были сотни SEO-фирм, в Германии их было всего около пяти. [64] По данным Hitwise, по состоянию на июнь 2008 года рыночная доля Google в Великобритании приближалась к 90% . [65] Эта доля рынка достигнута в ряде стран.

По состоянию на 2009 год существует всего несколько крупных рынков, на которых Google не является ведущей поисковой системой. В большинстве случаев, когда Google не является лидером на определенном рынке, он отстает от местного игрока. Наиболее яркими примерами рынков являются Китай, Япония, Южная Корея, Россия и Чехия, где соответственно Baidu , Yahoo! Япония , Naver , Яндекс и Сезнам - лидеры рынка.

Для успешной поисковой оптимизации для международных рынков может потребоваться профессиональный перевод веб-страниц, регистрация доменного имени с доменом верхнего уровня на целевом рынке и веб-хостинг , предоставляющий локальный IP-адрес . В остальном фундаментальные элементы поисковой оптимизации по сути одинаковы, независимо от языка. [64]

Юридические прецеденты

17 октября 2002 года SearchKing подала иск в Окружной суд США, Западный округ Оклахомы, против поисковой системы Google. SearchKing утверждал, что тактика Google по предотвращению спама представляет собой злонамеренное вмешательство в договорные отношения. 27 мая 2003 г. суд удовлетворил ходатайство Google об отклонении жалобы, поскольку SearchKing «не представил иск, по которому может быть предоставлена ​​компенсация». [66] [67]

В марте 2006 года KinderStart подала иск против Google из- за рейтинга в поисковых системах. Сайт KinderStart был удален из индекса Google перед судебным иском, и объем трафика на сайт упал на 70%. 16 марта 2007 г. Окружной суд США в Северном округе Калифорнии ( отделение Сан-Хосе ) отклонил жалобу KinderStart без разрешения на внесение поправок и частично удовлетворил ходатайство Google о санкциях по Правилу 11 против адвоката KinderStart, потребовав от него оплатить часть расходов Google. судебные издержки. [68] [69]

Смотрите также

  • Сеть блогов
  • Список поисковых систем
  • Маркетинг в поисковых системах
  • Поисковый нейтралитет , противоположный поисковым манипуляциям
  • Намерение пользователя
  • Продвижение сайта

Примечания

  1. ^ «SEO - поисковая оптимизация» . Вебопедия .
  2. ^ Beel, Joran и Gipp, Бел и Уайльд, Эрик (2010). «Академическая поисковая оптимизация (ASEO): оптимизация научной литературы для Google Scholar and Co» (PDF) . Журнал научных публикаций. С. 176–190 . Проверено 18 апреля 2010 года . CS1 maint: несколько имен: список авторов ( ссылка )
  3. ^ Ортис-Кордова, А. и Янсен, Б.Дж. (2012) Классификация поисковых запросов в Интернете для выявления клиентов, приносящих высокий доход . Журнал Американского общества информационных наук и технологий. 63 (7), 1426 - 1441.
  4. ^ Брайан Пинкертон. «В поисках того, что хотят люди: опыт работы с WebCrawler» (PDF) . Вторая Международная конференция WWW Чикаго, США, 17-20 октября, 1994 . Проверено 7 мая 2007 года .
  5. ^ «Введение в поисковую оптимизацию | Просмотр в поисковых системах» . searchchenginewatch.com . Проверено 7 октября 2020 года .
  6. Дэнни Салливан (14 июня 2004 г.). "Кто изобрел термин" поисковая оптимизация "?" . Поисковая система Watch . Архивировано из оригинального 23 апреля 2010 года . Проверено 14 мая 2007 года .См. Ветку групп Google .
  7. Doctorow, Кори (26 августа 2001 г.). «Метакрап: Подключаем факел к семи соломенным человечкам мета-утопии» . e-LearningGuru. Архивировано из оригинала 9 апреля 2007 года . Проверено 8 мая 2007 года .
  8. Перейти ↑ Pringle, G., Allison, L., and Dowe, D. (апрель 1998 г.). "Что такое высокий мак среди веб-страниц?" . Proc. 7-й Int. Конференция по всемирной паутине . Проверено 8 мая 2007 года .CS1 maint: несколько имен: список авторов ( ссылка )
  9. Лори Дж. Флинн (11 ноября 1996 г.). «Отчаянно ищу серферов» . Нью-Йорк Таймс . Проверено 9 мая 2007 года .
  10. Джейсон Демерс (20 января 2016 г.). «Плотность ключевых слов по-прежнему важна для SEO» . Forbes . Проверено 15 августа, 2016 .
  11. ^ Дэвид Kesmodel (22 сентября 2005). «Поисковые системы закрывают сайты после попытки« оптимизировать »рейтинг» . Wall Street Journal . Проверено 30 июля 2008 .
  12. ^ Адам Л. Penenberg (8 сентября 2005). «Юридические разборки в поисковиках» . Проводной журнал . Проверено 11 августа 2016 года .
  13. Мэтт Каттс (2 февраля 2006 г.). «Подтверждение пенальти» . mattcutts.com/blog . Проверено 9 мая 2007 года .
  14. ^ a b «Рекомендации Google по дизайну сайтов» . Проверено 18 апреля 2007 года .
  15. ^ a b «Рекомендации Bing для веб-мастеров» . bing.com . Проверено 11 сентября 2014 года .
  16. ^ «Карты сайта» . Проверено 4 мая 2012 года .
  17. ^ «По данным: для потребителей мобильный Интернет - это Интернет». Google for Entrepreneurs Startup Grind 20 сентября 2015 г.
  18. ^ Брин, Сергей и Пейдж, Ларри (1998). «Анатомия крупномасштабной гипертекстовой поисковой системы в Интернете» . Материалы седьмой международной конференции по всемирной паутине. С. 107–117 . Проверено 8 мая 2007 года .
  19. ^ «Соучредители Google могут не иметь такого признания, как, скажем, Билл Гейтс, но дайте им время: Google не существует так долго, как Microsoft» . 15 октября 2008 г.
  20. Томпсон, Билл (19 декабря 2003 г.). "Google полезен для вас?" . BBC News . Проверено 16 мая 2007 года .
  21. ^ Золтан Gyöngyi и Гарсия-Молина (2005). «Альянсы со ссылочным спамом» (PDF) . Материалы 31-й конференции VLDB, Тронхейм, Норвегия . Проверено 9 мая 2007 года .
  22. ^ Ханселл, Савл (3 июня 2007). «Google продолжает настраивать свою поисковую систему» . Нью-Йорк Таймс . Проверено 6 июня 2007 года .
  23. Салливан, Дэнни (29 сентября 2005 г.). «Обзор факторов ранжирования в поисковой системе» . Поисковая система Watch . Архивировано 28 мая 2007 года . Проверено 8 мая 2007 года .
  24. Кристин Черчилль (23 ноября 2005 г.). «Понимание патентов поисковых систем» . Поисковая система Watch . Архивировано из оригинала 7 февраля 2007 года . Проверено 8 мая 2007 года .
  25. ^ "Персонализированный поиск Google покидает лабораторию Google" . searchchenginewatch.com . Поисковая система Watch. Архивировано из оригинального 25 -го января 2009 года . Проверено 5 сентября 2009 года .
  26. ^ «8 вещей, которые мы узнали о Google PageRank» . www.searchenginejournal.com . Проверено 17 августа 2009 года .
  27. ^ "Скульптура PageRank" . Мэтт Каттс . Проверено 12 января 2010 года .
  28. ^ "Google теряет" обратную совместимость "по блокировке платных ссылок и формированию рейтинга страниц" . searchchengineland.com . Проверено 17 августа 2009 года .
  29. ^ «Персонализированный поиск для всех» . Проверено 14 декабря 2009 года .
  30. ^ "Наш новый поисковый индекс: Кофеин" . Google: Официальный блог . Проверено 10 мая 2014 года .
  31. ^ «Актуальность встречает Интернет в реальном времени» . Блог Google .
  32. ^ "Обновления качества поиска Google" . Блог Google .
  33. ^ «Что вам нужно знать об обновлении Google Penguin» . Inc.com .
  34. ^ "Google Penguin смотрит в основном на ваш источник ссылок, - говорит Google" . Земля поисковой машины . 10 октября 2016 . Проверено 20 апреля 2017 года .
  35. ^ «FAQ: Все о новом алгоритме Google« Колибри »» . www.searchengineland.com . Проверено 17 марта 2018 года .
  36. ^ «Понимание поисковых запросов лучше, чем когда-либо прежде» . Google . 25 октября 2019 года . Проверено 12 мая 2020 года .
  37. ^ «Отправка в каталоги: Yahoo и открытый каталог» . Поисковая система Watch . 12 марта, 2007. Архивировано из оригинального 19 -го мая 2007 года . Проверено 15 мая 2007 года .
  38. ^ "Что такое файл Sitemap и зачем он мне?" . Проверено 19 марта 2007 года .
  39. ^ "Консоль поиска - URL сканирования" . Проверено 18 декабря 2015 года .
  40. ^ «Отправка поисковым роботам: Google, Yahoo, Ask и Microsoft Live Search» . Поисковая система Watch . 12 марта, 2007. Архивировано из оригинального 10 мая 2007 года . Проверено 15 мая 2007 года .
  41. Перейти ↑ Cho, J., Garcia-Molina, H. (1998). «Эффективное сканирование посредством упорядочивания URL» . Материалы седьмой конференции по всемирной паутине, Брисбен, Австралия . Проверено 9 мая 2007 года .CS1 maint: несколько имен: список авторов ( ссылка )
  42. ^ "Mobile-first Index" . Проверено 19 марта 2018 года .
  43. ^ Phan, Doantam (4 ноября 2016). «Индексирование в первую очередь для мобильных устройств» . Официальный блог Центра веб-мастеров Google . Проверено 16 января 2019 года .
  44. ^ "Новый вечнозеленый Googlebot" . Официальный блог Центра веб-мастеров Google . Проверено 2 марта 2020 года .
  45. ^ «Обновление пользовательского агента Googlebot» . Официальный блог Центра веб-мастеров Google . Проверено 2 марта 2020 года .
  46. ^ "Газеты Amok! New York Times рассылает спам в Google? LA Times взламывает Cars.com?" . Земля поисковой машины . 8 мая 2007 . Проверено 9 мая 2007 года .
  47. Джилл Кочер Браун (24 февраля 2020 г.). "Google понижает рейтинг Nofollow. Что теперь?" . Практическая электронная торговля . Проверено 11 февраля 2021 года .
  48. ^ «Bing - Партнерство для решения проблем с дублированным контентом - Блог для веб-мастеров - Сообщество Bing» . www.bing.com . Проверено 30 октября 2009 года .
  49. ^ Эндрю Гудман. «Разборки в поисковых системах: Черные шляпы против белых на SES» . SearchEngineWatch. Архивировано из оригинального 22 февраля 2007 года . Проверено 9 мая 2007 года .
  50. Джилл Уэлен (16 ноября 2004 г.). "Поисковая оптимизация Black Hat / White Hat" . searchchengineguide.com . Проверено 9 мая 2007 года .
  51. ^ «Что такое SEO? Рекомендует ли Google работать с компаниями, которые предлагают сделать мой сайт удобным для Google?» . Проверено 18 апреля 2007 года .
  52. ^ Энди Hagans (8 ноября 2005). «Высокая доступность - эффективная поисковая оптимизация» . Список отдельно . Проверено 9 мая 2007 года .
  53. Мэтт Каттс (4 февраля 2006 г.). «Рост международного веб-спама» . mattcutts.com/blog . Проверено 9 мая 2007 года .
  54. Мэтт Каттс (7 февраля 2006 г.). «Недавние повторные включения» . mattcutts.com/blog . Проверено 9 мая 2007 года .
  55. Перейти ↑ Tapan, Panda (2013). «Маркетинг в поисковых системах: помогает ли процесс обнаружения знаний интернет-магазинам?». IUP Журнал управления знаниями . 11 (3): 56–66. ProQuest 1430517207 . 
  56. Мелисса Бердон (13 марта 2007 г.). «Битва между поисковой оптимизацией и конверсией: кто победит?» . Grok.com. Архивировано из оригинального 15 марта 2008 года . Проверено 10 апреля 2017 года .
  57. ^ «Рекомендации для оценщика качества поиска» Как работает поиск, 12 ноября 2015 г.
  58. ^ Титкомб, Джеймс. «Впервые использование мобильного Интернета обгоняет настольный компьютер» . www.telegraph.co.uk . Телеграф . Проверено 17 марта 2018 года .
  59. Энди Гринберг (30 апреля 2007 г.). «Приговоренный к аду Google» . Forbes . Архивировано из оригинала на 2 мая 2007 года . Проверено 9 мая 2007 года .
  60. Мэтт МакГи (21 сентября 2011 г.). «Свидетельство Шмидта показывает, как Google тестирует алгоритм изменений» .
  61. Якоб Нильсен (9 января 2006 г.). «Поисковые системы как пиявки в сети» . useit.com . Проверено 14 мая 2007 года .
  62. Грэм, Джефферсон (26 августа 2003 г.). «Поисковая машина, которая могла» . USA Today . Проверено 15 мая 2007 года .
  63. ^ Грег Jarboe (22 февраля 2007). «Статистика показывает, что Google доминирует в международном поисковом пространстве» . Поисковая система Watch . Проверено 15 мая 2007 года .
  64. ^ a b c Майк Грехан (3 апреля 2006 г.). «Поисковая оптимизация для Европы» . Щелкните . Проверено 14 мая 2007 года .
  65. Джек Скофилд (10 июня 2008 г.). «Google UK закрывает 90% рынка» . Хранитель . Лондон . Проверено 10 июня 2008 года .
  66. ^ "Search King, Inc. против Google Technology, Inc., CIV-02-1457-M" (PDF) . docstoc.com. 27 мая 2003 . Проверено 23 мая 2008 года .
  67. Стефани Олсен (30 мая 2003 г.). «Судья отклоняет иск против Google» . CNET . Проверено 10 мая 2007 года .
  68. ^ «Блог о технологиях и маркетинге: KinderStart против Google отклонен - ​​с санкциями против адвоката KinderStart» . blog.ericgoldman.org . Проверено 23 июня 2008 года .
  69. ^ «Блог о технологиях и маркетинге: Google подал в суд на рейтинги - KinderStart.com против Google» . blog.ericgoldman.org . Проверено 23 июня 2008 года .

внешняя ссылка

Послушайте эту статью ( 22 минуты )
Разговорный значок Википедии
Этот аудиофайл был создан на основе редакции этой статьи от 20 мая 2008 г. и не отражает последующих правок. ( 2008-05-20 )
  • Продвижение веб-разработки в Curlie
  • Рекомендации для веб-мастеров от Google
  • Рекомендации для экспертов по оценке качества поиска Google (PDF)
  • Ресурсы для веб-мастеров от Yahoo!
  • Рекомендации для веб-мастеров от Microsoft Bing
  • Маленькие грязные секреты поиска в The New York Times (12 февраля 2011 г.)
  • Google I / O 2010 - Советы экспертов по оптимизации сайта YouTube  - Техническое руководство по поисковой оптимизации, представленное на Google I / O 2010