Из Википедии, бесплатной энциклопедии
  (Перенаправлен из поиска по ключевым словам )
Перейти к навигации Перейти к поиску

Поисковая система является информационно - поисковой программой , которая обнаруживает, обходы, прообразы и хранит информацию для поиска и представления информации в ответ на запросы пользователей . [1]

ИЛИ ЖЕ

Поисковая машина - это веб-инструмент, который позволяет пользователю находить информацию на www. [2]

Поисковая машина обычно состоит из четырех компонентов, например, поискового интерфейса, краулера (также известного как паук или бот), индексатора и базы данных. Сканер просматривает собрание документов, разбирает текст документа и назначает суррогаты для хранения в индексе поисковой системы. Интернет-поисковые системы также хранят изображения, данные ссылок и метаданные для документа.

История поисковых технологий [ править ]

Мемекс [ править ]

Концепция гипертекста и расширения памяти восходит к статье Ванневара Буша , опубликованной в The Atlantic Monthly в июле 1945 года , под названием « Как мы можем думать» . В этой статье Ванневар призвал ученых работать вместе, чтобы помочь создать совокупность знаний для всего человечества. Затем он предложил идею практически безграничной, быстрой, надежной, расширяемой ассоциативной системы хранения и поиска в памяти. Он назвал это устройство Memex . [3]

Буш считал понятие «ассоциативное индексирование» своим ключевым концептуальным вкладом. Как он объяснил, это было «положение, согласно которому любой элемент может быть вызван по желанию для немедленного и автоматического выбора другого. Это основная особенность мемекса. Очень важно соединить два предмета вместе ». Эта «связь» (как мы теперь говорим) составляла «след» из документов, которые можно было назвать, закодировать и снова найти. Более того, после того, как исходные два элемента были соединены, «многочисленные элементы» можно было «соединить вместе, чтобы образовать след»; их можно было «просматривать по очереди, быстро или медленно, отклоняя рычаг, подобный тому, который используется для перелистывания страниц книги. Это как если бы физические предметы были собраны вместе из широко разнесенных источников и связаны вместе, чтобы сформировать новую книгу » [4]

Все документы, используемые в мемексе, будут в виде копий микрофильмов, приобретенных как таковые, или, в случае личных записей, преобразованных в микрофильмы самой машиной. Memex также будет использовать новые методы поиска, основанные на новом виде ассоциативного индексирования, основная идея которого - положение, согласно которому любой элемент может быть вызван по желанию для немедленного и автоматического выбора другого для создания личных «следов» через связанные документы. Новые процедуры, которые, как ожидал Буш, облегчили хранение и поиск информации, приведут к разработке совершенно новых форм энциклопедии.

Важнейшим механизмом, задуманным Бушем и рассматриваемым как закрытый для современных гипертекстовых систем, является ассоциативный след. Это был бы способ создать новую линейную последовательность кадров микрофильма через любую произвольную последовательность кадров микрофильма путем создания связанной последовательности ссылок только что описанным способом, наряду с личными комментариями и дополнительными следами. Существенной особенностью memex [является] процесс связывания двух элементов вместе ... Когда пользователь строит след, он называет его в своей кодовой книге и нажимает на клавиатуре. Перед ним два объекта, которые нужно соединить, проецируются на соседние точки обзора. Внизу каждого есть несколько пустых кодовых пробелов, и установлен указатель, чтобы указать одно из них на каждом элементе. Пользователь нажимает одну клавишу, и элементы постоянно соединяются ... После этого в любое времякогда один из этих элементов находится в поле зрения, другой можно немедленно вызвать, просто нажав кнопку под соответствующим пространством кода.

В статье Буша не описывается ни автоматический поиск, ни какая-либо универсальная схема метаданных, такая как стандартная библиотечная классификация или набор гипертекстовых элементов. Вместо этого, когда пользователь делал запись, такую ​​как новая или аннотированная рукопись или изображение, он должен был проиндексировать и описать ее в своей личной кодовой книге. Позже, обратившись к своей кодовой книге, пользователь мог отследить аннотированные и сгенерированные записи.

В 1965 году Буш принял участие в проекте INTREX Массачусетского технологического института по разработке технологии механизации обработки информации для библиотечного использования. В своем эссе 1967 года под названием «Memex Revisited» он указал, что развитие цифрового компьютера, транзистора, видео и других подобных устройств повысило осуществимость такой механизации, но затраты задержат ее достижения. Он снова был прав.

Тед Нельсон, который позже проделал новаторскую работу с первой практической гипертекстовой системой и ввел термин «гипертекст» в 1960-х, считал Буша своим главным влиянием. [5]

SMART [ править ]

Джерард Солтон, скончавшийся 28 августа 1995 года, был отцом современных поисковых технологий. Его команды в Гарварде и Корнелле разработали информационно-поисковую систему SMART. Magic Automatic Retriever of Text от Salton включает такие важные концепции, как модель векторного пространства , обратная частота документов (IDF), частота терминов (TF), значения различения терминов и механизмы обратной связи по релевантности.

Он является автором 56-страничной книги под названием «Теория индексации», в которой объясняются многие из его тестов, на которых все еще в значительной степени основан поиск.

Строковые поисковые системы [ править ]

В 1987 году была опубликована статья, в которой подробно описывалась разработка механизма поиска по символьной строке (SSE) для быстрого поиска текста на твердотельной КМОП-схеме с двойным металлическим каркасом 1,6 мкм и n-лункой с 217600 транзисторами, размещенными на кристалле 8,62x12,76. мм площадь матрицы. В SSE реализована новая архитектура поиска строк, которая сочетает логику 512-ступенчатого конечного автомата (FSA) с адресуемой памятью (CAM) для достижения приблизительного сравнения строк до 80 миллионов строк в секунду. Ячейка CAM состояла из четырех ячеек обычного статического RAM (SRAM) и схемы чтения / записи. Одновременное сравнение 64 сохраненных строк переменной длины было достигнуто за 50 нс для входного текстового потока 10 миллионов символов / с, что позволило обеспечить производительность, несмотря на наличие ошибок одного символа в форме кодов символов. Более того,чип позволял поиск строки без привязки и поиск строки переменной длины «безразлично» (VLDC).[6]

Системы веб-поиска [ править ]

Арчи [ править ]

Первой поисковой машиной в сети была Archie , созданная в 1990 году [7] Аланом Эмтаджем, студентом Университета Макгилла в Монреале. Первоначально автор хотел назвать программу «архивами», но был вынужден сократить ее, чтобы соответствовать мировому стандарту Unix для присвоения программ и файлов коротких загадочных имен, таких как grep, cat, troff, sed, awk, perl и т. Д. .

Основным методом хранения и извлечения файлов был протокол передачи файлов (FTP). Это была (и остается) система, определяющая общий способ обмена файлами через Интернет для компьютеров. Это работает так: какой-то администратор решает, что он хочет сделать файлы доступными со своего компьютера. Он устанавливает на своем компьютере программу, которая называется FTP-сервером. Когда кто-то в Интернете хочет получить файл с этого компьютера, он или она подключается к нему через другую программу, называемую FTP-клиентом. Любая клиентская программа FTP может подключаться к любой программе FTP-сервера, если и клиентская, и серверная программы полностью соответствуют спецификациям, изложенным в протоколе FTP.

Первоначально любой, кто хотел поделиться файлом, должен был настроить FTP-сервер, чтобы сделать файл доступным для других. Позже «анонимные» FTP-сайты стали хранилищами файлов, позволяя всем пользователям публиковать и извлекать их.

Даже с сайтами архивов многие важные файлы все еще были разбросаны по маленьким FTP-серверам. К сожалению, эти файлы могли быть обнаружены только с помощью Интернет-эквивалента молвы: кто-то отправлял электронное письмо в список сообщений или на дискуссионный форум, объявляя о доступности файла.

Арчи все изменил. Он сочетал в себе сборщик данных на основе сценариев, который извлекал списки сайтов с анонимными FTP-файлами, с сопоставителем регулярных выражений для получения имен файлов, соответствующих запросу пользователя. (4) Другими словами, сборщик Арчи прочесал FTP-сайты в Интернете и проиндексировал все найденные файлы. Программа сопоставления регулярных выражений предоставляла пользователям доступ к базе данных. [8]

Вероника [ править ]

В 1993 году Veronica разработала группа System Computing Services Университета Невады . [7] Он был создан как тип поискового устройства, похожего на Archie, но для файлов Gopher. Другой поисковый сервис Gopher, названный Jughead, появился немного позже, вероятно, с единственной целью - завершить триумвират комиксов. Джагхед - это аббревиатура от Johnzy's Universal Gopher Hierarchy Excavation and Display, хотя, как и Вероника, вероятно, можно с уверенностью предположить, что создатель поддержал эту аббревиатуру. Функциональность Джагхеда была в значительной степени идентична функциональности Вероники, хотя, похоже, она была немного грубее по краям. [8]

Одинокий странник [ править ]

World Wide Web Wanderer , разработанный Мэтью Грей в 1993 году [9] был первым роботом в Интернете и был разработан , чтобы отслеживать рост Паутины. Первоначально Wanderer считал только веб-серверы, но вскоре после его появления он начал захватывать URL-адреса по мере продвижения. База данных захваченных URL-адресов стала первой веб-базой данных Wandex.

Wanderer Мэтью Грея вызвал в то время довольно много споров, отчасти потому, что ранние версии программного обеспечения широко распространялись в сети и вызывали заметное снижение производительности в сети. Эта деградация произошла из-за того, что Странник обращался к одной и той же странице сотни раз в день. Вскоре The Wanderer изменил свое поведение, но споры о том, хороши ли роботы для Интернета или плохи, остались.

В ответ на Wanderer Мартин Костер в октябре 1993 года создал Archie-Like Indexing of the Web, или ALIWEB. Как следует из названия, ALIWEB был HTTP-эквивалентом Archie, и поэтому он по-прежнему уникален во многих отношениях.

У ALIWEB нет робота для поиска в Интернете. Вместо этого веб-мастера участвующих сайтов публикуют свои собственные индексные данные для каждой страницы, которую они хотят перечислить. Преимущество этого метода заключается в том, что пользователи могут описывать свой собственный сайт, а робот не пытается съесть пропускную способность сети. К сожалению, недостатки ALIWEB сегодня представляют собой большую проблему. Основным недостатком является необходимость отправки специального файла индексации. Большинство пользователей не понимают, как создать такой файл, и поэтому не отправляют свои страницы. Это приводит к относительно небольшой базе данных, а это означает, что пользователи с меньшей вероятностью будут искать в ALIWEB, чем на одном из крупных сайтов, основанных на ботах. Этот Catch-22 был несколько компенсирован включением других баз данных в поиск ALIWEB, но он по-прежнему не пользуется популярностью среди поисковых систем, таких как Yahoo! или Lycos.[8]

Excite [ править ]

Excite , первоначально называвшаяся Architext, была основана шестью студентами Стэнфордского университета в феврале 1993 года. Их идея заключалась в использовании статистического анализа словосочетаний для обеспечения более эффективного поиска по большому количеству информации в Интернете. Их проект был полностью профинансирован к середине 1993 года. После того, как финансирование было обеспечено. они выпустили версию своего программного обеспечения для поиска, чтобы веб-мастера могли использовать его на своих собственных веб-сайтах. В то время это программное обеспечение называлось Architext, но теперь оно называется Excite для веб-серверов. [8]

Excite была первой серьезной коммерческой поисковой системой, запущенной в 1995 году. [10] Она была разработана в Стэнфорде и была куплена @Home за 6,5 миллиардов долларов. В 2001 году Excite и @Home обанкротились, а InfoSpace купила Excite за 10 миллионов долларов.

Некоторые из первых анализов веб-поиска были проведены по журналам поиска из Excite [11] [12]

Yahoo! [ редактировать ]

В апреле 1994 года два доктора философии Стэнфордского университета. кандидаты Дэвид Фило и Джерри Янг создали несколько страниц, которые стали весьма популярными. Они назвали сборник страниц Yahoo! Их официальное объяснение выбора имени заключалось в том, что они считали себя парой yahoos.

По мере того, как количество ссылок росло и их страницы начали получать тысячи посещений в день, команда разработала способы лучше организовать данные. Чтобы помочь в поиске данных, Yahoo! (www.yahoo.com) стал каталогом с возможностью поиска. Функция поиска была простой поисковой машиной по базе данных. Потому что Yahoo! записи вводились и классифицировались вручную, Yahoo! не был действительно классифицирован как поисковая машина. Вместо этого обычно считалось, что это каталог с возможностью поиска. Yahoo! с тех пор автоматизировал некоторые аспекты процесса сбора и классификации, стирая различие между движком и каталогом.

Wanderer захватил только URL-адреса, что затрудняло поиск вещей, которые не были явно описаны в их URL-адресах. Поскольку URL-адреса изначально довольно загадочны, это не помогло обычному пользователю. Поиск Yahoo! или Galaxy был намного более эффективным, потому что он содержал дополнительную описательную информацию об индексируемых сайтах.

Lycos [ править ]

В июле 1994 года в Университете Карнеги-Меллона Майкл Молдин, уволившись из CMU, разработал поисковую систему Lycos.

Типы поисковых систем [ править ]

Поисковые системы в Интернете - это сайты, на которых есть возможность поиска по содержанию, хранящемуся на других сайтах. Различные поисковые системы по-разному работают, но все они выполняют три основные задачи. [13]

  1. Поиск и выбор полного или частичного контента на основе предоставленных ключевых слов.
  2. Ведение индекса контента и ссылки на место, которое они находят
  3. Позволяет пользователям искать слова или комбинации слов, найденные в этом индексе.

Процесс начинается, когда пользователь вводит запрос в систему через предоставленный интерфейс.

В основном существует три типа поисковых систем: те, которые работают на роботах (называемых краулерами ; муравьи или пауки), и те, которые работают на человеческих представлениях; и те, которые представляют собой гибрид этих двух.

Поисковые системы на основе краулеров - это те, которые используют автоматизированных программных агентов (называемых краулерами), которые посещают веб-сайт, читают информацию на реальном сайте, читают метатеги сайта, а также переходят по ссылкам, которые сайт соединяет, для выполнения индексации всех связанных Веб-сайты тоже. Сканер возвращает всю эту информацию в центральный депозитарий, где данные индексируются. Сканер будет периодически возвращаться к сайтам, чтобы проверить, не изменилась ли информация. Частота, с которой это происходит, определяется администраторами поисковой системы.

Поисковые системы, управляемые людьми, полагаются на людей для предоставления информации, которая впоследствии индексируется и каталогизируется. В индекс помещается только отправленная информация.

В обоих случаях, когда вы запрашиваете поисковую систему, чтобы найти информацию, вы фактически выполняете поиск по индексу, созданному поисковой машиной, - вы на самом деле не ищете в Интернете. Эти индексы представляют собой гигантские базы данных информации, которая собирается и хранится, а затем используется для поиска. Это объясняет, почему иногда поиск в коммерческой поисковой системе, такой как Yahoo! или Google, вернет результаты, которые фактически являются мертвыми ссылками. Поскольку результаты поиска основаны на индексе, если индекс не обновлялся с тех пор, как веб-страница стала недействительной, поисковая машина рассматривает страницу как все еще активную ссылку, даже если она больше не является действующей. Так будет и дальше до обновления индекса.

Так почему же один и тот же поиск в разных поисковых системах дает разные результаты? Частично ответ на этот вопрос заключается в том, что не все индексы будут одинаковыми. Это зависит от того, что найдут пауки или что представят люди. Но что еще более важно, не все поисковые системы используют один и тот же алгоритм для поиска по индексам. Алгоритм - это то, что поисковые системы используют для определения релевантности информации в индексе тому, что ищет пользователь.

Одним из элементов, которые сканирует алгоритм поисковой системы, является частота и расположение ключевых слов на веб-странице. Те, у которых частота выше, обычно считаются более актуальными. Но технология поисковых систем становится все более изощренной, пытаясь воспрепятствовать так называемому «наполнению ключевыми словами» или спам-индексации.

Еще один распространенный элемент, который анализируют алгоритмы, - это то, как страницы ссылаются на другие страницы в Интернете. Анализируя, как страницы связаны друг с другом, движок может определить, о чем страница (если ключевые слова связанных страниц похожи на ключевые слова на исходной странице), и считается ли эта страница "важной" и заслуживающей повышение в рейтинге. Подобно тому, как технология становится все более изощренной, позволяющей игнорировать наполнение ключевыми словами, она также становится более сообразительной для веб-мастеров, которые создают искусственные ссылки на свои сайты, чтобы создать искусственный рейтинг.

Современные поисковые машины - это сложные программные системы, в которых используются технологии, которые развивались годами. Существует ряд подкатегорий программного обеспечения для поисковых систем, которые применимы по отдельности к определенным потребностям «просмотра». К ним относятся поисковые машины в сети (например, Google ), поисковые машины по базам данных или структурированных данных (например, Dieselpoint ), а также смешанные поисковые машины или поиск на предприятии. Наиболее распространенные поисковые системы, такие как Google и Yahoo! использовать сотни тысяч компьютеров для обработки триллионов веб-страниц с целью получения достаточно точных результатов. Из-за такого большого объема запросов и обработки текста программное обеспечение требуется для работы в высокодисперсной среде с высокой степенью избыточности.

Категории поисковых систем [ править ]

Системы веб-поиска [ править ]

Поисковые машины, специально предназначенные для поиска на веб-страницах, документах и ​​изображениях, были разработаны для облегчения поиска по большим туманным каплям неструктурированных ресурсов. Они спроектированы так, чтобы следовать многоступенчатому процессу: сканирование бесконечного запаса страниц и документов, чтобы удалить образную пену из их содержимого, индексацию вспененных / модных словечек в своего рода полуструктурированной форме (база данных или что-то еще) и, наконец, , разрешая пользовательские записи / запросы, чтобы получить наиболее релевантные результаты и ссылки на эти просмотренные документы или страницы из инвентаря.

Сканирование [ править ]

В случае полностью текстового поиска первым шагом в классификации веб-страниц является поиск «элемента индекса», который может прямо относиться к «поисковому запросу». В прошлом поисковые системы начинали с небольшого списка URL-адресов в виде так называемого исходного списка, извлекали контент и анализировали ссылки на этих страницах для получения соответствующей информации, которая впоследствии предоставляла новые ссылки. Процесс был очень цикличным и продолжался до тех пор, пока не было найдено достаточно страниц для использования поисковиком. В наши дни используется метод непрерывного обхода, а не случайное обнаружение на основе начального списка. Метод сканирования является расширением вышеупомянутого метода обнаружения. За исключением того, что нет списка семян, потому что система никогда не прекращает работу.

Большинство поисковых систем используют сложные алгоритмы планирования, чтобы «решить», когда еще раз посетить определенную страницу, чтобы добиться ее релевантности. Эти алгоритмы варьируются от постоянного интервала посещения с более высоким приоритетом для более часто меняющихся страниц до адаптивного интервала посещения на основе нескольких критериев, таких как частота изменений, популярность и общее качество сайта. Также учитываются скорость веб-сервера, на котором выполняется страница, а также ограничения ресурсов, такие как количество оборудования или пропускная способность.

Карта ссылок [ править ]

Страницы, обнаруженные с помощью веб-обхода, часто распределяются и передаются на другой компьютер, который создает настоящую карту обнаруженных ресурсов. Группа clustermass немного похожа на граф, на котором разные страницы представлены в виде небольших узлов, которые связаны ссылками между страницами. Избыток данных хранится в нескольких структурах данных, которые обеспечивают быстрый доступ к указанным данным с помощью определенных алгоритмов, которые вычисляют рейтинг популярности страниц в Интернете на основе того, сколько ссылок указывает на определенную веб-страницу, и именно так люди могут получить доступ к любому количеству. ресурсов, связанных с диагностикой психозов. Другой пример - доступность / рейтинг веб-страниц, содержащих информацию о Мохамеде Морси, по сравнению с самыми лучшими достопримечательностями Каира после простого ввода слова «Египет» в качестве поискового запроса. Один такой алгоритм,PageRank, предложенный основателями Google Ларри Пейджем и Сергеем Брином, хорошо известен и привлек много внимания, поскольку подчеркивает повторяющуюся банальность веб-поиска, любезно предоставленную студентами, которые не знают, как правильно исследовать темы в Google. Идея анализа ссылок для вычисления рейтинга популярности старше, чем PageRank. В настоящее время используются и другие варианты той же идеи - школьники выполняют аналогичные вычисления при выборе команд по кикболу. Но если серьезно, то эти идеи можно разделить на три основные категории: рейтинг отдельных страниц и характер содержания веб-сайта. Поисковые системы часто проводят различие между внутренними и внешними ссылками, потому что веб-мастера и любовницы не чужды бессовестной саморекламе. Структуры данных карты ссылок обычно также хранят текст привязки, встроенный в ссылки,потому что якорный текст часто может обеспечить краткое изложение содержания веб-страницы «очень хорошего качества».

Поисковые системы по базам данных [ править ]

Поиск текстового контента в базах данных представляет несколько особых проблем, с которыми успешно справляется ряд специализированных поисковых систем. Базы данных могут работать медленно при решении сложных запросов (с несколькими аргументами логического или строкового сопоставления). Базы данных позволяют использовать псевдологические запросы, которые не используются при полнотекстовом поиске. Для базы данных сканирование не требуется, поскольку данные уже структурированы. Однако часто бывает необходимо проиндексировать данные в более экономичной форме, чтобы обеспечить более быстрый поиск.

Смешанные поисковые системы [ править ]

Иногда искомые данные содержат как содержимое базы данных, так и веб-страницы или документы. Технология поисковых систем была разработана с учетом обоих наборов требований. Большинство смешанных поисковых систем - это крупные поисковые системы в Интернете, такие как Google. Они ищут как в структурированных, так и в неструктурированных источниках данных . Возьмем, к примеру, слово «мяч». Проще говоря, только в Википедии он возвращает более 40 вариантов. Вы имели в виду бал, как в тусовках / танцах? Футбольный мяч? Подушечка стопы? Страницы и документы просматриваются и индексируются в отдельном индексе. Базы данных индексируются также из различных источников. Затем для пользователей генерируются результаты поиска путем параллельного запроса этих нескольких индексов и объединения результатов в соответствии с «правилами».

См. Также [ править ]

  • Поисковая система по базе данных
  • Корпоративный поиск
  • Поисковый движок
  • Индексирование поисковой системой
  • Поисковый робот
  • Устранение смысловой неоднозначности (устранение неоднозначности )

Ссылки [ править ]

  1. ^ "Семь возрастов информации Есть много способов поиска" . Проверено 1 июня 2014 .
  2. ^ "World Wide Web" , Википедия , 12 января 2020 г. , получено 12 января 2020 г.
  3. Йео, Ричард (30 января 2007 г.). «До Memex: Роберт Гук, Джон Локк и Ванневар Буш о внешней памяти» . Наука в контексте . 20 (1): 21. DOI : 10,1017 / S0269889706001128 . ЛВП : 10072/15207 . S2CID 2378301 . 
  4. Йео, Ричард (30 января 2007 г.). «До Memex: Роберт Гук, Джон Локк и Ванневар Буш о внешней памяти» . Наука в контексте . 20 (1): 21–47. DOI : 10.1017 / S0269889706001128 . ЛВП : 10072/15207 . S2CID 2378301 Пример, который приводит Буш, - это поиск информации об относительных достоинствах турецкого короткого лука и английского длинного лука в крестовых походах. 
  5. ^ "МЕМЕКС Ванневара Буша" .
  6. ^ Yamada, H .; Хирата, М .; Nagai, H .; Такахаши К. (октябрь 1987 г.). «Скоростная поисковая машина». Журнал IEEE по твердотельным схемам . IEEE. 22 (5): 829–834. Bibcode : 1987IJSSC..22..829Y . DOI : 10.1109 / JSSC.1987.1052819 .
  7. ^ а б Прити Шринивас Саджжа; Раджендра Акеркар (2012). Интеллектуальные технологии для веб-приложений . Бока-Ратон: CRC Press. п. 87. ISBN 978-1-4398-7162-1. Дата обращения 3 июня 2014 .
  8. ^ a b c d "История поисковых систем" . Вайли . Проверено 1 июня 2014 .
  9. ^ Прити Шринивас Саджжа; Раджендра Акеркар (2012). Интеллектуальные технологии для веб-приложений . Бока-Ратон: CRC Press. п. 86. ISBN 978-1-4398-7162-1. Дата обращения 3 июня 2014 .
  10. ^ "Основные поисковые системы" . 21 января 2014 . Проверено 1 июня 2014 .
  11. ^ Янсен, Б.Дж., Спинк, А., Бейтман, Дж., И Сарачевич, Т. 1998. Поиск информации в реальной жизни: исследование запросов пользователей в Интернете . СИГИР Форум, 32 (1), 5-17.
  12. ^ Янсен, Б.Дж., Спинк, А., и Сарацевич, Т. 2000. Реальная жизнь, реальные пользователи и реальные потребности: исследование и анализ запросов пользователей в Интернете . Обработка информации и управление. 36 (2), 207-227.
  13. ^ Прити Шринивас Саджжа; Раджендра Акеркар (2012). Интеллектуальные технологии для веб-приложений . Бока-Ратон: CRC Press. п. 85. ISBN 978-1-4398-7162-1. Дата обращения 3 июня 2014 .