|
Есть в интернете справедливость
Распространенное мнение, согласно которому поисковые системы расширяют пропасть между уже завоевавшими популярность ресурсами и их менее удачливыми конкурентами, опровергнуто. Результаты исследований, проведенных в США и Германии, показали, что поисковики «нивелируют» Сеть, предоставляя большие возможности менее посещаемым сайтам.
Основываясь на анализе трафика Сети, д-р Санто Фортунато (Santo Fortunato) и его коллеги из университетов Индианы и Бильфельда установили, что поисковики, ранжирующие результаты поиска в соответствии с количеством ссылок на веб-страницу, увеличивают шансы менее посещаемых ресурсов.
Необычные феномены, характерные для самоорганизующейся информационной структуры интернета, сразу привлекли к себе пристальное внимание ученых. Один из них получил наименование «гуглеархия» (googlearchy). Этот термин был предложен в 2003 году специалистами из Принстонского университета и лабораторий NEC для обозначения эффекта прогрессирующего отрыва наиболее популярных ресурсов Сети вследствие лавинообразного роста числа ссылок, ведущих на них. Из этого следовало, что поисковые системы, формирующие список ресурсов в соответствии с количеством ссылок, ведущих на них, способствуют углублению пропасти между «лидерами» и «догоняющими». Механизм «гуглеархии» означал, что поисковые системы загоняют Сеть в своеобразную ловушку, выхода из которой не виделось.
По словам д-р Фортунато считается, что в этом случае возникает замкнутый круг: популярные страницы становятся все более и более популярными. Этот предполагаемый эффект даже получил название „гуглеархия“ (googlearchy) и вызвал широкий интерес среди специалистов по ИТ, социологов и политологов. Нынешние исследования доказывают обратное.
Группа д-ра Фортунато исследовала связь между трафиком и количеством ссылок на более чем 28 тыс. сайтов в поисковых системах Alexa, Google и Yahoo. В качестве меры популярности сайта ученые предложили использовать вероятность перехода гипотетического пользователя Сети по соответствующей ссылке, передает CNews.
Выяснилось, что существующие модели поиска нужной информации в Сети — «серфинга» и поиска с использованием поисковых систем — не подходят для описания опытных данных, в которых между трафиком и количеством ссылок на страницу существует не степенная, как считалось ранее, а линейная зависимость.
На основе новой теоретической модели, учитывающей характер запросов, способы поиска, представления информации и дальнейшего ее использования, была получена зависимость между трафиком веб-страницы и количеством ссылок, ведущих на нее. Новая модель согласуется с наблюдаемой картиной — поисковые системы «нивелируют» Сеть, направляя пользователей к менее популярным ресурсам, и, таким образом, «восстанавливают справедливость» во Всемирной Сети.
«Поисковые системы — интерфейс между обществом и главным товаром XXI века — информацией, — говорит д-р Фортунато. — Наши исследования будут полезны специалистам, которые моделируют структуру Сети, разработчикам поисковых систем, специалистам по ИТ, которые предсказывают развитие трафика, экспертам по маркетингу, анализирующим методы эффективной рекламы в Сети, а также социологам, которых интересует ее влияние на поиск и распространение знаний в информационном обществе».
blotter.ru |
|
|
|
|