Есть в интернете справедливость
Новая тема Написать ответ
# Пн Ноя 14, 2005 9:35 pmRabbit Зарег.: 01.08.2005 ; Сообщ.: 19787Ответить с цитатой
Есть в интернете справедливость


Распространенное мнение, согласно которому поисковые системы расширяют пропасть между уже завоевавшими популярность ресурсами и их менее удачливыми конкурентами, опровергнуто. Результаты исследований, проведенных в США и Германии, показали, что поисковики «нивелируют» Сеть, предоставляя большие возможности менее посещаемым сайтам.

Основываясь на анализе трафика Сети, д-р Санто Фортунато (Santo Fortunato) и его коллеги из университетов Индианы и Бильфельда установили, что поисковики, ранжирующие результаты поиска в соответствии с количеством ссылок на веб-страницу, увеличивают шансы менее посещаемых ресурсов.

Необычные феномены, характерные для самоорганизующейся информационной структуры интернета, сразу привлекли к себе пристальное внимание ученых. Один из них получил наименование «гуглеархия» (googlearchy). Этот термин был предложен в 2003 году специалистами из Принстонского университета и лабораторий NEC для обозначения эффекта прогрессирующего отрыва наиболее популярных ресурсов Сети вследствие лавинообразного роста числа ссылок, ведущих на них. Из этого следовало, что поисковые системы, формирующие список ресурсов в соответствии с количеством ссылок, ведущих на них, способствуют углублению пропасти между «лидерами» и «догоняющими». Механизм «гуглеархии» означал, что поисковые системы загоняют Сеть в своеобразную ловушку, выхода из которой не виделось.

По словам д-р Фортунато считается, что в этом случае возникает замкнутый круг: популярные страницы становятся все более и более популярными. Этот предполагаемый эффект даже получил название „гуглеархия“ (googlearchy) и вызвал широкий интерес среди специалистов по ИТ, социологов и политологов. Нынешние исследования доказывают обратное.

Группа д-ра Фортунато исследовала связь между трафиком и количеством ссылок на более чем 28 тыс. сайтов в поисковых системах Alexa, Google и Yahoo. В качестве меры популярности сайта ученые предложили использовать вероятность перехода гипотетического пользователя Сети по соответствующей ссылке, передает CNews.

Выяснилось, что существующие модели поиска нужной информации в Сети — «серфинга» и поиска с использованием поисковых систем — не подходят для описания опытных данных, в которых между трафиком и количеством ссылок на страницу существует не степенная, как считалось ранее, а линейная зависимость.

На основе новой теоретической модели, учитывающей характер запросов, способы поиска, представления информации и дальнейшего ее использования, была получена зависимость между трафиком веб-страницы и количеством ссылок, ведущих на нее. Новая модель согласуется с наблюдаемой картиной — поисковые системы «нивелируют» Сеть, направляя пользователей к менее популярным ресурсам, и, таким образом, «восстанавливают справедливость» во Всемирной Сети.

«Поисковые системы — интерфейс между обществом и главным товаром XXI века — информацией, — говорит д-р Фортунато. — Наши исследования будут полезны специалистам, которые моделируют структуру Сети, разработчикам поисковых систем, специалистам по ИТ, которые предсказывают развитие трафика, экспертам по маркетингу, анализирующим методы эффективной рекламы в Сети, а также социологам, которых интересует ее влияние на поиск и распространение знаний в информационном обществе».

blotter.ru
Новая тема Написать ответ    ГЛАВНАЯ ~ НОВОСТИ ИНТЕРНЕТА
 
Любое использование материалов, размещенных на ArmadaBoard.com, без разрешения владельцев ArmadaBoard.com запрещено.