Как знает Гугль и все мы, за распределёнными системами будущее. Распределённые поисковые движки давно существуют, и технически там ничего такого хитрого, DHT и т. д. Проблема у распределённых поискоывх систем только одна - нифига нет устойчивости к spoofing-у. Любой злоумышленник сможет легко засорять базу левыми данными или накручивать рейтинги, эдак первые 10 страниц результатов будет занимать реклама порносайтов. Вот, мне кажется, с этим можно бороться известными методами: сделать так, чтоб эффект от действий любого субъекта распределённой системы был локализован, и тем сильнее локализован, чем больше его действия отклоняются от "генеральной линии". То есть, если отдельно взятый SEO-шник захочет поднять свой куль сайт на первую страницу и будет отсылать в этот распределённый поисковый индекс левую инфу, то устроить систему таким образом, чтобы для большинства других участников системы вес его инфы был близок к нулю. Ну скажем, при расчёте рейтингов сайтов в результатах поиска для меня, вклад каждого участника системы брать с коэффициентом, который зависит от того, насколько те рейтинги и ключевые слова, которые он проставлял, близки к тем, что проставлял я. Длинно получилось, но не знаю, как это короче описать. Теперь вопрос, на эту тему где сейчас какие исследования ведутся?
Ещё, что забавно: http://www.google.com/search?q="social+weighting"+"distributed+search" - 0 результатов. Власти скрывают?