Навеяно этим: http://www.linux.org.ru/news/opensource/5342584
Вот все переживают, мол гугль знает о нас всю информацию, которую только может. И нет, типа, возможности реализовать такого же уровня инфраструктуру, которая смогла бы победить гугль.
Но если за модель взять распределенную систему (с открытым кодом, ессно), в которой роль ботов-пауков, собирающих данные, будет выполнять некая надстройка над броузером у пользователей этой системы(зашел на страницу — робот тоже зашел, но без авторизации, если таковая была), а собраные данные будут храниться на винтах пользователей. плюс система в момент простоя компьютера может немного пошариться по инету в поисках новых ссылок. локальные кусочки выстраиваются в единую иерархию и составляют общую базу проекта, из которой при поиске извлекается нужная информация.
при определенном количестве пользователей такая система сможет стать вполне конкурентной гуглу и не иметь негативных последствий.