LINUX.ORG.RU

Хостинг умирающих сайтов.

 , ,


2

3

В этих наших старых добрых интернетах все многое хорошо, да вот только админы проектов смертны, или даже не смертны, а не готовы поддерживать свои сайты на плаву. То есть смертны в конце концов старые добрые проекты. Хочется иметь возможность бекапить поддерживать сетевое существование интернет страниц, без доступа к админкам сайтов. Важен только контент страниц, в первую очередь текст и картинки, а так же блоки со вставками с других сайтов, но это уже не столь важный критерий. Итак, подскажите какие есть средства для продления жизни страничкам? В особенности интересны децентрализованные, пиринговые технологии, позволяющие распределить ответственность за хранение и доступ между заинтересованными людьми. Пригодны ли для этого IPFS и ZERONET, или может быть есть какие то другие средства?


Текст и картинки можно сгрести с помощью HTTrack.

Потом хостить можно как угодно.

Насчет живучести – вот не знаю, технологии тоже умирают со временем. Мне кажется единственный способ реально сохранить что-либо – сделать проект достаточно популярным для того, чтобы у него всегда были активные и заинтересованные в нем члены.

Т.е. хочу сказать – не пологаться на одну технологию, а делать межпротокольные зеркала + не в одно лицо всем этим заниматься.

frunobulax ★★
()
Последнее исправление: frunobulax (всего исправлений: 1)

Хочется иметь возможность бекапить поддерживать сетевое существование интернет страниц, без доступа к админкам сайтов. Важен только контент страниц, в первую очередь текст и картинки, а так же блоки со вставками с других сайтов, но это уже не столь важный критерий. Итак, подскажите какие есть средства для продления жизни страничкам?
ZERONET

Zeronet прекрасно подходит для выкладывания статического контента, выкачиваете сайт при помощи wget и заливаете в zeronet, кому интересно скачают и тоже будут раздавать

Kolins ★★★★
()

httrack, я так копировал доку марии.

Заливать можете потом на гитхаб или гитлаб, это же статика, там бесплатно.

В особенности интересны децентрализованные, пиринговые технологии, позволяющие распределить ответственность за хранение и доступ между заинтересованными людьми

ipfs, можете в торрент закинуть файлы.

fernandos ★★★
()

Спасибо за ответы. А HTTrack умеет выкачивать только контентную часть страниц, без хедеров и всего такого?

strw
() автор топика

Народ говорит, что сайты ZeroNet в этом плане живучи.

Novator ★★★★★
()

Раз уж пошла такая пьянка, а как сайты в 100%-м объёме скачивать? То есть, чтобы я был абсолютно уверен, что скачено реально всё вплоть до последней мелкой пикчи, скриптика или css.

У меня был опыт (включая разного рода wget’ы) - постоянно что-то не докачивалось/отсутствовало. Миллион лет назад очень хорошо себя показывала диско-качалка (вроде так она называлась?), но то было под винду. Я то ли на 95-й, то ли на 98-й на диалапе скачивал сайт этой качалкой, чтобы потом оффлайн читать спокойно весь сайт, отключившись от диал-апа.

А вот под онтопик какие есть гарантированные подходы к скачиванию тотально всего сайта? То есть поставил на скачку на пару-тройку часов и точно знаешь, что скачана вся структура сайта и нет пробелов и отсутствующих файлов. Кто может просветить по этой части и расписать детально что и как делать? Может у кого уже устоявшиеся методы есть? Спс.

anonymous
()
Ответ на: комментарий от anonymous

Народ эмулирует браузеры. Например у хромого был режим, хотя от него было много воя. Просто рендеришь браузером или интроспекцией страниц сохраняешь все объекты. Это муторно, конечно, но это даст больше всего гарантий.

slapin ★★★★★
()

Интересно, а в Zeronet нормально выкладывать PDF`ки, или это не комильфо?

strw
() автор топика
Ответ на: комментарий от Dog

Не всерачал такие, но наверное уже придумали и для них инструменты, там выше про httrack писали, вот в глаза его не видел, но межет от сможет выкачать то что не смог wgeet?

Kolins ★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.