LINUX.ORG.RU

История изменений

Исправление conalex, (текущая версия) :

если интересно, есть некоторые результаты по развертыванию tahoe-lafs.

1. Тестовая конфигурация: хосты - 3 дебиана (wheezy) и 1 винда (win 7), свежая версия tahoe-lafs (1.10.2) (из git репозитория проекта, последние правки оказались существенными)

2. Билд и запуск прошли нормально, пришлось немного поковыряться с питоном, ибо я с ним вообще раньше не работал. CLI, вебморды завелись, все работает. Инсталл не делал, запускал все из каталога сборки.

3. Роли узлам распределил так:

хост1: клиент с sftp фронтендом (без стораджа) + интродюсер, вебморды, используется как точка входа в хранилище.

хосты 2, 3, 4 (винда) - ноды, без вебморд, без фронтендов, чисто стораджи.

4. В настройках клиента

shares.total = 3
shares.happy = 3
shares.needed = 3
что соответствует заливке копий на каждый хост для любого файла (тройное копирование). Вычитал в каком-то гайде рекомендации:

shares.total: about 80% of the amount of servers you have available.

shares.happy: 2 lower than shares.total

shares.needed: half of shares.total

5. Скорость: ну, субъективно 1Гб заливался примерно минуты 3-4 (локальная сеть с гигабитом), выкачивался обратно примерно так же. rsync в моей сети 1Гб перекидывает где-то за минуту.

6. Настроил монтирование хранилища через sshfs.

7. Расшарил смонтированное хранилище по самбе. Торомоза при манипуляциях с файлами по самбе, конечно есть, но некритичные.

Вцелом, конфигурация работоспособная. Сейчас смотрю в сторону как развернуть клиентов на виндах ,по возможности автоматизировав процесс установки.

Исходная версия conalex, :

если интересно, есть некоторые результаты по развертыванию tahoe-lafs.

1. Тестовая конфигурация: хосты - 3 дебиана (wheezy) и 1 винда (win 7), свежая версия tahoe-lafs (1.10.2) (из git репозитория проекта, последние правки оказались существенными)

2. Билд и запуск прошли нормально, пришлось немного поковыряться с питоном, ибо я с ним вообще раньше не работал. CLI, вебморды завелись, все работает.

3. Роли узлам распределил так:

хост1: клиент с sftp фронтендом (без стораджа) + интродюсер, вебморды, используется как точка входа в хранилище.

хосты 2, 3, 4 (винда) - ноды, без вебморд, без фронтендов, чисто стораджи.

4. В настройках клиента

shares.total = 3
shares.happy = 3
shares.needed = 3
что соответствует заливке копий на каждый хост для любого файла (тройное копирование). Вычитал в каком-то гайде рекомендации:

shares.total: about 80% of the amount of servers you have available.

shares.happy: 2 lower than shares.total

shares.needed: half of shares.total

5. Скорость: ну, субъективно 1Гб заливался примерно минуты 3-4 (локальная сеть с гигабитом), выкачивался обратно примерно так же. rsync в моей сети 1Гб перекидывает где-то за минуту.

6. Настроил монтирование хранилища через sshfs.

7. Расшарил смонтированное хранилище по самбе. Торомоза при манипуляциях с файлами по самбе, конечно есть, но некритичные.

Вцелом, конфигурация работоспособная. Сейчас смотрю в сторону как развернуть клиентов на виндах ,по возможности автоматизировав процесс установки.