LINUX.ORG.RU

История изменений

Исправление sanyo1234, (текущая версия) :

Тогда зачем в схеме ZFS?

Я же уже упоминал, что ZFS при использовании совместно с DRBD нужен вместо аппаратных массивов.

DRBD может работать и без ZFS с другим блочным устройством, например, LVM.

Проблема высосана из пальца. Я уже писал об этом.

Ну как же. Почитай issues в OpenZFS и некоторые печальные сообщения об OpenZFS на форумах и ужаснись.

То ты утверждаешь что DRBD глючный, то хочешь доверить ему репликацию, то утверждаешь что ZFS надёжна, то хочешь перестраховаться разными версиями и реализациями (полностью игнорируя накладываемые этим проблемы)…

Вопрос в степени надёжности по сравнению с чем-либо другим.

DRBD используется в серьёзном проде, но в прошлом у DRBD были факапы. Прикинь, даже сдвоенный storage контроллер (стоимость $10K только лишь за контроллер!) для IBM BladeCenter S 2008 года ОЧЕНЬ глючный, причём намного более глючный, чем ZoL v0.6.x Его глючность тебе могут подтвердить почти в любом ГУ ПФР из почти сотни регионов по всей РФ.

Если предположить, что DRBD обладает достаточной степенью надёжности хотя бы чтобы не нарушить целостность данных, то моя схема с 3мя узлами с разными ZFS и/или осями на каждом, может ещё сильнее повысить сохранность данных.

ZFS позволяет достичь очень высокого уровня сохранности данных, но у OpenZFS есть серьёзные проблемы с доступностью этих данных, т.е. с обеспечением нужного уровня SLI. Не уверен, знаком ли ты с этой SRE терминологией.

Кроме того разные реализации ZFS нужны для ещё большего увеличения вероятности сохранности данных в случае, если сильно ошибутся разработчики ZFS в одной из версий разных веток этой FS на той или иной оси. Играют роль много факторов: ось, ядро, компиляторы, ветка ZFS, совместимость всего перечисленного в той или иной версии. И ошибки могут всплывать не сразу, а со временем.

А DRBD нужен для:

  1. Зеркалирования по разным ZFS реализациям.

  2. Для улучшения SLI, т.е. для повышения uptime системы в целом, за счёт увеличения MTBF и снижения MTTR, что достигается за счёт резервирования узлов и почти мгновенного переключения между ними в случае сбоя одного из них. Под сбоем можно понимать даже замедление работы одного из ZFS пулов или перехода его в состояние suspended. Иначе пришлось бы дожидаться ребута узла с suspended пулом и переинициализации софта, который хранит на нём данные, что намного дольше.

Исправление sanyo1234, :

Тогда зачем в схеме ZFS?

Я же уже упоминал, что ZFS при использовании совместно с DRBD нужен вместо аппаратных массивов.

DRBD может работать и без ZFS с другим блочным устройством, например, LVM.

Проблема высосана из пальца. Я уже писал об этом.

Ну как же. Почитай issues в OpenZFS и некоторые печальные сообщения об OpenZFS на форумах и ужаснись.

То ты утверждаешь что DRBD глючный, то хочешь доверить ему репликацию, то утверждаешь что ZFS надёжна, то хочешь перестраховаться разными версиями и реализациями (полностью игнорируя накладываемые этим проблемы)…

Вопрос в степени надёжности по сравнению с чем-либо другим.

DRBD используется в серьёзном проде, но в прошлом у DRBD были факапы. Прикинь, даже сдвоенный storage контроллер (стоимость $10K только лишь за контроллер!) для IBM BladeCenter S 2008 года ОЧЕНЬ глючный, причём намного более глючный, чем ZoL v0.6.x Его глючность тебе могут подтвердить почти в любом ГУ ПФР из почти сотни регионов по всей РФ.

Если предположить, что DRBD обладает достаточной степенью надёжности хотя бы чтобы не нарушить целостность данных, то моя схема с 3мя узлами с разными ZFS и/или осями на каждом, может ещё сильнее повысить сохранность данных.

ZFS позволяет достичь очень высокого уровня сохранности данных, но у OpenZFS есть серьёзные проблемы с доступностью этих данных, т.е. с обеспечением нужного уровня SLI. Не уверен, знаком ли ты с этой SRE терминологией.

Кроме того разные реализации ZFS нужны для ещё большего увеличения вероятности сохранности данных в случае, если сильно ошибутся разработчики ZFS в одной из версий этой FS.

А DRBD нужен для:

  1. Зеркалирования по разным ZFS реализациям.

  2. Для улучшения SLI, т.е. для повышения uptime системы в целом, за счёт увеличения MTBF и снижения MTTR, что достигается за счёт резервирования узлов и почти мгновенного переключения между ними в случае сбоя одного из них. Под сбоем можно понимать даже замедление работы одного из ZFS пулов или перехода его в состояние suspended. Иначе пришлось бы дожидаться ребута узла с suspended пулом и переинициализации софта, который хранит на нём данные, что намного дольше.

Исправление sanyo1234, :

Тогда зачем в схеме ZFS?

Я же уже упоминал, что ZFS при использовании совместно с DRBD нужен вместо аппаратных массивов.

DRBD может работать и без ZFS с другим блочным устройством, например, LVM.

Проблема высосана из пальца. Я уже писал об этом.

Ну как же. Почитай issues в OpenZFS и некоторые печальные сообщения об OpenZFS на форумах и ужаснись.

То ты утверждаешь что DRBD глючный, то хочешь доверить ему репликацию, то утверждаешь что ZFS надёжна, то хочешь перестраховаться разными версиями и реализациями (полностью игнорируя накладываемые этим проблемы)…

Вопрос в степени надёжности по сравнению с чем-либо другим.

DRBD используется в серьёзном проде, но в прошлом у DRBD были факапы. Прикинь, даже сдвоенный storage контроллер (стоимость $10K только лишь за контроллер!) для IBM BladeCenter S 2008 года ОЧЕНЬ глючный, причём намного более глючный, чем ZoL v0.6.x Его глючность тебе могут подтвердить почти в любом ГУ ПФР из почти сотни регионов по всей РФ.

Если предположить, что DRBD обладает достаточной степенью надёжности хотя бы чтобы не нарушить целостность данных, то моя схема с 3мя узлами с разными ZFS и/или осями на каждом, может ещё сильнее повысить сохранность данных.

ZFS позволяет достичь очень высокого уровня сохранности данных, но у OpenZFS есть серьёзные проблемы с доступностью этих данных, т.е. с обеспечением нужного уровня SLI. Не уверен, знаком ли ты с этой SRE терминологией.

Поэтому разные реализации ZFS нужны для увеличения вероятности сохранности данных в случае, если сильно ошибутся разработчики ZFS в одной из версий этой FS.

А DRBD нужен для:

  1. Зеркалирования по разным ZFS реализациям.

  2. Для улучшения SLI, т.е. для повышения uptime системы в целом, за счёт увеличения MTBF и снижения MTTR, что достигается за счёт резервирования узлов и почти мгновенного переключения между ними в случае сбоя одного из них. Под сбоем можно понимать даже замедление работы одного из ZFS пулов или перехода его в состояние suspended. Иначе пришлось бы дожидаться ребута узла с suspended пулом и переинициализации софта, который хранит на нём данные, что намного дольше.

Исправление sanyo1234, :

Тогда зачем в схеме ZFS?

Я же уже упоминал, что ZFS при использовании совместно с DRBD нужен вместо аппаратных массивов.

DRBD может работать и без ZFS с другим блочным устройством, например, LVM.

Проблема высосана из пальца. Я уже писал об этом.

Ну как же. Почитай issues в OpenZFS и некоторые печальные сообщения об OpenZFS на форумах и ужаснись.

То ты утверждаешь что DRBD глючный, то хочешь доверить ему репликацию, то утверждаешь что ZFS надёжна, то хочешь перестраховаться разными версиями и реализациями (полностью игнорируя накладываемые этим проблемы)…

Вопрос в степени надёжности по сравнению с чем-либо другим.

DRBD используется в серьёзном проде, но в прошлом у DRBD были факапы. Прикинь, даже сдвоенный storage контроллер (стоимость $10K только лишь за контроллер!) для IBM BladeCenter S 2008 года ОЧЕНЬ глючный, причём намного более глючный, чем ZoL v0.6.x Его глючность тебе могут подтвердить почти в любом ГУ ПФР из почти сотни регионов по всей РФ.

Если предположить, что DRBD обладает достаточной степенью надёжности хотя бы чтобы не нарушить целостность данных, то моя схема с 3мя узлами с разными ZFS и/или осями на каждом, может ещё сильнее повысить сохранность данных.

ZFS позволяет достичь очень высокого уровня сохранности данных, но у OpenZFS есть серьёзные проблемы с доступностью этих данных, т.е. с обеспечением нужного уровня SLI. Не уверен, знаком ли ты с этой SRE терминологией.

Поэтому разные реализации ZFS нужны для увеличения вероятности сохранности данных в случае, если сильно ошибутся разработчики ZFS в одной из версий этой FS.

А DRBD нужен для:

  1. Зеркалирования по разным ZFS реализациям.

  2. Для улучшения SLI, т.е. для повышения uptime системы в целом, за счёт увеличения MTBF и снижения MTTR, что достигается за счёт резервирования узлов и почти мгновенного переключения между ними.

Исправление sanyo1234, :

Тогда зачем в схеме ZFS?

Я же уже упоминал, что ZFS при использовании совместно с DRBD нужен вместо аппаратных массивов.

DRBD может работать и без ZFS с другим блочным устройством, например, LVM.

Проблема высосана из пальца. Я уже писал об этом.

Ну как же. Почитай issues в OpenZFS и некоторые печальные сообщения об OpenZFS на форумах и ужаснись.

То ты утверждаешь что DRBD глючный, то хочешь доверить ему репликацию, то утверждаешь что ZFS надёжна, то хочешь перестраховаться разными версиями и реализациями (полностью игнорируя накладываемые этим проблемы)…

Вопрос в степени надёжности по сравнению с чем-либо другим.

DRBD используется в серьёзном проде, но в прошлом у DRBD были факапы. Прикинь, даже сдвоенный storage контроллер (стоимость $10K только лишь за контроллер!) для IBM BladeCenter S 2008 года ОЧЕНЬ глючный, причём намного более глючный, чем ZoL v0.6.x Его глючность тебе могут подтвердить почти в любом ГУ ПФР из почти сотни регионов по всей РФ.

Если предположить, что DRBD обладает достаточной степенью надёжности хотя бы чтобы не нарушить целостность данных, то моя схема с 3мя узлами с разными ZFS и/или осями на каждом, может ещё сильнее повысить сохранность данных.

ZFS позволяет достичь очень высокого уровня сохранности данных, но у OpenZFS есть серьёзные проблемы с доступностью этих данных, т.е. с обеспечением нужного уровня SLI. Не уверен, знаком ли ты с этой SRE терминологией.

Поэтому разные реализации ZFS нужны для увеличения вероятности сохранности данных в случае, если сильно ошибутся разработчики ZFS в одной из версий этой FS.

А DRBD нужен для:

  1. Зеркалирования по разным ZFS реализациями.

  2. Для улучшения SLI, т.е. для повышения uptime системы в целом, за счёт увеличения MTBF и снижения MTTR, что достигается за счёт резервирования узлов и почти мгновенного переключения между ними.

Исправление sanyo1234, :

Тогда зачем в схеме ZFS?

Я же уже упоминал, что ZFS при использовании совместно с DRBD нужен вместо аппаратных массивов.

DRBD может работать и без ZFS с другим блочным устройством, например, LVM.

Проблема высосана из пальца. Я уже писал об этом.

Ну как же. Почитай issues в OpenZFS и некоторые печальные сообщения об OpenZFS на форумах и ужаснись.

То ты утверждаешь что DRBD глючный, то хочешь доверить ему репликацию, то утверждаешь что ZFS надёжна, то хочешь перестраховаться разными версиями и реализациями (полностью игнорируя накладываемые этим проблемы)…

Вопрос в степени надёжности по сравнению с чем-либо другим.

DRBD используется в серьёзном проде, но в прошлом у DRBD были факапы. Прикинь, даже сдвоенный storage контроллер (стоимость $10K только лишь за контроллер!) для IBM BladeCenter S 2008 года ОЧЕНЬ глючный, причём намного более глючный, чем ZoL v0.6.x Его глючность тебе могут подтвердить почти в любом ГУ ПФР из почти сотни регионов по всей РФ.

Если предположить, что DRBD обладает достаточной степенью надёжности хотя бы чтобы не нарушить целостность данных, то моя схема с 3мя узлами с разными ZFS и/или осями на каждом, может ещё сильнее повысить сохранность данных.

ZFS позволяет достичь очень высокого уровня сохранности данных, но у OpenZFS есть серьёзные проблемы с доступностью этих данных, т.е. с обеспечением нужного уровня SLI. Не уверен, знаком ли ты с этой SRE терминологией.

Исправление sanyo1234, :

Тогда зачем в схеме ZFS?

Я же уже упоминал, что вместо аппаратных массивов. DRBD может работать и без ZFS с другим блочным устройством, например, LVM.

Проблема высосана из пальца. Я уже писал об этом.

Ну как же. Почитай issues в OpenZFS и некоторые печальные сообщения об OpenZFS на форумах и ужаснись.

То ты утверждаешь что DRBD глючный, то хочешь доверить ему репликацию, то утверждаешь что ZFS надёжна, то хочешь перестраховаться разными версиями и реализациями (полностью игнорируя накладываемые этим проблемы)…

Вопрос в степени надёжности по сравнению с чем-либо другим.

DRBD используется в серьёзном проде, но в прошлом у DRBD были факапы. Прикинь, даже сдвоенный storage контроллер (стоимость $10K только лишь за контроллер!) для IBM BladeCenter S 2008 года ОЧЕНЬ глючный, причём намного более глючный, чем ZoL v0.6.x Его глючность тебе могут подтвердить почти в любом ГУ ПФР из почти сотни регионов по всей РФ.

Если предположить, что DRBD обладает достаточной степенью надёжности хотя бы чтобы не нарушить целостность данных, то моя схема с 3мя узлами с разными ZFS и/или осями на каждом, может ещё сильнее повысить сохранность данных.

ZFS позволяет достичь очень высокого уровня сохранности данных, но у OpenZFS есть серьёзные проблемы с доступностью этих данных, т.е. с обеспечением нужного уровня SLI. Не уверен, знаком ли ты с этой SRE терминологией.

Исправление sanyo1234, :

Тогда зачем в схеме ZFS?

Я же уже упоминал, что вместо аппаратных массивов. DRBD может работать и без ZFS с другим блочным устройством, например, LVM.

Проблема высосана из пальца. Я уже писал об этом.

Ну как же. Почитай issues в OpenZFS и некоторые печальные сообщения об OpenZFS на форумах и ужаснись.

То ты утверждаешь что DRBD глючный, то хочешь доверить ему репликацию, то утверждаешь что ZFS надёжна, то хочешь перестраховаться разными версиями и реализациями (полностью игнорируя накладываемые этим проблемы)…

Вопрос в степени надёжности по сравнению с чем-либо другим.

DRBD используется в серьёзном проде, но в прошлом у DRBD были факапы. Прикинь, даже сдвоенный storage контроллер (стоимость $10K только лишь за контроллер!) для IBM BladeCenter S 2008 года ОЧЕНЬ глючный, причём намного более глючный, чем ZoL v0.6.x Его глючность тебе могут подтвердить почти в любом ГУ ПФР из почти сотни регионов по всей РФ.

Если предположить, что DRBD обладает достаточной степенью надёжности хотя бы чтобы не нарушить целостность данных, то моя схема с 3мя узлами с разными ZFS и/или осями на каждом, может ещё сильнее повысить сохранность данных.

ZFS позволяет достичь очень высокого уровня сохранности данных, но у OpenZFS есть серьёзные проблемы с доступностью этих данных, т.е. с обеспечением нужного уровня SLI и поэтому соответствием SLA.

Исправление sanyo1234, :

Тогда зачем в схеме ZFS?

Я же уже упоминал, что вместо аппаратных массивов. DRBD может работать и без ZFS с другим блочным устройством, например, LVM.

Проблема высосана из пальца. Я уже писал об этом.

Ну как же. Почитай issues в OpenZFS и некоторые печальные сообщения об OpenZFS на форумах и ужаснись.

То ты утверждаешь что DRBD глючный, то хочешь доверить ему репликацию, то утверждаешь что ZFS надёжна, то хочешь перестраховаться разными версиями и реализациями (полностью игнорируя накладываемые этим проблемы)…

Вопрос в степени надёжности по сравнению с чем-либо другим.

DRBD используется в серьёзном проде, но в прошлом у DRBD были факапы. Прикинь, даже сдвоенный storage контроллер (стоимость $10K только лишь за контроллер!) для IBM BladeCenter S 2008 года ОЧЕНЬ глючный, причём намного более глючный, чем ZoL v0.6.x Его глючность тебе могут подтвердить почти в любом ГУ ПФР из почти сотни регионов по всей РФ.

Если предположить, что DRBD обладает достаточной степенью надёжности хотя бы чтобы не нарушить целостность данных, то моя схема с 3мя узлами с разными ZFS и/или осями на каждом, может ещё сильнее повысить сохранность данных.

Исправление sanyo1234, :

Тогда зачем в схеме ZFS?

Я же уже упоминал, что вместо аппаратных массивов. DRBD может работать и без ZFS с другим блочным устройством, например, LVM.

Проблема высосана из пальца. Я уже писал об этом.

Ну как же. Почитай issues в OpenZFS и некоторые печальные сообщения об OpenZFS на форумах и ужаснись.

То ты утверждаешь что DRBD глючный, то хочешь доверить ему репликацию, то утверждаешь что ZFS надёжна, то хочешь перестраховаться разными версиями и реализациями (полностью игнорируя накладываемые этим проблемы)…

Вопрос в степени надёжности по сравнению с чем-либо другим.

DRBD используется в серьёзном проде, но в прошлом у DRBD были факапы. Прикинь, даже сдвоенный storage контроллер (стоимость $10K только лишь за контроллер!) для IBM BladeCenter S 2008 года ОЧЕНЬ глючный, причём намного более глючный, чем ZoL v0.6.x Его глючность тебе могут подтвердить почти в любом ГУ ПФП из почти сотни регионов по всей РФ.

Если предположить, что DRBD обладает достаточной степенью надёжности хотя бы чтобы не нарушить целостность данных, то моя схема с 3мя узлами с разными ZFS и/или осями на каждом, может ещё сильнее повысить сохранность данных.

Исходная версия sanyo1234, :

Тогда зачем в схеме ZFS?

Я же уже упоминал, что вместо аппаратных массивов. DRBD может работать и без ZFS с другим блочным устройством, например, LVM.

Проблема высосана из пальца. Я уже писал об этом.

Ну как же. Почитай issues в OpenZFS и некоторые печальные сообщения об OpenZFS на форумах и ужаснись.

То ты утверждаешь что DRBD глючный, то хочешь доверить ему репликацию, то утверждаешь что ZFS надёжна, то хочешь перестраховаться разными версиями и реализациями (полностью игнорируя накладываемые этим проблемы)…

Вопрос в степени надёжности по сравнению с чем-либо другим.

DRBD используется в серьёзном проде, но в прошлом у DRBD были факапы. Прикинь, даже сдвоенный storage контроллер для IBM BladeCenter S 2008 года ОЧЕНЬ глючный, причём намного более глючный, чем ZoL v0.6.x Его глючность тебе могут подтвердить почти в любом ГУ ПФП из почти сотни регионов по всей РФ.

Если предположить, что DRBD обладает достаточной степенью надёжности хотя бы чтобы не нарушить целостность данных, то моя схема с 3мя узлами с разными ZFS и/или осями на каждом, может ещё сильнее повысить сохранность данных.