LINUX.ORG.RU

В ZFS появилась поддержка исключения дубликатов

 ,


0

0

Jeff Bonwick, разработчик интересной во всех смыслах файловой системы нового поколения ZFS, в своём блоге сообщил о реализации следующего новшества — системы автоматического распознавания и объединения дубликатов!

Технология работает на уровне блоков данных, что, по оценке разработчиков Sun, является более универсальным и менее ресурсоемким решением, по сравнению с вычислением дубликатов на уровне файлов или произвольных наборов байтов. Как известно, для каждого блока данных в ZFS вычисляется контрольная сумма по алгоритму SHA256. Если данная контрольная сумма уже присутствует в хэше, то запись такого же блока данных, который уже есть в хранилище, не производится, а создаётся ссылка на уже имеющийся блок данных. То есть, если в нескольких файлах присутствуют одинаковые блоки данных, то они будут сохранены на физический носитель только один раз.

>>> Подробности

★★★★★

Проверено: maxcom ()
Ответ на: комментарий от anonymous

>>дискеты - как аналог дисков
вот именно, что аналог дисков. ленты сохраняют информацию много дольше любой другой медии. тут конкурент только диск в режиме write-only.
>>С rsync - вы регулярно получаете фидбек

>>С ростом данных - наличие рейдов увеличивает бюджет хранения архивов - во много раз.

вот тут как-то не вяжется, рэйд - 2х затраты на диски(а ведь есть не только зеркало), рсинк - 2х затраты на систему целиком.
>> распределённая географически, и 2-сторонняя синхронизация.

когда об этом говорят, про траты можно не вспоминать - они как бэ само-собой...
и поверьте, там где применяют географическое распределение никому в голову не придет не использовать raid.

EvgGad_303 ★★★★★
()
Ответ на: комментарий от EvgGad_303

>вот тут как-то не вяжется, рэйд - 2х затраты на диски(а ведь есть не только зеркало), рсинк - 2х затраты на систему целиком.
>когда об этом говорят, про траты можно не вспоминать - они как бэ само-собой...

и поверьте, там где применяют географическое распределение никому в голову не придет не использовать raid.


Ещё раз (следите за моей логикой):
просто рейд - задачу не решает. Пожар, кража - и всё.
Нужно распределённое хранение.
Если оно _уже_ есть - то зачем траты на рейд?
(я разумеется нигде не говорил - про распределённый рейд - это было-бы безумием).

Итак - в архивах - рейды не нужны (ну разве что если деньги не куда девать. Я не говорю что рейд - плохо. Просто не необходимо и не решают ничего в задаче хранения долговременных архивов).

anonymous
()
Ответ на: комментарий от EvgGad_303

там где применяют географическое распределение никому в голову не придет не использовать raid

4.2

с чего бы это? на каждой географически распределённой ноде ставится кластер и в нём raid-массив... а как Вы обеспечите сохранность информации при выходе физического диска из строя?

shty ★★★★★
()
Ответ на: комментарий от anonymous

Просто не необходимо и не решают ничего в задаче хранения долговременных архивов).

4.2 учите матчасть

все нормальные (!) системы долговременного хранения информации поддерживают хранение информации в raid

и да, сами подумайте как Вы будете бороться со старением и последующим отказом физических носителей?

shty ★★★★★
()
Ответ на: комментарий от anonymous

>>просто рейд - задачу не решает. Пожар, кража - и всё.
именно для этого и используют ленты, и в сейф.
>>Если оно _уже_ есть - то зачем траты на рейд?

рэйд - это не только избыточность, выбором правильного типа, в зависимости от соотношения чтение/запись, можно нехило добавить производительности.
>>Итак - в архивах - рейды не нужны

утверждение не совсем корректно. географически распределенные архивы - вот уж, действительно, деньги девать некуда ;)
если очень надо - 2 ленты в разных хранилищах.
а дисковые архивы используют только когда необходима уверенность в НЕИЗМЕННОСТИ данных, на протяжении определенного времени.

EvgGad_303 ★★★★★
()
Ответ на: комментарий от EvgGad_303

географически распределенные архивы - вот уж, действительно, деньги девать некуда

некорректно... из-за таких решений когда WTF «выпиливали» куча инфы слилась в /dev/null... и географическое распределение защищает данные (включая архивы) от наводнения/потопа/пожара/«ядрёной бомбандировки» (подчеркните нужное)

shty ★★★★★
()
Ответ на: комментарий от EvgGad_303

ой, сорри... перепутал Вас с вашим оппонентом :)

shty ★★★★★
()
Ответ на: комментарий от EvgGad_303

а дисковые архивы используют только когда необходима уверенность в НЕИЗМЕННОСТИ данных, на протяжении определенного времени.

эээ.... поясните фразу

я всегда считал, что дисковые архивы используются для организации online storage, т.к. у них сравнительно небольшое время доступа, не?

shty ★★★★★
()
Ответ на: комментарий от shty

я всеже под архивами имел ввиду data retention =)
и я знаю только несколько контор, которые используют геог. распределение, и то не в моей стране.

EvgGad_303 ★★★★★
()
Ответ на: комментарий от shty

это зовется дисковый массив.
а дисковый архив - я уже несколько раз писал, что это =)
может просто моя русско-язычная терминология меня подводит?

EvgGad_303 ★★★★★
()
Ответ на: комментарий от EvgGad_303

я всеже под архивами имел ввиду data retention =)

это несколько узкое понимание архивов :)

и я знаю только несколько контор, которые используют геог. распределение, и то не в моей стране.

в основном банки биржи, и прочие предприятия с приличным оборотом фин. средств... и они не любят светить чего у них там как... поэтому неудивительно

shty ★★★★★
()
Ответ на: комментарий от EvgGad_303

это зовется дисковый массив. а дисковый архив - я уже несколько раз писал, что это =) может просто моя русско-язычная терминология меня подводит?

возможно, а возможно я с такими устройствами не сталкивался... приведите линк на девайс

shty ★★★★★
()
Ответ на: комментарий от EvgGad_303

если у меня диск вылетает - я легко его меняю и перекидываю данные с одного из уровней.
Гуглу тоже говорили - без серверов энтерпрайз-уровня в бизнес не суйтесь, а ведь поди-ж ты.. Обычные писюки используют, засранцы и энтерпраиз не покупают.

Применении рейда для ускорения доступа - это совсем другая песня, там и другие типы рейдов нужны.

за 20 лет хранения данных у меня масса разных дисков сдохла, не перечесть, начиная с 40М. И ничего не потеряно. И ни разу я не покупал рейд. И ленты не покупал. ЧЯДНТ? Скорость смены и инкрементальные бекапы rsync - гораздо быстрее чем с лентами. Ленты это то-же зло - что и бекапирование на CD. Не масштабируемо, не знаешь - в каком состоянии архивы, переносишь головную боль на будущее и тд.

Но мы конечно о разных вещах говорим. Я - об архивах. Вы - об ентерпрайзе (хотя энтерпрайз со временем тоже постепенно удаляет ненужные сущности для удешевления)

anonymous
()
Ответ на: комментарий от anonymous

если у меня диск вылетает - я легко его меняю и перекидываю данные с одного из уровней.

э? у Вас, простите, размер архива какой? опишите систему поподробнее, плиз...

Гуглу тоже говорили - без серверов энтерпрайз-уровня в бизнес не суйтесь, а ведь поди-ж ты.. Обычные писюки используют, засранцы и энтерпраиз не покупают.

пруфлинк иде?..

а потом, прости господи, мелкомягкий бинг в несколько раз быстрее результаты выдаёт... может по этому :)

за 20 лет хранения данных у меня масса разных дисков сдохла, не перечесть, начиная с 40М. И ничего не потеряно. И ни разу я не покупал рейд.

начиная с некоторого уровня это делать становится затруднительно...

Ленты это то-же зло - что и бекапирование на CD. Не масштабируемо, не знаешь - в каком состоянии архивы, переносишь головную боль на будущее и тд.

4.2 с rsync-то, конечно...

Но мы конечно о разных вещах говорим. Я - об архивах. Вы - об ентерпрайзе

никак не вижу почему это несовместные понятия... и да, ынтерпрайз решения сейчас идут в массы в связи с удешевлением

shty ★★★★★
()
Ответ на: комментарий от shty

нечего описывать. Домашняя файлопомойка. Но со временем для каждого человека - она становится всё важнее и важнее. Проблема хранения домашних архивов ещё в 2003 или около того году - была на конгрессе компьютер саентистов признана как одна из 10 первоочередных проблем перед компьютингом. Есть линки где-то но облом искать.
усб-диски частично решают проблему.
Но они - только в пользу моего аргумента против рейдов и в пользу rsync - как универсального средства.

Насчёт гугловской архитектуры - полно линков, в том числе проскакивало на лоре. Поищите. Мне искать влом. Факт тот что они первыми перешли на коммодити хардваре и быструю дешёвую смену железа - когда надо.

anonymous
()
Ответ на: комментарий от anonymous

>Гуглу тоже говорили - без серверов энтерпрайз-уровня в бизнес не суйтесь, а ведь поди-ж ты.. Обычные писюки используют, засранцы и энтерпраиз не покупают.

чтобы использовать обычные писюки в энтерпрайзе нужно быть гуглом. запомни это.

gigabito
()
Ответ на: комментарий от anonymous

к усб-дискам - нужна ещё дисциплина периодической синхронизации, верификации и восстановления - на случай дизастера.
Это дисциплина у рядового юзера отсутствует, тем более навыки работы с такими тулами как testdisk, так что софт (стандартизованный, а не закрытые решения от многих компашек) для вендузятников - всё ещё остаётся нерешённой задачей. Чтобы гарантировать - что и через 100 лет - рядовой Вася сможет открыть фотки своих пра-пра-пра-внуков на любой системе.
Я решаю проблемы линуксом, NFS, rsync, скриптами и дисциплиной. И ZFS я не поставлю по нескольким причинам. Одна из них - testdisk не будет работать. Другая - не могу просто создавать резервные копии блоков - как сказано выше.

Так понятнее?

anonymous
()
Ответ на: комментарий от anonymous

нечего описывать. Домашняя файлопомойка. Но со временем для каждого человека - она становится всё важнее и важнее.

тогда Вам и «пары» dvd дисков вкупе с каталогом хватит :)

Но они - только в пользу моего аргумента против рейдов и в пользу rsync - как универсального средства.

тут Вы и допускаете ошибку... универсальное - оно только для Вас. :)

Насчёт гугловской архитектуры - полно линков, в том числе проскакивало на лоре. Поищите. Мне искать влом

трындеть не влом значит, а и искать влом :) распостранённая модель

Факт тот что они первыми перешли на коммодити хардваре и быструю дешёвую смену железа - когда надо.

а я вот сомневаюсь что факт... Вы просто не видите проблем такого решения, но это не значит что их нет

shty ★★★★★
()
Ответ на: комментарий от shty

> тогда Вам и "пары" dvd дисков вкупе с каталогом хватит :)

опять cd/dvd...
как поиск делать будем когда таких дисков сотни будет? Верифицировать периодически как? Моментальный доступ к любому файлу итд.

> тут Вы и допускаете ошибку... универсальное - оно только для Вас. :)

> трындеть не влом значит, а и искать влом :) распостранённая модель


я о себе и говорю. А трындеть начали как раз Вы.

Разрешите раскланяться (Вы правы: надо идти по-делам).

anonymous
()
Ответ на: комментарий от shty

и да... вот Вам маленький пример сегмента серверной фермы... фига-с два Вы там компактно расположите обычные тачки и аккуратно и надёжно разведёте питание и коммуникации

http://episteme.arstechnica.com/eve/forums/a/tpc/f/833003030931/m/762005710041

shty ★★★★★
()
Ответ на: комментарий от anonymous

тогда Вам и «пары» dvd дисков вкупе с каталогом хватит :)

опять cd/dvd... как поиск делать будем когда таких дисков сотни будет? Верифицировать периодически как? Моментальный доступ к любому файлу итд.

Вам сюда:

http://www.lighthdm.com/services_preservation_archive/archiving_data/archive_...

shty ★★★★★
()
Ответ на: комментарий от shty

хотя... нашёл про гугель...

http://www.codinghorror.com/blog/archives/000814.html

и правда надо быть гугелем, чтобы такое заработало...

и тем не менее плотность такого решения серьёзно сливает современным blade-системам, а так же усос идёт по энергопотреблению, back-up'у, надёжности и ещё чуть менее чем 9000 показателям :)

shty ★★★★★
()
Ответ на: комментарий от anonymous

Разрешите раскланяться

слив засчитан, удачи в делах :)

shty ★★★★★
()
Ответ на: комментарий от anonymous

>что и через 100 лет - рядовой Вася сможет открыть фотки своих пра-пра-пра-внуков на любой системе.

да ему ето нахер не надо. ты давно в семейный альбом заглядывал? я - лет 10 назад. а прикинь есть люди коих большинство, которые фоткают, выкладывают на какойнить фликр или вконтакт и через 3-4 месяца их совершенно не волнует что случилось с фоткой.

и таких большинство. никто не трясется над байтиками в домашнем архиве кроме тех кому трястись над байтиками положено и на работе. так понятно?

gigabito
()
Ответ на: комментарий от dimonb

>А факапы у гугля не частые и про потери данных никто не слыхивал ни разу.

а кто у кого слыхивал про потери данных? даже отечественный производитель вроде мейл.ру этим никогда не грешил. другое дело что гуглу это даётся не благодаря своей архитектуре а вопреки. с таким баблом как у них можно хоть на ееебоксах кластера вручную собирать % затрат от прибылей не сильно подымется. еще раз - чтоб работать как гугл, нужно быть гуглом.

кстате это еще имхо аукнется гуглу когда он устаканится. яху и даблклик тоже когда-то королями были.

gigabito
()
Ответ на: комментарий от dimonb

какое решение какому сливает — это еще посчитать надо

уже давно всё подсчитали... и бдлейд системы выигрывают по следующим позициям вчистую:

1) высокая плотность размещения серваков 4U - до 14 2-х процессорных машин; и никакого cable hell :)

2) управление системой; имеются штатное, вполне себе эффективное, ПО удалённого управления; смена сервака - дело 5 секунд, и никаких кабелей; заливка и развёртываение ОС из образа - 5 минут, штатными средствами; создание эффективных кластеров, т.к. до 14 систем могут быть объединены шиной по backbone с пропускной способностью как у ракеты и т.д.

3) эффективность использования энергии; меньше блоков питания и т.п. приводит к сниженному энергопотреблению, что есть существенный «+», т.к. меньше балба за электричество платить, меньше нагрузка на электросеть, а также, косвенно, улучшается проблема с охлаждением...

4) сравнительно низкая стоимость; серверный модуль стоит около 1500$; и это не какая-то там pc, а полноценный сервак с резервированием и горячей заменой;

+ ещё «тыщапитцот» пунктов...

и это не говоря о том что обычные тачки сливают, даже простым сервакам

shty ★★★★★
()
Ответ на: комментарий от gigabito

> а кто у кого слыхивал про потери данных? даже отечественный производитель вроде мейл.ру этим никогда не грешил. другое дело что гуглу это даётся не благодаря своей архитектуре а вопреки.

Ну вот к примеру проблемы в апреле 2007 года были у Z-Mail (почтовый хостинг Зенона). Одна из папок в моём почтовом ящике оказалась безвозвратно утрачена (впрочем, туда сыпалась почта от неизвестных мне адресатов, то есть самые ценные письма всё же должны были уцелеть). По их словам проблема затронула всего 0.2% почтовых ящиков. Не в курсе, какая там была система, но, если я правильно понял, то там любят Solaris и FreeBSD: http://www.host.ru/support/hosting-new/versions.html http://www.zenon.net/zip/zenon.pdf http://www.zenon.net/about/publications/0554.html http://www.zenon.net/documents/old/dedicated.html

askh ★★★★
()
Ответ на: комментарий от anonymous

>>Применении рейда для ускорения доступа - это совсем другая песня, там и другие типы рейдов нужны.
какие-такие другие? обычный рэйд1 на интенсивном чтении очень даже нужен.
>>Ленты это то-же зло - что и бекапирование на CD. Не масштабируемо, не знаешь - в каком состоянии архивы, переносишь головную боль на будущее и тд.

ололо, это как раз вы, со своим рсинком, не масштабируемы. не припомню ни у одного клиента, что б пользовали рсинк не по назначению.
и ленты это не только энтерпрайс, куда по вашему сливают бекапы, в так называемых, телеотелях? где сотни клиентских железок, и дисковых массивов там тоже много, только вот не для тех целей.
в догонку - ленты уже давно по 4гб фиберу умеют работать.
вопчем сдается мне, у вас в учебном заведении, недавно лекция была, на тему хранения информации...

EvgGad_303 ★★★★★
()
Ответ на: комментарий от shty

> уже давно всё подсчитали... и бдлейд системы выигрывают по следующим позициям вчистую


да Вы не понимаете - что самое страшное в супер-энтерпрайзе - это вендор-локи.
Компании типа гугла не могут не хотеть зохавать весь мир. И для них подписываясь на определённое вендорское решение - это как отдать процент акций. Потом те вендоры будут очень долго доить не по-децки.
Поэтому для гугла полагаться на ящики, которые будут выпускаться китаем скорее всего всегда, так как быдло-потребителям всегда нужны будут писюки, а следовательно их цена будет только уменьшаться - гораздо спокойнее, чем на сжимающийся рынок блейдов и быдлоэнтерпрайзов. Ради независимости - можно даже переплатить, поэтому даже не надо считать. Всё равно независимость будет предпочтительней.
Если не согласны - вспомним как популярны были солярки, хпуксы и аиксы совсем недавно - десять лет назад - даже для простеньких веб-серверков. И закрытые решения. И что на используется в 21 веке, и где теперь санки. Посмотрите highscalability.com справа - какова архитектура больших инсталляций. Всюду - горизонтальная масштабируемость, где многое даже на шиваплагах можно запустить: только добавляй машинки - когда не хватает, и убирай сгоревшие.
Вы случайно не продавец энтерпрайз-сольюшенов?


anonymous
()
Ответ на: комментарий от EvgGad_303

выше речь шла о лайф-тайм архивах. Опять Вы про то что видите вокруг себя. Не надо зацикливаться. Я и мейнфреймы вокруг себя иногда вижу в энтерпрайзе, который унаследовали с прошлого века. Что теперь - S/390 всюду, включая и на новые инсталляции, пихать?
А я вам - про будущее, потерев свой хрустальный шар, и немного эхтраполируя тенденции последних лет.

anonymous
()
Ответ на: комментарий от EvgGad_303

>ололо, это как раз вы, со своим рсинком, не масштабируемы. не припомню ни у одного клиента, что б пользовали рсинк не по назначению.
и ленты это не только энтерпрайс, куда по вашему сливают бекапы, в так называемых, телеотелях? где сотни клиентских железок, и дисковых массивов там тоже много, только вот не для тех целей.
в догонку - ленты уже давно по 4гб фиберу умеют работать.
вопчем сдается мне, у вас в учебном заведении, недавно лекция была, на тему хранения информации...

ок, храните всё на лентах, я не возражаю. Вспомните меня через 10 лет.

anonymous
()
Ответ на: комментарий от anonymous

Между прочим, помню подобные дискуссии каких-то ещё 8 лет назад относительно коммерческих юниксов, сольюшенов от вендоров vs Linux.
Да тот-же оффтопик как преуспел, когда везде были униксовые воркстейшены/тонкие клиенты. Он же был как раз тем самым дешёвым решением по сравнению с коммерческими юниксами и тогдашними вендор-локами. Создав со временем свой.
Сейчас гнутые проги и дешёвые железки - позволяют значительно удешевить уже в сравнении с оффтопиком, не говоря об энтерпрайз сольюшенах.
(и да, видел я шкафы от ибмов и санок. И в большинстве многое можно реализовать не хуже и значительно дешевле на базе линукса и простого железа. Зато без вендор-локов)

давайте спорить не будем, а подождём с пяток лет - и вернёмся сюда.

anonymous
()
Ответ на: комментарий от EvgGad_303

> рэйд - 2х затраты на диски(а ведь есть не только зеркало), рсинк - 2х затраты на систему целиком.

При больших объемах, стоимость стораджа в разы превосходит стоимость процессорной банки.

no-dashi ★★★★★
()
Ответ на: комментарий от anonymous

да Вы не понимаете - что самое страшное в супер-энтерпрайзе - это вендор-локи.

а, вот оно как... а я думал проср^Wпотерять бизнес... :)

Компании типа гугла не могут не хотеть зохавать весь мир. И для них подписываясь на определённое вендорское решение - это как отдать процент акций.

подпишись на 4 решения и не будет никакого вендор-лока :)

Потом те вендоры будут очень долго доить не по-децки.

бгггг... а в том решении которое изначально сделано при больших объёмах таких аппаратуры доишь сам себя, причём с гарантированно меньшей надёжностью, а если никакой разницы, зачем платить больше?

Поэтому для гугла полагаться на ящики, которые будут выпускаться китаем скорее всего всегда, так как быдло-потребителям всегда нужны будут писюки, а следовательно их цена будет только уменьшаться - гораздо спокойнее,

ага, так говорит человек никогда не видевший как микросхемы продают на вес :)

чем на сжимающийся рынок блейдов и быдлоэнтерпрайзов.

пруф иде?

И что на используется в 21 веке, и где теперь санки.

то что одна конкретная компания слила ещё ничего не доказывает... ibm, вон, мейнфреймы толкает и рада, аж от нотиков и компов избавилась

Посмотрите highscalability.com справа

while (true)
{ 
identify_and_fix_bottlenecks();
drink();
sleep();
notice_new_bottleneck();
}

http://highscalability.com/youtube-architecture

ага, скалабельно, уширь :)

Всюду - горизонтальная масштабируемость

не вполне понимаю как это связано с вендор локами кои мы обсуждаем

только добавляй машинки - когда не хватает, и убирай сгоревшие.

бггг... :) а управление зоопарком, а функционал поднимать, ручками? или велосипеды пилить?

Вы случайно не продавец энтерпрайз-сольюшенов?

не-а :) даже близко не стоял

и подводя черту: а ничего что такие «вендор локовые» решения используются много где? почему, как Вы думаете, это происходит?

короче в гуглях сидят параноики, такие как столлман, ток в другую степь

и да, набор тачек хорош ещё как-то для серверных ферм, но уже, к примеру, нормальную толстую БД Вы на них не запустите

shty ★★★★★
()
Ответ на: комментарий от shty

> при больших объёмах таких аппаратуры доишь сам себя, причём с гарантированно меньшей надёжностью

Коварный вопрос - есть две конфигурации, на которых крутятся пачками виртуальные машины. 1. 8 компактных независимых 4-ядерных машинок + разделяемый сторадж 2. Понтовый блейд-сервер на 16 блейдов, в каждом из которых по двухядернику + тот же разделяемый сторадж По деньгам выйдет примерно одинаково, но какое решение надежней? То, которое обеспечит минимальный даунтайм при произвольном отказе компонентов. Отказал любой узел - нагрузка может быть перекинута на другие, но у первого варианта изменение нагрузки менее заметно. Отказал сторадж - оба решения курят. Правда вот у блейд-сборки появляется один крайне важный компонент - собствено blaid rack. Отказал он - все блейды стоят и курят.

> а ничего что такие "вендор локовые" решения используются много где? почему, как Вы думаете, это происходит?

Ну, вариантов много, начиная с откатов, и заканчивая нежеланием разводить зоопарк, действуя по принципу "лучше два старых врага, чем один старый и один новый" :-) Но бывает и хуже - например, когда-то не было вариантов и выбрали IBM/Sun/HP/DEC. Написали кучу софта на ассемблере завязов его на специфические фичи и закрытые протоколы. И все - как бы ни хотелось слезть с иглы, а уже никак. Софтовая подвязка куда страшней чем хардварная (во втором случае можно всегда сменить вендора - цоколевка Ethernet, IP, SCSI, FC у всех одинаковая, а вот с софтом фигушки.

no-dashi ★★★★★
()
Ответ на: комментарий от shty

> бггг... :) а управление зоопарком, а функционал поднимать, ручками? или велосипеды пилить?

А что им управлять? Это кажущийся зоопарк - именно кажущийся, поскольку программная платформа одна. Вы в курсе, как в больших конторах "устанавливают" серверы на типовые объекты? Ага, либо клонированием, либо через скриптовый инсталл. И если софт надо доустановить/проапдейтить, накатывается автоматами. На все инсталяции. Там просто нет зоопарка.

no-dashi ★★★★★
()
Ответ на: комментарий от no-dashi

>А что им управлять? Это кажущийся зоопарк - именно кажущийся, поскольку программная платформа одна.

Вот-вот. К примеру снимок файловой системы ZFS с FreeBSD x86 можно легко перенести на какой-нибудь Sun Fire T2000 sparc64 и развернуть там. А с Btrfs это не получится, так как в ДНК этой "замечательной" ФС не прописан учёт порядка следования малых индейцев и больших индейцев! (Речь идёт о порядке байтов, принятых на архитектурах RISC и Intel: big-endian и little-endian, соответственно, для тех кто не понял шутку юмора).

iZEN ★★★★★
() автор топика
Ответ на: комментарий от no-dashi

Коварный вопрос - есть две конфигурации, на которых крутятся пачками виртуальные машины.

1. 8 компактных независимых 4-ядерных машинок + разделяемый сторадж

2. Понтовый блейд-сервер на 16 блейдов, в каждом из которых по двухядернику + тот же разделяемый сторадж По деньгам выйдет примерно одинаково, но какое решение надежней?

То, которое обеспечит минимальный даунтайм при произвольном отказе компонентов. Отказал любой узел - нагрузка может быть перекинута на другие, но у первого варианта изменение нагрузки менее заметно. Отказал сторадж - оба решения курят.

Правда вот у блейд-сборки появляется один крайне важный компонент - собствено blaid rack. Отказал он - все блейды стоят и курят.

конечно, Вы правы, и именно это называют в качестве single point of failure таких систем... только вот научились с этим бороться уже, сам blade rack - это железка, вряд-ли она сломается, далее вся его инфраструктура задублирована, далее 2 источника питания, 2 сети, 2 транспортные шины (backbone)... причём, всё может заменяться «на горячую», без остановки серваков...

начнём с конфигурации с 8 машинками

8 машинок займут от 4 до 8 юнитов в стойке (в зависимости от ловкости рук инсталлеров), потребуют 8 кабелей питания, 8 кабелей ethernet, 8 оптических кабелей для fiber channel корзины (SAS, как понимаете, в данной конфигурации не подойдёт)... если по минимуму, то вроде всё, и это только удалённое управление по ssh, никаких мониторов и клавиатур, если нужны + 8 толстых kvm кабелей :)

и в случае замены ноды вы отключаете от неё минимум 2 кабеля в неудобном положении

теперь про блейд

в случае blade-сервака у вас одна коробка из которой торчит 2 кабеля питания, 2 кабеля ethernet, 2 оптических кабеля к storage... всё? да, всё... причём все компоненты это задублированы, так что надёжность серьёзно выше чем для конфигурации из 8-ми машин... а замена: открыл замочек, вынул плату сервера и всё, никаких кабелей... развёртывание ПО осуществляется централизовано при помощи специализированного софта чуть ли не в автоматическом режиме... управление и мониторинг (аппаратные средства мониторинга состояния у серваков встроены, а как там с простыми тачками?) тоже централизованы

и при всём при том межсерверное взаимодействие осуществляется куда как эффективнее за счёт быстрого backbone

как Вас такой «рас клад»? :)

shty ★★★★★
()
Ответ на: комментарий от no-dashi

Написали кучу софта на ассемблере завязов его на специфические фичи и закрытые протоколы.

на самом деле эта проблема стоит для любой архитектуры... а для рынка PC, довольно быстро обновляющегося сильнее в 1000 раз... или не согласны?

Софтовая подвязка куда страшней чем хардварная (во втором случае можно всегда сменить вендора - цоколевка Ethernet, IP, SCSI, FC у всех одинаковая, а вот с софтом фигушки.

так мы про хардваре гутарим, не?

shty ★★★★★
()
Ответ на: комментарий от no-dashi

не совсем верно, стораджи редко используются для одного хоста, обычно речь, как минимум о сервисе, а потому в совокупности там примерно поровну, обычно.
и это все никак не отменяет того что я сказал про 2х затраты, следите на что отвечаете ;)

EvgGad_303 ★★★★★
()
Ответ на: комментарий от no-dashi

А что им управлять?

конечно, управление 1000 инсталляций особого затруднения не вызывает :) «сказочнег штоле»?

Это кажущийся зоопарк - именно кажущийся, поскольку программная платформа одна.

а вот фига-с два... по мере выхода из строя и замены как раз получается разношёрстный зоопарк...

и потом такие диалоги:

- Серёг, а у нас что в 18-й стройке стоит

- да фиг его знает я за неё не отвечаю...

- а кто её админил?

- Петро да Василий

Василий в отпуске, Петро уволился и хрен ты там без поллитра разберёшься :)

И если софт надо доустановить/проапдейтить, накатывается автоматами. На все инсталяции. Там просто нет зоопарка.

в теории всё тип-топ, на практике именно так на сервак с БД бухгалтерии накатывается свежая «венда» :)

shty ★★★★★
()
Ответ на: комментарий от anonymous

вы определитесь - о чем мы говорим...
то вы нам тут рассказываете про важные бабушкины фотографии и дипломную работу, которые вы рсинком чего-то там. то мы переходим на лайф-тайм архивы. кстати, не поясните о чем это вы?
>>А я вам - про будущее, потерев свой хрустальный шар

я конечно курю, но не до такой же степени =)

EvgGad_303 ★★★★★
()
Ответ на: комментарий от shty

>>2 кабеля ethernet, 2 оптических ... все?
ну тут вы погорячились, иногда необходимо на каждый блэйд по такому набору.
и + еще проводочек для lom, и не надо никаких квм =)

EvgGad_303 ★★★★★
()
Ответ на: комментарий от EvgGad_303

ну тут вы погорячились, иногда необходимо на каждый блэйд по такому набору.

это да, чёт на повороте занесло :)

но тем не менее, применение blade'ов ощутимо снижает количество кабелей в стойке за счёт server interconnect и питания :)

shty ★★★★★
()
Ответ на: комментарий от shty

ну как то так, только удаленная жизнь получается =)

EvgGad_303 ★★★★★
()
Ответ на: комментарий от shty

однако не всегда это возможно применить, но да, экономит место и нет головной боли с кучей проводов, которые надо еще и правильно развести, чтоб можно было на ходу из стойки вытащить =)

EvgGad_303 ★★★★★
()
Ответ на: комментарий от shty

> потребуют 8 кабелей питания, 8 кабелей ethernet, 8 оптических кабелей для fiber channel корзины (SAS, как понимаете, в данной конфигурации не подойдёт)... если по минимуму, то вроде всё, и это только удалённое управление по ssh, никаких мониторов и клавиатур, если нужны + 8 толстых kvm кабелей

Это все с задней стороны стойки, туда лазится редко, и этоn минус с лихвой компенсируется повышенной надежностью, повышенной апгрейдабельностью и полной взаимонесвязанностю нодов. Если у вас, труЪынтырпрайзера, китайский блок питания в блейдраке выдаст 60 вольт вместо 12 из-за огрехов пьяного китайского сборщика, у вас выжжет весь зоопарк, клиенты выжгут мозги вашему руководству, а оно вычистит задний проход вам :-) У меня, быдлоЛинупсоида, выгорит в этом раскладе одна нода. Раскидаю нагрузку по семи оставшимся и сяду дальше читать ЛОР.

no-dashi ★★★★★
()
Ответ на: комментарий от no-dashi

Если у вас, труЪынтырпрайзера, китайский блок питания в блейдраке выдаст 60 вольт вместо 12 из-за огрехов пьяного китайского сборщика,

вот, яркий пример человека который ничего не видел, но всё знает :)

1) это случается редко

2) у блока питания есть защита от таких штук

3) у меня выгорали блоки питания, было 1 или 2 раза... и что? и ничего.. второй работает, сгоревший вынимаем, ставим из зипа другой и всё работает.. и даже выключать не надо :)

Это все с задней стороны стойки, туда лазится редко

ну-ну... одного раза хватит, поверьте мне :)

и да, чтобы Вы знали, такая техника обычно тестируется гораздо тщательнее обычных персоналок... и на тех же ibm'ах я ни разу не видел погоревшее питалово... так что не ляля

shty ★★★★★
()
Ответ на: комментарий от shty

> это случается редко

Это случается

> у блока питания есть защита от таких штук

Ты точно уверен, что внутри блока питания никогда ничего не отвалится, и по шине по которой подается какие-нибудь 5 вольт не пойдет 127? Я в этом абсолютно не уверен, поскольку видел и еще не такие "приколы".

> и на тех же ibm'ах я ни разу не видел погоревшее питалово

А я видел погоревшие блоки питания на всех железках - HP, Dell, Sun, IBM.

> одного раза хватит, поверьте мне :)

Какие пугливые оказываются тут труЪ... Сегодня с утра слазил в стойку, нашпигованную одноюнитовыми железками. Это даже проще, чем написать шелловский скрипт. Честно.

> у меня выгорали блоки питания, было 1 или 2 раза

Предохранитель сгорел из-за того, что первичная обмотка коротнула? Так это не "выгорел". А если его сглючило так, что он по 24 вольта на всех выходящие провода выдал? :-)

> такая техника обычно тестируется гораздо тщательнее обычных персоналок.

... и собирается гораздо более тщательными гораздо более китайскими гораздо более рабочими в гораздо более китайском городе на гораздо более китайском брендовом заводе :-)

no-dashi ★★★★★
()
Ответ на: комментарий от no-dashi

>>А я видел погоревшие блоки питания на всех железках - HP, Dell, Sun, IBM.
а я не видел, именно так, как вы тут описываете. и даже если такое произойдет - есть такая штука, как pdb. ну и дополнительные стабилизаторы напряжения на системной плате.

EvgGad_303 ★★★★★
()
Ответ на: комментарий от no-dashi

> ... и собирается гораздо более тщательными гораздо более китайскими гораздо более рабочими в гораздо более китайском городе на гораздо более китайском брендовом заводе :-)

это точно :-)

аргументы "в блейдах меньше кабелей" -- это ммм... наверно болезнь такая, типа дислексии?

ну и плотность тоже не очень нужна -- предположив стоимость квадратного метра аж 25$ в месяц, на 1 юнит имеем 0.5$ в месяц, сомневаюсь, что блейды это окупят.

www_linux_org_ru ★★★★★
()
Ответ на: комментарий от www_linux_org_ru

> аргументы "в блейдах меньше кабелей" -- это ммм... наверно болезнь такая, типа дислексии?

Преимущества блейдов ещё и в том, что они банально дешевле (считали в прошлом году - к сожалению счастья не обломилось). Их единственная, но самая главная проблема в том, что крейт для блейдов стоит _дорого_. То есть размазать выделение денег на n компьтеров (где, например, n>20) тонким слоем во времени не получится.

Evgueni ★★★★★
()
Ответ на: комментарий от no-dashi

у блока питания есть защита от таких штук

Ты точно уверен, что внутри блока питания никогда ничего не отвалится, и по шине по которой подается какие-нибудь 5 вольт не пойдет 127? Я в этом абсолютно не уверен, поскольку видел и еще не такие «приколы».

уверены на 100% в чём либо только дураки... за себя скажу так: наблюдал парк из >50 серваков в разных конфигурациях и от разных производителей в разных условиях (географически распределены) в течении >5 лет и ни разу не видел ничего подобного... серваки работали 24/7...

и да, ни на одной конференции на которой я был такой вопрос ни у кого не поднимался, несмотря на то что вопросы к вендорам были порой весьма жёсткие

и на тех же ibm'ах я ни разу не видел погоревшее питалово

А я видел погоревшие блоки питания на всех железках - HP, Dell, Sun, IBM.

и?

А если его сглючило так, что он по 24 вольта на всех выходящие провода выдал? :-)

я такого не видел ни разу, а Вы?

такая техника обычно тестируется гораздо тщательнее обычных персоналок.

... и собирается гораздо более тщательными гораздо более китайскими гораздо более рабочими в гораздо более китайском городе на гораздо более китайском брендовом заводе :-)

по делу есть что сказать, мож пруфлинк какой есть, а газпром тут развели с китайскими миксинами

shty ★★★★★
()
Ответ на: комментарий от www_linux_org_ru

аргументы «в блейдах меньше кабелей» — это ммм... наверно болезнь такая, типа дислексии?

бггг... Вы хоть раз осуществляли монтаж серверного шкафа на 42U забитого доверху серваками и корзинками? думаю что нет, иначе вопросов бы не было :)

ну и плотность тоже не очень нужна — предположив стоимость квадратного метра аж 25$ в месяц,

да Вы батенька оптимист... серверная это не то что стоит у кого то под столом или в соседней комнате.. это помещение с охраной, определённым ТВР (тепло-влажностный режим), и отсутствием пыли... знаете сколько миллионов долларов стоит помещение, к примеру, у газпрома того же, или где-нить на биржах... так понятнее?

shty ★★★★★
()
Ответ на: комментарий от shty

> > А если его сглючило так, что он по 24 вольта на всех выходящие провода выдал? :-)

> я такого не видел ни разу, а Вы?

Я видел как выдало порядка 60 вольт на корпус. Видел как напрочь выжигало оборудование рядом свистнувшей молнией. Причем выгорают в таких раскладах как раз внешние компоненты - блоки питания, сетевые, видяшки. Догадаетесь, чем такие вещи заканчиваются, или и так понятно? Кто у вас в блейдовой сборке служит оконечником?

> наблюдал парк из >50 серваков в разных конфигурациях и от разных производителей

У меня в одном машзале было за четыре десятка серверов и активного сетевого оборудования, да и теперь в зоне досягаемости ненамного меньше. Горит все. И чем более "крутая" и "безотказная" по уверению производителя железка, тем больше у нее простой, когда она отказывает - причем, не "если" отказывает, а именно "когда" отказывает. Первое делят каталист шеститысяной серии - две недели непредсказуемых глюков, с финальным выносом гроба, и спаркой с ленточной библиотекой три недели простой - и потеря базы на сервере, а также бэкапов из-за глюка в роботе-библиотеке, с потерей данных за три месяца у компании с 60 тысячами сотрудников.

Именно поэтому я согласен с гуглем - большая система должна строиться из максимально простых кубиков, связанных друг с другом ровно в той мере, в какой это необходимо. И для любого из кубиков должна быть возможность исключить его из мозаики и заменить на что-то имеющееся под рукой в течение двух часов. Даже ночью во время ядерной войны.

no-dashi ★★★★★
()
Ответ на: комментарий от shty

> знаете сколько миллионов долларов стоит помещение

Я знаю сколько в них процентов откатов, и сколько попилено "посредниками" и "генеральными подрядчиками".

no-dashi ★★★★★
()
Ответ на: комментарий от shty

> это помещение с охраной, определённым ТВР (тепло-влажностный режим), и отсутствием пыли...

1. Охраняется здание а не серверная
2. Тепловой и влажностный режим это даже не смешно, на фоне стоимости оборудования - копейки. Знакомый владелец фирмы, которая занимается промышленным оборудованием для СКК. Точнее, это не копейки, но весьма незначительная доля
3. "Отсутствие пыли" при наличи расчитаной циркуляции воздуха и правильной политики контроля доступа достигается автоматически

no-dashi ★★★★★
()
Ответ на: комментарий от no-dashi

Я видел как выдало порядка 60 вольт на корпус. Видел как напрочь выжигало оборудование рядом свистнувшей молнией.

да, да, да... и восстали машины из пепла ядерной войны и пошли войной на человечество... :)

этот как же надо спроектировать здание/центр если рядом «свистит» молния? вообще-то везде ставят громоотводы и заземления, или нет?

Я видел как выдало порядка 60 вольт на корпус

В причинах разобрались? С чего так получилось?

И чем более «крутая» и «безотказная» по уверению производителя железка

Странные у Вас вендоры (как вариант дистрибьюторы). С теми с которыми я работал диалог был следующий: да, сломаться может всё, да иногда ломается, хотите чтоб надёжно было - резервируйте... и т.д.

И перечень мер всегда выбирался из расчёта достижения характеристик с учётом бюджета. И либо требования снижались, либо бюджет подростал. Всё просто.

Первое делят каталист шеститысяной серии - две недели непредсказуемых глюков, с финальным выносом гроба, и спаркой с ленточной библиотекой три недели простой - и потеря базы на сервере, а также бэкапов из-за глюка в роботе-библиотеке, с потерей данных за три месяца у компании с 60 тысячами сотрудников.

а тут что было?

Именно поэтому я согласен с гуглем - большая система должна строиться из максимально простых кубиков, связанных друг с другом ровно в той мере, в какой это необходимо.

это создаёт лишь иллюзию управляемости системы... на самом деле как только количество компонентов в системе зашкаливает за определённый порог человек теряет возможность нормально управлять системой, но остаётся чувство дескать я всё отрулить смогу, чувство ложное...

вот нифига не сможете, когда критический сбой произойдёт вся будут носиться как ошпаренные волки и друг другу мешать :)

единственный плюс: да, можно нанять админов подешевше :)

И для любого из кубиков должна быть возможность исключить его из мозаики и заменить на что-то имеющееся под рукой в течение двух часов. Даже ночью во время ядерной войны.

и снова восстали машины из пепла ядерной войны... :)

shty ★★★★★
()
Ответ на: комментарий от no-dashi

знаете сколько миллионов долларов стоит помещение

Я знаю сколько в них процентов откатов, и сколько попилено «посредниками» и «генеральными подрядчиками».

пруфлинк в студию

shty ★★★★★
()
Ответ на: комментарий от no-dashi

1. Охраняется здание а не серверная

у Вас может быть... но должны охраняться и здание и серверная

2. Тепловой и влажностный режим это даже не смешно, на фоне стоимости оборудования - копейки. Знакомый владелец фирмы, которая занимается промышленным оборудованием для СКК. Точнее, это не копейки, но весьма незначительная доля

Смотря какое оборудование... если надо поддерживать достаточно стабильную температуру в помещении - не так всё просто... и потом, воздушный поток может снять только определённое, не такое уж большое количество, киловатт рассеиваемой мощности, а дальше идут жидкостные системы охлаждения совсем за другие деньги :)

но в общем тут Вы правы, хотя и не копейки это, даже в сравнении

3. «Отсутствие пыли» при наличи расчитаной циркуляции воздуха и правильной политики контроля доступа достигается автоматически

неправда Ваша... пыль спокойно может лететь с потолка в трещинах и прочее... к тому же расчёт системы циркуляции воздуха тоже удовольствие не бесплатное... и да, по результатам такого расчёт может потребоваться реконструкция

shty ★★★★★
()
Ответ на: комментарий от shty

> вообще-то везде ставят громоотводы и заземления, или нет?

Ну представь себе например... Нууу... Большую крупный узел трубопроводного транспорта - трубы, резервуары, заземление... Ну и громоотводы. И таблички на них - "Если ты читаешь эту табличку во время грозы, похороны за твой счет"? :-)

> а тут что было

Не интересовался деталями. Я уже отбрехался от спарков к тому времени, поэтому покрутил пальцем у виска, когда они озвучили цифру "освоенных средств", и сказал "ну я же вам говорил!" когда случился пипец тамошние одмины рвали волосы на головах. В детали не вдавался, но контекст примерно таков - в софте управлявшем библиотекой был глючокс...

> когда критический сбой произойдёт вся будут носиться как ошпаренные волки и друг другу мешать

А ты в курсе, что в приличных местах есть регламент восстановления после всяких сбоев? "Если случилось событие С, сотрудник А делает то-то и вот это, сообщает тому-то и вот тому-то, затем делается вот так и вот таки, или так и эдак".

> хотите чтоб надёжно было - резервируйте...

А не жирно - блэйд рэк резервировать? Или там SunFire какой-нибудь восьмисокетный? Или ленточную библиотеку?

no-dashi ★★★★★
()
Ответ на: комментарий от no-dashi

Ну представь себе например... Нууу... Большую крупный узел трубопроводного транспорта - трубы, резервуары, заземление... Ну и громоотводы. И таблички на них - «Если ты читаешь эту табличку во время грозы, похороны за твой счет»? :-)

:LOL: и что где-то там в эпсилон-окрестности было оборудование?

контекст примерно таков - в софте управлявшем библиотекой был глючокс...

ну эт везде может случиться :)

А ты в курсе, что в приличных местах есть регламент восстановления после всяких сбоев?

конечно в курсе... только Вы, надеюсь, тоже в курсе что рано или поздно случается то, что регламентом не описано? :)

А не жирно - блэйд рэк резервировать?

ну blade работает обычно там где фермы нужны, типа обслуживания запросов и т.д. и в таких областях нафиг резервирование не нужно... максимум перекинет коннект на другой сервак и всё, а то и порвёт

Или там SunFire какой-нибудь восьмисокетный? Или ленточную библиотеку?

а вот это уже зависит от ценности данных... иногда стоит, иногда - нет... в основном всё определяется соотношением бюджета который готов потратить заказчик к ценности потенциально потерянных (как вариант восстановления) данных... и дальше что перевесит необходимость, жадность или ещё что :)

представьте что сервер контролирует (отсылка управляющих команд, сохранение некоторого набора параметров в БД) некий девайс за 10 млрд. руб., потеря управления более чем на полдня - потеря девайса... и тут уже считают что кому важнее, но обычно свою попу подставлять никому не охота - резервируют :)

shty ★★★★★
()
Ответ на: комментарий от shty

> у Вас может быть... но должны охраняться и здание и серверная

Здание под охраной - имелось ввиду нормальная охрана, с видеокамерами в коридорах, шлюзованием входа-выхода, индивидуальными картами-пропусками с определнными разрешенными зонами, индивидуальные сигналы на пульте охраны с важных помещений и тому подобное, а не студенты и бабка-вохровка на входе :-)

> неправда Ваша... пыль спокойно может лететь с потолка в трещинах и прочее...


А какой идиот будет делать "пылящие" потолки (да и полы, впрочем) в серверной???? Или у вас потолки в серверных известью белят? :-)

> к тому же расчёт системы циркуляции воздуха тоже удовольствие не бесплатное...


Ну не стоит начинать одно и то же опять :-) Я прекрасно знаю, что расчет циркуляции процесс не самый простой и не самый дешевый. Но это никак не "миллионы". Даже не миллионы рублей.

> > Я знаю сколько в них процентов откатов, и сколько попилено "посредниками" и "генеральными подрядчиками".


> пруфлинк в студию


Ну я же не буду диктофон включать в разговорах с заказчиками и консультантами?! Но "генеральный подрядчик" как правило отхапывает себе в зависимости от жадности 20-40%, еще 10-15% уходят в откаты. С субподрядчиков, в свою очередь, генподрядчик тоже берет откаты (ну, точнее, их береут менеджерики). Там конечно сумма поменьше, но тоже хватает. Это "русский бизнес", блин. Во время расчета бизнес-плана, мне открытым текстом сказали - ты в ИТ, так что смирись - вы можете быть сколь угодно хороши, но не будет отката - не будет контракта.

no-dashi ★★★★★
()
Ответ на: комментарий от no-dashi

Здание под охраной - имелось ввиду нормальная охрана

оке, такой вариант подходит :)

А какой идиот будет делать «пылящие» потолки (да и полы, впрочем) в серверной???? Или у вас потолки в серверных известью белят? :-)

есть ещё и не такие идиоты, особенно в регионах подальше, поверьте :)

Ну я же не буду диктофон включать

оке, покатит на пруфлинк :)

ну тут я сам выступал заказчиком, и я откатов не делал, так что есть ещё нормальные островки в море IT-беспредела :)

shty ★★★★★
()
Ответ на: комментарий от shty

> и что где-то там в эпсилон-окрестности было оборудование?

Не в эпсиплон-, а в дельта- :-) Шш-бааах-шшш... И пипец, половина портов свича в вечном оффлайне. Ну или как вариант, когда молния влетает в вышку, на которой стоит всякое беспроводное барахло, тоже весело. Заходишь ты значит в серверную, а там непривычно тихо - кондицинеры откинулись, симметра в шоке лампочками мыргает в истерике, что с одного входа питания нет а с другого не ток, а ХЗ что, запах паленого пластика... И жестянщики суетятся.

А на улице запах грозы, свежесть, ветерок... Романтика!

no-dashi ★★★★★
()
Ответ на: комментарий от shty

> бггг... Вы хоть раз осуществляли монтаж серверного шкафа на 42U забитого доверху серваками и корзинками? думаю что нет, иначе вопросов бы не было

Лично я монтаж не осуществлял, но на ММТС-9 бывал не раз и для меня вытаскивали одноюнитовый корпус из таких вот шкафов (а там кажется было все же 50U) и ставили обратно.

Так что ничего страшного в этих проводах не вижу. Приличненько так уложены по стоечками.

И еще не вижу принципиальной разницы: 100 проводов питания + 200 проводов сети или просто 200 проводов сети (для блейдов).

www_linux_org_ru ★★★★★
()
Ответ на: комментарий от www_linux_org_ru

ну когда ручками соберёте хотя бы одну стойку - поймёте...

Приличненько так уложены по стоечками.

вот этого весьма сложно добиться :)

shty ★★★★★
()
Ответ на: комментарий от shty

> бггг... Вы хоть раз осуществляли монтаж серверного шкафа на 42U забитого доверху серваками и корзинками? думаю что нет, иначе вопросов бы не было :)

Я конечно понимаю, что мой совет IT-шнику, болеющему проводобоязнью, может показаться жестоким, но все-таки: налейте в стакан коравалольчику и поищите в интернете фотки суперкомпьютеров. Вот уж где проводов так проводов!

www_linux_org_ru ★★★★★
()
Ответ на: комментарий от www_linux_org_ru

Я конечно понимаю, что мой совет IT-шнику, болеющему проводобоязнью, может показаться жестоким, но все-таки: налейте в стакан коравалольчику и поищите в интернете фотки суперкомпьютеров. Вот уж где проводов так проводов!

бггг... перечитайте тред... смысл не в наличии или отсутствии проводов, а в минимизации их количества это раз, и два - в исключении проводов при операциях с серверами (вытаскивание из стойки и т.п.), так яснее?

shty ★★★★★
()
Ответ на: комментарий от no-dashi

>>Я видел как выдало порядка 60 вольт на корпус. Видел как напрочь выжигало оборудование рядом свистнувшей молнией. Причем выгорают в таких раскладах как раз внешние компоненты - блоки питания, сетевые, видяшки.
Не верю! (с)
Вы лучше расскажите, где такое г№%"№ продается - на базаре, по евро за ведро? Только не надо рассказывать про брендовое железо...
Молния - хаха, вы совсем ничего не понимаете в устройстве датацентров. Заметьте - это уже не вопрос, это утверждение.

EvgGad_303 ★★★★★
()
Ответ на: комментарий от no-dashi

>>Ну представь себе например... Нууу... Большую крупный узел трубопроводного транспорта - трубы, резервуары, заземление... Ну и громоотводы.
это вы про домашний сервер в подвале рассказываете?

EvgGad_303 ★★★★★
()
Ответ на: комментарий от EvgGad_303

Фича мега-крута! я сам давно уже думал почему так никто не сделал. Наверно пришло время сказать: "прощай генту, здравствуй опенсолярис!"
Аргументы:
1. Уже несколько раз видел, когда в компаниях(даже сейчас работаю в такой) имеют девелоперские linux/unix сервера, где можно пособирать-позапускать-подебажить то, что написал. Соотвественно каждый юзер имеет свой хомяк, в котором зачекаучен проект(Ы) (а иногда и несколько его веток: типа транк, мейтененс, и какие-нибудь эксперементальные), соотвественно разница по большому счету между хомяками в файле .bashrc, .vimrc и нескольких строках кода в твоей версии кода. Кроме того когда заходит до сборки и деплоймента приложения (особенно в java где, есть ~/.m2, который у всех свой, и центральный мавен репозиторий может жить на том же сервере, а потом приложение собирается и все перекладывается в в target, а еще оно может деплоится на том же сервере - те же бинарники собсвенно). У нас так работает человек 50. Экономия будет в гигабайты. Разве что теперь размер свобного места на диске - величина, которая не значит ничего.
2. Насчет коллизий в хеше, это ж вам не мд5. А даже если говорить о полном сравнении блоков, то давайте сравним:
а)полное сравнение 2 блоков по сравнению с ЗАПИСЬЮ одного. в большинстве случаев 2 чтения - это быстрее чем одна запись.
б) я бы скаал, что не нужно сравнивать блоки полностью, сравнили начало - и достаточно, учитывая что коллизия и так явление достаточно редкое, но так чтобы при коллизии еще и входящий блок имел то же начало, это вообще (практически) невозможно. Т.е вычитать блоки прийдется полностью, а сравнить можно несколько точек в блоке. Даже если взять мд5, известный своими коллизиями, то попробуйте подобрать коллизию для мд5, так чтобы хотя бы первые 10 байт совпадало.
3. насчет целостности данных, что если полетел блок, имевший на себя 2 ссылки, то это как бы не проблема файловой системы, используйте рейд, господа.
4. Для домашнего пользования, если не девелопить дома - идея не нужная, мультимедия контент будет различным, но зфс вроде и не для дома придумали ))

harrier
()
Ответ на: комментарий от EvgGad_303

> Молния - хаха, вы совсем ничего не понимаете в устройстве датацентров

Ну, не всем обслуживать "датацентры" в которых хостятся вконтакты, аднакласники, фэйсбуки и тытрубы, где "пару запросво можно пропустить, остальные раскидать", некоторым приходится работать с более приземленных условиях - ну там на траспорте, в энергетике и прочих отраслях для быдла :-)

no-dashi ★★★★★
()
Ответ на: комментарий от no-dashi

но разговор то велся про датацентры или я чего то опять не понимаю =)
может это российские реалии, но у нас даже клиентские серверные оборудованы по полной.
и все равно не вяжется - молния в серверной. они на улице или к городской эл. линии напрямую подключены? =)

EvgGad_303 ★★★★★
()
Ответ на: комментарий от EvgGad_303

> молния в серверной. они на улице или к городской эл. линии напрямую подключены?

Ты хоть раз в жизни разряд хороший долгий разряд ближе километра видел? Пару секунд до удара и столько же после в воздухе треск стоит от статики, и все к чему подключены провода длиной более 5 метров, можно готовиться списывать. А не повезет - и трехметрового провода хватит.

no-dashi ★★★★★
()
Ответ на: комментарий от no-dashi

> Ты хоть раз в жизни разряд хороший долгий разряд ближе километра видел? Пару секунд до удара и столько же после в воздухе треск стоит от статики, и все к чему подключены провода длиной более 5 метров, можно готовиться списывать. А не повезет - и трехметрового провода хватит.

Ого. А что при этом делают громоотводы? Перекур устраивают?

Evgueni ★★★★★
()
Ответ на: комментарий от no-dashi

молодец, курс электротехники еще не забыт.
только как это относится к закрытому помещению? и громоотводы куда и зачем ставят?

EvgGad_303 ★★★★★
()
Ответ на: комментарий от EvgGad_303

> и громоотводы куда и зачем ставят?

Громоотвод защитит объект от прямого попадания нескольки мегаджоулей и состояния "сожен нафиг/расплавлен в лепешку/разорван на британский флаг".

Проблема в том, что от скачка напряженнности электрического поля это не спасет. Электронику сжигает не полния, сжигает статический разряд, а от него ты никуда не денешься - это примерно то же, что ЭМИ от ядерного взрыва, только на несколько порядков слабее. Но, как говорится, вода камень точит.

Ради интереса узнай в страховой количество страховых случаев по отказу оборудования вследствие грозы (если, конечно, тебе сообщат такие цифры, но что-то я сомневаюсь :-))

no-dashi ★★★★★
()
Ответ на: комментарий от no-dashi

Ради интереса узнай в страховой количество страховых случаев по отказу оборудования вследствие грозы (если, конечно, тебе сообщат такие цифры, но что-то я сомневаюсь :-))

Погодные явления == не страховой случай.

iZEN ★★★★★
() автор топика
Ответ на: комментарий от no-dashi

все это красиво расписано, только создается впечатление, что сервера находятся в открытом поле, на улице.
КАК в нормальную серверную попадет разряд? я не имею ввиду стойку в кабинете, который был незанят когда думали куда поставить.
я не знаю ни одного случая отказов оборудования в серверной по причине молнии.

EvgGad_303 ★★★★★
()
Ответ на: комментарий от iZEN

а это смотря как контракт заключается, можно и это туда включить, только это много дороже будет =)

EvgGad_303 ★★★★★
()
Ответ на: комментарий от iZEN

> Погодные явления == не страховой случай.

А вот фиг там. Каждый год страховые выплаты получаем

no-dashi ★★★★★
()
Ответ на: комментарий от EvgGad_303

> КАК в нормальную серверную попадет разряд?

Ты читать умеешь или нет? Сжигает СТАТИКА. Ближе 30 метров к громоотводу стоять страшно. Считается что безопасно, но все равно страшно - от разрядов кожу пощипывает.

no-dashi ★★★★★
()
Ответ на: комментарий от no-dashi

а ты головой думаешь или туда только кушать изволите?
стены там как, из папье-маше делают или куда?
и не надо мне тут учебник по электротехнике пересказывать.

EvgGad_303 ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.