LINUX.ORG.RU

История изменений

Исправление Obey-Kun, (текущая версия) :

У тебя же заведомо известна периодичность поступления отсчётов, ты знаешь что у тебя в месяц будет поступать 2.3Гб данных (если 900 байт, а не значений, как ты написал, в секунду) - т.е. можно тупо создавать на свежеотформатированном винте (чтобы данные лежали последовательно) помесячные файлы и при запросе данных высчитавать смещение и размер блока, который нужно отдать клиенту.-

Каждая сейсмостанция отправляет по 50 значений вектора ускорения в полсекунды. Так как вектор задаётся тремя значениями (данные поступают с датчиков по X, Y и Z), а станций на объекте 3, то каждые полсекунды на объекте получается 50*50*3 = 450 значений. Т.е. с трёх сеймостанций поступает 900 значений в секунду.

Каждое значение до обработки занимает 3 байта (3-байтовое целое). После обработки (перевода из целого в передаваемый к АЦП вольтаж и после применения калибровочных коэффициентов датчика) — 8 байт (double). Итого с трёх сейсмостанций поступает 7 КиБ/сек. Это чуть менее 600 МиБ в день или около 18 ГиБ в месяц.

Помимо этого, из значений ускорения программой мат. обработки считаются скорости и перемещения. Итого на одном объекте получается чуть менее 55 ГиБ данных (ускорений, скоростей, перемещений) в месяц.

В целом, возможно, действительно лучше складировать данные в файлы. Вероятно, с каким-то сжатием, ведь 55 ГиБ/месяц — нормально для одного объекта, но когда объектов станет 20, то на серверах хранения будет уходить 15*20 = 600 ГиБ/месяц — это уже многовато, хардами не запасёшься.

Вообще сказать, я всё же склоняюсь в использованию SciDB. Она ведь хорошо заточена под запись огромной кучи time-series и при этом поддерживает компрессию. Плюс, вероятно, будет удобно реализовывать всяческую мат. статистику (предсказание землетрясений, определение эпицентра произошедшего землетрясения и пр).

Плюс этот комплекс можно будет легко использовать для микросейсмики: http://trac.scidb.org/raw-attachment/wiki/UseCases/seismic-use_case_scidb.pdf.

Исходная версия Obey-Kun, :

У тебя же заведомо известна периодичность поступления отсчётов, ты знаешь что у тебя в месяц будет поступать 2.3Гб данных (если 900 байт, а не значений, как ты написал, в секунду) - т.е. можно тупо создавать на свежеотформатированном винте (чтобы данные лежали последовательно) помесячные файлы и при запросе данных высчитавать смещение и размер блока, который нужно отдать клиенту.-

Каждая сейсмостанция отправляет по 50 значений вектора ускорения в полсекунды. Так как вектор задаётся тремя значениями (данные поступают с датчиков по X, Y и Z), а станцией 3, то каждые полсекунды получается 50*50*3 = 450 значений. Т.е. с трёх сеймостанций поступает 900 значений в секунду.

Каждое значение до обработки занимает 3 байта (3-байтовое целое). После обработки (перевода из целого в передаваемый к АЦП вольтаж и после применения калибровочных коэффициентов датчика) — 8 байт (double). Итого с трёх сейсмостанций поступает 7 КиБ/сек. Это чуть менее 600 МиБ в день или около 18 ГиБ в месяц.

Помимо этого, из значений ускорения программой мат. обработки считаются скорости и перемещения. Итого на одном объекте получается чуть менее 55 ГиБ данных (ускорений, скоростей, перемещений) в месяц.

В целом, возможно, действительно лучше складировать данные в файлы. Вероятно, с каким-то сжатием, ведь 55 ГиБ/месяц — нормально для одного объекта, но когда объектов станет 20, то на серверах хранения будет уходить 15*20 = 600 ГиБ/месяц — это уже многовато, хардами не запасёшься.

Вообще сказать, я всё же склоняюсь в использованию SciDB. Она ведь хорошо заточена под запись огромной кучи time-series и при этом поддерживает компрессию. Плюс, вероятно, будет удобно реализовывать всяческую мат. статистику (предсказание землетрясений, определение эпицентра произошедшего землетрясения и пр).

Плюс этот комплекс можно будет легко использовать для микросейсмики: http://trac.scidb.org/raw-attachment/wiki/UseCases/seismic-use_case_scidb.pdf.