Привет,
у меня следующая задача. Я собираю данные, которые я должен отпарсить, обработать и нарисовать график. Парсинг я делаю регулярным выражением, обработка, на данный момент, состоит в разбитии массива данных на несколько категорий, для которых я считаю среднее, среднеквадратичное отклонение, кумулятивную сумму (cumsum). Но возможно, что понадобятся и другие функции.
Раньше я слышал, что для обработки статистических данных R — очень крутая штука. Поэтому первым, что я попробовал, был скрипт на R.
Но кроме того у меня есть скрипт на python, который занимается сбором неотфильтрованных данных. Поэтому, для удобства предачи данных от «сборщика» к «обработчику» я тоже решил работать с python. И переписал R-скрипт на питон, с использованием rpy2.
Использование rpy2 очень похоже на использование R. Разве что в rpy2 вместо использования синтаксических конструкций R, используются обычные функции. В целом код получается более многословным, чем в R. К тому же чувствуется, что ты пишешь не на питоне, поэтому постоянно приходится обращаться к документации по R, чтобы сделать вещи, которые в python я уже могу делать.
Поэтому я думаю над тем, чтобы перейти на что-то третье. Например, python+numpy. Но в качестве вариантов я еще слышал генерацию данных в python, с последующей визуализацией в R или TikZ.
И вот хочу спросить, что используете в таких случаях вы? И какие преимущества и недостатки вы видите в вашем подходе?