Коллеги попросили опубликовать среди профильной аудитории
---
В Сколковский институт науки и техники в центр вычислительной биомедицины для проекта по сбору и обработке медицинских данных требуется Hadoop & Spark разработчик.
Мы находимся в самом начале очень амбициозного проекта. Его цель - создать систему, собирающую обезличенные данные со всего медицинского оборудования в нескольких больницах, для последующего анализа учеными. Мы уверены, что применив крутые алгоритмы машинного обучения, сможем найти закономерности, которые раньше были скрыты из-за маленького объема доступных данных.
За первые два года работы мы планируем загрузить больше петабайта данных на наш Hadoop кластер.
Для того, чтобы наши запросы не выполнялись месяцами, мы ищем человека, который понимает, как работают Hadoop и Spark, и готов активно делиться этим знанием со своими коллегами - учеными. И поможет им разработать софт который будет быстро работать с таким объемом данных.
Обязанности
- Разработка научного ПО под Hadoop&Spark
- Помощь в освоении Hadoop&Spark учеными, сотрудниками лаборатории
- Оптимизация разрабатываемого в лаборатории кода
- Поиск и адаптация программ, разработанных другими биоинформатическими лабораториями под Hadoop, пригодных для наших нужд
Требования
- Отличное понимание принципов работы Hadoop и Spark
- Хорошее представление об экосистеме Hadoop в целом и областях применения отдельных инструментов в частности
- Опыт программирования на Java&Python
- Опыт написания MapReduce и Spark программ на Java&Python
- Желателен опыт работы с Avro|Parquet
- Желание разбираться в существующих биоинформатических пайпланах с целью их переноса на Hadoop&Spark
- Желание экспериментировать
Условия
- Полная занятость
- Трудоустройство по договору подряда
- Офис на территории технопарка Сколково
- Возможна удаленная работа
- ЗП 100 - 160к
- Стол, стул, Макбук и 4K монитор
---
От себя добавлю, что компания людей, с которыми предстоит работать, приятнейшие люди ну и просто топовые ученые с публикациями вплоть до Nature.