Приветствую!
Вопрос такой. А какие есть интересные области применения Apache Spark?
Ну, там обработка огромных логов с выискиванием закономерностей или обработка все приходящей информации с датчиков в поисках тех же зависимостей, что подразумевает, во-первых, большие данные (big data), а во-вторых, машинное обучение (machine learning). Еще можно придумать обработку в режиме реального времени каких-нибудь постов с twitter через streaming. Можно еще обрабатывать огромные распределенные графы, пытаясь уловить связи для какой-нибудь социальной сети. Только как-то это все несерьезно, что ли.
А что еще может быть интересного и полезного? Модная технология, только и слышишь везде big data почти также часто как про какие-нибудь микросервисы, но для чего это все может быть нужно? Добавьте ноток оптимизма, а то скепсис один остался!