Добрый день. Возникла сейчас необходимость писать API, при запросе к которому необходимо выполнять некоторые тяжелые вычисления. На выполнение одного уходит где-то 20-40 секунд. После результат отправляется по другим каналам (или в БД). Что лучше для такого использовать? Понятно, что асинхронщина не вариант из-за CPU work. Потоки? Просто тут GIL. Как вариант, субпроцессы. По сути, работа - запуск стороннего bash скрипта и получение результатов от него, так что субпроцессы должны сработать хорошо. Может для такого какие очереди задач будут лучше? Подумываю насчет Celery.

Ответ на:
комментарий
от anonymous





Ответ на:
комментарий
от crarkie

Ответ на:
комментарий
от WitcherGeralt

Ответ на:
комментарий
от vvn_black


Ответ на:
комментарий
от crarkie



Ответ на:
комментарий
от WitcherGeralt

Ответ на:
комментарий
от Goury


Ответ на:
комментарий
от slovazap

Ответ на:
комментарий
от crarkie

Ответ на:
комментарий
от crarkie

Ответ на:
комментарий
от Goury

Ответ на:
комментарий
от hakavlad

Ответ на:
комментарий
от byko3y




Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.
Похожие темы
- Форум Qt и распараллеливание задач (2018)
- Форум Отношения потоков (2014)
- Форум Очереди и многопоточность в python (2012)
- Форум Как посмотреть список запросов MySQL во время «Too many connections»? (2017)
- Форум Помогите с декоратором (2016)
- Форум apache проблема: Очередь обработки скриптов php (2019)
- Форум Очереди задач, потоки, мультипроцессы. (2019)
- Форум Нужен аналог teleport pro, чтобы грабить корованы (2009)
- Форум Django+Postgresql репликации (2022)
- Форум fork/exec и взаимодействие процессов (2009)