Судя по https://wiki.archlinux.org/title/Speech_dispatcher тот же piper-tts интегрируется модулем из скрипта. Пробую по-разному, например echo "привет мир" > vosk-tts -n vosk-model-tts-ru-0.7-multi -s 2 --output /…123.wav
послать текст извне, но ему подавай -i "привет мир"
в виде параметра, всякие "$DATA"
в нём игнорируя. Если ничего не завести из вне, то ни не как его и не «интегрировать»…
Вот весь его help:
vosk-tts --help
usage: vosk-tts [-h] [--model MODEL] [--list-models] [--list-languages] [--model-name MODEL_NAME] [--lang LANG] [--input INPUT] [--speaker SPEAKER]
[--speech-rate SPEECH_RATE] [--output OUTPUT] [--log-level LOG_LEVEL]
Synthesize input
options:
-h, --help show this help message and exit
--model, -m MODEL model path
--list-models list available models
--list-languages list available languages
--model-name, -n MODEL_NAME
select model by name
--lang, -l LANG select model by language
--input, -i INPUT input string
--speaker, -s SPEAKER
speaker id for multispeaker model
--speech-rate, -r SPEECH_RATE
speech rate of the synthesis
--output, -o OUTPUT optional output filename path
--log-level LOG_LEVEL
ps На логичное «почему не piper-tts» — оно не устанавливается из-за ошибок с пакетами — это висит в гитхабе уже более года. И более года он не обновлялся вообще. Уже и через расширение Read Aloud для фф оно не работает…