Собственно уже несколько месяцев пытаюсь забороть систему распознавания речи от Nuance схватывать плавающие токены из нескольких концептов/правил. Пока использую robust parser с скомпилироваными fsm и wordlist для slm + обертку для грамматики. В данных для тренировки slm чуть более 1000 предложений. В концептсете 2 концепта/правила с примерно 100 токенами на каждый.
Есть ли на нашем уютненьком люди с историей успеха? Стоит ли пробовать от robust parser перейти к ssm?
P.S. slm - statistical language models; ssm - statistical semantic models.