Написал небольшой поисковичок на JS, который производит поиск по массиву строк, по регекспам, и заметил тормоза на слабом железе. Перекодировал в cp1251, тормоза исчезли. Может просто совпадение, хз, может алгоритм поиска кривой, но в данный момент меня интересует, на сколько (в процентах, в среднем) способна затормозить кодировка? И какая кодировка для нац алфавита оптимальна для парсинга и быстроты исполнения (ведь есть кроме cp1251 еще, например, ibm866, еще там какие-то)? Может имеет смысл вообще отказаться от UTF?
UPD Если чо, мне никакие спецсимволы и прочие извраты не нужны, парсится текст, содержащий только обычные символы алфавита знаки препинания и цифры