Возник насущный вопрос: как разные http- и ftp-серверы решают проблему эффективного одновременного, последовательного для каждого отдельного файла, чтения большого числа файлов? Ведь скорость последовательного чтения у HDD может превосходить скорость произвольного доступа на 2 порядка и более, и если много клиентов одновременно запрашивают много файлов, то узким местом становится дисковая подсистема, а не сеть или CPU. Вместо сотен мегабайт в секунду получаются сотни килобайт. Мне интересно существует ли проверенное кросплатформенное решение для c++, которое бы организовывало эффективное кэширование и сериализацию чтения для такого случая? Идеи для собственного велосипеда имеются, но зачем его изобретать, если вдруг он уже есть? Стандартный ifstream как-то не очень справляется, особенно на оффтопике. Даже установка буфера в несколько мегабайт не помогает.
←
1
2
→
Ответ на:
комментарий
от peregrine
Ответ на:
комментарий
от asaw
Ответ на:
комментарий
от peregrine
Ответ на:
комментарий
от asaw
Ответ на:
комментарий
от AlexVR
Ответ на:
комментарий
от x905
Ответ на:
комментарий
от asaw
Ответ на:
комментарий
от xaizek
Ответ на:
комментарий
от asaw
Ответ на:
комментарий
от mix_mix
Ответ на:
комментарий
от cvv
Ответ на:
комментарий
от asaw
Ответ на:
комментарий
от cvv
Ответ на:
комментарий
от asaw
Ответ на:
комментарий
от cvv
Ответ на:
комментарий
от asaw
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.
Похожие темы
- Форум эффективное чтение? (2014)
- Форум Эффективность параллельных вычислений (2011)
- Форум Параллельное чтение с RAID1 (2009)
- Форум Контроль числа чтений сектора (2009)
- Форум Чем объясняется снижение эффективности параллельных вычислений (2017)
- Форум [C++] Остановить чтение файла из параллельного потока (2011)
- Форум Как оценить скорость параллельного чтения файлов? (2007)
- Форум одсчитать число операций чтения/записи с файлом (2006)
- Форум эффективность greylist (2013)
- Форум Эффективность процессоров (2013)