При настройке поиска надо как-то оценивать результат. То есть, прогонять пачку эталонных запросов и смотреть, стало лучше или хуже. Меня интересует, насколько реально для подобного использовать траффик сайта.
1. С какого количества юзеров (поисковых запросов?) такое вообще начинает работать и выдавать полезный результат?
2. Какой интерфейс для этого делают? На память приходит только «х» рядом с результатами, чтобы убирать плохие.
3. Как учитывать что данные, по которым ищем, меняются?
Понятно, что можно заморозить базу, и посадить людей размечать за деньги. Но меня интересуют нанотехнологии, их сложность, и условия при которых они начинают работать.
Ответ на:
комментарий
от actionpattern
Ответ на:
комментарий
от r_asian
Ответ на:
комментарий
от r_asian
Ответ на:
комментарий
от r_asian
Ответ на:
комментарий
от genryRar
Ответ на:
комментарий
от Vit
Ответ на:
комментарий
от genryRar
Ответ на:
комментарий
от Vit
Ответ на:
комментарий
от genryRar
Ответ на:
комментарий
от Vit
Ответ на:
комментарий
от genryRar
Ответ на:
комментарий
от Vit
13 октября 2017 г.
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.
Похожие темы
- Форум Оценка качества кода (2017)
- Форум Оценка качества программных средств (2020)
- Форум Критерии оценки качества рефакторинга (2022)
- Форум ИИ для оценки качества квартиры (2023)
- Форум Mandrake RE Spring оценка качества (2002)
- Форум Оценка сайтов - PR checker (2012)
- Форум качество изготовления сайтов (2008)
- Форум Как использовать оценки в Clementine? (2012)
- Форум Оценка степени ненужности идеи сайта (2013)
- Новости Оценка реальной стоимости «100-долларовых» ноутбуков (2006)