Как сочетать в одном проекте два разных подхода? Например, делаю на основе Dojo, где почти всё на AJAX, но одновременно хочу, чтобы роботы смотрели и индексировали, т.е. был доступ через поисковики. Но ведь роботы не умеют JavaScript? или умеют? Не придётся ли делать отдельный заход для поисковых систем? Посоветуйте что-нибудь почитать об этом концептуально.







22 ноября 2014 г.
Ответ на:
комментарий
от metrokto


Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.
Похожие темы
- Форум Бывшие сотрудники Google создали свой поисковик (2008)
- Форум Предоставление доступа к отдельному элементу страницы, которая подгружает данные по AJAX (2014)
- Форум Поиск HTML-редактора (2008)
- Галерея WEB 2.0 USB-Ламинатор (2014)
- Форум [быдло][vkontakte.ru] Поиск 2.0 (2009)
- Форум Поиск страниц по их html (2013)
- Форум [поиск] xsltproc только XSLT 2.0 (2011)
- Форум [Поиск] Web редактор схем сети (2011)
- Форум [web 2.0]Креативная страница 404 (2011)
- Форум Самые нелепые сайты Web 2.0 (2008)