Техническая оптимизация сайта – советы бывалых
Техническая оптимизация сайта – это комплекс доработок технических аспектов сайта, главная цель которого устранение всех недочетов и оптимизация сайта для роботов поисковых систем.
Технические работы по сайту требуется проводить на самом первом этапе продвижения, даже предварительном. Для этого сначала проводиться технический аудит с целью обнаружения всех ошибок, которые затем устраняются специалистами. Если при аудите найдены все ошибки, и все они исправлены корректно, то такие работы достаточно провести единожды. Благодаря этому, сайт продвигать намного проще: загрузка работает быстро, сайт хорошо индексируется поисковыми системами, и нет никаких внешних препятствий.
Аспекты технической оптимизации сайта
Рассмотрим те моменты технической оптимизации сайта, которые необходимо оценить на корректность работы перед продвижением.
- Качественный хостинг и сервер. О критериях хорошего хостинга можно говорить много. Главное – чтобы он работал стабильно, и время ответа сервера было быстрым. Хорошо если у него будет «дружелюбная» поддержка и налаженная система бэкапов. Для больших сайтов, порталов или сайтов с большой посещаемостью важно постоянно мониторить нагрузку на сервер и стабильность его работы.
-
Настройка ответов сервера. Во время загрузки страницы посылается запрос серверу, который отвечает кодом статуса http и загружает или нет страницу. Основные статус коды:
- 200 – страница существует и корректно обрабатывается сервером
- 404 – страница не существует
- 503 – сервер недоступен
-
Устранение дублей страниц. Это, пожалуй, самая глобальная техническая проблема, которая встречается на большинстве сайтов. Из-за дублей страниц появляется несколько копий одной и той же информации и поисковой робот не может определить, какая из них наиболее релевантна, поэтому понижает в выдаче все. Целую отдельную статью можно написать о том, как найти и устранить дубликаты. Система управления сайтом, на которой чаще всего встречается данная проблема, Joomla. На ней нужно постоянно смотреть, чтобы дубли не генерировались автоматически. Основные виды дубликатов:
- Не настроенное главное зеркало: сайт доступен как по www так и без него
- Главная страница доступна по таким адресам как http://site.ru/index.php или http://site.ru/index.html и пр.
- Слэш в конце url адреса – нечеткие дубли
- Большой и малый регистр в url-адресе
-
Файлы robots.txt и sitemap.xml. Прописанные в данных файлах инструкции помогают поисковым роботам корректно индексировать сайт. Оба они должны находиться в корневой директории сайта. В файле robots.txt указывается, какие страницы и каким роботам индексировать не нужно, главное зеркало сайта и адрес xml карты, остальные инструкции используются редко. От индексации запрещаются обычно служебные разделы, поиск, страницы сортировки и пр.
Файл sitemap.xml используется реже. В нем указываются страницы сайта, их последнее время редакции и частота обновления. В целом, если навигация на сайте организована хорошо, то в нем нет необходимости – поисковой робот и так найдет все страницы. -
Оптимизация скорости загрузки сайта. Время загрузки сайта становится все более важным показателем ранжирования. Если сайт будет грузиться долгое время, то пользователь просто закроет страницу и вернется в выдачу для продолжения поиска. Это увеличит показатель отказов на сайте и снизит поведенческие характеристики. Основные моменты оптимизации скорости загрузки сайта следующие:
- Оптимизация графики. Смотрите на размер картинок перед загрузкой их на сайт. Чем они меньше, тем лучше. При этом качество должно сохраняться.
- Скрипты на javascript и flash пока не совсем корректно обрабатываются поисковыми роботами и нагружают сайт, поэтому чем их меньше, тем лучше. Многие вещи сейчас можно реализовать посредством css3. Используйте приоритетно программирование на php, чем подключение плагинов и модулей (больше касается сайтов на системах управления wordpress и joomla).
- Оптимизация css. С помощью сжатия кода css можно сократить объем загружаемых данных и ускорить их обработку.
- Оптимизация кода сайта. Этот пункт во многом перекликается с предыдущим, так как оптимизируя код, вы уменьшаете время загрузки сайта. К указанному выше также можно добавить кроссбраузерность кода и кроссплатформенность, а также его валидность и правильную кодировку. Проверить код на валидность можно с помощью сервиса validator.w3.org. Не ждите, что ошибок совсем не будет, так как не весь интернет еще понимает html5, но и слишком много их не должно быть.
Кроме перечисленных аспектов необходимо проверить также наличие битых ссылок на сайте, идентификаторов сессий в url и другую информацию. Найти все эти ошибки без специальных знаний, опыта или без изучения технической литературы будет затруднительно, а с исправлением всех ошибок дело еще сложнее. В нашей компании вы можете заказать технический аудит сайта и решение всех разрешимых проблем нашими специалистами. Услуга аудита предоставляется бесплатно в рамках продвижения сайта.
Звоните нам по телефонам или оставляйте заявку через форму на сайте!