Веб-аналитика: анализ информации о посетителях веб-сайтов - [16]
Все приведенные выше аргументы должны убедить вас в том, что для успешного выбора средств информации следует учитывать множество факторов. Вместо того чтобы начинать сбор головоломки по оптимальному внедрению веб-аналитики со сложных запросов предложений (Request For Proposal — RFP) или с выбора подходящих исполнителей, автор рекомендует потратить время на исследование сложностей и нюансов сбора данных (параметры, методики), а уже на основании результатов исследований выбирать и исполнителя, и платформу, и все остальное.
Правильно отобрав собираемые данные, вполне можно ошибиться с исполнителем. Обратного почти никогда не случается.
Если вы читаете эту книгу, то, вероятно, уже используете данные анализа посещаемости сайта или же просто тонете в них. Это основа всего, что мы делаем в нашей небольшой экологической нише. Это восхитительно сложно, всегда изменчиво и полно таинственных обстоятельств.
Существует четыре основных способа фиксации данных анализа посещаемости сайта: веб-журналы, веб-маяки, дескрипторы JavaScript и анализ пакетов.
Вебжурналы (Web log) были первоначальным источником для сбора данных на заре веб. Изначально они задумывались лишь для фиксации информации об ошибках на веб-серверах, но со временем были “расширены”, чтобы фиксировать большее количество данных, применимых и для аналитических потребностей. Так из чисто технического средства они превратились в том числе и в маркетинговое.
На рис. 2.1 приведен пример схемы фиксации данных в веб-журналах.
Рис. 2.1. Как веб-журналы фиксируют данные
Процесс сбора протекает следующим образом:
1. Клиент вводит URL в браузере.
2. Запрос страницы поступает на один из веб-серверов (типичный коммерческий вебсайт размещается на кластере веб-серверов, каждый из которых способен предоставлять страницы).
3. Веб-сервер принимает запрос и создает в веб-журнале запись об этом (типичный элемент фиксируемых данных включает имя страницы, IP-адрес, тип браузера клиента, а также дату и время).
4. Веб-сервер посылает страницу клиенту.
Как правило, веб-журналы снимают с сервера по расписанию (обычно ночью). Их можно передать стандартному инструменту анализа журнала или инструменту веб-анализа, чтобы получить типичные отчеты.
• Веб-журналы, — вероятно, наиболее легкодоступный источник информации. Каждый веб-сервер обладает простым встроенным механизмом сбора данных и создания веб-журнала. Данные собираются независимо от того, используются они или нет.
• Ныне предоставляется множество бесплатных анализаторов файлов журналов, так что без проблем можно не только получить данные, но и оперативно приступить к созданию простых отчетов.
• Веб-журналы — единственный механизм сбора данных, способный фиксировать и хранить информацию о посещениях и поведении роботов поисковых систем на веб-сайте. Последние не выполняют дескрипторы JavaScript, а следовательно, не оставляют никаких следов для других механизмов сбора данных. Так, при необходимости проанализировать посещения роботами таких поисковых систем, как Google, MSN (Microsoft Network — сеть Microsoft), Yahoo и других, чтобы удостовериться в просмотре и правильности индексирования ими веб-сайта, придется использовать веб-журналы.
• При использовании веб-журналов данными располагает сам владелец веб-сайта. При большинстве других методик информацию будет фиксировать, обрабатывать и хранить исполнитель веб-анализа (web analytics vendor), под которым обычно подразумевают провайдера служб приложений (Application Service Provider — ASP). Веб-журналами владеет хозяин сайта, он же хранит их; это позволяет без проблем сменить исполнителя веб-анализа, перепроверить данные самостоятельно, а также при необходимости вернуться к прежним данным и обработать их новым инструментом.
• Веб-журналы прежде всего предназначены для фиксации технической информации (ошибок 404, тенденций использования сервера, типов браузера и т.д.). Они не оптимальны для сбора деловой или маркетинговой информации.
• При необходимости фиксировать дополнительную маркетинговую и коммерческую информацию потребуется плотное взаимодействие с группой информационных технологий и полная зависимость от нее. Это несколько сложнее, чем у других механизмов сбора данных, так что переход на них оправдан.