Веб-аналитика: анализ информации о посетителях веб-сайтов - [15]

Шрифт
Интервал


Еще одной причиной передачи (тоже анонимно) идентификатора сеанса инструменту обзора является возможность сегментации наименее удовлетворенных клиентов на основании просмотра результатов деятельности. Затем, используя инструмент веб-аналитики, можно проанализировать данные посещаемости сайта и выявить страницы, которые просматривали удовлетворенные клиенты, в отличие от неудовлетворенных. Это позволит выяснить, какое впечатление о веб-сайте приводит к лучшему удовлетворению требований заказчика и т.д.

В мире, где глобальное аналитическое представление жестко ограничивалось использованием лишь инструмента веб-аналитики и данными анализа посещаемости сайта, среда Trinity сделала доступными данные, которые помогают правильно понять клиентов, а также позволяют отсечь и кристаллизовать информацию, чтобы получить целостное понимание. Результатом будет скорое удовлетворение запросов клиентов и повышение доходов компании. (Аналитики тоже будут счастливы, поскольку они наконец получат средства решения проблем анализа качественных и количественных данных сеансов — как прекрасно!)

Среда Trinity применима к любому виду веб-бизнеса: электронной торговле, поддержке, безопасности, некоммерческой деятельности, мелкому бизнесу и т.д. Более подробная информация о применении Trinity в бизнесе приведена в главе 6, “Месяц 1. Подробнее об основных концепциях веб-аналитики”.

Глава 2. Сбор данных — важность и возможности

GIGO (Garbage In, Garbage Out - “мусор на входе -мусор на выходе”[5]) был одним из самых ранних акронимов, появившихся в области PC. Качество на выходе было неразрывно связано с качеством на входе. С тех пор компьютеры стали намного интеллектуальней и иногда способны сделать нечто умное даже с мусором на входе, но чтобы получить нечто полезное, лучше на входе мусора не иметь.

С точки зрения вебаналитики эра GIGO все еще продолжается. Это связано с тем, что данная область деятельности очень молода, ее механизмы сбора данных все еще в состоянии становления, поскольку пытаются угнаться за темпами изменения самого веб и постоянно совершенствующимся опытом сетевого клиента.

В этой главе рассматриваются различные способы сбора данных, необходимых практику веб-аналитики, и различных параметров, подлежащих учету. Существует четыре основные группы данных, которые предстоит обсудить: анализ посещаемости сайта, результаты деятельности, исследование (качественное) и конкурентные данные.

Концепция ландшафта данных

В веб-аналитике, возможно, как ни в какой другой области деятельности сбор данных имеет первостепенное значение. Реализуя их эффективную стратегию, необходимо учитывать несколько важных элементов.

• Существует множество способов получения информации о взаимодействии клиента с веб-сайтами. Есть файлы веб-журнала, веб-маяки (web beacon), дескрипторы JavaScript и анализаторы пакета (packet sniffer). Некоторое передовое программное обеспечение электронной торговли, например от компании ATG, может также задействовать для сбора данных о важных деловых событиях встроенные механизмы, такие как регистрация событий.

• Ряд механизмов сбора данных используют принцип “откажись, и пожалеешь” (пропусти дескриптор JavaScript на странице, и данные пропали).

• Большинство средств от ведущих производителей требуют предварительного, обдуманного, явного выбора показателей, данные о которых необходимо собрать. Если не получить данных заранее, сделать анализ будет невозможно. Предположим, например, что запущен инструмент аналитики. После просмотра первых отчетов оказывается, что необходим иной сектор или представление всех данных страницы в другой иерархии, иначе ничего не получится. Лишь пара производителей обеспечивают реальный анализ (сегментация уже после сбора данных, даже если не все ее переменные были определены заранее), а большинство такой возможности не предоставляет.

• Иногда требуется несколько методов сбора данных. Например, для сбора данных о поведении веб-сайта можно использовать дескрипторы JavaScript, что ныне уже практически стандартизировано. Но при необходимости проанализировать поведение роботов на веб-сайте понадобится доступ к веб-журналам, поскольку роботы поисковых систем не запускают сценарии JavaScript, а следовательно, не оставляют следов в обычном источнике данных.

• Для выработки эффективных решений могут понадобиться и другие источники данных: сведения о результативности веб-сайта (чтобы измерить реальную успешность), различные типы качественных данных, включая опросы или исследование применимости, необходимое для понимания поведения клиента, а также информация из других источников компании, включая систему CRM и систему планирования ресурсов предприятия (Enterprise Resource Planning — ERP).

• Любая серьезная программа веб-аналитики собирает и использует конкурентные данные об эффективности в данном разделе отрасли или о конкурентах и даже данные о собственной эффективности, как бы взгляд извне, а не изнутри компании.

• И наконец, но не в последнюю очередь, — приватность. По мере установки механизмов сбора данных этот вопрос приобретает первостепенную важность. Следует удостовериться в совершенно четком понимании значения фиксируемых веб-данных. Клиентам необходимо ясно и доступно объяснить, какие именно данные фиксируются. Нужно быть предельно осторожным, нельзя собирать