Веб-аналитика: анализ информации о посетителях веб-сайтов - [53]

Шрифт
Интервал

• По крайней мере, была создана основная группа людей, которые уже знают, что такое веб-аналитика и каковы ее сильные и слабые стороны.

Группа информационных технологий. Они узнали, что внедрить инструмент веб-анализа очень просто, для дескриптора JavaScript, например, достаточно скопировать, вставить и сохранить.

Разработчики веб-сайта. Они изучили все мелочи предоставления данных, которые критически важны для принятия бизнес-мер, — параметры, которые следует добавлять в URL, имена страниц, которые нужно модифицировать, дублирование ссылок на страницах, чтобы их можно было отслеживать, и т.д.

Создатели отчетов. Они узнали, что веб-аналитика — это не столько написание отчетов, сколько анализ, при этом рекомендуется заняться саморазвитием для успешного перехода на следующий уровень.

Веб-аналитики. Они выяснили, что для поиска ответа можно использовать любой инструмент, поскольку они — аналитики и, безусловно, любят свою работу.

Маркетологи. Чудес не бывает. Маркетинговая кампания должна проявлять предусмотрительность и координировать мероприятия с разработчиками веб-сайта и аналитиками, чтобы они потом могли отследить различные факторы. Они также узнали, что инструмент веб-анализа не будет им делать ни кофе, ни массаж.

Бизнес-руководители. Они узнали, обладают ли их сотрудники достаточной квалификацией и имеются ли пробелы в их процессах. Они убедились, что реальную цену веб-аналитики составляют не инструменты, а люди (вспомните правило 10/90).

• Был выбран наилучший инструмент для данной компании, причем сознательно, а небольшие сложности аналитики компания может решить и в процессе.


Понятие качества данных о посещаемости сайта

В главе 2, “Сбор данных — важность и возможности”, начался разговор о принципе GIGO: мусор на входе - мусор на выходе (Garbage In, Garbage Out). Важно выбрать такую методику сбора данных, которая бы наилучшим образом подходила для конкретных потребностей, а также удостовериться в правильности ее реализации. Но, вероятно, нет никакого другого фактора, настолько отравляющего жизнь веб-аналитика, как качество данных. Уникальная проблема сбора веб-данных частично заключается в следующем.

• Веб-сайт постоянно развивается.

• Технология постоянно изменяется.

• Большинство методик анализа посещаемости сайта, приведенных в главе 2, не обладают устойчивостью к ошибкам (например, не все пользователи разрешают выполнение кода JavaScript, веб-журналы не регистрируют просмотр кешированных страниц, маяки собирают мало данных и могут легко быть повреждены удалением файлов cookie).

• Каждый производитель разработал собственные “оптимизированные” методики сбора и обработки данных.

• Пользователи применяют для веб-просмотра множество разных систем (браузеры, модификации, расширения и т.д.).

• Данные, собираемые по всему миру веб, получаются разрозненными и требующими объединения.

• Для отслеживания личности приходится полагаться на такие “хрупкие” вещи, как файлы cookie. Однако они отслеживают только такие браузеры, как Microsoft Internet Explorer, Firefox от Mozilla или Safari от Apple, а не людей.

• Индивидуальный брандмауэр, система защиты и антишпионское программное обеспечение надежно блокируют усилия по точному сбору данных.

Все это происходит в результате применения нестандартных систем, которые не способствуют сбору данных. Добавьте сюда другие каналы, например телефон и розничную продажу. Существует несколько различных средств контроля качества данных, которые совместно помогают компании выработать некоторый стандарт. Но для веб все не так. Результат всех проблем сказывается на качестве данных следующим образом.

• Ничто не кажется связанным с чем-нибудь еще.

• При каждом получении отчета цифры изменяются, особенно со временем (даже недавнем).

• Очень трудно, если не сказать почти невозможно, отследить людей, даже с учетом того, что их политика безопасности разрешает это.

• При смене исполнителя весьма проблематично получить данные прежнего исполнителя, чтобы сопоставить их с данными нового.

• В зависимости от используемого метода приходится постоянно находиться в состоянии обучения и настройки решения, чтобы получать правильные данные (добавляя новых роботов, логику или фильтры для исключения “плохих” данных из журналов или поддержания синхронизации страниц со структурой URL сайта при изменениях).

• Зачастую для получения значений используется выборка данных (причем не выборка при помещении дескриптора на некоторых высококлассных страницах вебсайта, а выборка, осуществляемая статистически, как при выборе фиксируемых данных сеанса для быстрого получения числа для отчета).

• Неожиданные нововведения могут создать проблемы измерения для существующих инструментов (подразумеваются роботы предвыборки данных, Ajax, Adobe Flex и RSS).

Всего этого достаточно, чтобы вызвать головную боль. Даже если, подобно сознательным белкам, аналитики крутятся в своих колесах и пытаются добиться успеха, ничто этого не гарантирует.

Но в жизни есть один факт, который не собирается изменяться на протяжении времен: качество данных в Интернете абсолютно непредсказуемо.