Веб-аналитика: анализ информации о посетителях веб-сайтов - [7]

Шрифт
Интервал

(referrer) (веб-сайт или страница, с которой сделан запрос), IP-адрес, идентификатор браузера, операционной системы и т.д. Дело пошло интересней, поскольку теперь вы уже знали нечто об обстоятельствах обращения.

По мере того как файлы журнала увеличивались в размерах и их данными стали интересоваться и гуманитарии, программисты написали первый сценарий, который автоматически анализировал файлы журнала и выдавал элементарные показатели (рис. 1.1). Так была официально рождена веб-аналитика.


Рис. 1.1. Пример отчета приложения Analog версии 0.9 бета


Приложение Analog, написанное доктором Стивеном Турнером в 1995 году, было одним из первых анализаторов файлов журналов, широко используемых в веб. Оно все еще остается таковым и устанавливается на веб-сайтах большинством провайдеров услуг Интернета (Internet Service Provider — ISP). Приложение Analog и инструменты, подобные ему, подпитывали интерес к веб-аналитике вне групп информационных технологий (Information Technology — IT). Отчеты становились все более симпатичными, и маркетологи смогли наконец-то разобраться в происходящем.

Примерно 1995-96 году обычные пользователи Интернета начали проявлять интерес к веб-статистике из-за быстрого распространения такой восхитительной вещи, как счетчик (counter). Счетчик посещений страницы, 2 5 9 5 7 стал, вероятно, первым примером вирусного маркетинга (viral marketing) в веб (записано на счет компании по имени Web-Counter). Счетчики в веб были повсюду; они замечательно выглядели и демонстрировали степень вашей популярности.

Коммерческая веб-аналитика появилась несколькими годами позже, и новым примером для подражания стал инструмент WebTrends. Компания WebTrends усовершенствовала стандартный анализатор файла журнала, добавив представления в виде таблиц и графиков, что наконец привлекло к веб-аналитике бизнес-группы. Пример результата приведен на рис. 1.2.


Рис. 1.2. Пример отчета WebTrends


К 2000 году, с экспоненциальным ростом популярности веб, веб-аналитика твердо укрепилась как дисциплина. Такие компании, как Accrue, WebTrends, WebSideStory и Coremetrics, утвердились в качестве ведущих производителей, предоставляя все более и более сложные решения, которые информировали о все больших массивах данных.

Примерно в то же время производители инструментов веб-аналитики и их клиенты обнаружили, что использование журналов веб-сервера в качестве источников данных не является оптимальным и сопряжено со сложностями.

К проблемам использования журналов относятся следующие.

Кеширование страниц ISP. Проблема кеширования заключается в том, что при получении копии страницы ISP при последующих запросах передает именно ее, а в файлы журнала веб-сайта записи об этих запросах не заносятся.

Поисковые роботы. С увеличением популярности поисковых серверов поисковые боты (search bot) зачастую просматривали сайты целиком, оставляя записи в вебжурналах, хотя пользователь их и не посещал. Эти записи учитывались в показателях. Хотя обращения робота можно отфильтровать, с учетом скорости появления новых роботов сделать это довольно трудно (кроме того, со временем они становятся все более интеллектуальными).

Уникальность посетителей. С увеличением количества пользователей, применяющих динамические IP-адреса и приходящих через прокси-серверы, стало сложно выявлять индивидуальных посетителей, т.е. определять их уникальность. Производители попробовали прибавлять к IP-адресу идентификатор агента пользователя (операционная система пользователя и браузер), но это не оправдало ожиданий. Если сайт устанавливает файлы cookie, использовались они, но на это соглашались не все отделы информационных технологий.

По этим и некоторым другим причинам в качестве нового стандарта для сбора данных веб-сайтов стали использоваться дескрипторы JavaScript (JavaScript tag) (несколько строк кода JavaScript), что значительно упростило сбор данных: несколько строк кода JavaScript добавляются на каждую страницу и срабатывают при ее загрузке, посылая данные серверу сбора данных. Вот пример дескриптора JavaScript, используемого Crazy Egg, новым производителем в области веб-аналитики.

type="text/javascript">

//

document.write('>,+>,ipt

src="http://crazyegg.com/pages/scripts/1111.js?'+

(new Date()).getTime()+," ~CAtype="text/javascript">,);//]]>

script>

Файлы журнала JavaScript значительно проще поддерживать, чем файлы журнала веб-сервера. В результате ответственность за сбор и обработку данных перешла в большинстве случаев от внутренних отделов информационных технологий компаний к поставщикам веб-аналитики, что упростило реализацию последней. Дескрипторы JavaScript позволяют также быстрее и проще вводить новшества, чтобы охватить новые данные и задействовать такие средства, как установка файлов cookie, дающие возможность отслеживать действия посетителя. Теперь поставщик мог все делать сам, не обращаясь к компании информационных технологий.

Дескрипторы JavaScript имеют свой набор проблем, который подробно обсуждается в главе 2, “Сбор данных — важность и возможности”.

Возможно, следующим эволюционным шагом аналитики веб-сайтов будет внедрение