За стеной фильтров. Что Интернет скрывает от вас? - [41]
Чем быстрее система учится на ваших кликах, тем вероятнее, что вы попадете в некий каскадный процесс: мелкое стартовое действие — клик на статью о садоводстве, анархии или Оззи Осборне показывает, что вам это нравится. Это, в свою очередь, приносит вам еще больше информации на данную тему, и вы еще более склонны кликать по новым ссылкам: тема уже подготовлена для вас.
Начиная со второго клика в игру вступает и ваш мозг. Он стремится уменьшить когнитивный диссонанс с помощью странной, неотразимой, хотя и нелогичной логики: «Зачем бы мне делать X, если я не человек, делающий X, — следовательно, в, должно быть, человек, делающий X». Каждый новый клик в этой петле еще одно самооправдание: «Черт, кажется, мне очень нравится Crazy Train[266]». Когда происходит такой рекурсивный процесс, подпитывающий сам себя, вы, по словам Колера, «оказываетесь на темной и узкой тропе». Мелодия тонет в реверберации. Если случайность н неожиданные озарения не разорвут петлю, вы застрянете и предгорьях вашей идентичности, вдалеке от реального пика.
И это еще относительно доброкачественная петля. Может быть и иначе.
Мы знаем, что происходит, когда учителя считают учеников тупыми: те становятся еще тупее. И одном эксперименте, который провели еще до учреждения комиссий по этике, учителям дали результаты теста, которые, как утверждалось, показывали IQ и степень одаренности учеников, поступающих в их класс. Однако им не сказали, что результаты были перераспределены случайным образом. Спустя год ученики, которых представили как смышленых, заметно увеличили свой IQ. Те же, чей уровень, согласно тестам, был ниже среднего, такого не добились[267].
Так что же происходит, когда Интернет считает вас тупицей? Персонализация, основанная на предполагаемом IQ, — не столь уж фантастический сценарий. В Google Docs, например, есть полезный инструмент для автоматической оценки уровня сложности написанного текста[268]. Даже если ваш уровень образования еще не попал в базу данных Acxiom, его легко может вычислить любой располагающий несколькими вашими электронными письмами и сообщениями в Facebook. Пользователям, чьи тексты говорят о наличии университетского диплома, могут чаще показывать статьи из New Yorker, а тем, кто пишет более простым языком, — из New York Post.
В мире вещательных СМИ предполагается, что все представители аудитории способны читать и обрабатывать информацию примерно на одном уровне. За стеной фильтров для этого нет никаких оснований. И это, с одной стороны, здорово: масса людей, отказавшихся от чтения, потому что газеты стали слишком заумными, могут снова начать потреблять письменный контент. Но если никто не потребует повышения качества, то эти люди надолго застрянут в третьем классе.
Поступки и приключения
Иногда передача алгоритмам права решать, что мы увидим и какие возможности нам предложат, приносит более честные результаты. Компьютер может игнорировать расу и пол, на что люди обычно не способны. Но это лишь в случае, если соответствующие алгоритмы добросовестны и проницательны. Иначе они будут просто отражать социальные нормы той культуры, которую обрабатывают.
В ряде случаев алгоритмическая обработка персональных данных может привести даже к большей дискриминации, чем если бы этим занимались люди. Например, программа, помогающая компаниям процеживать массу резюме в поисках подходящих соискателей, может «учиться», принимая во внимание, сколько рекомендованных ею кандидатов были наняты. Если работодатель выбирает девять белых подряд, то программа может сделать вывод, что компания не заинтересована в черных, и исключит их из дальнейшего поиска. «Во многих отношениях, — пишет социолог Дэлтон Конли из Нью-Йоркского университета, — такая сетевая категоризация более коварна, чем банальная сортировка по расе, классу, полу, религии или любому другому параметру»[269]. Среди программистов такая ошибка получила название «чрезмерно близкой подгонки».
Онлайн-сервис видеопроката Netflix работает на основе Алгоритма CineMatch. Сначала все было довольно-таки просто. Если он взял на прокат первый фильм трилогии «Властелин колец», то Netflix мог изучить, какие фильмы брали другие люди, посмотревшие его. Если многие из них просили «Звездные войны», то велика вероятность, что и я захотел бы их посмотреть.
Этот метод анализа называется k-NN (метод «к-ближайших соседей»[270]), и с его помощью CineMatch научился довольно ловко угадывать, что люди хотели бы посмотреть, исходя из тех фильмом, что они уже брали, и оценок, которые им поставили. К 2006 году CineMatch мог с точностью до балла предсказывать оценку, которую пользователь выставит любому из многих сотен тысяч фильмов в коллекции Netflix. Он дает более точные рекомендации, чем большинство людей. Человек-продавец ни за что не порекомендовал бы фильм «Молчание ягнят» поклонникам «Волшебника страны Оз», однако CineMatch знает: людям, которым по душе один из этих фильмов, зачастую нравится и другой. Но главу Netflix Рида Хастингса это не устроило. «Сейчас мы вывели модель Т[271], а возможно гораздо большее», — сказал он журналисту в 2006 году