Мы с Катаржиной Шимилевичем говорим о том, как мы измельчаем онлайн-платформы и как не стать цифровой биомассой.
(Интервью - отредактированная и завершенная версия подкаста) Ты в курсе? П. Вы — цифровая биомасса? Google, смартфон и ваша жизнь 30 января 2024 года.

Катарзина Шимилевиц
Юрист, специализирующийся на правах человека и новых технологиях, общественный деятель и публицист. Соучредитель и президент Фонда Panoptykon, вице-президент Европейской сети цифровых прав с 2012 по 2020 год. Выпускник факультета права и управления Варшавского университета и исследований развития в Школе восточных и африканских исследований. В прошлом — юрист международной юридической фирмы Clifford Chance, член Социального совета при министре по цифровым делам. Член Ашоки – международной сети социальных предпринимателей. Она опубликовала, среди прочего, в The Guardian, Politics, Electoral Gazette, Journal of the Legal Gazette и Magazine of Scripture.
Рафал Гурски: Что означает, что мы измельчаемся в цифровую биомассу?
Катаржина Шимилевич: Это жестокий термин, который я использую, чтобы убить потребителей интернет-услуг из чувства комфорта - по моему ложному мнению, потому что у нас нет субъективности там, и мы не контролируем процесс, в котором нас привлекают интернет-провайдеры. Целью этого процесса является эксплуатация и коммерциализация нашего внимания и получение знаний, которые позволят сделать его еще более эффективным.
Интернет-платформы не относились к нам как к клиентам с самого начала. Мы никогда не сможем контролировать логику их алгоритмов или то, что разработчики цифровых сервисов называют «пользовательским опытом».
Такие платформы, как Google и Facebook, заманили нас обещанием бесплатного и дополнительно персонализированного сервиса — «подстроенного», как сказал Марк Цукерберг. В реальном мире, когда мы заказываем что-то специальное, например, обувь, мы платим больше, а не меньше. И в этом случае я получаю персонализированный сервис и не плачу! На практике, конечно, я плачу, и, возможно, больше, чем когда-либо, за любую услугу. Тристан Харрис (Tristan Harris), бывший сотрудник Google, считает, что он является одним из самых критически настроенных в отношении крупных технологических институтов. Он просто извращенно сказал, что в истории человечества нет службы дороже бесплатной. Как общество, мы платим за это психическим здоровьем, наркоманией, деньгами, потраченными на ненужные продукты или неправильный политический выбор.
По словам Харриса, ущерб, нанесённый нам бизнес-моделью онлайн-платформ, можно описать одной фразой: понижать человечество, то есть понижать нас как человечество. Это потому, что алгоритмы охотятся на наши основные, первичные потребности и основные инстинкты. Они укрепляют в нас тщеславие, эгоизм и склонность обвинять других в наших проблемах. Они поддерживают нашу тенденцию к поляризации, бегут в информационные пузыри и ищут утешения в теориях заговора. Они включают ненависть и личные погони в Интернете.
Все это побочный эффект бизнес-модели крупных платформ, но отнюдь не случайный – эти социальные эффекты включаются в деятельность рекомендательных систем, перед которыми стоит одна задача: вовлечь нас любой ценой. Для того, чтобы прибыль от рекламы была высокой, поскольку только вовлеченный пользователь может видеть рекламу и реагировать на нее. По словам Харриса, мы наблюдаем своего рода «гонку на дно» между такими платформами, потому что тот, кто лучше сработает и использует наши основные инстинкты, будет наиболее эффективным в привлечении и, таким образом, достигнет самой высокой прибыли от рекламы.
Не люди решают, что им покажут в интернете и что они испытают, а компания с ее алгоритмами обучения.
С одной стороны, они обрабатывают наши цифровые следы в маркетинговых профилях, что означает, что они пытаются выработать модель поведения, функции, потребности, к которым вы можете затем соответствовать содержанию. С другой стороны, другие наборы алгоритмов, как правило, выбирают контент для опыта таким образом, что, как потребители, как люди, проходящие обработку цифровой биомассы, они сохраняют свое внимание и нажимают как можно дольше, даже когда мы чувствуем усталость, насыщенность, раздражение или достаточно вдохновлены этим контентом.
Ключом к правильному прогнозированию того, что мы нажимаем (что эффективно задействует нас), являются данные, интерпретируемые нашим поведением. И самое ценное, с точки зрения платформы, это не информация, которую мы сознательно передаем, а метаданные и поведенческие наблюдения, которые мы полностью не контролируем: местоположение телефона, номера IP, с которыми мы входим в систему, ссылки, по которым мы нажимаем, сообщения, которые вызывают наши реакции, люди, с которыми мы взаимодействуем, а также когда мы используем приложение, в каком положении мы держим телефон, как быстро мы пишем и даже как мы загружаем устройство.
Этот жестокий механизм оптимизирован для коммерческой выгоды, а не для ценности человека, называемого «пользователем», то есть кем-то зависимым, обработанным, а не клиентом, который решает сам. Термин «цифровая биомасса» был создан для иллюстрации механизма измельчения.
Что не может быть цифровой биомассой?
На этот вопрос нет простого ответа. Конечно, мы не будем продолжать использовать текущую модель, как если бы она была нейтральной для нас, потому что это не так.
Компании предлагают нам настройки конфиденциальности, настройки рекламы. Мы можем проводить много времени с «скачками», которые доступны на онлайн-платформах, и стараться соответствовать им. Это не бессмысленно, потому что в какой-то степени мы можем улучшить наш опыт и защитить себя от самых токсичных или агрессивных форм того, что ждет нас в Интернете. Мы можем откалибровать фильтр, через который к нам поступает такая информация, а не другая информация, мы можем отключить уведомления, которые я призываю всех, мы можем установить временные переключатели, чтобы ограничить себя; мы также можем удалить ненужные приложения с телефона или использовать их только при необходимости.
Настройки конфиденциальности дают нам иллюзию контроля. На самом деле, все UX-пути ведут к тому месту, где за нами следят, и наши данные из разных источников объединяются в поведенческие профили. Уведомления, интерфейс, алгоритмы рекомендаций контента и даже используемое нами устройство (живые цвета в смартфоне) – все это призвано влиять на секрецию дофамина и зависеть от него в долгосрочной перспективе. Благодаря механизму нерегулярного подкрепления, известному по азартным играм, мы статистически проверяем уведомления из приложения до 150 раз в день.
Платформы нанимают лучших ученых и тратят миллиарды долларов, чтобы добраться до лучших эволюционных обстоятельств нашего мозга. Вот почему это не равносильно драке.
Это, конечно, не то, что мы как граждане ничего не можем сделать, но это изменения в парадигме, в которой у нас навязанная асимметрия власти - мы не клиент, мы не платим за услугу и мы не решаем, какой опыт нам будет служить, а рекламодатель. Мы можем начать с изменения бизнес-модели, которая заключается в том, как генерируется прибыль. Мы можем попытаться как потребители войти в американскую модель, в которой третья сторона - надежный партнер - договаривается от нашего имени, что произойдет с нашими данными, или предоставляет свой алгоритм, который исправляет это токсичное и втягивает нас в спираль потребления контента. Такие ограничения онлайн-платформы технологически возможны, но это входит во все более сложные услуги и платит за них реальные деньги.