Алгоритмы сегодня знают о нас больше, чем кажется.
В фильме «Особое мнение» (2002) действие разворачивается в Вашингтоне 2054 года. Здесь работает специальный отдел полиции под названием Precrime («Предпреступления»), задача которого — предотвращать правонарушения ещё до того, как они будут совершены. В этом подразделении служат три провидца — люди с экстрасенсорными способностями, которые могут видеть будущее. Их предсказания помогают полиции ловить преступников до того, как те успеют сделать первый шаг.
Ещё до начала съёмок Стивен Спилберг пригласил 16 экспертов из MIT, NASA и других организаций, чтобы представить технологии, которыми мы могли бы пользоваться к 2054 году. В результате картина «Особое мнение» стала одним из самых ярких примеров научной фантастики, опередившей своё время: многие показанные в ней интерфейсы и гаджеты уже входят в нашу жизнь.
Какие идеи и технологии показаны в «Особом мнении»
В фильме Спилберга зрители увидели множество ярких, запоминающихся технологий. Вот самые важные из них.
Система Precrime
Это центральный и, пожалуй, самый нереалистичный элемент вымышленного мира фильма. Основная идея работы Precrime — предсказание будущих преступлений. Это становится возможным благодаря трём медиумам, о которых мы уже рассказывали выше.
Система принимает их индивидуальные видения и объединяет в «мнение большинства». В случае расхождения между ними фиксируется так называемое «особое мнение» — альтернативная возможная версия будущего, которая может не совпадать с основным прогнозом.
Видения передаются в систему в виде визуальных образов. Полиция использует эти данные, чтобы найти и арестовать предполагаемого преступника до фактического убийства.
Жестовые и мультитач-интерфейсы
Один из самых впечатляющих элементов визуальной части фильма — интерфейсы управления данными, не требующие физического контакта. Главный герой, Джон Андертон, буквально «дирижирует» потоками информации с помощью жестов рук в воздухе.
Такие интерфейсы нужны для того, чтобы оперативно обрабатывать огромные массивы данных — например, видео с камер наблюдения, базы данных по преступлениям и прогнозы провидцев. Жесты позволяют быстро находить нужные файлы, выстраивать связи между разными случаями и оперативно принимать решения.
Эту концепцию специально для фильма разработал Джон Андеркоффлер — учёный из MIT Media Lab. А позже реальные прототипы системы появились в лабораториях и даже в коммерческом использовании.
Сканеры радужной оболочки глаз
В «Особом мнении» такие сканеры стоят повсюду. Они позволяют моментально идентифицировать гражданина, узнать его историю и даже подстроить рекламные объявления под его интересы.
Кроме того, эти устройства используются в фильме для поиска и отслеживания подозреваемых. Если система распознаёт человека, который находится в розыске, то сразу же подаёт сигнал полиции.
Какие похожие технологии существуют в реальности
Хотя до 2054 года ещё далеко, технологии, подобные тем, что были в фильме, уже начинают проникать в нашу жизнь. Вот самые интересные из них.
Анализ преступлений по месту и времени
Системы предсказания преступлений в реальности не определяют будущее безошибочно, как в фильме. Но пытаются вычислить, где они могут произойти, чтобы вовремя принять меры.
- PredPol/Geolitica — одна из первых подобных систем. Идея принадлежит группе исследователей из Калифорнийского университета в Лос-Анджелесе и департамента местной полиции. Эта модель использует алгоритмы, изначально разработанные для прогнозирования землетрясений. Она анализирует прошлые инциденты, чтобы предсказать, где в ближайшее время может случиться следующее правонарушение — кража, ограбление или угон автомобиля. Система активно используется в десятках американских городов, несмотря на споры из-за риска предвзятости.
- Моделирование риска местности (RTM) — альтернативный подход, который предложил Джоэл Каплан из Университета Рутгерса. Вместо того чтобы прогнозировать преступления напрямую, RTM выявляет, какие особенности городской среды — заброшенные здания, плохо освещённые парки — могут способствовать правонарушениям. И помогает властям предотвратить преступления с помощью пространственного анализа. Например, выявляет районы, где нужно усилить патрулирование.
- Алгоритм Университета Чикаго — разработка 2022 года способна предсказывать место и время преступлений на неделю вперёд с точностью до 90%. Алгоритм обучается на публичных данных о насильственных и имущественных правонарушениях. Правда, при тестировании в восьми городах США выяснилось, что полиция чаще реагирует на преступления в богатых районах и реже — в бедных, что выявило скрытую социально-экономическую предвзятость. Широкого применения технология пока не получила.
Биометрические системы наблюдения
Эти технологии идентифицируют и отслеживают людей по уникальным физиологическим признакам, иногда пытаясь оценить «склонность к преступлению» на основе внешних данных.
- Системы распознавания радужки глаза. Сегодня они применяются в пунктах пропуска через границу и в аэропортах. Метод считается одним из самых точных, поскольку радужка глаза уникальна и мало меняется с возрастом. Но пока массового сканирования глаз в реальном времени, как в фильме, нет. Дело в том, что такие технологии требуют сложной инфраструктуры и вызывают вопросы о конфиденциальности. Кроме того, если хакер получит данные о радужке глаза из базы системы, то может с помощью этих данных сделать поддельное изображение и обмануть сканер. Причём в 80% случаев такие подделки действительно срабатывают.
- Нейросети для сканирования лиц. В 2016 году исследователи из Шанхайского университета Джао Тонг продемонстрировали ИИ, который по фотопортрету человека якобы определял «склонность к преступлениям» с точностью 89,5%. Однако эта технология вызвала серьёзные этические споры. Критики указывали, что такие подходы возрождают идеи физиогномики — псевдонаучной теории XIX века, утверждавшей, что внешность отражает характер. В реальности подобные прогнозы могут усиливать дискриминацию и несправедливость.
Жестовые интерфейсы
Идея управления данными с помощью жестов воплотилась в системе Mezzanine от компании Oblong Industries. Её основал Джон Андеркоффлер — тот самый человек, что консультировал создателей «Особого мнения». Mezzanine позволяет нескольким пользователям одновременно работать с данными на экранах. Систему применяют в бизнес-центрах, военных штабах и исследовательских лабораториях для коллективной работы с большими объёмами информации.
Кроме Mezzanine, жестовое управление получило развитие в потребительских устройствах. Например, Microsoft Kinect позволял пользователям взаимодействовать с играми с помощью движений тела и рук без использования контроллеров. А технология Leap Motion пошла ещё дальше: компактный сенсор улавливает мельчайшие движения пальцев, позволяя управлять виртуальными объектами с поразительной точностью.
Какие этические вопросы вызывает применение таких технологий
Вместе с впечатляющими возможностями технологии выявления преступлений несут и серьёзные этические вызовы. Рассмотрим главные из них.
Закрытость алгоритмов
Одна из главных проблем в реальных системах — их непрозрачность. Многие алгоритмы, используемые для прогнозирования преступлений, работают как «чёрные ящики»: они выдают результат, но никто кроме разработчиков не знает, как именно он получился. В фильме «Особое мнение» прозрачность работы системы Precrime тоже была проблемной: людям приходилось верить, что провидцы не ошибаются, не имея способа проверить их видения.
Предвзятость и дискриминация
Алгоритмы часто наследуют и усиливают социальные предубеждения. Исследования показывают, что системы вроде алгоритма Университета Чикаго всё же воспроизводили социальные перекосы. Чаще всего «угрозу» видели там, где проживают небогатые и маргинализированные сообщества.
Приватность и надзор
Массовая слежка — ещё один риск, который становится всё более реальным. Системы биометрической идентификации уже активно применяются в аэропортах и на границах для бесконтактной аутентификации. А если вспомнить фильм, то сканеры радужки в «Особом мнении» позволяли моментально отслеживать местоположение каждого человека, что порождало серьёзные вопросы о праве на личную свободу и анонимность.
Детерминизм против свободы воли
И, наконец, философский вопрос: можно ли считать человека виновным только на основании вероятностного предсказания? Системы, подобные тем, что разрабатываются сегодня, всё чаще ставят под сомнение идею о свободной воле. В фильме этот конфликт был основным: герои пытались доказать, что предсказание ещё не преступление.
Что в итоге
Фантастический мир «Особого мнения» частично становится реальностью: уже сейчас разрабатываются и используются предиктивная аналитика, биометрические системы слежения, бесконтактные интерфейсы. Но эти технологии несут в себе серьёзные риски: без открытости и контроля они могут ущемлять права, усиливать социальное неравенство и подрывать фундаментальное право на приватность.
Важно сделать алгоритмы более прозрачными, проводить независимые проверки и разработать ясные правила для регулирования технологий. Это нужно, чтобы предсказательные системы приносили обществу пользу, а не вредили ему.
Это тоже интересно🔥Можно ли создать человеческих клонов, как в фильме «Облачный атлас»Можно ли переключаться между двумя личностями, как в сериале «Разделение»Можно ли распознавать ложь, как в сериале «Обмани меня»Можно ли создать жидкую броню как у Т-1000 из фильма «Терминатор-2»Можно ли создать поезд, идущий через ядро Земли, как в фильме «Вспомнить всё»Обложка: кадр из фильма «Особое мнение»