«Напоминает «Черное зеркало»: можно ли ловить убийц до совершения преступления

Эксперты назвали минусы системы цифрового контроля за опасным поведением

Алексей Володин
Евгений Биятов/РИА «Новости»
В СПЧ, комментируя инцидент со стрельбой в пермском университете, предложили разработать систему контроля за опасным поведением. Подобная технология уже применяется при мониторинге дорожного движения, рассказали «Газете.Ru» эксперты в области ИТ, однако следить за людьми сложнее, чем за машинами: любой продолговатый предмет в чехле камера может принять за ружье. Кроме того, для реализации такого проекта необходим огромный технический ресурс.

Какое поведение считать опасным

«В больших городах устанавливают много камер слежения, — рассказал глава СПЧ Валерий Фадеев ТАСС. — В том числе камеры с системой распознавания лиц. Надо создавать интеллектуальную систему распознавания опасного поведения».

По словам Фадеева, автором этой идеи стал его коллега по Совету Игорь Ашманов, а актуальной ее сделал инцидент со стрельбой в Пермском государственном национальном исследовательском университете (ПГНИУ), где погибли шесть человек.

Главу СПЧ удивляет, что системы видеомониторинга пока бессильны в деле предупреждения правонарушений. «Казанский убийца (Ильназ Галявиев, устроивший стрельбу в школе №175 в Казани в мае нынешнего года — «Газета.Ru») шел по улице с оружием, пермский убийца тоже шел по улице с оружием и не привлек внимания, — рассуждает Валерий Фадеев.

— Поздно распознавать лица, когда убийца пришел в школу или университет, надо распознавать опасное поведение. До того, как он добрался до того места, где он собрался убивать людей».

Валерий Фадеев и Игорь Ашманов не ответили на звонки «Газеты.Ru».

Разработка подобной системы в принципе возможна, считает Дмитрий Пятунин, директор по ИТ компании Oberon.

«Такой функционал реализуем с помощью видеоаналитики с применением нейронных сетей. Данная технология на основе исходных данных способна определить предметы в руках человека с высокой точностью и передать уведомление оператору, который примет окончательное решение о вызове наряда полиции», — рассказывает он.

Технологии, позволяющие определять характер поведения объектов и управляющих ими людей, уже применяются, добавляет эксперт. Например, при мониторинге дорожного движения — камеры системы «Магистраль» умеют вычислять опасно маневрирующие автомобили.

С ним не соглашается Олег Кивокурцев, основатель и директор по развитию компании «Промобот». «Это выполнимо, но не решает проблему.

Я не верю в то, что можно распознать опасный предмет. Или опасное поведение — какое считать таковым?

Если человек идет и размахивает руками? Он может просто говорить по телефону через наушники. Если человек несет на плече чехол с продолговатым предметом? Это может быть гитара, а не ружье».

По его мнению, первостепенную важность для предупреждения преступлений представляет анализ поведения в соцсетях — в каких сообществах состоит человек, какие высказывания публикует.

Аналоговая помощь вместо цифровой

Не верит в действенность анализа данных видеомониторинга и Екатерина Винокурова, коллега Ашманова и Фадеева по СПЧ. Сплошной видеомониторинг, по ее словам, есть только в крупных городах.

«Система видеомониторинга к этому не готова, и проверяется это очень просто — когда пропадают дети, она лишь помогает установить, где они были последний раз. Их ищут, и находят детей по старинке», — указывает она.

Создать систему предупреждения об опасном поведении не получилось даже у Китая, который пошел дальше всех в своих экспериментах с применением компьютерного зрения и нейросетей для предупреждения преступлений, подчеркивает Винокурова.

С ней согласен Дмитрий Пятунин: для эффективного применения система предупреждения об опасном поведении должна быть внедрена повсеместно, а для анализа данных потребуются серьезные ресурсы компьютерного «железа».

«Необходимо удовлетворить достаточно высокие требования к объему хранения и обработки данных графическими процессорами, — добавляет он. — Не стоит забывать о высоких требованиях к безопасности данного комплекса для предотвращения как внешней, так и внутренней атаки».

Вместо «цифровой» профилактики Винокурова предлагает усилить «аналоговую» психологическую работу, которая, по ее словам, не ведется.

«Ни после Беслана в 2004-м, ни после недавней трагедии в Казани у нас так и не возникло системы помощи пережившим насилие, — говорит она. — Есть психологи МЧС, но они работают непосредственно во время инцидентов, системной реабилитацией жертв никто не занимается».

Необходимость такой работы, по ее мнению, очевидна.

«Кто поможет людям, которые сегодня прыгали из окон в Перми?» — спрашивает Винокурова.

Применяющие насилие преступники, напоминает член СПЧ, как правило, сами пережили насилие — и выявлять склонных к нему людей можно как раз среди таких жертв. «Но у нас нет ни закона о домашнем насилии, ни о помощи жертвам насилия», — отмечает она.

Олег Кивокурцев реализовать подобную профилактику предлагает при помощи цифровых инструментов.

«Необходимо регулярно тестировать школьников и студентов», — полагает эксперт. При этом тесты на определение патологических личностных склонностей может разрабатывать как раз нейросеть — это поможет сделать их «нетиповыми» и помешает потенциальным преступникам дать заранее известные «правильные» ответы, чтобы успешно пройти испытание.

По словам Кивокурцева, близкие к подобным решения сейчас лежат в основе различных маркетинговых инструментов Google Analytics или отечественной »Яндекс. Метрики» — эти сервисы умеют определять интересы и склонности пользователя, в том числе индивидуальные. Они могут быть взяты за основу такой «нейросети тестов».

Подобные предложения, как правило, вызывают споры о соблюдении прав человека, отмечают эксперты.

«Мне в связи с этим вспоминается сериал о технологиях будущего «Черное зеркало», эпизод о мире, в котором введено некое подобие социального рейтинга, — поясняет Екатерина Винокурова. — Его героиня не совершала ничего предосудительного, однако ее рейтинг стал низким из-за того, что она оказывалась не в то время не в том месте».

Дмитрий Пятунин полагает, что применение цифровой системы все равно зависит от того, кто будет пользоваться результатами ее работы.

«Несмотря на то что система способна кратно снизить влияние человеческого фактора, это не избавляет от вероятности ложного срабатывания, а далее все зависит от принятия решения о реагировании оператором», — считает он.