Эксперимент неслыханной дерзости затеял южнокорейский Научно-исследовательский институт электроники и телекоммуникаций (сокращённо – ETRI). Нейросети показали 32 тысячи видеороликов, на которых происходили преступления. В итоге ИИ научился распознавать злоумышленников по походке, поведению и выражению лица. Программу подключили к камерам наблюдения в аэропортах и местах массового скопления людей. Выяснилось, что в 82,8% случаев преступление совершал человек, которого нейросеть с говорящим названием "Дежавю" маркировала как потенциального преступника. Результат получился настолько ошеломляющий, что в институте заявили о готовности продавать систему распознавания уже со следующего года.
Картина вырисовывается идиллическая. Только представьте: искусственный интеллект вычисляет убийцу или грабителя ещё до того, как тот совершит что-то плохое. И всё было бы хорошо, если бы не несколько "но".
Безопасность против приватности
Помешать повсеместному использованию "Дежавю" может общественное мнение, считает заведующий отделом Кореи и Монголии Института востоковедения РАН Александр Воронцов.
— Корейцы очень чувствительны к персональным данным, — рассказал эксперт Metro. — В восточной культуре болезненно реагируют на любые вмешательства в личную жизнь. Например, в Южной Корее в суде подозреваемые или обвиняемые всегда заматывают себе лица шарфами, куртками. То есть для них обязательно, чтобы их лицо оказалось незасвеченным.
Оснований для введения системы распознавания злоумышленников на государственном уровне нет, объясняет кореевед.
— Проблема № 1 — противодействие дипфейкам. Школьники подделывают порноролики с лицами других людей и выкладывают в Сеть. Учитывая как раз ту самую закрытость корейцев, часто это становится причиной самоубийств. Сейчас это более горячая тема.
Система с риском
Кроме морального, есть не менее важный аспект — технический. У экспертов имеются сомнения насчёт того, может ли такая система в принципе успешно использоваться.
— Попытки применения искусственного интеллекта для предсказания преступлений были и раньше, — рассказывает Metro доцент университета ИТМО, специалист по нейросетям Александр Кугаевский. — Но, насколько мне известно, все они были провальные. Допустим, нейросеть проанализировала тысячи видеороликов и может выявлять преступника по выражению лица. Но человек может хмуриться или злиться не потому, что хочет совершить преступление, а потому, что, например, его обрызгал грязью проезжающий мимо автомобиль. И таких элементарных примеров можно привести много.
Результат нейросети никогда не будет стопроцентным, уверен специалист в области криминологии, доктор юридических наук, Юрий Антонян.
— Определить преступника по походке и выражению лица возможно, но только с определённой долей вероятности. Риски действительно есть, поэтому нужно быть очень осторожным с этим. Я знаю случаи, когда человек просидел несколько месяцев в тюрьме только потому, что его лицо подходило под описание преступника. Пока нет оснований считать, что с помощью этих механизмов можно раскрывать преступления, ведь можно ошибиться и посадить в тюрьму невиновного человека. Нейросеть стоит использовать в разыскной деятельности, чтобы определить круг подозреваемых. Но это не может быть доказательством.
КСТАТИ
22 года назад систему распознавания преступлений PreCrime показали в фильме "Особое мнение" (Minority Report). И вот спустя два десятилетия задумка из кино стала реальностью.