Научно-фантастические книги, фильмы и телешоу отдали привилегию предсказывать будущее не картам Таро, а технологиям. Впрочем, несколько десятилетий назад в возможность компьютера или робота смоделировать будущее поверили бы не больше, чем в способности гадалки. Это казалось маловозможным и даже утопичным.
Однако человечество удивило само себя – на этот раз в хорошем смысле. Сегодня существует огромное количество технологий, которые рассказывают нам, будет ли завтра дождь, прогнозируют рост или спад цен акций компаний, оценивают риск развития у пациентов заболеваний и даже предсказывают, будет ли совершено преступление. Эти вычисления возможны, потому что нейросети учатся на гигантском объёме данных. Человеку с таким объёмом не справиться, а вот искусственному интеллекту эта задачка – раз плюнуть.
Цифра. 90% – с такой точностью модель, созданная учёными Чикагского университета, будет определять место преступления. Как минимум будет известен район, как максимум – квартал.
– Для обучения искусственного интеллекта мы берём огромные базы данных, в которых зафиксированы события или любая другая информация. Когда нейросеть обучается, мы начинаем сверять её прогнозы с реальностью, – рассказывает Metro доцент кафедры медицины Чикагского университета Ишану Чаттопадхьяй.
Предсказание будущего с помощью искусственного интеллекта уже давно осуществляется на практике... и нередко втайне от нас. Карисса Велиз, профессор из Института этики и искусственного интеллекта при Оксфордском университете, недавно выпустила статью, в которой исследовала феномен обработки личной информации ради создания прогнозов. Выяснилось, что в повседневной жизни десятки алгоритмов делают прогнозы о нас, а мы даже не подозреваем! Информация, которую они используют, может содержаться в самых разных уголках Интернета: от названий нашей почты до "слитых" в Сеть адресов из служб доставки.
Детали. Искусственный интеллект, который предсказывает преступления: Социологи и специалисты по обработке данных из Чикагского университета разработали новый алгоритм, который предсказывает преступность, изучая временные и географические закономерности на основе общедоступных данных о преступлениях. Один из разработчиков алгоритма, Ишану Чаттопадхьяй, объяснил Metro, как это работает: "Нейросеть, которую мы разработали, видит взаимосвязи между преступлениями в разных частях города, которые на первый взгляд неподвластны пониманию человека. Ну или они становятся доступными каким-нибудь детективам только через время. А его иногда просто нельзя терять, потому что преступления могут происходить одно за другим. Нейросети смогут помочь предотвратить серии право- нарушений, потому что им видно глубинные связи".
– Кроме того, в будущем возникнет риск использования нейросетей, способных на прогнозирование, нашими потенциальными работодателями, – объясняет Metro Велиз. – Это может привести к дискриминации. Например, компания, которая собирается вас нанять, предложит ваше резюме и тестовое задание на анализ нейросети. И она решит, что вы не подходите.
Что касается искусственного интеллекта, который предсказывает вероятность преступления в том или ином районе, то можно также утверждать: его постоянное использование может привести к дискриминации. Неблагополучные районы будут патрулироваться чаще, за людьми будут следить пристальнее – это может спровоцировать новые волны гнева и преступлений, которые будут совершаться просто назло. В районах, которые считались благополучными, тоже появится риск преступлений. На их территории у некоторых людей может появиться ощущение мнимой вседозволенности, что также приведёт к преступлениям.
– Эти технологии – это данность, не добро и не зло, – подытоживает Велиз. – В конце концов лишь от человека зависит, будем ли мы пользоваться ими на благо.
4 вопроса об этике. Отвечает Карисса Велиз, профессор Института этики и искусственного интеллекта при Оксфордском университете: 1. Как работают алгоритмы, предсказывающие будущее? "Будущее – это результат того, что произошло в прошлом. Нейросети анализируют огромные пласты уже существующей информации и делают прогнозы". 2. Действительно ли эти алгоритмы могут нарушить приватность? "Иногда да. Искусственный интеллект может установить риск развития рака у человека. Но для того, что- бы он смог это сделать, ему нужен доступ к истории пациента. А это личная информация. Пока что никто не может гарантировать, что она не может куда-то "утечь". 3. Как прогнозы повлияют на человека? "Хуже всего это повлияет на подозреваемых в преступлениях. Если относиться к человеку как к преступнику до того, как он совершил преступление, это лишит его права на презумпцию невиновности и негативно повлияет на его поведение". 4. Есть ли у этой проблемы решение? "Прежде чем подпускать нейросеть к анализу данных, нужно убедиться, что конфиденциальную информацию можно как-то защитить. И конечно, как и в случае с нейросудами, которые набирают популярность в Латинской Америке, последнее решение должно быть за человеком".