Сложные инструменты искусственного интеллекта теперь могут создавать клонированные человеческие голоса и гиперреалистичные изображения. При этом фальшивый контент способен моментально разлетаться по соцсетям, сообщает AP.
Эксперты по ИИ перечислили ряд сценариев, в которых ИИ используется с целью ввести в заблуждение избирателей, оклеветать кандидата или даже подстрекать к насилию.
Вот некоторые из них: автоматические сообщения голосом кандидата, инструктирующие избирателей проголосовать в неправильный день; аудиозаписи кандидата, предположительно, признающегося в преступлении или выражающего расистские взгляды; видеозапись, показывающая, как кто-то произносит речь или интервью, которых он никогда не давал. Поддельные изображения, созданные для того, чтобы выглядеть как репортажи местных новостей, ложно утверждающие, что кандидат выбыл из гонки.