Нейросети развились до такого уровня, что научились распространять дезинформацию

Чат-боты ChatGPT и Bing от OpenAI и Microsoft благодаря алгоритмам самообучения научились цитировать друг друга, распространяя фейковые новости. Машинный интеллект использовал ссылки на различные первоисточники, где была дезинформация
Нейросети развились до такого уровня, что научились распространять дезинформацию
@ NicoElNino/Shutterstock
Нейросети научились распространять дезинформацию

Об этом написали на портале The Verge.

Любопытный эксперимент провели пользователи форума Hacker News. Один сообщил в шутку заведомо ложную информацию о том, что неройсеть Bard, представленная Google, закрылась. Его коллега по площадке воспользовался ChatGPT и создал новостной фейк на основе слов товарища.

Результат удивил всех. Пользователи спросили Bard о его закрытии, на что машина ответила, что уже не работает, а в качестве первоисточника использовался тот самый портал "Hacker News". Сеть Bing при таком же вопросе выдала аналогичный ответ о том, что Bard не работает, выдав уже 6 ссылок на фейковые источники.

На портале The Verge отметили, что если банальный шуточный эксперимент привёл к таким последствиям, то каким же катастрофическим будет размах введения людей в заблуждение, если кто-то всерьёз и целенаправленно захочет распространять дезинформацию, которая быстро разлетится по Интернету. Ведь чат-боты не отличают правду от лжи.