Накануне заокеанское издание The Wall Street Journal сообщило, что такой гигант, как Apple, запретил своим сотрудникам использовать ChatGPT, так как это может способствовать утечке конфиденциальных данных. "Яблочная" корпорация приняла такое решение не первая: ранее аналогичный трюк провернули несколько азиатских компаний.
Как рассказал Metro IT-директор HFLabs Александр Беслик, опасность использования искусственного интеллекта сотрудниками компании на рабочем месте очевидна.
– Они могут отправлять в нейросеть запрос с просьбой улучшить программный код продукта или просить дать ответ на какой-то вопрос. Все запросы, которые получает нейросеть, записываются, и компания, которая ей владеет, сможет их передать кому-то ещё или использовать в своих интересах. Так может утечь любая информация – от корпоративных правил и персональных данных до кода, – комментирует эксперт.
Между тем "добросовестные" сотрудники могут легко обойти запреты, продолжает он.
– Если Apple заблокировала сайт ChatGPT, то они могут использовать боты в Telegram или пользоваться нейросетью с личных устройств. Так что юридически запретить можно, а технически нет, – говорит он.
Ведущий инвестиционный аналитик "Финам", эксперт по IT Леонид Делицын отметил, что от пользователей ChatGPT информация может "утечь" либо разработчику (OpenAI), либо в Microsoft, которая инвестировала в этот продукт.
– Ущерб, который эти чат-боты могут нанести корпорациям, более разнообразен, чем просто утечка данных: сотрудники могут вести корпоративную конкурентную разведку. Может стать известно, к примеру, какие смартфоны могут разработать в Microsoft, какие нововведения ожидаются в системе Android. Пользователи чат-бота могут задать вопрос, по которому владельцы ChatGPT могут догадаться, что именно интересует Apple, – рассуждает аналитик.
По его словам, возможен и фишинг (вид интернет-мошенничества, целью которого является получение доступа к конфиденциальным данным пользователей – логинам и паролям): сотрудник впопыхах или в стрессовой ситуации не отличит подлинный ChatGPT от поддельного, и бот может задать уточняющие вопросы, выведав критические данные.