Россиянам объяснили, какую информацию опасно доверять чат-боту ChatGPT

Аналитик Сонина: ChatGPT нельзя сообщать конфиденциальные данные

Shutterstock

Ученые выяснили, что чат-бот ChatGPT может выдать случайным пользователям конфиденциальные данные, предоставленные ему людьми или организациями. Чтобы не допустить таких утечек, к сообщению любой информации нейросетям нужно подходить с осторожностью, предупредила старший аналитик направления аудитов и соответствия требованиям ИБ, УЦСБ Юлия Сонина в беседе с телеканалом «360».

«Однозначно стоит избегать предоставления нейросетям конфиденциальных данных — ФИО, паспортных данных, номеров телефонов. Сюда же относятся и финансовые данные — номера и коды карт, данные банковских счетов или другая чувствительная информация», — отметила Сонина.

Нельзя также сообщать информацию об учетках в соцсетях, медицинские и юридические данные. Используя нейросети, следует регулярно менять пароли и не открывать подозрительные ссылки, отказываться от предложения скачать сомнительные файлы, добавила эксперт.

Утечки личных данных грозят самыми разными последствиями, в том числе финансовыми и репутационными потерями, отметила аналитик. Также мошенники, пользуясь такой информацией, могут получить доступ к банковским счетам, взломать аккаунты и так далее.

Напомним, что также эксперты предупредили россиян об опасности использования Telegram-ботов, которые воруют персональные данные людей. Особую осторожность следует проявлять, если боты подключены к чатам и имеют доступ к перепискам людей.

В Совфеде ранее заявили о необходимости ужесточения наказания для компаний за утечки персональных данных граждан.