Опасно ли использовать Perplexity AI
В комментариях к обсуждению подписки на Perplexity AI высказали предположение, что этот сервис может хранить вашу переписку с различными моделями AI. Насколько я знаю, практически все AI хранят эту переписку и могут отправлять на проверку то, что они считают опасным.
Но я задал вопрос ChatGPT по поводу того, какие опасности могут быть при использовании Perplexity AI.
Потом задал данный вопрос в самой Perplexity AI. Получил ответ, очень мало отличающийся от ответа ChatGPT. Кстати, если спросить об опасностях при использовании ChatGPT, то ответ будет очень похожим, и его тоже привожу ниже.
Использование Perplexity AI связано с определёнными рисками для безопасности и конфиденциальности, которые неоднократно отмечались экспертами и в СМИ по состоянию на сентябрь 2025 года.gerki+5
Основные угрозы безопасности
Уязвимости приложений
В Android-версии Perplexity AI найден ряд серьёзных уязвимостей: открытые ключи API, отсутствие базовой SSL-фиксации (защиты трафика), возможность межсайтовых атак и небезопасная организация интерфейса API позволяют атакующим похищать учётные данные и персональные сведения, а также создавать поддельные версии приложения.uscsinstitute+1Отсутствие сквозного шифрования
Данные пользователя (вопросы, история поиска, IP-адреса, информация об устройстве) собираются для улучшения моделей, но компания не реализует по умолчанию сквозное шифрование, что повышает риски утечки данных или их перехвата третьими лицами.pcmatic+2Новая браузерная версия и поведенческий трекинг
В 2025 году Perplexity представила браузер с ИИ, интегрирующий сбор данных по всему интернет-серфингу пользователя, что делает платформу частью новой волны «surveillance capitalism» — экономики наблюдения. Такой браузер отслеживает каждую вкладку и клик пользователя.secureitworld+1Проблемы конфиденциальности
Хранение личных данных и их использование
Компания имеет не очень прозрачную политику хранения и использования пользовательских данных, что вызывает обеспокоенность по поводу возможного доступа государственных и частных организаций к содержанию переписки и запросов пользователей.industrywired+1Риски, связанные с загрузкой файлов
Не рекомендуется загружать в Perplexity конфиденциальные документы и изображения: обработка происходит на внешних серверах с потенциальной возможностью утечки или доступа третьих лиц.reddit+1Риск атак через внедрение вредоносных инструкций
Известен класс уязвимостей типа prompt injection, когда злоумышленник может заставить ИИ-платформу выполнить несанкционированные действия или раскрыть приватную информацию.secureitworld+1Рекомендации по безопасности
Не вводить в Perplexity AI личную, конфиденциальную или финансовую информацию.internetmatters+1
Не загружать чувствительные файлы и изображения.reddit+1
Использовать VPN и максимально ограничивать права доступа приложения.pcmatic
Следить за обновлениями приложений и не использовать альтернативные версии вне официальных источников.gerki+1
Вывод
Perplexity AI полезен и функционален, но в ряде реализаций и сценариев применения по состоянию на 2025 год содержит критические недостатки в защите данных и может подвергать пользователей риску утечки приватной информации, кражи учётных данных и мониторинга действий в Интернете.
А теперь об опасностях при использовании ChatGPT.
Использование ChatGPT (https://chatgpt.com/) в целом считается безопасным, но связано с некоторыми рисками для безопасности и приватности, о которых важно знать пользователям.kaspersky+6
Основные риски безопасности
Передача и хранение личных данных
Вся введенная информация (вопросы, файлы) и технические данные (IP-адрес, устройство) сохраняются на серверах OpenAI и могут использоваться для обучения моделей или внутренней аналитики, а также передаваться субподрядчикам и по запросу государственных органов.privateinternetaccess+3Утечки и хищение данных
Если в сервис случайно введены конфиденциальные сведения (например, логины, пароли, коммерческая тайна), они могут быть похищены злоумышленниками в случае взлома, утечки или неправильной настройки безопасности на стороне OpenAI. В 2023 году был зарегистрирован инцидент, когда произошла утечка заголовков чатов и информации о платеже у части пользователей.lifelock.norton+1youtubeФишинг и социальная инженерия
Модель может быть использована для генерации весьма убедительных фишинговых писем и сообщений, облегчая работу киберпреступников.malwarebytes+1Использование для разработки вредоносных программ
ChatGPT способен помочь злоумышленникам в написании вредоносного кода, что отмечено в ряде исследований.malwarebytesРаспространение дезинформации
Сервис может непреднамеренно генерировать ложные факты или недостоверную информацию, на основании которой принимаются ошибочные решения.layerxsecurity+1Меры, предпринимаемые OpenAI
Протоколы шифрования для защиты данных при передаче и хранении.surfshark+1
Регулярные аудиты и программы поиска уязвимостей.security+1
Контроль доступа, многоуровневая аутентификация и фильтрация контента.layerxsecurity+1
Соответствие требованиям GDPR и других международных норм по защите данных.surfshark+1
Рекомендации по безопасному использованию
Не вводить в ChatGPT личную, финансовую или конфиденциальную информацию.keepersecurity+2
Использовать разные пароли для разных сервисов и включить двухфакторную аутентификацию.
Отключать функции памяти профиля, если не требуется сохранение контекста между сессиями.privateinternetaccess
Следить за обновлениями и быть внимательными к ссылкам, полученным через AI.
Вывод
ChatGPT оснащен современными средствами защиты, однако не гарантирует полной приватности, и существует риск утечки или некорректного использования личных данных, как и у любого крупного облачного сервиса. Важно относиться к чату как к открытому онлайн-ресурсу и избегать обсуждения тем, которые могут наносить ущерб безопасности личности или бизнеса.nordpass+6