Работаете с ИИ? А личные данные защищаете? |
Автор: По инф. abnews.ru |
04.08.2025 17:59 |
С развитием генеративных моделей искусственного интеллекта вопросы безопасности персональных данных приобретают все большую значимость. - Как подчеркнул в интервью RT старший преподаватель РТУ МИРЭА Андрей Рыбников, современные ИИ-системы подвержены атакам, направленным на извлечение информации из обучающих данных. В ряде случаев злоумышленники могут получить доступ к сведениям, которые пользователи вводили в систему. Особую угрозу представляют модели, обученные на открытых данных без тщательной фильтрации, а также те, что продолжают обучение на основе пользовательских запросов. Эксперт напомнил, что в России действует закон «О персональных данных» (№152-ФЗ), запрещающий передачу личной информации третьим лицам без согласия владельца. Это делает особенно важным понимание того, где и как обрабатываются данные при использовании зарубежных ИИ-сервисов. Наиболее надежным решением, по мнению Рыбникова, являются локальные ИИ-модели, функционирующие без передачи информации в облачные сервисы. Однако такие решения требуют значительных вычислительных мощностей и определенного уровня технической подготовки. В качестве альтернативы могут использоваться корпоративные версии ИИ-сервисов с возможностью управления политиками хранения данных. При отсутствии такой опции эксперт советует самостоятельно удалять из запросов личные данные — имена, контакты и номера документов. Дополнительную опасность представляют атаки через внедрение скрытых команд в подсказки, позволяющих получить доступ к конфиденциальной информации. Для защиты от подобных угроз рекомендуется применять платформы с фильтрацией контента, избегать загрузки конфиденциальных файлов и подозрительных шаблонов. Кроме того, даже офлайн-приложения способны сохранять историю запросов и временные файлы. Поэтому важно регулярно очищать кеш, использовать шифрование файловой системы и ограничивать доступ к ИИ-программам с помощью настроек прав пользователей. МНОГИХ ЗАИНТЕРЕСОВАЛО: |