Юристы увидели угрозу в идее ЦБ открыть банковскую тайну для ИИ
Банк России опубликовал доклад «Применение искусственного интеллекта на финансовом рынке», в котором инициировал создание института «доверенных посредников». Регулятор предлагает разрешить финансовым организациям передавать этим посредникам сведения, составляющие банковскую и страховую тайну, для формирования наборов данных и обучения моделей искусственного интеллекта.
Согласно документу, посредники будут действовать как технологические платформы с защищенным контуром. Банки и страховые компании смогут загружать туда массивы информации. Внутри платформы данные обезличиваются и используются для тренировки алгоритмов. Разработчикам запретят выгружать исходные сведения — они получат доступ только к финальному результату: обученной модели или аналитике.
Для реализации механизма Банк России считает целесообразным внести поправки в законодательство. Регулятор предлагает ввести новое правовое основание, допускающее обработку данных без отдельного согласия клиента. Условиями для этого станут предварительное обезличивание информации и цели обработки: повышение качества финансовых услуг или защита публичных интересов.
В качестве мер защиты предлагается ввести разрешительный порядок деятельности для операторов таких платформ, обязать их использовать сертифицированные средства криптозащиты и страховать ответственность на случай инцидентов. Общественные консультации по инициативе продлятся до 30 декабря 2025 года.
Источник: www.cbr.ruМорозов Игорь Олегович Юрист, эксперт в области банкротства, гражданского законодательства и семейного права.
Инициатива регулятора направлена на технологическое развитие, но с правовой и технической точек зрения предложенная модель несет системные риски, считает Игорь Морозов.
Во-первых, аккумулирование транзакционной активности миллионов граждан из разных банков в одном месте создает риск сверхконцентрации данных. Формируется единая точка отказа: для злоумышленников экономическая целесообразность атаки на такого посредника существенно выше, чем взлом инфраструктуры отдельных банков. В случае компрометации защищенного контура масштаб утечки будет критическим для всей отрасли, а механизмы страхования ответственности не смогут компенсировать потерю конфиденциальности.
Во-вторых, концепция безопасного обезличивания при текущем уровне развития технологий анализа данных (Big Data) не дает абсолютных гарантий. Существуют алгоритмы деанонимизации, позволяющие с высокой точностью восстановить личность субъекта по косвенным признакам — геолокации, времени операций и структуре трат. Обучение ИИ на таких массивах также создает угрозу атак инверсии (model inversion attacks), когда конфиденциальные сведения могут быть извлечены непосредственно из готовой модели.
В-третьих, вызывает опасения размывание правовых оснований обработки информации. Формулировка «в целях повышения качества услуг» является оценочной и допускает широкое толкование. Фактически это выводит использование финансовой истории граждан из-под их контроля. Субъект данных лишается возможности запретить использование своих сведений для обучения коммерческих алгоритмов, заключил юрист.