Депутат посоветовала казахстанцам, как правильно соблюдать цифровую гигиену

В Казахстане действует законодательная база, регулирующая сферу искусственного интеллекта. Однако вместе с возможностями появляются и риски: от мошенничества и утечки данных до манипуляций, дискриминации и психологической зависимости. О том, почему цифровая гигиена становится новой необходимостью в эфире телеканала Jibek Joly рассказала депутат Мажилиса Екатерина Смышляева.

Екатерина Смышляева
Фото: Виктор Федюнин/Kazinform

— Екатерина Васильевна, закон об искусственном интеллекте в Казахстане уже работает, цифровой кодекс принят. Но жизнь подбрасывает все новые кейсы: это и финансовые потери, и мошенничество, и психологические зависимости. Насколько действующие нормы сегодня способны защитить казахстанцев?

— Если говорить о законе об искусственном интеллекте, то он содержит целый пакет норм, которые направлены именно на защиту прав человека и минимизацию рисков. Прежде всего, в документе закреплены так называемые запрещенные практики. Это тот функционал систем искусственного интеллекта, который может нарушать права и свободы граждан. Казахстан выбрал риск-ориентированную модель регулирования, и в ее рамках мы достаточно четко обозначили недопустимые вещи.

Например, мы не допускаем манипуляции, не допускаем дискриминации по признакам, закрепленным в Конституции, а также ограничиваем использование некоторых скоринговых моделей, если для них нет прямого правового основания. 

— Что именно имеется в виду под скоринговыми моделями? Ведь в ряде сфер они уже применяются.

— Да, скоринговые модели уже используются, например, в банковской сфере, где они работают на основе больших данных. Или в социальной сфере, где помогают определять статус человека для проактивного оказания помощи. 

Но есть и негативные сценарии использования. Речь идет о случаях, когда на основе поведенческого анализа система делает выводы, которые могут ограничивать права человека. Например, рекомендует не принимать человека на работу, не допускать его к определенной деятельности или ограничивать ему доступ в те или иные пространства.

Такие практики, если они не предусмотрены законом и не имеют прозрачных правил, сегодня запрещены. Потому что здесь уже возникает риск манипуляции и несправедливого ограничения прав.

— А таргетированное воздействие — это тоже часть этой проблемы?

— Это немного другой механизм. Таргетинг — это не скоринг. Скорее, это создание вокруг человека определенного информационного пузыря, навязывание ему определенной повестки. Но здесь действительно очень тонкая грань. Сами по себе модели искусственного интеллекта не являются субъектами права. Поэтому, если, условно говоря, работодатель принимает решение не брать человека на работу и объясняет это тем, что «так решила система», то вопрос в любом случае будет не к машине, а к правомерности решения человека, который этой системой воспользовался.

— В законе также предусмотрена градация систем искусственного интеллекта по уровню риска. Как это работает?

— Да, это один из ключевых механизмов. Мы выделяем системы высокого риска — это те, которые связаны с жизнью и здоровьем человека, с обработкой больших объемов данных, в том числе персональных, а также с другими чувствительными сферами. Для таких систем установлены особые требования и особое внимание со стороны регулирования.

Системы среднего и низкого риска пока не подпадают под столь жесткие регуляторные механизмы. Это осознанное решение, поскольку мы хотим, чтобы рынок технологий развивался, а регулирование не душило инновации на старте.

— А как обстоит ситуация с автономностью ИИ-систем? Насколько это тоже вопрос безопасности?

— Это тоже важная часть регулирования.

Мы выделяем системы с высокой, средней и низкой степенью автономности. Полностью автономные системы — это пока скорее перспектива, но уже сейчас есть технологии, которые работают с высокой степенью самостоятельности. К примеру, речь может идти о беспилотных системах.

И здесь позиция закона очень четкая: высокоавтономные системы должны регулироваться именно законом, а не только подзаконными актами. То есть просто разрешить их массовое бытовое использование на уровне ведомственных документов будет нельзя. Это тоже важная мера безопасности.

— Вы также упомянули локальные системы искусственного интеллекта. Что это такое и зачем они нужны?

— Это очень важный блок.

Локальные системы ИИ — это системы, которые работают в закрытом контуре, то есть без подключения к внешнему интернету в момент использования. Они могут быть предварительно обучены на больших массивах данных, но в критических сферах применяются уже в изолированной среде.

Это особенно важно там, где речь идет о персональных данных, информации ограниченного доступа, государственных и отраслевых тайнах, а также в тех случаях, где нужно исключить внешнее влияние.

С другой стороны, локальные модели — это еще и защита от идеологических или ценностных искажений, которые могут присутствовать во внешних глобальных моделях. Например, если мы говорим о системе образования, то здесь важно, чтобы искусственный интеллект работал в рамках нашего культурного и мировоззренческого контекста, а не только на базе внешних оценочных подходов.

— Если говорить простым языком, можно ли сказать, что законодательство сегодня закрывает именно наиболее опасные сценарии?

— Да, именно так.

По сути, закон об искусственном интеллекте содержит меры прямого действия, которые направлены на безопасность самих ИИ-систем. Но помимо этого есть и второй большой блок — это нормы, которые напрямую не относятся к ИИ, но тесно с ним связаны. Речь идет о защите персональных данных, кибербезопасности, цифровом суверенитете и в целом о правилах обращения с цифровой информацией.

То есть защита граждан строится не только вокруг одного закона, а вокруг всей системы цифрового регулирования.

— Но ведь значительная часть рисков сегодня возникает не в государственных сервисах, а в повседневном использовании иностранных платформ, приложений и нейросетей. Здесь государство может защитить человека?

— Здесь важно честно сказать: в полной мере — нет.

Потому что, когда человек использует иностранные платформы или международные сервисы, он зачастую вступает в отношения с компаниями, которые находятся в другой юрисдикции, не имеют представительства в Казахстане и, соответственно, не подпадают под прямую защиту нашего законодательства.

Как правило, между пользователем и платформой стоит только пользовательское соглашение. А это, по сути, договор присоединения: вы либо принимаете его, либо просто не пользуетесь сервисом.

И это, конечно, очень слабый инструмент защиты, особенно если учесть, что большинство пользователей эти соглашения либо не читают, либо не могут на них повлиять.