Мы должны научить общество понимать AI, и чего от него ждать - эксперты об ИИ

Эксперты в сферы ИИ рассказали агентству Kazinform об основных возможностях и тревогах, связанных с внедрением новых технологий — безопасностии, инфраструктуре и правовой ответственности.

ИИ, искусственный интеллект
Фото: Министерство просвещения РК

Даурен Тулебаев, генеральный директор компании Kazdream смотрит на ИИ прежде всего с позиции риска и защиты: технологии дают новые возможности, но одновременно поднимают угрозы — от кибератак до интеллектуальной подмены. Его мысль проста и практична: гарантии мирного применения нуждаются не только в международных договорах, но и в том, чтобы сами страны умели защищать свои цифровые рубежи. Поэтому Казахстану нужно параллельно работать по двум трекам — внешне (диалог на уровне ООН и международные стандарты) и внутриполитически (инфраструктура кибербезопасности).

ИИ
Фото: из личного архива

— Я считаю, что нужно развивать национальные средства обнаружения и нейтрализовать  угрозы, например создавать Next-Generation Firewall на базе отечественных AI-моделей, масштабировать защитные решения, такие как AI-антифрод для борьбы с мошенничеством по телефону. Это очень актуально, потому что проблема сохраняется. Кроме того, надо  включать оценку рисков в каждую новую госуслугу. Для меня лично регулирование сферы ИИ — это не тормоз инноваций, а механизм, который позволяет масштабировать технологии безопасно. Это значит проводить  цифровую экспертизу нормативов, готовить кадры и программы переобучения — все это часть одного процесса, — пояснил Тулебаев.  

Особое место в развитии ИИ эксперт отводит инфраструктуре: дата-центры, национальные суперкомпьютеры и локальные модели — не роскошь, а условие участия в глобальной науке и экономике. Эти тезисы перекликаются с президентской идеей о запуске новых вычислительных мощностей и создании исследовательских институтов.

Виктор Браун, директор «Института безопасности человека» смотрит шире: он рассматривает ИИ как фактор, меняющий саму ткань общества. Для него главное — человеческая безопасность в широком смысле: экономическая, политическая и культурная. И потому его поддержка инициатив по созданию университета и Alem.ai — это не только про технологии, а про создание «национального каркаса» для развития.

ИИ
Фото: из личного архива

—  Искусственный интеллект становится ядром государственного управления и экономической политики. Такие шаги помогают формировать доверие общества к институтам, если они сопровождаются прозрачными процедурами, реальными гарантиями безопасности и приватности, — отметил эксперт 

Технологические проекты без учета человеческого фактора дают эффекты только в краткой перспективе. Чтобы ИИ увеличивал качество жизни, нужно инвестировать в социальные программы, менять подход к образованию и строить механизмы подотчетности — от независимого аудита алгоритмов до контроля за их применением в критичных областях. Таких как здравоохранение, правосудие и социальная сфера.

Хусейн Атакан Варол, директор Института ИИ и умных систем (Nazarbayev University)
говорит с академическим упором:

ИИ
Фото: из личного архива

«Университет и исследовательский центр — это не имиджевый проект, а инструмент создания научной экосистемы. Я скажу проще — это крупные прорывы, которые  невозможны без „критической массы“ — профессорско-преподавательского состава, аспирантов, лабораторий и постоянного доступа к вычислительным ресурсам и данным. Нужен мост между наукой и экономикой. Университет должен работать по трем линиям одновременно: фундаментальные исследования, прикладные разработки и коммерциализация через стартап-студии и акселераторы. На практике это значит создавать условия, где студенты и молодые ученые могут быстро проверять гипотезы, прототипировать решения и привлекать инвестиции — внутри страны и на международном рынке» — поделился Варол. 

Он также подчеркивает значение локальных языковых и мультимодальных моделей (Kaz-LMM, AlemLLM, Oylan и т. д.): не только ради технологического суверенитета, но и ради сохранения культурной и языковой специфики при внедрении ИИ в госуслуги и образование. Такая позиция дает ответ на риск «унификации мышления», о котором говорил Президент: технологии должны отражать идентичность общества.

Бакытжан Ешмухамбетов, председатель Ассоциации по развитию ИИ в Казахстане
концентрируется на правовом и этическом каркасе.

ИИ
Фото: из личного архива

«Я думаю, что без понятных правил выгод от ИИ будет меньше, а рисков наоборот больше. На мой взгляд есть три базовых слоя регулирования сферы ИИ  — этика, технические стандарты и юридическая ответственность. Эти элементы должны быть взаимосвязаны через обязательную цифровую экспертизу всех новых госуслуг и через механизмы ответственности за вред, причиненный алгоритмами», — убежден Б.Ешмухамбетов

На рынке труда появятся новые профессии на стыке технологий и гуманитарных наук — от инженеров по этике ИИ до кураторов обучающих датасетов и юристов цифровых прав. И поэтому задача государства и вузов — не только готовить «айтишников», но и формировать междисциплинарные компетенции, — говорит Ешмухамбетов.  

Кроме того председатель Ассоциации по развитию ИИ в Казахстане отмечает, что закон «Об искусственном интеллекте» и связанный с ним Цифровой кодекс должны не просто декларировать принципы, но и давать конкретные инструменты — например, механизмы мониторинга, открытые реестры алгоритмов, требования к explainability в критичных системах. Это важный акцент: законодательство должно быть живым инструментом, а не набором благих пожеланий. Принятие соответствующих норм уже продвигается в Парламенте.

ИИ не самоцель, а инструмент. Его ценность определяется тем, как мы встроим его в институты и как защитим людей от новых угроз. Если государство, бизнес и наука начнут действовать синхронно, у Казахстана есть шанс занять свое уникальное место в мире, сформировать собственную, ответственную и конкурентоспособную модель цифрового развития.

Сейчас читают