Социум

Что изменится для казахстанцев после принятия нового Закона об ИИ

Written by Редактор

17 ноября Президент Казахстана подписал Закон «Об искусственном интеллекте». Это первый комплексный документ, регулирующий работу нейросетей, автоматизированных систем и синтетического контента в стране. Что это означает для обычных казахстанцев?

Он вступит в силу через 60 дней и станет основой для того, как технологии ИИ будут использоваться в медиа, бизнесе, госуслугах и повседневной жизни граждан.

ПОЧЕМУ ОТДЕЛЬНЫЙ ЗАКОН?

Еще два года назад понятия «нейросети», «генеративные модели» и «дипфейки» звучали как что-то далекое для большинства пользователей. Но массовое распространение ИИ, к примеру, того же ChatGPT, сделало вопрос регулирования как никогда актуальным.

Прежде в Казахстане использовались лишь отдельные нормы в законах «Об информации», «О персональных данных», Кодексе об административных правонарушениях. Но потребовалась цельная рамка, которая определит, кто отвечает за действия ИИ, как обеспечивается прозрачность алгоритмов, что делать при ошибках и где проходит граница между допустимым и опасным использованием технологий.

Депутат Мажилиса Екатерина Смышляева, руководившая рабочей группой по законопроекту, неоднократно подчеркивала, что искусственный интеллект не признается субъектом права. Ответственность за все решения, принятые с его помощью, всегда остается за человеком.

Работа над пакетом законов об ИИ началась еще в 2024 году. В марте 2025 года депутат Екатерина Смышляева представила проект закона «Об искусственном интеллекте» в Мажилисе.

И это ключевой принцип. Нейросеть – это не цифровой специалист, который разбирается во всех отраслях, а лишь инструмент, за который отвечает тот, кто им пользуется.

ЧТО МЕНЯЕТСЯ ДЛЯ ГРАЖДАН

Во-первых, появится маркировка синтетического контента. С 2026 года видеоролики, фото, аудио и тексты, созданные или измененные ИИ, должны будут сопровождаться специальным указанием. Это касается дипфейков, аватаров, нейроредактированных изображений и даже полностью сгенерированных новостей.

Это делается для того, чтобы потребитель всегда понимал, где контент, созданный человеком, а где искусственно созданный образ. При этом важно понимать, что в случае ошибки ответственность несет человек.

– ИИ помогает не нарушить право на изображение и защитить персональные данные, например, когда речь идет о чувствительных темах, когда нельзя показывать жертв насилия или детей. В таких материалах маркировка тоже обязательна, но она не вызовет негативной реакции у читателей, потому что использование ИИ в данной ситуации вполне оправданно, – отмечает юрист Правового медиацентра Гульмира Биржанова.

Таким образом, синтетические лица и анонимизированные изображения позволяют журналистам рассказывать истории, не раскрывая личности героев. Однако есть и риски.

– Минусы – это достоверность информации. Журналисты иногда берут текст от ИИ, не проверяют и публикуют. Модель может выдумывать, неправильно цитировать и ставить несуществующие ссылки, – подчеркивает Биржанова.

Во-вторых, закон будет направлен на защиту от дипфейков. В последние годы Казахстан пережил всплеск таких сгенерированных видеороликов. Причем рядовые пользователи применяли новую технологию для создания креативных или юмористических видеороликов, а мошенники – для обмана.

– Когда используют публичные лица в рекламе, как в истории с акимом Экибастуза Аяном Бейсекиным, с которым был создан дипфейк, будто он покупает куртку в одном из бутиков в рекламном ролике – это еще безобидно, и несмотря на то, что нельзя использовать изображения в коммерческих целях без согласия. Реакция акима была достаточно адекватной, он отнесся с юмором. Но когда дипфейк призывает к несанкционированным митингам или используется в мошенничестве – это уже противоправно и несет реальную опасность. В таких случаях ответственность будет и для тех, кто создает контент и для тех, кто его распространяет, – приводит характерные примеры Гульмира Биржанова.

Закон прямо запрещает манипулирование поведением граждан, создание ложных образов и классификацию людей по чувствительным признакам.

В-третьих, у казахстанцев появляется важная гарантия – они смогут запрашивать информацию о том, какие данные использовала система, как принималось решение и на каком основании.

Например: почему алгоритм отказал в кредите, почему система поставила «низкий рейтинг надежности», почему робот-оператор не дал доступ к услуге.

Это направление особенно важно, поскольку ИИ все чаще используется в банках, страховании, HR и сервисах госуслуг.

Большое внимание в законе уделяется введению классификации систем искусственного интеллекта по нескольким критериям: степени риска, уровню автономности и типу (открытые, закрытые и локальные системы).

Полностью автономные системы – те, где человек не может вмешаться в процесс принятия решений, – прямо исключены из регулирования как нереалистичные для нынешнего уровня развития технологий. Они не применяются на практике нигде в мире, поскольку считаются неэтичными.

К примеру, если медицинская система ИИ самостоятельно без врача ставит диагноз и пациент не может оспорить решение, то это высокая автономность. Она недопустима согласно новому закону.

В-четвертых, закон усиливает защиту персональных данных. Обучение моделей не может происходить на данных, собранных незаконно, а любые автоматизированные процессы должны соответствовать требованиям по сохранности информации.

Это реакция на громкие утечки последних лет, как случай с утечкой базы данных на 16 млн граждан, массовый слив номеров телефонов в сеть.

Скорректированы и другие акты, в том числе и об оперативно-розыскной деятельности, органах национальной безопасности, лицензировании в сфере кибербезопасности, торговой деятельности и цифровых активах. Часть поправок связана не только с ИИ, но и с общим усилением регулирования в цифровой среде.

ИЗМЕНЕНИЯ В СОПУТСТВУЮЩИХ ЗАКОНАХ

Третий элемент пакета – поправки в Кодекс об административных правонарушениях. Закон № 232-VIII вводит новую статью 641-1, устанавливающую административную ответственность за нарушение законодательства РК в сфере искусственного интеллекта.

Речь идет прежде всего о действиях или бездействии собственников и владельцев систем ИИ – тех, кто запускает, эксплуатирует и предоставляет такие решения пользователям.

При первом нарушении штраф составляет 15 МРП для физических лиц, 20 МРП для малого бизнеса и НПО, 30 МРП для субъектов среднего бизнеса и до 100 МРП для крупного бизнеса. При повторном нарушении в течение года штрафы увеличиваются до 30, 50, 70 и 200 МРП соответственно.

Новый закон фиксирует минимальные правила игры: человеческие права выше алгоритмов, решения ИИ должны быть объяснимыми, а за последствия всегда отвечает человек, а не ИИ-модели.

Для бизнеса закон добавляет дополнительные обязанности по документированию, маркировке при использовании ИИ-инструментов.

Екатерина БАЙНЯШЕВА, карикатура
сгенерирована ИИ,
фото со страницы
в Фейсбуке героя материала


Много сидишь в социальных сетях? Тогда читай полезные новости в группах "Наш Костанай" ВКонтакте, в Одноклассниках, Фейсбуке и Инстаграме. Сообщить нам новость можно по номеру 8-776-000-66-77

About the author

Редактор