Европарламент 13 марта утвердил первый в мире свод основных правил, регулирующих деятельность искусственного интеллекта – предварительного политического консенсуса по этому вопросу удалось достичь еще в начале декабря 2023 года.

Как сообщается, основная идея нового закона заключается в регулировании искусственного интеллекта в зависимости от его способности нанести вред обществу – чем выше риск, тем строже правила.

Инструменты ИИ, представляющие «явный риск для основных прав и свобод», будут запрещены – например, те, что связаны с обработкой биометрических данных, выставлением социального рейтинга, а также распознаванием эмоций в школах и на рабочих местах.

Среди других запрещенных видов использования – сканирование полицейскими лиц в общественных местах с помощью дистанционных систем биометрической идентификации на базе ИИ, за исключением серьезных преступлений, таких как похищение людей или терроризм.

Системы ИИ, считающиеся «высокорискованными» (например, используемые в критической инфраструктуре, образовании, здравоохранении, правоохранительных органах, пограничном контроле или на выборах) должны будут соответствовать строгим требованиям.

Сервисы с низким уровнем риска, такие как спам-фильтры, будут регулироваться наиболее мягко – в ЕС ожидают, что большинство услуг попадут в эту категорию.

Нарушения закона об искусственном интеллекте могут повлечь за собой штрафы в размере до 35 млн. евро, или 7% глобальной выручки компании.

Ожидается, что новые нормы вступят в силу по окончании работы законодательного органа в мае, после того как закон пройдет окончательную проверку и получит одобрение Европейского совета. Реализация его положений будет происходить поэтапно, начиная с 2025 года.

Что будет с ChatGPT?

Особое внимание в новом законе уделяется самым большим и мощным моделям искусственного интеллекта, которые представляют «системные риски», включая GPT4 от OpenAI и Gemini от Google.

В ЕС заявляют, что обеспокоены тем, что эти ИИ-системы могут привести к серьезным авариям или быть использованы для кибератак, а также повлиять на распространение «вредных предубеждений» в обществе.

Компании, предоставляющие такие сервисы, должны будут сообщать о любых серьезных происшествиях, включая неполадки, повлекшие чью-либо смерть, серьезный вред здоровью или имуществу, а также принять меры по усилению кибербезопасности и раскрыть данные о том, сколько энергии потребляют их ИИ-модели.

Кроме того, созданные искусственным интеллектом дипфейковые изображения, видео или аудио с использованием образов реальных людей, мест или событий должны быть особым образом помечены.

Источник: myfin.by