Закон и порядок: ИИ
13 марта 2024 г. Парламент ЕС одобрил Закон об искусственном интеллекте. Закон направлен на соблюдение прав и безопасности людей при одновременной поддержке развития новых технологий.
Цель принятого документа: «защита фундаментальных прав, демократии, верховенства закона и экологической устойчивости от повышенных рисков использования искусственного интеллекта, а также стимулирование инноваций и утверждение Европы в качестве лидера в этой области. Регламент устанавливает обязательства в отношении ИИ, исходя из его потенциальных рисков и уровня воздействия.»
Что запрещено
Запрещается использовать приложения, если они угрожают правам граждан, в том числе системы биометрической категоризации, основанные на чувствительных характеристиках (включая нецелевой сбор изображений лиц из Интернета или с записей камер видеонаблюдения для создания баз данных). Запрещено также использовать системы распознавания эмоций на рабочих местах или в школах, социального оценивания, манипулирования поведением людей с помощью ИИ.
Что разрешено для правоохранительных органов
Использование правоохранительными органами биометрии для идентификации человека принципиально запрещено за исключением перечисленных и четко оговоренных ситуаций. Системы биометрической идентификации (СБИ) в реальном времени могут быть использованы только при соблюдении мер безопасности, например, в течение ограниченного времени и географических рамок при наличии предварительного разрешения (судебного или административного). Речь идет, например, о поиске пропавшего человека или о предотвращении террористической атаки. Использование СБИ «пост-фактум» является вариантом использования с высоким риском и может применяться только при наличии судебного постановления по уголовным преступлениям.
Использование систем с высоким уровнем риска
Для других систем ИИ с высоким уровнем риска также предусмотрены четкие обязательства (из-за их значительного потенциального вреда здоровью, безопасности, основным правам, окружающей среде, демократии и верховенству закона). Области, где использование ИИ имеет высокий уровень риска - это критически важная инфраструктура, образование, трудовая деятельность, базовые частные и государственные услуги для населения (например, здравоохранение, банковский сектор), определенные системы правоохранительных органов, миграция и пограничная служба, правосудие и демократические процессы (например, влияние на выборы). Системы ИИ в данных сферах должны проходить оценку, быть прозрачными и контролироваться человеком для снижения возможных рисков. Граждане будут иметь право подавать жалобы и получать разъяснения по поводу решений, основанных на системах ИИ высокого риска, которые затрагивают их права.
Прозрачность и авторские права
Системы ИИ и основанные на них модели общего назначения должны соответствовать требованиям прозрачности, включая соблюдение положений закона ЕС об авторском праве и публикацию подробных обзоров контента, используемого для обучения. Более мощные модели ИИ общего назначения, связанные с возможными системными рисками, должны будут соответствовать дополнительным требованиям, таким, как проведение оценки, принятие мер по снижению рисков и ведение отчетов об инцидентах.
Кроме этого, аудио- и видеоконтент, созданный при участии ИИ («дипфейки»), должен маркироваться.
Как сообщается на официальном сайте Европарламента, закон должен пройти юридико-лингвистическую экспертизу, а также получить официальное одобрение Совета.
Документ вступит в силу через двадцать дней после его публикации в официальном журнале, он начнет применяться через 24 месяца после вступления в силу за исключением ряда положений, для которых установлены другие сроки.
По теме:
У искусственного интеллекта появился собственный Кодекс
Искусственный интеллект получит правовой статус
Пер. с англ. Наталья Вознесенская