Rambler's Top100
 
 
Все новости Новости отрасли

Европа намерена защищать права людей от посягательств ИИ-систем

26 апреля 2021

В среду Еврокомиссия опубликовала «Предложения о регулировании искусственного интеллекта на основе европейского подхода» (Proposal for a Regulation on a European approach for Artificial Intelligence) – документ декларирует необходимость полного запрета на применение систем искусственного интеллекта (ИИ) в ряде случаев.

По сведениям D-Russia , объявлены следующие цели регулирования ИИ в Евросоюзе:
  • обеспечить, чтобы ИИ-системы на рынке ЕС были безопасны и соответствовали закону об основных правах и ценностях Евросоюза;
  • обеспечить правовую определённость использования ИИ-систем, чтобы содействовать инвестициям и инновациям в области ИИ;
  • усовершенствовать регулирование, обеспечить эффективное соблюдение существующего законодательства об основных правах и требованиях безопасности применительно к ИИ-системам;
  • способствовать развитию единого, нефрагментированного рынка законных, безопасных и надёжных ИИ-систем.
Напомним, что Европа стремится стать сверхдержавой в вопросах этики, морали и кибербезопасности в связи с разработкой и использованием ИИ. Ничего другого ей, впрочем, не остаётся, поскольку ЕС существенно (возможно, даже безнадёжно) отстаёт в развитии технологий ИИ от Китая и США, и в области ИИ может рассматриваться даже как киберколония.

«Благополучную развитую Европу, привыкшую к жизни по веками совершенствовавшимся, устоявшимся правилам, более всего заботит, как сохранить статус-кво в обстановке, быстро меняющейся под давлением новых технологий, в частности, ИИ. Жить по-старому в новых условиях – негласный девиз Евросоюза. Подтверждается это, например, тем, что государственное финансирование ИИ-исследований в ЕС гораздо скромнее того, что тратят на ИИ США и Китай», – таково мнение профессора, директора «Центра Сколтеха» по научным и инженерным вычислительным технологиям для задач с большими массивами данных Максима Фёдорова, участника европейской конференции 2019 года, посвящённой влиянию ИИ на права человека, демократию и верховенство права (подробнее о ней D-Russia.ru писал ранее).
Европейский подход к искусственному интеллекту: этика во-первых, закон во-вторых

Впрочем, тем больше оснований изучить европейский опыт разработки законов об ИИ, регулирования ИИ-систем с упором на достижение этических целей и обеспечение прав человека.

Документ содержит прямые запреты на использование ИИ-систем при определённых условиях и для определённых целей: за нарушение компании могут получить штраф в размере до 6% их глобальной выручки.

Прежде всего запрет касается «удалённой биометрической идентификации» в режиме реального времени в общедоступных местах для целей правоохранительной деятельности (речь о видеонаблюдении и технологии распознавания лиц). Однако упоминание режима реального времени, а также оговорка «если не применяются определённые ограниченные исключения» позволяют предположить, что полиция не будет стеснена в возможностях использовать ИИ-системы для слежки за гражданами. Поскольку есть «ограниченные исключения», есть и возможность прописать в этих исключениях всё, что желательно полиции. Например, если нельзя распознавать лица в реальном времени – значит, можно видео записать, а потом его проанализировать.

Под запрет попали также следующие применения ИИ:
  • присвоение человеку «социальных кредитных баллов», ограничивающее его доступ к банковским кредитам и иным ресурсам – по произволу машины, без принятия решения другим человеком;
  • любое использование ИИ-систем, способное причинить физический вред людям (например, неконтролируемое врачом назначение лечения ИИ-системой);
  • манипулирование поведением людей с помощью «подсознательных сигналов» (насколько люди некритично воспринимают прочитанное в социальных сетях и насколько подвержены влиянию, свидетельствуют результаты многих исследований).
Представлявшая «Предложения…» еврокомиссар по вопросам конкуренции Маргрете Вестагер (Margrethe Vestager) заявила: «Мы запрещаем это вообще, поскольку считаем просто неприемлемым», пишет The Verge.

Принцип «если не запрещено, то разрешено» в отношении ИИ-систем в Европе действовать не будет: документ распределяет ИИ-системы по уровням риска для человека, определяя для каждого уровня свои ограничения.

На нижнем уровне ИИ-системы, работа которых непосредственно с людьми не связана. Таковы, например, самообучающиеся системы фильтрации спама – для них и подобных им систем новое регулирование не будет применяться вообще.

Второй уровень – ИИ-системы ограниченного риска: например, чат-боты для заказа билетов или технологии, потенциально применимые для создания «deep fakes». Регулирование таких систем предусмотрено и будет разработано, но не для них написаны «Предложения…».

Высший уровень – высокорискованные ИИ-системы, управляющие критически важными механизмами, непосредственно влияющие на материальные аспекты жизни людей и на их здоровье. Именно на таких системах документ и сосредоточен. Пример высокорискованных ИИ-систем – беспилотные автомобили.

Для таких ИИ-систем декларируется обязательное использование высококачественных обучающих данных (цель – минимизировать риск «предвзятости», т.е. фиксации в ИИ-системе не обязательно правильной практики, сложившейся к моменту обучения нейросети), обязательный «надзор» со стороны людей, подробное документирование, позволяющее регулятору и гражданам понять, как «рассуждает» ИИ. В первую очередь это относится к ИИ-системам, непосредственно взаимодействующим с людьми.

«Предложения…» Еврокомиссии при ближайшем рассмотрении не содержат ничего нового, ничего такого, о чём не было бы сказано ранее специалистами или примкнувшими к ним представителями других организаций, далёких от науки и технологий.

Ценность европейских «Предложений…» состоит в самом факте их появления, в попытке кодифицировать в юридически значимом тексте этические принципы использования обслуживающих человека машин, способных к самостоятельному принятию решений.

Документ ставит, но ещё не решает такую задачу. Для создания действующих законов об ИИ потребуются, очевидно, годы.

Источник: D-Russia

Поделиться:
Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!

Оставить свой комментарий:

Для комментирования необходимо авторизоваться!

Комментарии по материалу

Данный материал еще не комментировался.