11 апреля 2019
1 206

Опубликована новая версия этических принципов Искусственного Интеллекта на территории ЕС

Экспертная группа Европейского союза по вопросам искусственного интеллекта опубликовала новую версию этических принципов доверия искусственному интеллекту (ИИ). Основная цель документа – сбор комментариев и доработок текста от экспертного сообщества специалистов по машинному и глубинному обучению.

Основные принципы изложенные для заслуживающего доверия ИИ:

  1. Законность – как самих целей внедрения, так и источников получения данных для построения ИИ. Соблюдение всех норм законодательства
  2. Этичность – соблюдение этических ценностей и требования, предъявляемых к искусственному интеллекту
  3. Надежность – с технической и социальной точки зрения.

И если с законность все более или менее понятно, то относительно этичности всегда витают споры в сообществе специалистов по ИИ.

Экспертная группа ЕС по вопросам ИИ публикует 7 основных аспектов, что позволяет считать конкретный пример применения искусственного интеллекта этичным:

  1. Человеческий надзор и контроль. Системы ИИ должны наделять людей полномочиями, позволяющими им принимать обоснованные решения и поощрять их основные права. В то же время необходимо обеспечить надлежащие механизмы надзора, которые могут быть достигнуты с помощью подходов.
  2. Надежность и безопасность: системы ИИ должны быть устойчивыми и безопасными. Они должны быть безопасными, обеспечивать запасной план (запасную параллельную модель) на случай сбоя или устойчивых ошибок в первой.
  3. Конфиденциальность и управление данными: помимо обеспечения соблюдения конфиденциальности и защиты данных, необходимо также обеспечить адекватные механизмы управления данными с учетом качества и целостности данных.
  4. Многообразие, недискриминация и справедливость: необходимо избегать несправедливой предвзятости, поскольку она может иметь многочисленные негативные последствия, начиная с маргинализации уязвимых групп и кончая обострением предрассудков и дискриминации.
  5. Социальное и экологическое благополучие: системы ИИ должны приносить пользу всем людям, включая будущие поколения.
  6. Подотчетность: следует создать механизмы для обеспечения ответственности и подотчетности за системы ИИ и их результаты. Аудируемость, которая позволяет оценивать алгоритмы, данные и процессы проектирования, играет ключевую роль в искусственном интеллекте.
  7. Прозрачность или интерпретируемость результатов: бизнес-модели данных, системы и ИИ должны быть прозрачными. Этому могут способствовать механизмы отслеживания. Кроме того, системы ИИ и их решения следует разъяснять таким образом, чтобы они были адаптированы запросам к разъяснению «решения» соответствующим заинтересованным сторонам.

По завершении пилотного этапа, в начале 2020 года Экспертная группа Европейского союза по вопросам ИИ рассмотрит оценочные списки для ключевых требований. На основе обзора Экспертной группы Европейская Комиссия оценит результат и предложит дальнейшие шаги по усовершенствованию методических указаний.

Читайте также
Хакеры снова ставят под сомнение безопасность macOS
1 апреля 2024
Белых хакеров подпустят к КИИ
3 апреля 2024
Telegram оказался на крючке у хакеров
5 апреля 2024