Опубликована новая версия этических принципов Искусственного Интеллекта на территории ЕС

Экспертная группа Европейского союза по вопросам искусственного интеллекта опубликовала новую версию этических принципов доверия искусственному интеллекту (ИИ). Основная цель документа – сбор комментариев и доработок текста от экспертного сообщества специалистов по машинному и глубинному обучению.

Основные принципы изложенные для заслуживающего доверия ИИ:

  1. Законность – как самих целей внедрения, так и источников получения данных для построения ИИ. Соблюдение всех норм законодательства
  2. Этичность – соблюдение этических ценностей и требования, предъявляемых к искусственному интеллекту
  3. Надежность – с технической и социальной точки зрения.

И если с законность все более или менее понятно, то относительно этичности всегда витают споры в сообществе специалистов по ИИ.

Экспертная группа ЕС по вопросам ИИ публикует 7 основных аспектов, что позволяет считать конкретный пример применения искусственного интеллекта этичным:

1.Человеческий надзор и контроль. Системы ИИ должны наделять людей полномочиями, позволяющими им принимать обоснованные решения и поощрять их основные права. В то же время необходимо обеспечить надлежащие механизмы надзора, которые могут быть достигнуты с помощью подходов.

2. Надежность и безопасность: системы ИИ должны быть устойчивыми и безопасными. Они должны быть безопасными, обеспечивать запасной план (запасную параллельную модель) на случай сбоя или устойчивых ошибок в первой.

3. Конфиденциальность и управление данными: помимо обеспечения соблюдения конфиденциальности и защиты данных, необходимо также обеспечить адекватные механизмы управления данными с учетом качества и целостности данных.

4. Многообразие, недискриминация и справедливость: необходимо избегать несправедливой предвзятости, поскольку она может иметь многочисленные негативные последствия, начиная с маргинализации уязвимых групп и кончая обострением предрассудков и дискриминации.

5. Социальное и экологическое благополучие: системы ИИ должны приносить пользу всем людям, включая будущие поколения.

6. Подотчетность: следует создать механизмы для обеспечения ответственности и подотчетности за системы ИИ и их результаты. Аудируемость, которая позволяет оценивать алгоритмы, данные и процессы проектирования, играет ключевую роль в искусственном интеллекте.

7. Прозрачность или интерпретируемость результатов: бизнес-модели данных, системы и ИИ должны быть прозрачными. Этому могут способствовать механизмы отслеживания. Кроме того, системы ИИ и их решения следует разъяснять таким образом, чтобы они были адаптированы запросам к разъяснению «решения» соответствующим заинтересованным сторонам

По завершении пилотного этапа, в начале 2020 года Экспертная группа Европейского союза по вопросам ИИ рассмотрит оценочные списки для ключевых требований. На основе обзора Экспертной группы Европейская Комиссия оценит результат и предложит дальнейшие шаги по усовершенствованию методических указаний.