Опубликована новая версия этических принципов Искусственного Интеллекта на территории ЕС
Экспертная группа Европейского союза по вопросам искусственного интеллекта опубликовала новую версию этических принципов доверия искусственному интеллекту (ИИ). Основная цель документа – сбор комментариев и доработок текста от экспертного сообщества специалистов по машинному и глубинному обучению.
Основные принципы изложенные для заслуживающего доверия ИИ:
- Законность – как самих целей внедрения, так и источников получения данных для построения ИИ. Соблюдение всех норм законодательства
- Этичность – соблюдение этических ценностей и требования, предъявляемых к искусственному интеллекту
- Надежность – с технической и социальной точки зрения.
И если с законность все более или менее понятно, то относительно этичности всегда витают споры в сообществе специалистов по ИИ.
Экспертная группа ЕС по вопросам ИИ публикует 7 основных аспектов, что позволяет считать конкретный пример применения искусственного интеллекта этичным:
- Человеческий надзор и контроль. Системы ИИ должны наделять людей полномочиями, позволяющими им принимать обоснованные решения и поощрять их основные права. В то же время необходимо обеспечить надлежащие механизмы надзора, которые могут быть достигнуты с помощью подходов.
- Надежность и безопасность: системы ИИ должны быть устойчивыми и безопасными. Они должны быть безопасными, обеспечивать запасной план (запасную параллельную модель) на случай сбоя или устойчивых ошибок в первой.
- Конфиденциальность и управление данными: помимо обеспечения соблюдения конфиденциальности и защиты данных, необходимо также обеспечить адекватные механизмы управления данными с учетом качества и целостности данных.
- Многообразие, недискриминация и справедливость: необходимо избегать несправедливой предвзятости, поскольку она может иметь многочисленные негативные последствия, начиная с маргинализации уязвимых групп и кончая обострением предрассудков и дискриминации.
- Социальное и экологическое благополучие: системы ИИ должны приносить пользу всем людям, включая будущие поколения.
- Подотчетность: следует создать механизмы для обеспечения ответственности и подотчетности за системы ИИ и их результаты. Аудируемость, которая позволяет оценивать алгоритмы, данные и процессы проектирования, играет ключевую роль в искусственном интеллекте.
- Прозрачность или интерпретируемость результатов: бизнес-модели данных, системы и ИИ должны быть прозрачными. Этому могут способствовать механизмы отслеживания. Кроме того, системы ИИ и их решения следует разъяснять таким образом, чтобы они были адаптированы запросам к разъяснению «решения» соответствующим заинтересованным сторонам.
По завершении пилотного этапа, в начале 2020 года Экспертная группа Европейского союза по вопросам ИИ рассмотрит оценочные списки для ключевых требований. На основе обзора Экспертной группы Европейская Комиссия оценит результат и предложит дальнейшие шаги по усовершенствованию методических указаний.