Генерал армии США рассказал о смертоносной мощности ИИ
На фоне новостей о разработке первого робота с боевым оружием такие фильмы как «терминатор» уже не кажутся удивительным воображением. Реальная ошибка или неисправность в работе ИИ на поле боя может привести к тому, что робот не станет ждать приказа для открытия огня по цели.
В прошлом генерал армии США Стэнли Маккристал рассказал журналистам своё видение дальнейшей истории искусственного интеллекта на поле боя. Военный уверен, что роботы получат возможность самостоятельно принимать решения, если это потребуется. В условиях ускоряющихся темпов войны времени на принятия решение у командования не будет и эта задача перейдёт ИИ.
На данный момент люди уверенно заявляют, что искусственный интеллект не получит полного контроля над ситуацией. Однако, Маккристал считает, что таким принципам долго не прожить. Также ИИ опасен в организациях, где до конца не понимают его назначения.
В случае, если в организации нет понимания какие решения принимаются алгоритмически, а какие людьми, это приводит к огромному риску потери контроля над искусственным интеллектом. Такая опасность сравнима с выходом из строя робота на поле боя.