

На сайте Google, посвящённом принципам искусственного интеллекта, исчезло обещание не использовать ИИ для создания оружия.
Ранее принципы ИИ включали абзац с заголовком «Приложения ИИ, которые мы не будем развивать». Компания обещала не разрабатывать ИИ для технологий, способных нанести вред человечеству, в том числе для оружия.
В ответ на просьбу Bloomberg прокомментировать ситуацию Google прислала ссылку на недавнюю статью в своём блоге, посвящённую опасному ИИ.
Мы считаем, что демократические страны должны играть ведущую роль в развитии ИИ, руководствуясь такими основными ценностями, как свобода, равенство и уважение прав человека. Компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создавать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность.
По словам Маргарет Митчелл, бывшего руководителя команды Google по этичному ИИ, удаление этого абзаца может сигнализировать о том, что Google будет разрабатывать технологии, которые «могут убивать людей».
Удаление данного абзаца сводит на нет работу, проделанную в Google многими специалистами из сферы этичного ИИ и активистами, и, что ещё более проблематично, означает, что компания, вероятно, теперь будет работать над внедрением технологий, которые могут убивать людей.
Маргарет Митчелл, бывший руководитель команды Google по этичному ИИ
Bloomberg отмечает, что сотрудники Google долго спорили о том, как эффективно разрабатывать ИИ и учитывать этические проблемы. Некоторые из них высказывали опасения, что стремление компании вернуть себе лидерство в области ИИ привело к этическим промахам. [Bloomberg]