Эксперт предупредил о серьезной проблеме при применении ИИ в бою

Эксперты предупреждают, что передача контроля от человека к системе ИИ может создать значительный "пробел" в определении ответственных лиц, что существенно осложнит оценку и регулирование действий на поле боя. Заместитель директора Института информационной и медиабезопасности Университета имени Кутафина (МГЮА) Руслан Рашитханов в интервью РИА Новости отметил, что использование ИИ для принятия боевых решений ставит под угрозу традиционные механизмы ответственности и контроля.
По информации агентства Рейтер, Министерство обороны США намерено внедрить систему искусственного интеллекта Maven на постоянной основе в вооруженных силах страны. Эта система уже применяется в операциях, включая нанесение ударов по объектам в Иране, что демонстрирует активное использование ИИ в современных военных действиях. Постепенное расширение роли ИИ в военной сфере поднимает вопросы не только технического характера, но и этического, касающегося правомерности и последствий применения автономных систем.Таким образом, интеграция искусственного интеллекта в военные решения требует тщательного анализа и разработки новых нормативных рамок, которые смогут обеспечить прозрачность, ответственность и контроль над использованием таких технологий. Без этого существует риск возникновения неопределенности в вопросах ответственности за действия, совершенные автономными системами, что может привести к серьезным международным и правовым конфликтам.Современные правовые нормы и военные доктрины уделяют особое внимание роли человека в принятии критически важных решений, связанных с применением силы. В контексте использования искусственного интеллекта (ИИ) система рассматривается преимущественно как инструмент информационно-аналитической поддержки, который помогает уполномоченным лицам принимать более обоснованные решения. Однако ключевым принципом остается то, что окончательное юридически значимое решение должно приниматься именно человеком. Если же ИИ начинает самостоятельно принимать решения, фактически замещая волю должностного лица, возникает серьезная правовая и этическая проблема — исчезает четкий субъект ответственности, что создает пробел в системе распределения ответственности за последствия таких решений. Этот пробел может привести к неопределенности в вопросах юридической ответственности и подрыву доверия к правовой системе. В связи с этим российское законодательство и военная доктрина однозначно закрепляют, что никакая техническая система не может заменить человека в принятии решения о применении силы. Таким образом, человек остается центральной фигурой в процессе принятия решений, обеспечивая контроль и ответственность, что является необходимым условием для соблюдения правовых и этических стандартов в сфере безопасности и обороны. Рашитханов подчеркнул, что именно этот подход помогает сохранить баланс между технологическим прогрессом и необходимостью человеческого контроля в критически важных ситуациях.В современном мире внедрение искусственного интеллекта в военные технологии вызывает множество сложных юридических и этических вопросов, требующих тщательного анализа и регулирования. Особое значение приобретает момент, когда выводы системы ИИ начинают непосредственно влиять на принятие боевых решений, поскольку в этот момент активируется не только внутренний правовой режим самой информационной системы, но и международно-правовой режим, регулирующий средства и методы ведения войны. В частности, это касается положений Дополнительного протокола от 8 июня 1977 года к Женевским конвенциям, который устанавливает важные нормы для использования таких технологий в вооружённых конфликтах.Как отметил эксперт, согласно статье 36 данного протокола, юридическая оценка должна проводиться не просто алгоритма или технического средства, а конкретной конфигурации его применения в контексте использования силы. Это означает, что анализируется не сама технология, а то, каким образом она интегрирована в боевые операции и как её использование соответствует международным нормам. Кроме того, статья 57 того же протокола накладывает обязательство на стороны конфликта принимать все практически возможные меры предосторожности при проведении нападений. Эти меры направлены на соблюдение ключевых принципов международного гуманитарного права — различения между военными и гражданскими объектами, соразмерности применяемой силы и предосторожности для минимизации ущерба гражданскому населению.Таким образом, правовое регулирование применения систем искусственного интеллекта в военных действиях требует комплексного подхода, учитывающего как технические особенности ИИ, так и строгие международные нормы, направленные на защиту гуманности в условиях вооружённых конфликтов. Только при соблюдении этих принципов возможно обеспечить законность и этичность использования новых технологий на поле боя, минимизируя риски для гражданских лиц и поддерживая международный порядок.В современном мире развитие технологий искусственного интеллекта вызывает множество вопросов, связанных с их правовым статусом и этическими аспектами применения в военной сфере. В частности, эксперт подчеркнул, что ни российское законодательство, ни существующие международные правовые нормы не предусматривают признание систем искусственного интеллекта в качестве самостоятельных субъектов, обладающих правом принимать боевые решения. Это означает, что ответственность за применение таких систем в боевых условиях по-прежнему лежит на людях — операторах, командирах и государственных органах. Важно учитывать, что правовые рамки пока не адаптированы к быстрому развитию ИИ, что требует дальнейших исследований и возможного обновления законодательства для обеспечения контроля и предотвращения злоупотреблений. Таким образом, несмотря на технологический прогресс, принятие ключевых решений в военной сфере остается прерогативой человека, что подчеркивает необходимость соблюдения этических норм и международных договоренностей.Источник и фото - ria.ru