80 лет Великой Победе!

Эксперт предупредил о серьезной проблеме при применении ИИ в бою

Эксперты предупреждают, что передача функций принятия решений от человека к ИИ может создать серьезные юридические и этические пробелы, связанные с определением ответственных за последствия таких действий. Заместитель директора Института информационной и медиабезопасности Университета имени Кутафина (МГЮА) Руслан Рашитханов в интервью РИА Новости отметил, что использование ИИ в боевых операциях ставит под вопрос, кто именно будет нести ответственность за результаты применения силы — человек или машина.

Согласно информации агентства Рейтер, Министерство обороны США планирует постоянное внедрение системы ИИ под названием Maven в вооруженные силы. Эта система уже применяется в операциях, включая нанесение ударов по объектам в Иране, что свидетельствует о растущей роли ИИ в современных военных конфликтах. Использование подобных технологий позволяет повысить оперативность и точность военных действий, однако одновременно вызывает опасения относительно контроля и этического регулирования таких решений.

Развитие и интеграция искусственного интеллекта в военную сферу требует тщательного анализа и выработки международных норм, которые смогут обеспечить прозрачность и ответственность за действия, совершенные с помощью ИИ. Без четкого регулирования существует риск возникновения ситуаций, когда последствия применения силы останутся без должного контроля и оценки. Таким образом, важно не только технически совершенствовать ИИ-системы, но и создавать правовые рамки, которые помогут избежать неопределенности и обеспечить безопасность в условиях быстрого технологического прогресса.

Современные правовые нормы и военные доктрины уделяют особое внимание роли искусственного интеллекта в принятии решений, связанных с применением силы. В рамках существующей правовой системы ИИ рассматривается прежде всего как инструмент информационно-аналитической поддержки, который помогает уполномоченным лицам принимать обоснованные решения. Однако ключевой момент заключается в том, что окончательное юридически значимое решение должно оставаться за человеком — именно он несет ответственность за применение силы. Если же искусственный интеллект начинает самостоятельно принимать волевые решения, фактически заменяя должностное лицо, возникает серьезный пробел в правовом регулировании. В такой ситуации становится проблематичным определить, кто именно несет ответственность за последствия, что создает угрозу правовой определенности и безопасности. Именно поэтому российское законодательство и военная доктрина четко закрепляют положение, что никакое техническое средство не может подменять человека в вопросах применения силы. Такой подход обеспечивает сохранение контроля и ответственности на уровне человека, что является фундаментальным принципом правового государства и международного права, направленного на предотвращение злоупотреблений и ошибок в критически важных решениях. Таким образом, развитие технологий ИИ должно сопровождаться строгими нормативными рамками, которые гарантируют, что решения, связанные с применением силы, будут приниматься только уполномоченными лицами, обладающими необходимой компетенцией и ответственностью.

В современную эпоху внедрения искусственного интеллекта в военные технологии возникает необходимость тщательного правового регулирования его применения. Как только результаты работы систем ИИ начинают непосредственно влиять на параметры боевого решения, активируется не только внутренний правовой режим информационной системы, но и международно-правовой режим, регулирующий средства и методы ведения войны. В частности, в этом контексте важное значение приобретает Дополнительный протокол от 8 июня 1977 года к Женевским конвенциям, который устанавливает ключевые нормы применения силы в вооружённых конфликтах.

По словам эксперта, согласно статье 36 данного Дополнительного протокола, юридическая оценка направлена не на сам алгоритм или техническое средство, а на конкретную конфигурацию его использования в рамках применения силы. Это означает, что правовой анализ должен учитывать, каким образом и в каких условиях система ИИ применяется в боевой обстановке. Кроме того, статья 57 того же протокола накладывает обязанность принимать все практически возможные меры предосторожности при ведении нападения. Она закрепляет основные принципы международного гуманитарного права — различение между военными и гражданскими объектами, соразмерность применяемых средств и мер предосторожности для минимизации ущерба гражданскому населению.

Таким образом, интеграция искусственного интеллекта в военные операции требует не только технической, но и глубокой правовой экспертизы, чтобы обеспечить соблюдение международных норм и гуманитарных принципов. Это подчеркивает важность комплексного подхода к разработке и применению ИИ в вооружённых конфликтах, который учитывает не только эффективность, но и этические и юридические аспекты. В конечном итоге, соблюдение международного права способствует снижению риска неправомерного применения силы и защите прав человека в условиях войны.

В современном мире развитие технологий искусственного интеллекта вызывает множество вопросов, связанных с их правовым статусом и применением в различных сферах, включая военную. В частности, эксперт подчеркнул, что ни российское законодательство, ни международные правовые нормы на сегодняшний день не признают системы искусственного интеллекта в качестве самостоятельных субъектов, обладающих правом принимать боевые решения. Это означает, что ответственность за использование ИИ в военных операциях по-прежнему лежит на человеке, который контролирует и направляет действия таких систем. Таким образом, правовая база требует дальнейшего развития и адаптации, чтобы учитывать быстрое внедрение ИИ в оборонную сферу и обеспечить безопасность и этичность его применения. В заключение, важно отметить, что несмотря на технический прогресс, юридические рамки пока не позволяют искусственному интеллекту выступать в роли независимого участника боевых действий, что подчеркивает необходимость строгого контроля и регулирования в этой области.

Источник и фото - ria.ru