Надія Сербенко
4. Основні принципи міжнародного гуманітарного права, що стосуються ведення бойових дій і застосування АСО
В міжнародному гуманітарному праві такими є — принцип розрізнення цілей і принцип пропорційності. Саме з їх дотриманням повинні функціонувати автономні системи озброєння (АСО), а забезпечувати їх застосування — це вже завдання будь-якої держави, яка планує використовувати такі системи.
Згідно з першим принципом, така зброя має виявляти різницю між цивільними особами, озброєними цивільними особами (співробітники правоохоронних органів або мисливці), тими, хто вибув зі строю (поранений або хворий), які здаються в полон, а також комбатантами.
Щодо другого принципу, то число жертв серед цивільного населення має бути мінімальне. Випадкові ж втрати, якщо вони і будуть, то не повинні бути надмірними у порівнянні з передбачуваною конкретною і безпосередньою військовою перевагою.
Виходячи з цього, ми об'єктивно розуміємо, що навряд чи розробникам у найближчому майбутньому вдасться створити машини, в яких будуть запрограмовані функції, що враховують ці принципи.
Прихильники використання смертоносної автономної зброї у збройному конфлікті дотримуються поглядів, згідно з якими ці системи можна буде запрограмувати таким чином, що вони будуть діяти «обережно» і, відповідно, втрати серед цивільного населення, нехай навіть і випадкові, будуть мінімальними. Тобто, вони вважають, що автономним системам озброєння будуть властиві такі-собі аналітичні здібності, що дозволять їм визначати: чи буде співмірною заподіяна шкода і отримана військова перевага. Також вони вважають, що використання роботів зможе значно скоротити армійські втрати особового складу. Крім того, роботи будуть спроможні вести бойові дії в біологічно, хімічно або радіоактивно заражених середовищах, а також в космосі і під водою.
Опоненти ж, навпаки, наполягають на тому, що застосування АСО ніколи не буде відповідати основним принципам міжнародного гуманітарного права та міжнародного права в цілому. На їх погляд, таким машинам ніколи не буде притаманний здоровий глузд людей, і, як наслідок — це може призвести до найнесподіваніших і небажаних наслідків. Петер Маурер, президент Міжнародного комітету Червоного Хреста, відзначає, що сьогодні немає жодних гарантій того, що в функціонуванні таких роботів технічно не буде збоїв. До того ж вони можуть потрапити до рук злочинців, терористів чи стати об'єктом хакерської атаки. Небезпека бути вбитим роботами значно підвищить рівень тривоги і створить паніку серед цивільного населення в зоні конфлікту, підкреслює він.
Саме тому МКЧХ закликає держави розглядати проблеми, що можуть виникнути, і вже, зокрема, виникають, у зв'язку з використанням АСО. Так, перш за все, потрібно узгодити їх застосування в умовах збройного конфлікту з принципами і нормами міжнародного гуманітарного права. Ключовою ж проблемою є те, що сьогодні не існує конкретної правової норми щодо автономних систем озброєння. Єдине, про що говорить нам міжнародне гуманітарне право: «... держави повинні з'ясовувати, чи не заборонено міжнародним правом застосування будь-якого нового виду зброї або засобу чи методу ведення війни, які воно розробляє або набуває, за деяких або за будь-яких обставин». Цю вимогу можна знайти в Додатковому протоколі № I до Женевських конвенцій.
Таким чином, застосування АСО в конфліктах — це, по суті, реальна прогалина в міжнародному праві, яку дуже важливо, але одночасно і дуже складно заповнити якоюсь конкретною правовою нормою. Звичайно, можна зробити знижку на те, що все нове важко піддається регламентації, адже для цього представникам держав потрібно досягти консенсусу і спільно ухвалити рішення. Хоча, звичайно, ясно, що кожна держава, яка має в своєму арсеналі АСО, в кінцевому підсумку має на меті задовольнити власні національні інтереси (у т. ч. забезпечити національну безпеку) і не дуже-то охоче зважиться на поступки при ухваленні консенсусного рішення.
Сьогодні можна з великим жалем констатувати, що в геополітичних планах (проектах) цілого ряду держав щодо питання застосування АСО в сучасних війнах і конфліктах все більше будуть превалювати суто національна геополітика і дещо видозмінене право сили. І однією з найважливіших причин цього є те, що сьогодні в міжнародному гуманітарному праві (міжнародному праві) де-факто немає ні правових механізмів, ні правового інструментарію, які б стосувалися регламентації використання АСО.
А як ми вже встигли переконатися, розробка автономних систем озброєння майже відкрито велася раніше, досить приховано продовжує вестися сьогодні (у т.ч. під прикриттям промислових /і навіть гуманітарних/ проектів), а в подальшому буде вестися дуже активно, але повністю приховано.
Так, нещодавно відома компанія Google змогла отримати патент на розроблену нею технологію, що дозволяє модернізувати роботів і роботизовані пристрої. Цей патент описує методи взаємодії величезної кількості роботів через «хмару тегів» для виконання ними різних завдань, при цьому, не обмежуючи їх максимального числа. Таким чином, власник зможе налаштувати свої пристрої так, як йому потрібно і зручно, причому за допомогою смартфону чи будь-якого іншого пристрою, що працює на платформі Android. Контролювати їх дії і поведінку можна з будь-якого місця, де б не знаходився власник, якщо закласти в гаджеті і налаштуваннях роботизованого механізму необхідну програму або код. Компанія запевняє, що «...їх технологія не становить загрози для суспільства і світової безпеки». На їх думку, вона призначена винятково для автоматизації та оптимізації сфери послуг. Також керівництво компанії повідомило, що вони намагатимуться захистити свою технологію від розповсюдження та використання в галузі «гонитви озброєнь».
Але саме у зв'язку з розробкою цієї технології безліч інтернет-сайтів просто переповнені повідомленнями: «Google готує армію роботів». Комісія з миротворчості ООН також вельми стурбована цими новинами. Адже роботи можуть бути використані в якості зброї і набувати ознак воєнізованих спільнот, що може призвести до створення цілої армії з «автономних і смертоносних» учасників, які не мають реального розуму. А у непередбачуваній ситуації це загрожує технічний збоєм, виходом цієї «армії роботів» з-під контролю. Парадоксальним у цій ситуації є те, що ООН зараз проводить консультації з метою вирішити, чи слід обмежити або навіть повністю заборонити розробку автономних летальних видів зброї, і який рівень «осмисленого людського контролю» така зброя повинна була б мати. Що стосується реальних заяв, то офіційний представник Google повідомив, що «... деякі ідеї цього патенту в майбутньому стануть реальними продуктами і послугами, деякі — ні», і, природно, що про власну «армію роботів» не йшлося.
5. Деякі пропозиції з удосконалення та розробки правових норм створення і застосування АСО
Відома міжнародна неурядова організація «Amnesty International» постійно і наполегливо заявляє, що уряди зобов'язані заборонити розробку роботів-вбивць на нових (високих) технологіях, які можуть становити серйозну небезпеку для людей.
Так, вони відстоюють наступну позицію: необхідно прийняти превентивну заборону на розробку, накопичення, передачу, розгортання і використання повністю автономних систем озброєння. І навіть більше, наявність такого виду зброї буде негативно впливати на розвиток геополітичної ситуації і, відповідно, позначиться як на регіональній політиці, так і світовій політиці в цілому — наполягає «Amnesty International».
Як один із варіантів, вважається можливим ухвалити протокол до Конвенції ООН про заборону або обмеження застосування конкретних видів звичайної зброї, яку часто називають Конвенцією по конкретних видах звичайної зброї або Конвенцією про «негуманну» зброю (КНЗ). А оскільки протокол є невід'ємною частиною КНЗ, то силу він буде мати таку ж, як і Конвенція у відповідності зі ст. 4. п. 5 (протокол з міжнародного права є невід'ємною частиною будь-якої Конвенції). Також, згідно зі ст. 8 (розгляд дії та поправки), у подальшому сторони можуть вносити поправки до КНЗ. Або ж потрібно і надалі займатися ідеєю з превентивною забороною АСО.
«Amnesty International» також періодично проводить брифінги щодо використання правоохоронними органами спеціалізованих роботів для охорони правопорядку. За їх прогнозами, очікується, що повністю такі автономні системи озброєння на нових технологіях будуть створені вже через 20-30 років.
Але насправді від уже наявних прототипів БПЛА і роботизованих комплексів до повноцінних роботів-вбивць залишається лише один крок. Як відомо, компанії в США, Великобританії, Росії, Швейцарії, Ізраїлі, Японії, Китаї і в інших країнах вже займаються розробкою т. зв. «менш летальної» роботизованої зброї для використання її як у правоохоронній діяльності, так і у військовій, якою або керують віддалено, або вона стріляє автоматично при виявленні цілі. МКЧХ до такої зброї відносить безпілотні повітряні апарати (дрони), наземні комплекси і платформи, що можуть стріляти електрошоковими дротиками, сльозогінним газом та іншими менш летальними вражаючими елементами, які могли б призвести до загибелі людей або їх серйозного каліцтва.
Для довідки: Один із прикладів — безпілотний літальний апарат «Shadow Hawk», що розробляється у США компанією Vanguard Defense Industries. Він уже використовувався в Афганістані та Східній Африці проти осіб, підозрюваних у диверсійно-терористичній діяльності. Крім того, він може застосовуватися для ураження підозрюваних електрошоком з висоти, а також оснащений вогнепальною зброєю (автоматичною гарматою) дванадцятого калібру і 37 мм або 40 мм гранатометами.Великобританія також нещодавно продемонструвала свій новий автономний безпілотний надзвуковий літак «Taranis». У нього на борту знаходяться керовані касети для розміщення різних видів високоточної зброї, що наводиться на ціль автономно.
|
Що стосується непоправних наслідків таких технологій, то за даними «The Bureau of Investigative Journalism» («Бюро журналістських розслідувань»), внаслідок використання безпілотників у період між 2004 і 2013 рр. було вбито від 2500 до 3500 осіб (серед яких було декілька сотень мирних жителів і до 200 дітей), а також понад одна тисяча поранених.
Таким чином, ми вкотре переконуємося, що проблема з АСО не вигадана, і усім питанням, що виникають в цьому контексті, потрібно приділяти досить пильну увагу. МКЧХ акцентує увагу, що головною проблемою є те, що замість людей рішення прийматимуть машини, а це, у свою чергу, призведе до ослаблення контролю людини над застосуванням озброєної сили.
У цих умовах було б доцільно доручити Комісії міжнародного права розробити проект статей, який у майбутньому зміг би стати фундаментом для нової Конвенції або протоколу до КНЗ. Звичайно, чесно кажучи, ми чудово знаємо, що багато проектів (серед них: проект статей про відповідальність міжнародних організацій; проект статей про застереження до міжнародних договорів; проект статей дипломатичного захисту; проекти статей по праву транскордонних водоносних горизонтів і т. д.) так ними і залишилися, але все ж обов'язково необхідно спробувати.
Необхідно також зазначити, що останнім часом було проведено декілька міжнародних зустрічей та конференцій в Женеві, присвячених використанню бойових автономних роботизованих систем (БАРС).
Один із учасників конференцій, Юрген Альтман (є одним із засновників Міжнародного комітету з контролю роботизованих систем озброєнь) заявив: «Я намагався налагодити діалог з виробниками такої високотехнологічної зброї, але вони відверто не зацікавлені в дотриманні норм міжнародного гуманітарного права».
Експерт від ООН Крістоф Хайнс запропонував ввести мораторій на виробництво повністю автономних бойових роботів: «Необхідно терміново ввести мораторій, оскільки поки що не розроблені жорсткі міжнародні норми, які б контролювали використання такої ультрасучасної зброї».
На черговій міжнародній зустрічі з питань БАРС, яка проходила з 13 по 17 квітня 2015 року під егідою ООН, було представлено кілька спеціальних доповідей щодо розвитку та застосування АСО.
Так, Стів Гуз, директор відділу озброєнь правозахисної організації «Human Rights Watch», у своїй доповіді зробив заяву, що «...роботи-вбивці становлять загрозу основним положенням міжнародного гуманітарного права». За його словами, надзвичайно важливо, щоб «...як при поліцейській операції, так і на війні, людина приймала рішення, коли застосовувати зброю». Його хвилює, що роботи будуть самі в змозі вирішувати «питання життя і смерті».
Нагадаємо, що «Human Rights Watch» є співзасновником компанії «Зупинити роботів-вбивць» і виступає в ролі її координатора. Це одна з небагатьох міжнародних організацій, що закликає до превентивної заборони розробки, виробництва та використання повністю автономних систем озброєння. До її складу входить понад 50 неурядових організацій.
Нещодавно вони опублікували доповідь спільно з Міжнародною клінікою з прав людини юридичного факультету Гарвардського університету під назвою «Не залишити поза увагою проблему: відсутність відповідальності за дії роботів-вбивць», в якій розглядається питання відповідальності за дії повністю автономної зброї в межах як кримінального, так і цивільного права. У висновках йдеться про необхідність превентивної заборони АСО, яка має бути забезпечена укладанням міжнародного договору, вдосконаленням державних (національних) законодавств, а також розробкою відповідних директив.
Провідний автор доповіді Бонні Догерті від себе додає: «Відсутність відповідальності означає, що немає інструменту стримування від вчинення злочинів, немає відшкодування збитків жертвам, немає соціального засудження винних. Наявність безлічі перешкод на шляху до правосуддя для потенційних жертв вказує на необхідність термінової заборони повністю автономних систем озброєння».
Дещо раніше було опубліковано іншу доповідь «Втрачаючи людське обличчя: Справа проти роботів-вбивць», в якій були викладені численні правові, етичні, моральні та інші проблеми, пов'язані з повністю автономними системами озброєння. Висновок був зроблений наступний: повністю автономна зброя в умовах сучасного бою навряд чи буде відповідати основним положенням міжнародного гуманітарного права. Її використання загрожує проблемами, пов'язаним із відповідальністю, тому що не буде зрозуміло, хто несе юридичну відповідальність за дії роботів-вбивць.
Директива № 3000.09 Міністерства оборони США |
Заслуговує на увагу і Директива № 3000.09 Міністерства оборони США від 21 листопада 2012 року, в якій висувається вимога, щоб на момент ухвалення рішення про застосування роботом вогню на ураження обов'язково було забезпечено контроль його дій з боку людини. Цією директивою також передбачено, що протягом 10 років Міністерство оборони США може розвивати і використовувати тільки ті повністю автономні системи озброєння, які не ведуть вогонь на ураження, якщо тільки міністерство не відмовиться від цієї політики на високому рівні.
По суті, дана директива запроваджує перший у світі мораторій на смертоносні автономні системи озброєння. Але річ у тому, що Сполучені Штати Америки дуже часто поступають досить хитромудро. Найважливіші конвенції вони підписують, роблячи при цьому цілий ряд застережень, проте не ратифікують їх. Або ж ратифіковані конвенції обходять усіма можливими способами (у них вони стають частиною законодавства, а наступний закон, як відомо, скасовує попередній). Тобто, наведена вище директива — це, фактично, не більше ніж демонстрація їх доброї волі. Гонитва ж озброєнь триває у будь-якому випадку, і в США вона безпосередньо є одним із найважливіших аспектів їх геополітики.
6. Заключення
Науково-технічний прогрес у збройній галузі породжує цілий перелік спірних питань щодо міжнародного права, зокрема міжнародного гуманітарного права.
Перше питання, якому потрібно приділити особливу увагу, стосується використання і подальшої розробки автономних систем озброєння, відмінною рисою яких є їх можливість виконувати військові завдання без втручання людини. Використання цих нових технологій поки що ніяк не регулюється міжнародним гуманітарним правом. Єдине, що цілком можливо — це при розробці та використанні нових видів зброї держава повинна враховувати всі застереження і заборони міжнародного гуманітарного права. Сьогодні повністю автономних систем озброєння ще не створено, але з кожним новим винаходом ступінь їх автономності зростає, і в майбутньому автономні системи озброєння зможуть функціонувати поза жорстко заданими просторово-часовими рамками, стикаючись з різноманітними і мінливими обставинами, при цьому обираючи і уражаючи цілі без безпосереднього контролю з боку людини.
Провідні експерти в галузі робототехніки і міжнародного гуманітарного права вважають, що використання правоохоронними органами та збройними силами роботизованої зброї є принципово несумісним з положеннями міжнародного права в галузі прав людини і призведе до незаконних вбивств і каліцтв через перевищення сили, а рівнозначно — підриву права на людську гідність. Адже, на відміну від висококваліфікованих співробітників, роботи самотужки не зможуть мирним шляхом уникати зіткнення, відрізняти чинні накази від нечинних, приймати рішення про необхідність диференційованих заходів з метою мінімізації шкоди. І, крім того, їх не можна буде притягти до відповідальності за помилки або несправності в роботі, які можуть викликати загибель людей або їх серйозні каліцтва.
Друге: сьогодні найбільш перспективні розробки бойових роботів, автономних БПЛА і бойових робототехнічних платформ ведуться в Сполучених Штатах Америки, Великобританії, Російській Федерації, Ізраїлі, Швейцарії, Японії, Китаї та інших країнах. І ми об'єктивно розуміємо, що якщо одна або кілька держав вирішать використовувати повністю автономні системи озброєння, інші можуть вважати за необхідне відмовитися від політики стримування, що призведе до неконтрольованих перегонів роботизованих озброєнь.
Третє: серйозну стурбованість викликають як подальші перегони роботизованих озброєнь, в яких державам буде важко зупинитися, так і зміни геополітичної ситуації у світі та регіонах — як наслідок цих перегонів озброєнь, а також питання про етичність надання машинам права приймати рішення з питань життя і смерті людей на полі бою. Правозахисники виступають проти використання бойових роботів у зв'язку з їх можливою безконтрольністю, так як вони можуть вбивати поранених і представників супротивника, які здаються у полон. Крім того, їм також важко буде відрізнити бійців супротивника від комбатантів і озброєних цивільних осіб.
Четверте: при розробці та використанні автономних систем озброєння дуже важливо враховувати основні принципи і норми міжнародного права (принципи незастосування сили або загрози застосування сили; мирного вирішення міжнародних суперечок; невтручання; співробітництва; рівноправності і самовизначення народів; суверенної рівності держав; сумлінного виконання зобов'язань з міжнародного права; територіальної цілісності; поваги до прав людини; непорушності кордонів), а також міжнародного гуманітарного права (принцип розрізнення цілей і принцип пропорційності) у їх сукупності, включно зі Статутом ООН, правами людини (особливо права на життя), правилами ведення війни.
П'яте: міжнародні правозахисні та антивоєнні організації небезпідставно попереджають, що достатньо сумнівний прогрес у галузі дистанційно керованої військової техніки може поставити під питання взагалі всю систему, зокрема Женевських угод. Саме тому сьогодні Організації Об'єднаних Націй слід підтримувати тісні і продуктивні контакти з регіональними та національними ініціативами в галузі прав людини, з «Human Rights Watch», «Amnesty International», Міжнародним комітетом Червоного Хреста, Міжнародним комітетом з контролю за роботизованими системами озброєнь, в тому числі ініціативами наукового співтовариства, для нарощування можливостей з метою забезпечення більш ефективного дотримання міжнародних стандартів та підвищення рівня обізнаності про них.
Шосте: у цих умовах держави повинні привести внутрішнє законодавство, що регулює застосування сили автономними системами озброєння, а також їх бойове використання, у відповідність до міжнародних стандартів. Для підвищення ступеня відповідальності слід забезпечити прозорість щодо всіх операцій з використанням БПЛА та робототехніки. Також необхідно розглянути прийняття нової Конвенції, розробка якої повинна регулюватися міжнародно-правовими актами розробки проекту статей або ж протоколу до Конвенції щодо конкретних видів звичайної зброї.
І останнє, не слід виключати, що нові технології можуть приносити і позитивні результати в конкретних обставинах та за умови дотримання правових норм під час їх застосування. Наприклад, можливе порушення функціонування певних служб і систем, що використовуються як з військовою, так і цивільною метою, за допомогою спеціальної кібероперації, заподіє значно менших збитків, ніж повне знищення такої інфраструктури шляхом авіаційного чи артилерійського бомбардування. Теоретично також можливо запрограмувати автономні системи озброєння таким чином, щоб вони поводилися більш етично і більш обережно на полі бою, аніж люди. Але цього, безумовно, сьогодні можливо досягти тільки теоретично, а поки що час покаже, як деякі держави скористаються/не скористаються отриманою ними можливістю.