Зброя і штучний інтелект: у світі занепокоєні збереженням людського контролю

Зброя і штучний інтелект: у світі занепокоєні збереженням людського контролю | INFBusiness

Зброя і штучний інтелект: у світі занепокоєні збереженням людського контролю 06.05.2024 11:45 Укрінформ Обговорення щодо регулювання автономних систем озброєння виносять на рівень ООН

Російсько-українська війна стала "бойовим тестуванням" для багатьох існуючих зразків озброєння та нових систем, стрімко прискоривши розвиток військових технологій. Використання наземних, повітряних і морських безпілотних платформ та "вмонтування" у них штучного інтелекту відбувається у масштабах, яких не було ніколи раніше у жодному збройному конфлікті у світі.

Зброя і штучний інтелект: у світі занепокоєні збереженням людського контролю | INFBusiness

Над створенням такої "розумної" та, тою чи іншою мірою, автономної зброї зараз активно працюють як Україна та її союзники, так і російський агресор. Для нашої держави цей напрям є особливо важливим з огляду на перевагу ворога у ресурсах – щоб відповідати технологіями на "м’ясні штурми" росіян.

Поки що у війні в Україні не були помічені "роботи-кілери" – автономні системи озброєння, які самі обирають цілі й самі приймають рішення про атаку без участі людини. Усіма цими арміями дронів у повітрі, а також у воді та на суші, керують люди, які й приймають рішення – коли де і кого вбити. Водночас експерти вказують на те, що окремі зразки у своєму розвитку вже досить сильно наблизилися до так званих "роботів-кілерів".

З російського боку до таких систем можна віднести, зокрема, баражуючий боєприпас "Ланцет". Як стверджують його розробники, цей дрон-камікадзе здатний "самостійно здійснювати розвідку та атакувати ціль". У пізній модифікації ці безпілотники вже нібито можуть "діяти спільно", будучи об’єднаними нейромережею в один "рій".

З українського боку такою системою з певними автономними функціями можна назвати Saker – "платформу безпілотних літальних апаратів з можливостями штучного інтелекту для автономних місій", як говорять самі розробники. Відповідно до інформації з відкритих джерел, комплекс Saker Scout може автономно літати над визначеними територіями без контакту з людиною – уникаючи проблем, пов'язаних з глушінням GPS або електронними перешкодами. Цей "розумний" безпілотник з машинним зором здатний розпізнавати і фіксувати військові цілі та наводити на них інших дронів. За окремими повідомленнями, Saker може виступати також як "камікадзе", діючи на останньому етапі, після пригнічення каналу зв'язку системами РЕБ ворога, в автономному режимі та вражаючи ціль уже без участі оператора.

Ізраїльська операція у секторі Газа теж продемонструвала те, як швидко розвиваються оборонні технології з використанням штучного інтелекту. Особливо вражаючими виявилися характеристики ізраїльського баражуючого боєприпасу з ШІ Lanius – як зазначають його розробники, "комп'ютер може виконувати повний профіль польоту, зліт, навігацію і розвідку без втручання користувача". А у таких місцях, як двері та кути, система може використовувати "режим засідки" для швидкої атаки у відповідь на ознаки руху. Lanius нібито може автономно ідентифікувати точки виходу і входу, а також людські цілі за допомогою відеоаналізу на основі ШІ і присвоювати об'єктам і людям "класифікацію загрози".

Цей стрімкий розвиток базованих на штучному інтелекті систем озброєння актуалізував і питання їх регулювання та майбутнього застосування – якими є межі для цієї "розумної" зброї, чи можна передавати на розсуд алгоритму рішення про життя чи смерть, чи не вийде така система з під контролю людини і яким, власне, має бути цей контроль.

Зброя і штучний інтелект: у світі занепокоєні збереженням людського контролю | INFBusiness

Регулювання у сфері "роботів-кілерів" є предметом міжнародної дискусії вже протягом тривалого періоду. Однак до останнього часу вона відбувалася, скажімо так, "камерно" та "між своїми". І без відчутних результатів – країнам так і не вдалося навіть вийти на початок офіційних переговорів за понад 10 років дискусії.

Нині однією з країн, що активно прагнуть змінити ситуацію у цій сфері, можна вважати Австрію. Її міжнародна дипломатія відома фокусом на темах нерозповсюдження, контролю над озброєннями та дотриманням міжнародного гуманітарного права.

Зброя і штучний інтелект: у світі занепокоєні збереженням людського контролю | INFBusiness

БІЛЬШЕ ЗА "МОМЕНТ ОППЕНГЕЙМЕРА"?

"Ми всі знаємо фільми "Термінатор", "Матриця“. І ми не хочемо роботів-убивць. Це ж так просто. Нам потрібні правила застосування. І нам потрібна заборона на повністю автономні системи озброєння, де немає контролю людини". Цими словами міністра закордонних справ Австрії Александера Шалленберга можна найбільш чітко схарактеризувати суть та настрої дводенної конференції "Людство на роздоріжжі: Автономні системи озброєнь та виклики регулювання", яка відбулася минулого тижня у Відні.

Зброя і штучний інтелект: у світі занепокоєні збереженням людського контролю | INFBusiness

Очільник австрійського МЗС на правах господаря та організатора відкривав масштабну конференцію, організовану його відомством у будівлі конгрес-центру Хофбург. Тут, у колишній імператорській резиденції, зібралися понад 900 учасників зі 142 держав – дипломати та урядовці, представники міжнародних організацій, промисловості, бізнесу та громадянського суспільства, – щоб обговорити виклики, пов'язані з автономними системами озброєнь, та шляхи їх регулювання.

"Як запобігти передачі рішень про життя і смерть машинам? Як боротися з алгоритмами, схильними до помилок та упередженості? Як зупинити викликану штучним інтелектом гонку озброєнь, і не дати цій технології потрапити до рук терористів? Неможливо переоцінити нагальність цих питань. Це "момент Оппенгеймера" нашого покоління!" – заявив у вступному слові Александер Шалленберг, прагнучи донести, наскільки важливою для людства є тема "роботів-убивць" зі штучним інтелектом. Принаймні, з австрійського погляду.

"Певною мірою, це навіть більше, ніж "момент Оппенгеймера". Це найбільша революція на полі бою з часів винайдення пороху! Але технологія дешевша і прогрес швидший", – додав австрійський міністр пізніше під час панельної дискусії.

Повністю поділяв занепокоєння Шалленберга і співзасновник Центру вивчення екзистенціальних ризиків Кембриджського університету (CSER), програміст Яан Таллінн, який виступав з ключовою доповіддю на конференції.

"Штучний інтелект може бути інструментом, але інструменти цінні лише тоді, коли вони передбачувані й можуть контролюватися. Я бачу багато паралелей між розвиненим суперінтелектом і проблемами, які створює автономна зброя", – заявив він, закликаючи до створення "правил щодо штучного інтелекту, який приймає рішення про життя і смерть".

На його переконання, "жодна автономна зброя не повинна розроблятися чи використовуватися для ураження людей, а також не повинна використовуватися для розрізнення однієї людини від іншої". Програміст пояснив свої побоювання тим, що коли автономна зброя стане здатною "досконало розрізняти людей", то це "значно полегшить здійснення геноцидів і цілеспрямованих вбивств за певними людськими характеристиками".

Тому він виступає за розробку зобов'язуючих норм міжнародного права, які не лише визначатимуть, як автономні системи озброєння повинні використовуватися, "але й не дозволять виробникам навіть розробляти системи, які є непередбачуваними або спрямованими проти людей".

Утім, не всі промовці на конференції були такими категоричними.

Державний секретар міністерства закордонних справ Норвегії Ейвінд Вад Петерссон звернув увагу на те, що у питанні автономних систем озброєння насправді "немає юридичної порожнечі".

"Існуюче міжнародне гуманітарне право також застосовується до автономних систем озброєнь. Виклик, який стоїть перед нами, передусім полягає в тому, щоб краще встановити, як існуючі правила застосовуються до таких систем озброєнь", – заявив він.

При цьому норвезький дипломат підтримав заклик генерального секретаря ООН до створення "юридично обов'язкових інструментів з метою заборони летальних автономних систем озброєнь, які функціонують без контролю або нагляду з боку людини і які не можуть бути використані відповідно до міжнародного гуманітарного права".

Источник: www.ukrinform.ua

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *