Сарапшылар Женевада кездесті, бірақ келісімге қол жеткізілмеді: АҚШ пен Ресей барлық жұмысқа тосқауыл қойды. Мүмкін, бұл гегемондардың үйлесімді жұмыс істейтін жалғыз уақыты.
Адамгершілікке жатпайтын қару туралы конвенция форматындағы сарапшылардың кездесулері Женевада жауынгерлік роботтар деп аталатын - нысандарды жеңу үшін жасанды интеллект қолданатын автономды қарудың тағдырын шешу үшін аяқталды. Алайда келісімдерге қол жеткізілмеді. Құрама Штаттар, Ресей, Оңтүстік Корея, Израиль және Австралия кісі өлтіретін роботтарға толық тыйым салу туралы пікірлерге тосқауыл қоя білген аз ұлттардың қатарында болды.
Сонымен, әлемде әлі күнге дейін жұмыс істейтін автономды қару болмаса да, технология, былайша айтқанда, гуманистік болып қалады - оны дамытып, зерттеуге болады. Бір қызығы, АҚШ пен Ресей Стокгольмдегі Бейбітшілікті зерттеу институтының (SIPRI) мәліметі бойынша ең ірі қару-жарақ экспорттаушылар тізімін бастап тұр. Оңтүстік Корея, Израиль және Австралия да бұл рейтингтен қалыспайды - олар нарықтың үздік 20 ойыншысының қатарына кіреді.
Қытай (әлемдегі қару-жарақтың бесінші экспорттаушысы, БҰҰ Қауіпсіздік Кеңесінің тұрақты мүшесі жауынгерлік роботтарға тыйым салуды жақтаса да, кездесулер барысында ол өз бағытындағы таразыларды өзгерте алмады. Бүгінгі күні 26 мемлекет ашық қаруды қолдайды жасанды интеллектіні соғыста қолдануға тыйым салу. Басқалары айқын позициядан аулақ) Франция мен Германия (қару-жарақтың үшінші және төртінші экспортері) адамның жасанды интеллектке қарағанда басымдылығын шоғырландыратын құжатқа қол қоюды ұсынады, бірақ олар ықтималдығы жоғары автономды ұрыс машиналарын дамытқысы келетіндердің жағында.
«Әскери алпауыттардың шағын тобы көпшіліктің қалауын тежей алатыны көңілге қаяу түсіреді», - деп түсіндірді Мэри Верхем, Киллер Роботтарын Тоқтату Науқанының Женева кездесулерінің нәтижелері туралы.
Шынында да, Америка Құрама Штаттары мен Ресейдің маңызды мәселелерде ең болмағанда қандай да бір ымыраға келе алмайтынын ескерсек, жағдай қарулы монополиялық магнаттардың қастандықтарына ұқсайды. Сириялықты алайық: Вашингтон мен Мәскеу осы көктемде Сирияда химиялық қару қолданғаннан кейін бір-бірінің шешімдеріне өзара тосқауыл қойды. Тұншықтырғыш газдар мен әскери мақсаттағы басқа улы заттар, айтпақшы, бұған дейін Адамгершілікке жатпайтын қару туралы конвенцияда тыйым салынған болатын.
Киллер-роботтардың тағдыры туралы келесі кездесу Женевада қараша айында өтеді.
Неліктен олар автономды қаруға тыйым салғысы келеді
Робот соғысына тыйым салушылардың жақтастары ұрыс алаңы жасанды интеллект үшін орын емес екенін алға тартады. Олардың пікірінше, мұндай технологиялар үлкен қауіп төндіреді. Кем дегенде, бүгінгі күні машинаның жауынгерлерді (ұрыс қимылдарына тікелей қатысатындарды) соғыспайтындардан (қару-жарақты тек өзін-өзі қорғау үшін қолдана алатын қызметкерлерден) және жалпы бейбіт тұрғындарды қалай ажырататыны түсініксіз. Қазіргі кездегі соғыс ережелерімен тыйым салынған жұмыстарда жаралылар мен тапсырылған адамдарды өлтіру мүмкіндігі бар.
Жұмыстың қақтығыстың барлық тараптарын, тіпті осындай қару-жарақ иелерін бөлуіне не кедергі? Жасанды интеллект элементтері қазірдің өзінде әскери техникада, зымырандарда сәтті қолданылады; роботтар барлауға тартылады, бірақ соңғы сөз бәрібір адамдарға тиесілі. Автономды қару командирлердің бұйрығына бағынбайды - сондықтан олар автономды. Сондықтан әр түрлі елдердің әскери генералдары машиналар кадрлар қатарына енуіне күмәнмен қарайды.
Тағы бір ашық сұрақ - халықаралық терроризм. Автономды қару-жарақ технологиясы дұрыс емес қолға түсіп, ақыры оны бұзуға болады. Бір жыл бұрын Ресей президенті Владимир Путин әлемнің билеушісі жасанды интеллект дамуының көшбасшысына айналады деп айтқан болатын. Автономды қару-жарақ жағдайында мұндай технологияларға қол жеткізген әлемнің билеушісі болады. Бұл үшін, шын мәнінде, сізге тек қауіпсіздік жүйесі арқылы өтетін компьютер мен жалтарғыш керек. Пентагон, айтпақшы, бірнеше рет бұзылған. Демек, автономды қарудың қол сұғылмайтындығына ешкім кепілдік бере алмайды.
Автономды қару-жарақ жүйесінің жұмыс істеуі нәтижесінде әскери қылмыс жасалса, заңды түрде кім жауап беретіні де түсініксіз. «Қаруды қолданған инженер, бағдарламашы, өндіруші немесе командир? Егер жауапкершілікті халықаралық гуманитарлық заң талап еткендей анықтау мүмкін болмаса, онда мұндай жүйелерді орналастыру заңды немесе этикалық тұрғыдан негізделген деп таныла ала ма? »Халықаралық Қызыл Крест комитеті атап өтті.
Бір қызығы, ғалымдар жауынгерлік роботтарға тыйым салуды да жақтады. Осы жылдың шілде айында екі мыңнан астам ғалым, атап айтқанда Tesla мен SpaceX құрушысы Илон Маск және DeepMind-тің негізін қалаушылар өздерінің өлімге әкелетін автономиялық қару жасамайтындығы туралы құжатқа қол қойды. Google дәл осылай жасады. Технологиялық алпауыт Пентагонның Maven жобасы бойынша жұмысынан бас тартты. Ал 2017 жылы бірқатар ғалымдар БҰҰ-ны өлтіруші роботтар жасауға тыйым салуға шақырды.
Айтпақшы, соғыстағы жасанды интеллект мәселесі Біріккен Ұлттар Ұйымының күн тәртібінде 2013 жылдың соңында пайда болды, бірақ содан бері іс жүзінде ештеңе өзгерген жоқ. Осы жылы ғана адамгершілікке жатпайтын қару туралы конвенция форматында сарапшылар кездесулері басталды. Яғни, азды-көпті практикалық жазықтыққа келу үшін төрт жылдан астам уақыт қажет болды.
Неліктен олар автономды қаруға тыйым салғысы келмейді
Қаншалықты ұнамды болып көрінгенімен, қарулы жарыс олардың өлтіруші роботтарға тыйым салғысы келмейтіндігінің басты себебі болып табылады. Путин дұрыс айтады: кім бірінші кезекте автономды қару алса, ол әлемде үстемдік етеді. Ресми түрде бұл себеп айтылды.
Тыйымға қарсы болғандардың негізгі аргументі - азаматтық жасанды интеллектті әскерден бөлудің мүмкін еместігі. Біз ас үй пышақтарын лаңкестердің қолдануы үшін ғана тыйым салмаймыз. Шынында да, жасанды интеллекттің азаматтық дамуын әскери бөлімнен бөлу іс жүзінде мүмкін емес. Бірақ қазір біз бұл қаруға тыйым салу туралы айтып отырмыз, ол нысандарды өз бетінше анықтап, оларға шабуыл жасай алады. Бұл АҚШ-тың қорғаныс министрлігі Буз Аллен Гамильтонмен бірлесіп жұмыс істейтін Maven жобасы болуы мүмкін (Google келісімшарттан бас тартты).
Maven әзірлеушілері дрондарға суреттерді, атап айтқанда жер серіктерін талдауға және шабуылға арналған нысандарды анықтауға үйреткілері келеді. Пентагон бұл жобамен 2017 жылдың сәуірінде жұмыс істей бастады және жылдың соңына дейін алғашқы жұмыс алгоритмдерін алуға үміттенді. Бірақ Google қызметкерлерінің демаршы арқылы даму кейінге қалдырылды. Осы жылдың маусым айындағы жағдай бойынша, Gizmodo мәліметтері бойынша, жүйе қарапайым объектілерді - машиналарды, адамдарды бір-бірінен ажырата алды, бірақ қиын жағдайда мүлдем елеусіз болып шықты. Егер автономды қаруға тыйым салу бұған қарамастан БҰҰ деңгейінде қабылданатын болса, онда бұл жобаны жою керек болады, ал Пентагон олардың дамуы адамдардың өмірін сақтап қалуы мүмкін, өйткені оны адамдармен салыстырғанда дәлірек және сенімді жұмыс істеуге бағдарламалауға болады.
«Сіздер технологиялар туралы, оның жұмыс істейтін үлгілері жоқ екенін түсінуіңіз керек. Мұндай жүйелер идеясы әлі де үстірт», - деп атап өтті Ресей сыртқы істер министрлігінде Женевада өткен кездесу қарсаңында. - Біздің ойымызша, халықаралық құқық, атап айтқанда, гуманитарлық сектор автономды қаруға қатысты қолданылуы мүмкін. Оларға модернизация немесе әлі жоқ жүйелерге бейімделу қажет емес ».
Сонымен, тағы бір нақты, бірақ айтылмаған себеп - ақша. Бүгінгі күні әскери жасанды интеллект технологиясының нарығы алты миллиард доллардан асады деп бағаланады. 2025 жылға қарай бұл көрсеткіш үш есеге - 19 миллиардқа жетеді, дейді американдық MarketsandMarkets компаниясының талдаушылары. Ірі қару-жарақ экспорттаушылар үшін бұл өлтіруші роботтарды жасауға қойылатын шектеулерді болдырмауға жақсы түрткі болып табылады.
Прогресті тоқтату мүмкін емес
Автономды қаруға тыйым салуды жақтаушылар технология өте тез дамып келе жатқанын және жасанды интеллект ақыр соңында қаруға айналады - уақыт талабы деп атап өтті. Олардың сөздерінде қисын бар. Жасанды интеллект - қазіргі кезде жалғасып жатқан төртінші ғылыми-техникалық революцияның ажырамас бөлігі. Техникалық прогресс қандай-да бір жолмен әскери операциялармен байланысты болатындығын ескеру қажет. Үшінші ғылыми-техникалық революция ХХ ғасырдың 50-жылдарының ортасына дейін созылды, яғни оның шарықтау шегі Екінші дүниежүзілік соғыс кезеңіне тура келді.
1949 жылы Женева соғыс уақытында азаматтық адамдарды қорғау туралы конвенцияны қабылдады. Соғыстан кейінгі кезеңде олар 1907 жылғы IV Гаага конвенциясын толықтырды, онда соғыс жүргізу ережелері анықталды. Яғни, Екінші дүниежүзілік соғыстың үрейі осы процестің катализаторына айналды. Сонымен, құқық қорғаушылар үшінші дүниежүзілік соғысты адамзатты автономды қарудан қорғау үшін күткілері келмейді. Сондықтан роботтарды өлтірушілердің тағдырын шешу қазір қажет, - дейді олар.
Human Rights Watch сарапшыларының пікірінше, жауынгерлік роботтарды қолдану Мартенс декларациясына қайшы келеді - бұл соғыс заңдары мен әдет-ғұрыптары туралы 1899 жылғы Гаага конвенциясының кіріспесі. Басқаша айтқанда, өлтіруші роботтар адамзат заңдары мен қоғамдық сананың талаптарын бұзады (позиция IV Гаага конвенциясында расталған).
«Біз бүкіл әлемге таралмай тұрып, осындай қару-жарақ жүйелеріне профилактикалық тыйым салу үшін бірлесе жұмыс жасауымыз керек», - деді Бонни Дохерти, Human Rights Watch қару-жарақ бөлімінің аға ғылыми қызметкері.
Бұл жолы өлтіруші роботтарға тыйым салу тиімді болмады. Болжам бойынша, қараша айындағы кездесулер де нәтижесіз болады. Рас, елдердің барлығы дерлік келіседі - технологияның ауырлық күшімен жүруіне жол берілмейді және жауынгерлік роботтарға осындай стоп-кран қажет. Бірақ қажеттілік туындаған кезде адамзат оны тартып алуға үлгере ме, жоқ па, ол әлі де түсініксіз.