The Phantom of the Machine Killer-ը շարունակվում է: Ինչին հավատում է նախագահ Պուտինը
Տեխնոլոգիա

The Phantom of the Machine Killer-ը շարունակվում է: Ինչին հավատում է նախագահ Պուտինը

Ռազմական ռոբոտների (1) կողմնակիցները պնդում են, որ ավտոմատացված զենքերն ավելի շատ հնարավորություններ են տալիս մարդու կյանքը պաշտպանելու համար: Մեքենաները կարողանում են ավելի մոտենալ թշնամուն, քան զինվորները, և ճիշտ գնահատել սպառնալիքը։ Իսկ զգացմունքները երբեմն կաթվածահար են անում ճիշտ որոշումներ կայացնելու կարողությունը:

Մարդասպան ռոբոտների շատ ջատագովներ համոզված են, որ դրանք ավելի քիչ արյունալի կդարձնեն պատերազմները, քանի որ ավելի քիչ զինվորներ են զոհվելու: Նրանք նշում են, որ ռոբոտները, չխղճալով հանդերձ, անձեռնմխելի են մարդկային բացասական հույզերից, ինչպիսիք են խուճապը, զայրույթը և վրեժը, որոնք հաճախ հանգեցնում են ռազմական հանցագործությունների:

Իրավապաշտպանները նաև օգտագործում են այն փաստարկը, որ վերջին կես դարում զինվորականները հանգեցրել են քաղաքացիական զոհերի ահռելի կրճատման, և բանակի ռոբոտացումը թույլ է տալիս ստեղծել պատերազմի օրենքներն ավելի խստորեն կիրառելու մեխանիզմ: Նրանք պնդում են, որ մեքենաները կդառնան էթիկական, երբ դրանք հագեցած լինեն ծրագրային ապահովմամբ, որը կստիպի նրանց ենթարկվել պատերազմի օրենքներին:

Իհարկե, հսկայական թվով մարդիկ, այդ թվում՝ շատ հայտնի մարդիկ, տարիներ շարունակ չեն կիսում այս կարծիքը։ 2013 թվականի ապրիլին միջազգային արշավ է սկսվել (2) կարգախոսով։ Դրա շրջանակներում ոչ կառավարական կազմակերպությունները պահանջում են ինքնավար զենքի կիրառման ամբողջական արգելք։ Շատ երկրների փորձագետներ առաջին անգամ նստել են քննարկելու այս թեման Ժնևում 2014 թվականի մայիսին Զինաթափման հարցերով ՄԱԿ-ի համաժողովում: Մի քանի ամիս անց Human Rights Watch-ի և Հարվարդի համալսարանի գիտնականների կողմից հրապարակված զեկույցում ասվում էր, որ ինքնավարները չափազանց վտանգավոր կլինեն. նրանք ընտրել են իրենց թիրախները և սպանել մարդկանց: Ընդ որում, այնքան էլ պարզ չէ, թե ով պետք է պատասխանատվության ենթարկվի։

2. Ցույց «Stop killer robots» ակցիայի շրջանակներում.

Ինչ կարող է անել փոքր անօդաչու թռչող սարքերի պարս

Մարդասպան ռոբոտների (ROU) շուրջ վեճերը շարունակվում են տարիներ շարունակ և չեն մարում: Վերջին ամիսները բերեցին ռազմական ռոբոտներին կանգնեցնելու նոր փորձեր և այս տեսակի նոր նախագծերի մասին հաղորդումների ալիք, որոնցից մի քանիսը նույնիսկ փորձարկվում են իրական մարտական ​​պայմաններում:

2017 թվականի նոյեմբերին տեսանյութ, որը ցույց է տալիս մինի անօդաչու թռչող սարքերի մահաբեր պարս ., սարսափազդու գործողության մեջ: Հեռուստադիտողները տեսել են, որ մենք այլևս կարիք չունենք գիշատիչների կողմից նետված ծանր մարտական ​​մեքենաների, տանկերի կամ հրթիռների՝ զանգվածաբար և գնդացիրներով սպանելու համար: Բերքլիի արհեստական ​​ինտելեկտի պրոֆեսոր, գլխավոր տնօրեն Ստյուարտ Ռասելը ասում է.

-

Անցյալ գարուն հիսուն պրոֆեսոր Աշխարհի առաջատար համալսարանները կոչ են ստորագրել Կորեայի առաջադեմ գիտության և տեխնոլոգիաների ինստիտուտին (KAIST) և նրա գործընկեր Hanwha Systems-ին։ նրանք հայտարարեցին, որ չեն համագործակցելու համալսարանի հետ և կհյուրընկալեն KAIST հյուրերին։ Պատճառը երկու հաստատությունների կողմից իրականացվող «ինքնավար զենքերի» կառուցումն էր։ KAIST-ը հերքել է լրատվամիջոցների հաղորդագրությունները։

Դրանից կարճ ժամանակ անց ԱՄՆ-ում Google-ի ավելի քան 3 աշխատակից բողոքել է զինվորականների համար ընկերության աշխատանքի դեմ։ Նրանք մտահոգված էին, որ Google-ը համագործակցում է Maven ծածկագրված կառավարական նախագծի հետ, որի նպատակն է օգտագործել արհեստական ​​ինտելեկտը՝ ռազմական անօդաչու թռչող սարքերի տեսանյութերում առարկաները և դեմքերը ճանաչելու համար: Ընկերության ղեկավարությունը նշում է, որ Maven-ի նպատակը կյանքեր փրկելն ու մարդկանց հոգնեցուցիչ աշխատանքից փրկելն է, այլ ոչ ագրեսիայից։ Ցուցարարները չհամոզվեցին.

Ճակատամարտի հաջորդ մասը հռչակագիրն էր արհեստական ​​ինտելեկտի փորձագետներ, ներառյալ աշխատել Google-ի նախագծի վրա և Իլոն Մասկ. Խոստանում են ռոբոտներ չմշակել։ Նրանք նաև կոչ են անում կառավարություններին ակտիվացնել ջանքերը՝ կարգավորելու և սահմանափակելու այդ զենքերը:

Հայտարարության մեջ, մասնավորապես, ասվում է, որ «մարդկային կյանք խլելու որոշումը երբեք չպետք է մեքենայով ընդունվի»: Թեև աշխարհի բանակները հագեցած են բազմաթիվ ավտոմատ սարքերով, երբեմն՝ բարձր ինքնավարությամբ, շատ փորձագետներ վախենում են, որ ապագայում այս տեխնոլոգիան կարող է դառնալ ամբողջովին ինքնավար՝ թույլ տալով սպանել առանց մարդկային օպերատորի և հրամանատարի ներգրավման:

Փորձագետները նաև զգուշացնում են, որ ինքնավար սպանող մեքենաները կարող են նույնիսկ ավելի վտանգավոր լինել, քան «միջուկային, քիմիական և կենսաբանական զենքերը», քանի որ դրանք հեշտությամբ կարող են դուրս գալ վերահսկողությունից: Ընդհանուր առմամբ, անցյալ տարվա հուլիսին «Կյանքի ապագայի ինստիտուտի» (FGI) հովանու ներքո նամակ է ստորագրվել 170 կազմակերպությունների և 2464 անհատների կողմից։ 2019 թվականի սկզբին FLI-ի հետ փոխկապակցված մի խումբ բժիշկ-գիտնականներ կրկին կոչ արեցին նոր նամակ գրել՝ արգելելու արհեստական ​​ինտելեկտի (AI) կառավարվող զենքի մշակումը:

Անցյալ տարվա օգոստոսին Գնիևոյում անցկացված ՄԱԿ-ի հանդիպումը՝ նվիրված ռազմական «մարդասպան ռոբոտների» հնարավոր իրավական կարգավորմանը, հաջողությամբ ավարտվեց... մեքենաները: Մի խումբ երկրներ, այդ թվում՝ Միացյալ Նահանգները, Ռուսաստանը և Իսրայելը, արգելափակեցին այդ զենքերի միջազգային արգելքի ներդրման հետագա աշխատանքը (Սովորական սովորական զենքի կիրառման արգելման կամ սահմանափակման մասին կոնվենցիայի նախագիծ, CCW): Պատահական չէ, որ այս երկրները հայտնի են ինքնավար և ռոբոտ զենքերի առաջադեմ համակարգերի վրա իրենց աշխատանքով։

Ռուսաստանը կենտրոնացած է մարտական ​​ռոբոտների վրա

Նախագահ Վլադիմիր Պուտինը հաճախ է մեջբերում ռազմական արհեստական ​​ինտելեկտի համակարգերի և մարտական ​​ռոբոտների մասին.

-.

բացահայտորեն խոսում է ինքնավար զենքի մշակման մասին։ Նրա զինված ուժերի գլխավոր շտաբի պետ, գեներալ Վալերի Գերասիմովը վերջերս Interfax-AVN ռազմական լրատվական գործակալությանը հայտնել է, որ ռոբոտների օգտագործումը ապագա պատերազմների հիմնական հատկանիշներից է լինելու։ Նա հավելել է, որ Ռուսաստանը փորձում է լիովին ավտոմատացնել ռազմի դաշտը. Նմանատիպ մեկնաբանություններ են արել փոխվարչապետ Դմիտրի Ռոգոզինը և պաշտպանության նախարար Սերգեյ Շոյգուն։ Դաշնային խորհրդի պաշտպանության և անվտանգության կոմիտեի նախագահ Վիկտոր Բոնդարևը հայտարարել է, որ Ռուսաստանը ձգտում է զարգանալ Roju տեխնոլոգիաներդա թույլ կտա անօդաչու սարքերի ցանցերին գործել որպես մեկ միավոր:

Զարմանալի չէ, եթե հիշենք, որ առաջին հեռուստատանկերը ստեղծվել են Խորհրդային Միությունում 30-ականներին։ Դրանք օգտագործվել են Երկրորդ համաշխարհային պատերազմի սկզբում։ Այսօր Ռուսաստանն էլ է ստեղծագործում տանկային ռոբոտներ դառնալ ավելի ու ավելի ինքնավար:

Պուտինի պետությունը վերջերս Սիրիա ուղարկեց իր սեփականը «Ուրան-9» անօդաչու մարտական ​​մեքենա (3). սարքը կորցրել է կապը ցամաքային կառավարման կետերի հետ, խնդիրներ է ունեցել կասեցման համակարգի հետ, և նրա զենքերը կատարելապես չեն գործել և չեն խոցել շարժվող թիրախները։ Դա այնքան էլ լուրջ չի հնչում, բայց շատերը համարում են, որ սիրիական անձեռոցիկը լավ մարտական ​​փորձություն է, որը ռուսներին թույլ կտա կատարելագործել մեքենան:

Ռոսկոսմոսը հաստատել է մինչև այս տարվա օգոստոս երկու ռոբոտ Միջազգային տիեզերակայան ուղարկելու նախնական ծրագիրը։ Fedor (4) անօդաչու միությունում: Ոչ թե բեռի նման, այլ. Ինչպես RoboCop ֆիլմում, Ֆեդորը զենք է կիրառում և ցուցադրում է մահացու դիպուկ դիպուկ հրաձգության վարժությունների ժամանակ:

Հարցն այն է, թե ինչու պետք է տիեզերքում գտնվող ռոբոտը զինված լինի: Կասկածներ կան, որ խոսքը միայն հողային կիրառումների մեջ չէ։ Միևնույն ժամանակ Երկրի վրա ռուսական զենք արտադրող Կալաշնիկովը ցուցադրեց վիզուալիզացիա ստրուկ Իգորեկըինչը թեև շատ ծիծաղ առաջացրեց, սակայն ազդանշան է տալիս, որ ընկերությունը լրջորեն աշխատում է ինքնավար մարտական ​​մեքենաների վրա։ 2018 թվականի հուլիսին Կալաշնիկովը հայտարարեց, որ կառուցում է զենք, որն օգտագործում է «կրակել, թե չկրակել» որոշումներ կայացնելու համար։

Այս տեղեկատվությանը պետք է ավելացվեն տեղեկություններ, որ ռուս զինագործ Դիգտյարևը մշակել է փոքր Ինքնավար տանկ Ներեխթ որը կարող է ինքնուրույն շարժվել դեպի իր թիրախը, իսկ հետո հզոր ուժով պայթել՝ ոչնչացնելու այլ կամ ամբողջ շինություններ։ Ինչպես նաեւ Տանկ T14 Armata , ռուսական զինված ուժերի հպարտությունը, նախատեսված էր հնարավոր հեռակառավարման և անօդաչու վարելու համար։ Sputnik-ը պնդում է, որ ռուս ռազմական ինժեներներն աշխատում են T-14-ը լիովին ինքնավար զրահամեքենա դարձնելու ուղղությամբ։

Առարկությունների հրահանգ

Ինքը՝ ԱՄՆ-ի զինվորականները, բավականին հստակ սահման է դրել իրենց զենքերի ինքնավարության մակարդակի վրա։ 2012 թվականին ԱՄՆ պաշտպանության նախարարությունը հրապարակեց 3000.09 հրահանգը, որը սահմանում է, որ մարդիկ պետք է իրավունք ունենան առարկելու զինված ռոբոտների գործողություններին։ (թեև կարող են լինել որոշ բացառություններ): Այս հրահանգը մնում է ուժի մեջ: Պենտագոնի ներկայիս քաղաքականությունն այն է, որ զենքի կիրառման հարցում վճռորոշը միշտ պետք է լինի անձը, և որ այդպիսի դատողություն պետք է լինի։ համապատասխանում է պատերազմի օրենքներին.

Չնայած ամերիկացիները տասնամյակներ շարունակ օգտագործում են թռչող, Predator, Reaper և շատ այլ սուպերմեքենաներ, դրանք ինքնավար մոդելներ չեն եղել և չեն: Դրանք կառավարվում են օպերատորների կողմից հեռակա կարգով, երբեմն՝ մի քանի հազար կիլոմետր հեռավորությունից։ Այս տեսակի մեքենաների ինքնավարության մասին բուռն քննարկում սկսվեց նախատիպի պրեմիերայով: X-47B անօդաչու թռչող սարք (5), որը ոչ միայն ինքնուրույն թռչում էր, այլև կարող էր թռչել ավիակիրից, վայրէջք կատարել դրա վրա և վերալիցքավորվել օդում։ Իմաստը նաև կրակելն է կամ ռմբակոծելն առանց մարդու միջամտության։ Այնուամենայնիվ, նախագիծը դեռ փորձարկման և վերանայման փուլում է:

5. Անօդաչու X-47B-ի փորձարկումներ ամերիկյան ավիակիրի վրա

2003 թվականին Պաշտպանության նախարարությունը սկսեց փորձարկել փոքրիկ տանկի նման ռոբոտը։ SPOES հագեցած գնդացիրով. 2007 թվականին ուղարկվել է Իրաք։ Այնուամենայնիվ, ծրագիրը ավարտվեց այն բանից հետո, երբ ռոբոտը սկսեց անկանոն վարքագիծ դրսևորել՝ անկանոն կերպով շարժելով հրացանը: Արդյունքում, ԱՄՆ զինվորականները երկար տարիներ հրաժարվեցին զինված ցամաքային ռոբոտների վերաբերյալ հետազոտություններից:

Միևնույն ժամանակ, ԱՄՆ բանակը 20 թվականի 2014 միլիոն դոլարից 156 թվականին հասցրել է 2018 միլիոն դոլարի: 2019 թվականին այս բյուջեն արդեն ցատկել է մինչև 327 միլիոն դոլար։ Սա ընդամենը մի քանի տարվա ընթացքում 1823%-ով կուտակային աճ է։ Փորձագետները նշում են, որ արդեն 2025 թվականին ԱՄՆ զինված ուժերը կարող են մարտադաշտ ունենալ ավելի շատ ռոբոտ զինվորներ, քան մարդիկ.

Վերջերս շատ հակասություններ են առաջացել և հայտարարվել ԱՄՆ բանակի կողմից ATLAS նախագիծ () - ավտոմատ: Լրատվամիջոցներում սա դիտարկվել է որպես վերոհիշյալ 3000.09 հրահանգի խախտում։ ԱՄՆ զինվորականները, սակայն, հերքում են և վստահեցնում, որ որևէ անձի բացառումը որոշումների կայացման ցիկլից բացառվում է։

AI-ն ճանաչում է շնաձկներին և քաղաքացիական անձանց

Այնուամենայնիվ, ինքնավար զենքի պաշտպանները նոր փաստարկներ ունեն։ պրոֆ. Ջորջիայի տեխնոլոգիական ինստիտուտի ռոբոտիստ Ռոնալդ Արկինն իր հրապարակումներում նշում է, որ Ժամանակակից պատերազմում խելացի զենքերը կարևոր են քաղաքացիական զոհերից խուսափելու համար, քանի որ մեքենայական ուսուցման տեխնիկան կարող է արդյունավետորեն օգնել տարբերել մարտիկների և քաղաքացիական անձանց միջև և կարևոր և անկարևոր թիրախները:

AI-ի նման հմտությունների օրինակ է ավստրալական լողափերում պարեկելը: դրոններ Little Ripperհագեցած SharkSpotter համակարգով, որը մշակվել է Սիդնեյի տեխնոլոգիական համալսարանի կողմից: Այս համակարգը ինքնաբերաբար սկանավորում է ջուրը շնաձկների համար և ահազանգում է օպերատորին, երբ նա տեսնում է որևէ վտանգավոր բան: (6) Այն կարող է ճանաչել մարդկանց, դելֆիններին, նավակներին, սերֆինգի տախտակներին և ջրում գտնվող առարկաներին՝ նրանց շնաձկներից տարբերելու համար: Այն կարող է բարձր ճշգրտությամբ հայտնաբերել և նույնականացնել մոտ տասնվեց տարբեր տեսակներ:

6. Ճանաչված շնաձկներ SharkSpotter համակարգում

Մեքենայի ուսուցման այս առաջադեմ մեթոդները բարձրացնում են օդային հետախուզության ճշգրտությունը ավելի քան 90%-ով: Համեմատության համար նշենք, որ նմանատիպ իրավիճակում գտնվող մարդ օպերատորը ճշգրիտ ճանաչում է օդային լուսանկարների օբյեկտների 20-30%-ը: Բացի այդ, նույնականացումը դեռևս ստուգվում է մարդու կողմից նախքան ահազանգը:

Ռազմի դաշտում օպերատորը, տեսնելով էկրանին պատկերը, դժվար թե կարող է որոշել՝ գետնի վրա գտնվող մարդիկ AK-47-ները ձեռքին կռվողներ են, թե, օրինակ, ֆերմերներ՝ պիկերով։ Արկինը նշում է, որ մարդիկ հակված են «տեսնել այն, ինչ ուզում են տեսնել», հատկապես սթրեսային իրավիճակներում: Այս էֆեկտը նպաստեց 1987 թվականին USS Vincennes-ի կողմից իրանական ինքնաթիռի պատահական կործանմանը: Իհարկե, նրա կարծիքով, արհեստական ​​ինտելեկտով կառավարվող զենքերն ավելի լավը կլինեն, քան ներկայիս «խելացի ռումբերը», որոնք իրականում զգայուն չեն։ Անցյալ օգոստոսին Սաուդյան Արաբիայի լազերային կառավարվող հրթիռը Եմենում խոցել էր դպրոցականներով լի ավտոբուսը, ինչի հետևանքով զոհվել էր քառասուն երեխա:

«Եթե դպրոցական ավտոբուսը պատշաճ կերպով պիտակավորված է, այն ինքնավար համակարգում նույնականացնելը կարող է համեմատաբար հեշտ լինել», - պնդում է Արկինը «Popular Mechanics»-ում:

Այնուամենայնիվ, այս փաստարկները կարծես թե չեն համոզում ավտոմատ մարդասպանների դեմ պայքարողներին: Բացի մարդասպան ռոբոտների սպառնալիքից, պետք է հաշվի առնել ևս մեկ կարևոր հանգամանք. Նույնիսկ «լավ» և «ուշադիր» համակարգը կարող է կոտրվել և տիրանալ շատ վատ մարդկանց կողմից: Հետո ռազմական տեխնիկայի պաշտպանության բոլոր փաստարկները կորցնում են իրենց ուժը։

Добавить комментарий