Bekämpa Robotar: Förbjudet Kan Inte Tillåtas

Innehållsförteckning:

Bekämpa Robotar: Förbjudet Kan Inte Tillåtas
Bekämpa Robotar: Förbjudet Kan Inte Tillåtas

Video: Bekämpa Robotar: Förbjudet Kan Inte Tillåtas

Video: Bekämpa Robotar: Förbjudet Kan Inte Tillåtas
Video: Flexibelt och kostnadseffektivt med kollaborativa robotar 2024, November
Anonim

Experterna träffades i Genève, men ingen överenskommelse kunde nås: USA och Ryssland blockerade allt arbete. Kanske är det den enda gången då hegemoner fungerar så harmoniskt.

Bekämpa robotar: förbjudet kan inte tillåtas
Bekämpa robotar: förbjudet kan inte tillåtas

Möten med experter i form av konventionen om omänskliga vapen slutade i Genève för att avgöra ödet för de så kallade stridsrobotarna - autonoma vapen som använder artificiell intelligens för att besegra mål. Emellertid kunde inga överenskommelser nås. Förenta staterna, Ryssland, Sydkorea, Israel och Australien var bland minoritetsnationerna som har lyckats blockera känslan mot ett fullständigt förbud mot mördarrobotar.

Så även om det fortfarande inte finns något fungerande autonomt vapen i världen förblir tekniken så att säga human - den kan utvecklas och undersökas. Intressant är att USA och Ryssland enligt Stockholms fredsforskningsinstitut (SIPRI) toppar listan över de största vapenexportörerna. Sydkorea, Israel och Australien hamnar inte heller efter i denna ranking - de är bland de 20 bästa marknadsaktörerna.

Och även om Kina (den femte vapenexportören i världen, en permanent medlem av FN: s säkerhetsråd förespråkar ett förbud mot stridsrobotar, lyckades det inte justera vågen i dess riktning under mötena. I dag stöder 26 länder öppet förbud mot användning av artificiell intelligens i krig. Andra viker sig från en tydlig position) Frankrike och Tyskland (den tredje och fjärde vapenexportören) erbjuder att underteckna ett dokument som skulle befästa människans företräde framför artificiell intelligens, men de är mer troliga på sidan av dem som vill utveckla autonoma stridsfordon.

”Det är verkligen en besvikelse att en liten grupp militära jättar kan hålla tillbaka majoritetens vilja”, kommenterade Mary Verhem, koordinator för Kampanjen för att stoppa mördare-robotar, om resultatet av mötena i Genève.

Situationen ser faktiskt ut som en konspiration av väpnade monopoltyconer, med tanke på att USA och Ryssland vanligtvis inte kan nå åtminstone någon form av kompromiss i viktiga frågor. Ta den syriska: Washington och Moskva blockerade ömsesidigt varandras resolutioner efter att ha använt kemiska vapen i Syrien i vår. Kvävande gaser och andra giftiga ämnen för militära ändamål var förresten tidigare förbjudna av konventionen om omänskliga vapen.

Nästa möte om mördarens roboters öde kommer att äga rum i Genève i november.

Varför vill de förbjuda autonoma vapen

Förespråkare för robotförbudet insisterar på att slagfältet inte är en plats för artificiell intelligens. Enligt deras uppfattning utgör sådan teknik ett enormt hot. Idag är det åtminstone inte klart hur maskinen kommer att skilja mellan stridande (de som är direkt involverade i fientligheter) från icke-stridande (armétjänstpersonal som bara kan använda vapen för självförsvar) och civila i allmänhet. Det finns en möjlighet att arbetet kommer att döda de sårade och de som överlämnar sig, vilket är förbjudet enligt de nuvarande reglerna för krigföring.

Vad hindrar arbetet från att avbryta alla parter i konflikten, även ägare av sådana vapen? Element för artificiell intelligens används redan med framgång i militär utrustning, missiler; robotar lockas för rekognosering, men det sista ordet vilar fortfarande på människor. Autonoma vapen kommer inte att följa befälhavarnas order - det är därför de är autonoma. Det är därför militärgeneraler från olika länder är skeptiska till införandet av maskiner i personalen.

Och en öppen fråga till är internationell terrorism. Autonom vapenteknik kan hamna i fel händer och den kan så småningom hackas. För ett år sedan sa Rysslands president Vladimir Putin att världens härskare kommer att bli den som kommer att bli ledande inom utvecklingen av artificiell intelligens. När det gäller autonoma vapen kommer den som får tillgång till sådan teknik att bli världens härskare. Och för detta behöver du faktiskt bara en dator och en dodger som kommer att passera genom säkerhetssystemen. Pentagon har förresten hackats mer än en gång. Följaktligen kan ingen ge garantier för att autonoma vapen kommer att förbli okränkbara.

Det är också oklart vem som kommer att vara juridiskt ansvarig om ett krigsbrott begås till följd av att det autonoma vapensystemet fungerar.”Ingenjören, programmeraren, tillverkaren eller befälhavaren som använde vapnet? Om ansvar inte kan definieras som krävs enligt internationell humanitär rätt, kan då implementeringen av sådana system erkännas som lagligt eller etiskt motiverat?”Noterar Internationella Röda korsets kommitté.

Intressant nog förespråkade forskare också ett förbud mot stridsrobotar. I juli i år undertecknade mer än två tusen forskare, i synnerhet skaparen av Tesla och SpaceX Elon Musk och grundarna av DeepMind, ett dokument om att de inte skulle utveckla dödliga autonoma vapen. Google gjorde detsamma. Teknikjätten har slutat arbeta med Pentagons Maven-projekt. Och 2017 har ett antal forskare redan uppmanat FN att förbjuda skapandet av mördarrobotar.

Förresten, frågan om artificiell intelligens i krig dök upp på FN: s dagordning i slutet av 2013, men praktiskt taget ingenting har förändrats sedan dess. Först i år började expertmöten i form av konventionen om omänskliga vapen. Det vill säga det tog mer än fyra år att nå ett mer eller mindre praktiskt plan.

Varför de inte vill förbjuda autonoma vapen

Oavsett hur banalt det kan låta är vapenloppet den främsta anledningen till att de inte vill förbjuda mördare-robotar. Putin har rätt: den som får autonoma vapen först kommer att dominera världen. Officiellt uttrycks denna anledning.

Huvudargumentet för motståndarna till förbudet är omöjligheten att skilja civilt artificiell intelligens från militären. Liksom, vi kommer inte att förbjuda köksknivar bara för att terrorister kan använda dem. Det är faktiskt praktiskt taget omöjligt att skilja den civila utvecklingen av artificiell intelligens från militären. Men nu pratar vi om förbudet mot detta vapen, som kommer att kunna självständigt bestämma och attackera mål. Detta kan vara Maven-projektet, som USA: s försvarsdepartement arbetar med i samarbete med Booz Allen Hamilton (Google vägrade avtalet).

Maven-utvecklarna vill lära drönare att analysera bilder, särskilt från satelliter och - eventuellt - identifiera mål för attacker. Pentagon började arbeta med projektet tillbaka i april 2017 och hoppades kunna få de första arbetsalgoritmerna i slutet av året. Men genom avstängningen av Googles anställda försenades utvecklingen. I juni i år kunde systemet enligt Gizmodo skilja mellan elementära föremål - bilar, människor, men det visade sig vara helt obetydligt i svåra situationer. Om förbudet mot autonoma vapen ändå antas på FN-nivå, måste projektet skrotas, medan Pentagon hävdar att deras utveckling kan rädda liv, eftersom det kan programmeras att fungera mer exakt och pålitligt jämfört med människor.

"Du måste förstå att vi pratar om teknik, att den inte har prover som skulle fungera. Idén med sådana system är fortfarande mycket ytlig", noterade inför mötet i Genève vid det ryska utrikesministeriet. - Enligt vår mening kan internationell rätt, i synnerhet den humanitära sektorn, tillämpas på autonoma vapen. De behöver inte moderniseras eller anpassas till system som ännu inte finns.”

Tja, och en mer riktig, men inte uttryckt, anledning är pengar. Idag uppskattas marknaden för militär artificiell intelligens teknik till mer än sex miljarder dollar. Men år 2025 kommer siffran att tredubblas - till nästan 19 miljarder, enligt analytiker från det amerikanska företaget MarketsandMarkets. För de största vapenexportörerna är detta en bra motivation att blockera eventuella begränsningar för utvecklingen av mördarrobotar.

Framsteg kan inte stoppas

Förespråkare för ett förbud mot autonoma vapen noterar att tekniken utvecklas mycket snabbt och artificiell intelligens så småningom kommer att bli ett vapen - en tidsfråga. Det finns logik i deras ord. Artificiell intelligens är en integrerad del av den fjärde vetenskapliga och teknologiska revolutionen, som fortsätter nu. Man bör komma ihåg att den tekniska utvecklingen på ett eller annat sätt är förknippad med militära operationer. Den tredje vetenskapliga och teknologiska revolutionen varade fram till mitten av 50-talet av XX-talet, det vill säga dess topp föll under andra världskriget.

1949 antog Genève konventionen för skydd av civila personer i krigstid. Under efterkrigstiden kompletterade de också IV Haagkonventionen från 1907, som fastställde reglerna för krigsföretag. Det vill säga, fasorna under andra världskriget blev katalysatorn för denna process. Så människorättsförsvarare vill inte vänta på tredje världskriget för att skydda mänskligheten från autonoma vapen. Det är därför som det är nödvändigt att besluta om mördarens roboters öde nu, insisterar de.

Enligt experter från Human Rights Watch strider användningen av stridrobotar mot Martensdeklarationen - ingressen till Haagkonventionen från 1899 om krigslagar. Med andra ord bryter mördarerobotar mänsklighetens lagar och kraven på allmänhetens medvetande (positionen bekräftades i IV Haagkonventionen).

"Vi måste samarbeta för att införa ett förebyggande förbud mot sådana vapensystem innan de sprids runt om i världen", säger Bonnie Doherty, seniorforskare vid vapenavdelningen på Human Rights Watch.

Det fungerade inte att förbjuda mördare-robotar den här gången. Förutsägbart kommer mötena i november också att vara fruktlösa. Det är sant att nästan alla länder är överens - tekniken kan inte tillåtas strömma genom tyngdkraften och stridsrobotar behöver en sådan stoppkran. Men det är fortfarande inte klart om mänskligheten kommer att ha tid att dra det när behovet uppstår.

Rekommenderad: