Spøkelset til maskinmorderen fortsetter. Hva tror president Putin på?
Teknologi

Spøkelset til maskinmorderen fortsetter. Hva tror president Putin på?

Tilhengere av militærroboter (1) hevder at automatiserte våpen gir flere muligheter for å beskytte menneskeliv. Maskiner er i stand til å komme nærmere fienden enn soldater, og vurdere trusselen riktig. Og følelser lammer noen ganger evnen til å ta de riktige avgjørelsene.

Mange talsmenn for å bruke morderroboter tror sterkt at de vil gjøre kriger mindre blodige fordi færre soldater vil dø. De bemerker at robotene, selv om de ikke føler medlidenhet, er immune mot negative menneskelige følelser som panikk, sinne og hevn, som ofte fører til krigsforbrytelser.

Menneskerettighetsaktivister bruker også argumentet om at militæret har ført til en enorm reduksjon i sivile tap i løpet av det siste halve århundret, og robotiseringen av hæren åpner for en mekanisme for å håndheve krigens lover strengere. De hevder at maskiner vil bli etiske når de er utstyrt med programvare som vil tvinge dem til å adlyde krigens lover.

Selvfølgelig deler ikke et stort antall mennesker, inkludert veldig kjente, denne oppfatningen på flere år. I april 2013 ble det lansert en internasjonal kampanje under slagordet (2). Innenfor sine rammer krever frivillige organisasjoner et fullstendig forbud mot bruk av autonome våpen. Eksperter fra mange land satte seg først ned for å diskutere dette emnet på FNs konferanse om nedrustning i Genève i mai 2014. En rapport publisert noen måneder senere av Human Rights Watch og forskere fra Harvard University sa at de autonome ville være for farlige – de valgte sine egne mål og drepte mennesker. Samtidig er det lite klart hvem som skal stilles til ansvar.

2. Demonstrasjon som en del av handlingen "Stopp morderroboter"

Hva en sverm av små droner kan gjøre

Tvister rundt morderroboter (ROU) har pågått i årevis og forsvinner ikke. De siste månedene har brakt nye forsøk på å stoppe militærroboter og en bølge av rapporter om nye prosjekter av denne typen, hvorav noen til og med blir testet under virkelige kampforhold.

I november 2017, en video som viser dødelige svermer av minidroner ., i skremmende handling. Seerne så at vi ikke lenger trenger de tunge krigsmaskinene, stridsvognene eller missilene som ble kastet av Predators for å drepe i massevis og med maskingevær. Leder Stuart Russell, professor i kunstig intelligens ved Berkeley, sier:

-

Forrige vår femti professorer Verdens ledende universiteter har signert en appell til Korea Institute of Advanced Science and Technology (KAIST) og dets partner Hanwha Systems. de kunngjorde at de ikke ville samarbeide med universitetet og være vertskap for KAIST-gjester. Årsaken var bygging av «autonome våpen» utført av begge institusjoner. KAIST benektet medieoppslagene.

Kort tid etter i USA mer enn 3 Google-ansatte protesterte mot selskapets arbeid for militæret. De var bekymret for at Google samarbeidet med et regjeringsprosjekt med kodenavnet Maven som tar sikte på å bruke AI til å gjenkjenne objekter og ansikter i militære dronevideoer. Selskapets ledelse sier at målet til Maven er å redde liv og redde mennesker fra kjedelig arbeid, ikke aggresjon. Demonstrantene var ikke overbevist.

Den neste delen av slaget var erklæringen eksperter på kunstig intelligens, inkl. jobber med et Google-prosjekt og Elon Musk. De lover å ikke utvikle roboter. De oppfordrer også regjeringer til å intensivere innsatsen for å regulere og begrense disse våpnene.

Uttalelsen sier delvis at "beslutningen om å ta et menneskeliv aldri bør tas av en maskin." Selv om verdens hærer er utstyrt med mange automatiske enheter, noen ganger med høy grad av autonomi, frykter mange eksperter at denne teknologien i fremtiden kan bli fullstendig autonom, og tillate drap uten involvering av en menneskelig operatør og sjef.

Eksperter advarer også om at autonome drapsmaskiner kan være enda farligere enn «atomvåpen, kjemiske og biologiske våpen» fordi de lett kan komme ut av kontroll. Totalt ble i juli i fjor et brev i regi av Future of Life Institute (FGI) signert av 170 organisasjoner og 2464 enkeltpersoner. I de første månedene av 2019 ba en gruppe FLI-tilknyttede medisinske forskere igjen om et nytt brev som forbyr utvikling av kunstig intelligens (AI) kontrollerte våpen.

Fjorårets augustmøte i FN i Gniewo om mulig lovregulering av militære «dreperroboter» endte i suksess ... maskiner. En gruppe land, inkludert USA, Russland og Israel, blokkerte videre arbeid med å innføre et internasjonalt forbud mot disse våpnene (utkast til konvensjon om forbud mot eller begrensning av bruk av visse konvensjonelle våpen, CCW). Det er ingen tilfeldighet at disse landene er kjent for sitt arbeid med avanserte systemer med autonome og robotvåpen.

Russland fokuserer på kamproboter

President Vladimir Putin blir ofte sitert for å si om militære AI-systemer og kamproboter:

-.

snakker åpent om utviklingen av autonome våpen. Sjefen for generalstaben for dets væpnede styrker, general Valery Gerasimov, sa nylig til det militære nyhetsbyrået Interfax-AVN at bruken av roboter vil være en av hovedtrekkene i fremtidige kriger. Han la til at Russland prøver fullautomatisere slagmarken. Lignende kommentarer ble gitt av visestatsminister Dmitry Rogozin og forsvarsminister Sergei Shoigu. Leder av føderasjonsrådets komité for forsvar og sikkerhet Viktor Bondarev sa at Russland streber etter å utvikle Roju-teknologierdette vil tillate dronenettverk å fungere som en enkelt enhet.

Dette er ikke overraskende hvis vi husker at de første teletankene ble utviklet i Sovjetunionen på 30-tallet. De ble brukt i starten av andre verdenskrig. I dag skaper også Russland tank roboter bli mer og mer selvstendig.

Putins stat sendte nylig sine egne til Syria Ubemannet kampkjøretøy Uran-9 (3). enheten mistet kontakten med bakkekontrollpunkter, hadde problemer med opphengssystemet, og våpnene fungerte ikke perfekt og traff ikke bevegelige mål. Det høres ikke veldig seriøst ut, men mange anser den syriske servietten som en god kamptest som vil gjøre det mulig for russerne å forbedre maskinen.

Roscosmos har godkjent en foreløpig plan for å sende to roboter til den internasjonale romstasjonen innen august i år. Fedor (4) i den ubemannede unionen. Ikke som en last, men. Som i filmen RoboCop, bruker Fedor et våpen og demonstrerer dødelig skyteevne under skyteøvelser.

Spørsmålet er, hvorfor skulle en robot i verdensrommet være bevæpnet? Det er mistanke om at saken ikke bare er i bakkesøknader. I mellomtiden på jorden viste den russiske våpenprodusenten Kalashnikov en visualisering robot Igoreksom, selv om det vakte mye latter, signaliserer at selskapet seriøst jobber med autonome kampkjøretøyer. I juli 2018 kunngjorde Kalashnikov at han bygde et våpen som han bruker for å ta "skyt eller ikke skyte"-avgjørelser.

Til denne informasjonen bør legges rapporter om at den russiske våpensmeden Digtyarev utviklet en liten autonom tank Nerekht som kan bevege seg lydløst mot målet på egen hånd og deretter eksplodere med kraftig kraft for å ødelegge andre eller hele bygninger. I tillegg til Tank T14 Army , stoltheten til de russiske væpnede styrkene, ble designet for mulig fjernkontroll og ubemannet kjøring. Sputnik hevder at russiske militæringeniører jobber med å gjøre T-14 til et fullt autonomt pansret kjøretøy.

Innsigelsesdirektivet

Det amerikanske militæret har selv pålagt en ganske klar grense for graden av autonomi til våpnene deres. I 2012 utstedte det amerikanske forsvarsdepartementet direktiv 3000.09, som sier at mennesker skal ha rett til å protestere mot handlingene til væpnede roboter. (selv om det kan være noen unntak). Dette direktivet gjelder fortsatt. Pentagons nåværende politikk er at den avgjørende faktoren i bruken av våpen alltid skal være en person, og at en slik dømmekraft bør være det. samsvarer med krigens lover.

Selv om amerikanere har brukt flying, Predator, Reaper og mange andre supermaskiner i flere tiår, var de ikke og er ikke autonome modeller. De styres av operatører eksternt, noen ganger fra en avstand på flere tusen kilometer. En heftig diskusjon om autonomien til maskiner av denne typen begynte med premieren på prototypen. drone X-47B (5), som ikke bare fløy uavhengig, men også kunne ta av fra et hangarskip, lande på det og fylle drivstoff i luften. Meningen er også å skyte eller bombe uten menneskelig innblanding. Prosjektet er imidlertid fortsatt under testing og gjennomgang.

5. Tester av den ubemannede X-47B på et amerikansk hangarskip

I 2003 begynte forsvarsdepartementet å eksperimentere med en liten tanklignende robot. SPOES utstyrt med maskingevær. I 2007 ble han sendt til Irak. programmet ble imidlertid avsluttet etter at roboten begynte å oppføre seg uberegnelig, og beveget riflen sin uberegnelig. Som et resultat forlot det amerikanske militæret studiet av væpnede bakkeroboter i mange år.

Samtidig har den amerikanske hæren økt utgiftene til operasjoner fra 20 millioner dollar i 2014 til 156 millioner dollar i 2018. Dette budsjettet har allerede hoppet til 2019 millioner dollar i 327. Dette er en kumulativ økning på 1823 % på bare noen få år. Eksperter sier at allerede i 2025 kan det amerikanske militæret ha en slagmark flere robotsoldater enn mennesker.

Nylig har mye kontrovers blitt forårsaket og annonsert av den amerikanske hæren ATLAS-prosjekt () - Automatisk. I media ble dette ansett som et brudd på nevnte direktiv 3000.09. Det amerikanske militæret benekter imidlertid og forsikrer at utelukkelse av en person fra beslutningssyklusen er uaktuelt.

AI gjenkjenner haier og sivile

Forsvarere av autonome våpen har imidlertid nye argumenter. prof. Ronald Arkin, en robotiker ved Georgia Institute of Technology, uttaler i sine publikasjoner det I moderne krigføring er intelligente våpen avgjørende for å unngå sivile tap, ettersom maskinlæringsteknikker effektivt kan hjelpe til med å skille mellom stridende og sivile, og viktige og uviktige mål.

Et eksempel på slike AI-ferdigheter er patruljering av australske strender. droner Little Ripperutstyrt med SharkSpotter-systemet utviklet av University of Technology Sydney. Dette systemet skanner automatisk vannet etter haier og varsler operatøren når den ser noe utrygt. (6) Den kan identifisere mennesker, delfiner, båter, surfebrett og gjenstander i vannet for å skille dem fra haier. Den kan oppdage og identifisere rundt seksten forskjellige arter med høy nøyaktighet.

6. Gjenkjente haier i SharkSpotter-systemet

Disse avanserte maskinlæringsmetodene øker nøyaktigheten av luftrekognosering med mer enn 90 %. Til sammenligning gjenkjenner en menneskelig operatør i en lignende situasjon nøyaktig 20-30% av objektene i flyfotografier. I tillegg er identifisering fortsatt verifisert av et menneske før en alarm.

På slagmarken kan operatøren, som ser bildet på skjermen, vanskelig avgjøre om menneskene på bakken er jagerfly med AK-47 i hendene eller for eksempel bønder med gjedder. Arkin bemerker at folk har en tendens til å "se det de vil se", spesielt i stressende situasjoner. Denne effekten bidro til utilsiktet nedskyting av et iransk fly av USS Vincennes i 1987. Selvfølgelig, etter hans mening, ville AI-kontrollerte våpen være bedre enn de nåværende "smarte bombene", som egentlig ikke er sansende. I august i fjor traff et saudisk laserstyrt missil en buss full av skolebarn i Jemen og drepte førti barn.

"Hvis en skolebuss er riktig merket, kan det være relativt enkelt å identifisere den i et autonomt system," argumenterer Arkin i Popular Mechanics.

Disse argumentene ser imidlertid ikke ut til å overbevise kampanjene mot automatiske mordere. I tillegg til trusselen om morderroboter, må en annen viktig omstendighet tas i betraktning. Selv et "godt" og "oppmerksomt" system kan hackes og overtas av svært dårlige mennesker. Da mister alle argumenter til forsvar av militært utstyr sin styrke.

Legg til en kommentar