Stejně jako v průmyslu i v armádě zaznívají hlasy, že budoucnost spočívá v robotizaci a umělé inteligenci. Tu by chtěli někteří její mocní zastánci implementovat přímo do válčení, přestože řada vědců a odborníků takový krok odmítá. Budou roboti rozhodovat o našem životě a smrti?
„Ti, co přežili nukleární výbuch, nazvali tuto válku Dnem zúčtování. Čekala je však další noční můra. Válka proti strojům,“ říká Sarah Connor na začátku druhého dílu kultovní série Terminátor. Hned potom rozdrtí robotická noha lidskou lebku a následně vidíme bitvu povstalců proti strojům, které řídí počítačový systém Skynet.
Vize budoucnosti, která se může zdát velmi skeptická a přitažená za vlasy. Ale od možnosti dosažení podobného scénáře není lidstvo zas tak moc daleko. Proto je potřeba mít na paměti například i tento film. „Myslím si, že technici, kteří se zabývají umělou inteligencí (UI) by to měli mít jako povinnou četbu,“ potvrzuje pro Voxpot vedoucí skupiny robotiky a umělé inteligence na Vysokém učení technickém v Brně Luděk Žalud. „Měli by si díky tomu uvědomit, co se nám může potenciálně stát.“
Také vedoucí Katedry strojového učení a zpracování dat Masarykovy univerzity Aleš Horák vidí v systému Skynet záblesky realizovatelné vize. „Možnost, aby nějaká UI spočítala, že je potřeba lidstvo eliminovat, z čistě logického hlediska není nijak matematicky vyloučená,“ říká Voxpotu. „Hlavně nesmí dojít k tomu, aby takovou pravomoc technika v budoucnosti dostala,“ varuje.
Čtěte také: Když začne válka ve vesmíru, zhroutí se úplně všechno, říká šéf Satelitního centra Vojenského zpravodajství
Vyjádření, která zní jako z jiného světa. Jenomže UI se nevyužívá pouze při internetovém vyhledávání receptů na bábovky, usilovně se již pracuje na jejím zapojení do vojenství a zbrojního průmyslu, a investice tímto směrem tečou proudem. Světové mocnosti závodí ve zbrojení v oblasti umělé inteligence a mnoho odborníků tento závod nazývá, po střelném prachu a atomové bombě, třetí revolucí ve válčení. Snahou předehnat ostatní se ani nikdo netají. Ruský prezident Vladimir Putin tak například prohlásil: „Kdokoli se stane nejlepším v této sféře, stane se vládcem světa.“
Předchůdce Skynetu už krmíme daty
Jak daleko je využití UI v armádách světa se těžko odhaduje, protože většina informací s tím spojených není veřejných. Každopádně lze to odvozovat od civilního postupu v tomto odvětví, protože jak pro Voxpot poukázali experti z Vojenského technického ústavu Libor Marčík a Pavel Zůna, je „dnes technologický vývoj určován civilním využitím, a až poté aplikací ve vojenství“. Oba potom využití UI považují za další lidský vývojový krok.
Lidský stroj byl náramně nedokonalý. Musel se jednou konečně odstranit. (Karel Čapek; R.U.R.)
– Karel Čapek; R.U.R.
A tento krok nejspíš zpochybní víru v dominanci lidského rozumu, která existuje od osvícenství. Pokrok se totiž žene vpřed mílovými kroky. V roce 2017 program UI vyvinutý společností Google DeepMind porazil Stockfish, což byl nejvýkonnější šachový program na světě. Pozoruhodné na tom je, že se to naučil sám. Tvůrci mu dodali pravidla šachu a nařídili mu vyvinout vítěznou strategii. Po pouhých čtyřech hodinách hraní proti sobě samému dokázal DeepMind zdolat Stockfish a stát se mistrem světa. Neprohrál jediný zápas, měl 28 výher a 72 patů.
Dalším obrovským úspěchem UI je objevení nového antibiotika halicinu. V roce 2020 zadali výzkumníci z amerického MIT počítači úlohu daleko přesahující lidskou kapacitu – aby prozkoumal neobjevené a nevysvětlené metody zabíjení bakterií. Bez UI by podle vědců nebylo možné halicin objevit.
A nemůže být překvapením, že po takové technologii sahají i armády. „Vývoj a aplikace umělé inteligence ve vojenství je relativně nový trend a bude trvat určitý čas, než systémy dosáhnou požadovaných schopností. Bude to vyžadovat změnu myšlení lidí,“ uvádí Marčík a Zůna. Každopádně zmíněný závod již probíhá.
Jak potvrdil Voxpotu odborník na autonomní zbraňové systémy z nizozemské mírové organizace PAX Daan Kayser, UI se ve zbraňových systémech využívá, a to vyspělejšími vojenskými mocnostmi. „Velká část nejmodernějších senzorových systémů již krmí umělou inteligenci, která je schopna převést získaná data ze senzorů na použitelné informace,“ dodal v této souvislosti.
Pro někoho sci-fi, pro jiného realita
Zbraň s vysokou mírou autonomie jsme mohli spatřit v akci v hlavním městě Afghánistánu 29. srpna 2021. Tři dny poté, co sebevražedný atentátník zabil na kábulském letišti 13 amerických vojáků a 160 civilistů, sledovala vojenská rozvědka podezřelé vozidlo. Jelo směrem k letišti s „balíky“, které vypadaly jako výbušniny. Plán byl sledovat jej pomocí videa z armádního dronu Reaper a zničit ho střelou Hellfire, až nebudou kolem civilisté.
Auto zastavilo a taktický velitel, který s největší pravděpodobností seděl na letecké základně v Nevadě, dostal od šéfa amerického centrálního velitelství na Floridě zelenou. Vzhledem k tomu, že se signál odráží po celém světě, dochází ke zpoždění několika sekund. Podle americké armády tato prodleva mohla být dostatečná k tomu, aby se k vozidlu přiblížili civilisté. Hellfire dopadl. Výbuch zabil deset civilistů včetně sedmi dětí a objevily se pochybnosti, zda auto vůbec bylo hrozbou a neřídil jej pouze další nevinný člověk.
Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo. (Isaac Asimov; První zákon robotiky)
Zbytečná smrt, za kterou v USA nepadnou žádné tresty, byla způsobena zbraní, kterou lze označit za typ human-in-the-loop. Takové autonomní zbraně podle Human Right Watch mohou vykonávat dílčí funkce, hledat cíl, sledovat jej, ale o zásahu rozhoduje člověk. „Aplikace umělé inteligence do těchto systémů významně zvyšuje bojovou efektivitu takovýchto zbraní,“ říká k tomu Marčík se Zůnou.
Dalším typem autonomní zbraně je human-on-the-loop. Ty dokážou již zasáhnout bez rozhodnutí člověka, ale jejich kroky lze zvrátit. Posledním a nejděsivějším typem jsou zbraně human-out-of-the-loop, kterým se přezdívá roboti zabijáci. Takové stroje ke svému fungování již člověka nepotřebují.
Něco podobného se už také použilo v akci. Bez vzdáleného operátora se dron objevil v Libyi v březnu 2020. Píše se o tom v reportu OSN, kde se přímo neříká, že někoho zabil, ale jeho použití se zmiňuje. Ustupující síly byly zasahovány bezpilotními bojovými vzdušnými prostředky nebo smrtícími autonomními zbraňovými systémy, jako je dron turecké výroby STM Kargu-2. Odborníci tuto skutečnost označují za obrovský milník.
Zmíněným zbraním se říká „potulující se munice“, protože mají vestavěnou výbušninu a namísto odpalování raket zničí při zásahu cíle také samy sebe. Ázerbájdžán vyslal takové drony vyrobené v Turecku a Izraeli do války proti Arménii. Bezpilotní letouny autonomně hlídkovaly v oblastech Náhorního Karabachu a automaticky bombardovaly nepřátele. Drony zdevastovaly arménskou armádu a válka skončila za dva měsíce s obrovskými územními zisky Ázerbájdžánu.
Video shows an Azerbaijani kamikaze drone hitting a bus in Armenia.#Armenia #Azerbaijan pic.twitter.com/9xNA2KvBN4
— Insider Paper (@TheInsiderPaper) October 1, 2020
Právě na tomto konfliktu mohlo být patrné, že autonomní zbraňové systémy využívající umělou inteligenci mohou způsobit velkou revoluci ve válčení. S tím souhlasí i trojice autorů knihy The Age of A.I. And Our Human Future. „Zavedení nelidské logiky do vojenských systémů změní strategii,“ píší. Proč je ale umělá inteligence tak atraktivní pro vojenské použití?
Ideální voják?
Na základní úrovni si lze boj a válku představit jako střet vojáka s vojákem, tanku s tankem a podobně. Vše potom v klasické ideji války ovládá lidská bytost. Ta má určité předpoklady jak fyzické, tak psychické, které ovlivňuje únava, stres a nezvladatelné emoce. Roboti zabijáci a další zbraňové systémy řízené UI by tyto „vady“ neměly.
Obecně se předpokládá, že autonomní zbraňové systémy sníží provozní náklady pomocí výkonnější bitevní síly. Při jejich nasazení pak oproti lidským kolegům dosáhnou lepších hodnot v kategoriích, jako jsou rychlost, správnost, vytrvalost, přesnost, dosah a koordinace. A jako bonus pomohou lidské životy spojeneckých vojáků ušetřit, což je výhodné i po finanční stránce.
Život vojáka z masa a kostí je velmi drahý, protože jeho výcvik a vybavení stojí nemalé peníze. Například v roce 2009 stálo podle amerického Ministerstva obrany vyslání vojáka do války na jeden rok pravděpodobně 500 tisíc dolarů. Tato částka samozřejmě s postupem doby značně narostla. A podle Horáka je ekonomie války jeden z hlavních důvodů, proč se mluví o třetí revoluci ve válčení.
„Pokud nějaké straně nesejde na potencionální chybovosti, tak je zbraň s UI schopná vojáky úplně nahradit,“ myslí si. „Je mnohem jednoduší pustit do bitvy tisíce autonomních dronů, kdy každý z nich je schopný cílit na člověka s výrazně vyšší přesností než lidský voják,“ dodává Horák.
Bolest lze ovládat, stačí ji odpojit. (z filmové série Terminátor, 1984)
Z pohledu strategie boje ale může úplné přenechání vedení války UI znamenat nevýhodu. Důležitou roli totiž hraje frikce a náhoda. Frikci může UI eliminovat, ale náhodu nebude schopna predikovat a řešit. „Člověk bude muset být vždy ten, který bude umělou inteligenci kontrolovat a ovládat. Dávné i soudobé konflikty mnohokrát ukázaly, že vojenský technokratismus není zaručenou cestou k vítězství,“ říkají k tomu Marčík se Zůnou.
Další nespornou výhodou je, že pomocí UI dokáže lidstvo vylepšovat kolektivní inteligenci. Podle ředitele Centra umělé inteligence O2 Jana Romportla dokážou lidé s pomocí UI efektivněji realizovat globální koordinované akce. „To by mělo zvýšit šanci na překonání globálních civilizačních rizik, před kterými stojíme,“ uvádí pro Voxpot.
Ideální válečník by tedy byl voják, který ovládá výkonnost stroje a disponuje lidskou inteligencí. Odborník na robotickou techniku Ronald Arkin dokonce tvrdí, že zbraně řízené UI by byly humánnější než lidští vojáci, protože nikdy nevystřelí ze strachu nebo ze snahy po pomstě. Každopádně nejzásadnější výhodou by nejspíš byla rychlost. Proč to tedy rychle neuskutečnit?
Závod bez pravidel
V roce 2015 podepsalo více než tisíc předních expertů na pokročilé technologie otevřený dopis, kde vyzývali k zákazu robotů zabijáků. Mezi nimi byl například astrofyzik Stephen Hawking, spoluzakladatel firmy Apple Steve Wozniak a podnikatel Elon Musk. Podobný dopis zaslali OSN také v roce 2017. A před koncem roku 2021 mohlo dojít k tíženému výsledku.
Schůzku OSN v Ženevě sledovalo třetí prosincový týden mnoho světových odborníků na UI, vojenskou strategii, odzbrojení a humanitární právo. Poprvé totiž většina zemí, které patří k Úmluvě o některých konvenčních zbraních (CCW), uvedla, že chtějí mantinely pro zabijácké roboty. Zatím totiž neexistují v CCW pro tento typ zbraní žádné regulace. Jenže proti ukotvení pravidel byly samozřejmě státy, které takové zbraně vyvíjejí. Zejména USA a Rusko.
Podívejte se také na naši reportáž o autonomních zbraních:
Zajímavé je, že k potřebě pravidel pro uplatnění UI ve zbrojařství se kladně staví Čína. Její velvyslanec pro kontrolu zbrojení při OSN Li Song řekl, že vzhledem k tomu, že použití UI může přetvořit budoucnost válčení a potenciálně vyvolat humanitární krize, jsou zapotřebí pravidla, aby se z ní nestal nástroj války nebo hegemonie. Každopádně nejspíš jde pouze o řeči, které mají daleko k pravdě, protože sama Čína vyvíjí zbrojní technologie, které masivně zapojují UI.
Dosud nejlepší příležitost k vytvoření pravidel ale selhala. Někteří, jako třeba Rusko, trvají na tom, že jakákoli rozhodnutí o limitech musejí být jednomyslná – což ve skutečnosti dává odpůrcům právo veta. Spojené státy argumentují, že stávající mezinárodní zákony jsou dostatečné a zákaz autonomních zbrojních technologií by byl předčasný. Zároveň je jasně patrné, že se všichni snaží být lepší než ostatní, protože například šéf softwaru pro americké letectvo Nicolas Chaillan rezignoval kvůli slabému technologickému pokroku v UI oproti Číně.
Co když je robot vrah? Pak bůh žehnej starejm dobrejm časům, kdy lidi zabíjeli jiný lidi. (z filmu Já robot, 2004)
Kayser ke konferenci říká, že neschopnost členů souhlasit alespoň s vyjednáváním o zabijáckých robotech je „skutečně jasným signálem, že CCW na tu práci nestačí“. Co jsou tedy hlavní hrozby používání zcela autonomních zbraní?
Přijatelné riziko
Velkým nebezpečím může být něco, co expert na autonomní zbraně Paul Scharre vysvětluje na metafoře uprchlé zbraně. To je například vadný kulomet, který pokračuje ve střelbě i po uvolnění spouště. Střílí, dokud nedojde munice, protože zbraň neví, že dělá chybu. Takové zbraně na útěku jsou nebezpečné, ale naštěstí mají lidské kontrolory, kteří ji alespoň natočí správným směrem. Autonomní zbraně human-out-of-the-loop ze své podstaty žádnou takovou ochranu nemají.
Pokud tedy zbraň neví, že dělá chybu, může napáchat velké škody. Vystupuje zde otázka chybné identifikace. Budou autonomní zbraně schopné rozlišit mezi nepřátelskými vojáky a hrajícími si dětmi? Lze namítat, že takové chyby může udělat i lidský voják, ale vzpomeňme na výhody zbraní s UI. Rozsah a rychlost robotů zabijáků jsou s bojovníky z masa a kostí nesrovnatelné.
Umělá inteligence, která pouze rozpoznává předměty nebo obličeje, se nazývá slabá UI a je hojně využívána. V dnešní době již jde koupit kamera, která má v sobě předtrénované neuronové sítě, a nadefinuje se, co má hledat. „V této oblasti jsme hodně daleko a dá se na to spolehnout,“ podotýká Žalud. Takové operace jsou potom neskutečně rychlé a na rozdíl od člověka dokážou pracovat 24 hodin sedm dní v týdnu.
Silná UI se potom vyznačuje generalizováním. To znamená, že systém je schopný řešit situace, s nimiž se předtím nikdy nesetkal. Nejvíce se používají rozsáhlé modely neuronových sítí, označované jako hluboké neuronové sítě. „Tato část skýtá z mého pohledu velká překvapení,“ říká Žalud. Myslí si, že i pro armádu je v silné UI obrovský potenciál, ale právě u takové UI vyzývá k opatrnosti.
Čtěte také: Americká armáda má nového mazlíčka: robotického psa s puškou. Čekají nás války strojů?
V umělých neuronových sítích se totiž používá perceptron – zjednodušený model neuronu coby ekvivalent k této základní stavební buňce lidského mozku. Podle Žaluda nikdo neví, zda jsme si toto vůbec mohli dovolit vytvořit. „Problém UI založené na neuronových sítích tkví v tom, že se neví, jak funguje v reakcích na neznámá data,“ vysvětluje. Proto nelze určit, jak daleko je lidstvo od průlomu, kdy si stroj uvědomí sám sebe a začne fungovat bez možnosti predikce a kontroly.
Silná UI založená na hluboké neuronové síti by potom byla činností člověka pouze zdržována a armády samozřejmě chtějí mít výhodu rychlé reakce. „To začíná být cesta do pekel,“ poznamenává Romportl. Tím se dostává lidstvo k bodu, kdy se změní nejen strategie válčení, ale nejspíš i lidského myšlení.
Robotí právo
Zastánci pravidel pro použití UI v armádách často staví svůj argument na etice. „Rozhodnutí o životě a smrti by nemělo být delegováno na stroj,“ vyjadřuje se jasně Kayser. A podobně mluví i generální tajemník OSN António Guterres, který tvrdí, že taková vyhlídka je „morálně odporná“. A Human Right Watch nebo kampaň Stop Killer Robots požadují úplný zákaz výroby autonomních zbraňových systémů.
Odborník na lidská práva James Dawes pak tvrdí, že takové zbraně povedou k častějším válkám. Sníží totiž starost o civilisty i starost o vlastní vojáky, které válkám předcházely a zkracovaly je. Používání zbraní s UI by mohlo vést k vážnému nedostatku odpovědnosti. Je těžké vypořádat se s otázkou, kdo je za smrt zodpovědný? Voják? Velitelé? Zbraň? Výrobci zbraně?
Žalobci by u takového případu museli prokázat „actus reus i mens rea“, tedy vinný čin i vinnou mysl. A to u nepředvídatelnosti autonomní zbraně jde jen těžce, jak jsme mohli vidět na příkladu amerického útoku v Kábulu z minulého roku. „Ve světě bez předpisů, které nařizují smysluplnou lidskou kontrolu autonomních zbraní, budou válečné zločiny bez válečných zločinců, kteří by se museli zodpovídat,“ píše Dawes.
Připisovat robotům lidské neduhy je pošetilé. (Isaac Asimov; Já, robot)
Někteří jako vojenský právník Titus Hattan tvrdí, že používání robotů zabijáků by se mohlo řídit zásadami mezinárodního humanitárního práva (MHP). Vztáhneme-li to na civilní oběti, chrání MHP civilní sektor, ale neexistuje podle něj způsob, jak úplně eliminovat ztráty a škody způsobené válkou. Navíc pokud je člověk vyřazen ze smyčky rozhodování, nesplňuje stroj klíčové principy MHP. Proto je nyní hlavní technickou výzvou vyrobit robota, který bude schopen vnímat prostředí způsobem umožňujícím rozlišování mezi legitimními a nelegitimními cíli, definovat vojenský cíl, provést analýzu nákladů každé potenciální akce a jejích důsledků.
Chybička se vloudila
Takový stroj je ale podle odborníků ještě daleko. Hlavní využití UI ve vojenství spočívá v současné době trošku jinde. Snaha mít poslušné a všehoschopné „robotické kombatanty“ se super schopnostmi podle Marčíka a Zůny existuje, ale nejdůležitější je snížení psychické zátěže vojáků a zefektivnění jejich nasazení. To zejména posílením jejich kognitivních schopností pro zpracování informací z bojiště.
Typickým příkladem jsou techniky na zpracování videa. Zde se UI používá v obou směrech, a to jak ve vylepšení zbraní, tak i v ochraně a obraně proti útoku zbraněmi. Pokud vytáhnete před kamerou zbraň je UI schopná ji zaregistrovat mnohem rychleji a přesněji než člověk. U zbraní lze potom používat poloautomatickou zaměřovací techniku, která najde danou osobu, sleduje ji a nakonec zabije, nebo jednoduše spočítá nepřátele.
Nevím, jakými zbraněmi se bude bojovat ve 3. světové válce, ale ve 4. světové válce to budou klacky a kameny. (Albert Einstein)
Takovou zbraň využila v roce 2020 izraelská zpravodajská služba Mosad při misi v Íránu. Izraelští agenti použili speciální model belgického kulometu FN MAG, který byl připevněn k robotickému aparátu a nevyžadoval žádné pracovníky na místě, protože disponoval UI. Cílem byl přední íránský jaderný vědec Mohsen Fachrízádeh. Když vystoupil z auta, zasáhly ho tři kulky, které mu roztrhly páteř. Smrt nastala za méně než 60 sekund a zraněn byl pouze Fachrízádeh. Kulomet měl následně vybouchnout, ale selháním výbušnin zůstal z velké části nepoškozen.
Dále se UI používá jako podpůrný prostředek pilota nebo řidiče bojového vozidla, kde mimo jiné dokáže pomoct s úhybnými manévry. Předání celkového řízení stroji se ale nezadržitelně blíží. V roce 2020 dokázala UI Agentury ministerstva obrany USA pro pokročilé výzkumné projekty (DARPA) porazit lidského pilota v simulátoru stíhaček F-16.
Umělá inteligence je využívána i při ochraně lodí a základen před palbou protivníka. Takové systémy pracují zejména jako human-in-the-loop či human-on-the-loop a i ony mají na svědomí lidské životy. V březnu 2003 po zahájení invaze Spojených států do Iráku se pilot britského letectva Derek Watson vracel po bombardování Bagdádu na základnu v Kuvajtu. Za ním letělo další proudové letadlo s Kevinem Mainem a Davem Williamsem. První letoun zachytil počítač protiraketové baterie Patriot a rozhodl, že jde o nepřátelskou střelu letící na něj. Před lidskou posádkou zablikal systém s výstrahou, že jsou v nebezpečí. Vystřelili.
Watson uviděl výstřel, okamžitě stočil letadlo a odpálil světlice, které měly zmást raketu hledající teplo. Jenže raketa nezamířila na něj. Zasáhla Maina a Williamse, kteří se nestihli katapultovat, a zabila je. Posádky ovládající Patrioty byly varovány před provozem v autonomním režimu, ale téměř o dva týdny později se stala podobná věc. Systém zabil pilota amerického námořnictva Nathana Dennise Whita, a až po této události byla zavedena přísná pravidla. Po zbytek války byl provoz baterií Patriot zastaven.
A využívány jsou hojně samozřejmě drony. Lidský jedinec by jen obtížně ovládal stovky dronů najednou, ale UI je toho schopna. Americká i britská armáda má programy na stavbu „rojů“ takovýchto malých dronů. V roce 2017 například Pentagon požádal o návrhy, jak by mohl umístit kvadrokoptéry do raketového nákladu a ničit pomocí nich různé cíle.
Protože státy mají o autonomní zbraně velký zájem, nezůstávají jejich výrobci pozadu. Pět největších zbrojovek – Lockheed Martin, Boeing, Raytheon, Northrop Grumman a BAE Systems – zkoumá, vyvíjí a produkuje stále více zbraní s UI.
České zbrojní firmy, které Voxpot oslovil, nevyvíjí žádné smrtící zbraňové systémy s prvky UI. Shodují se ale v tom, že v UI je v jejich oboru budoucnost. „Je to nevyhnutelný trend, inovace,“ sdělil Voxpotu mluvčí skupiny Czechoslovak Group Andrej Čírtek. Tato společnost pak podle něj vyvíjí například radary či systémy řízení letového provozu využívající UI.
Na obraných veletrzích se se svým výrobkem disponujícím UI představuje česká firma VOP CZ. Jde o robotický systém TAROS. I ten sám o sobě sice nepřináší smrt, ale na tuto kolovou platformu lze umístit zbraňový systém. TAROS přitom není plně autonomní, byť se chce firma podle vyjádření pro Voxpot na takovou úroveň dostat.
Ministerstvo obrany ČR má také svůj systém s UI, který se jmenuje MODES. „Jedná se o modulární expertní systém využívající strojové učení k automatickému rozpoznávání a klasifikaci dat na snímcích z komerčních, a v budoucnosti snad i českých satelitů,“ popisuje Marčík a Zůna. Celkově ale Česko v otázce rozvoje UI spíše zaostává. Experti také poukazují na to, že zbraňové systémy české armády jsou zastaralé. Autonomní systémy jsou sice zaváděny, ale není to systémové.
Kdo je tedy ten zlý?
Je nesporné, že vojenské výhody UI jsou obrovské. Přitom se článek nedotkl další obrovské agendy využití UI – jejího uplatnění ve válčení v kyberprostoru. Nicméně je jasné, že UI se dostává do bodu, kdy nezmění pouze civilní život lidí, ale také způsob a myšlenky válčení.
Existuje stále větší skupina zemí, které chtějí smlouvu o autonomních zbraních. A vyzývá k tomu stále více a více organizací, včetně Mezinárodního výboru červeného kříže. Kayser je optimistický a tvrdí, že se tam nakonec dostaneme, ale velkou otázkou je, zda to nebude příliš pozdě. „Alternativní cesta je totiž ta, která vede ke katastrofě,“ říká.
Politici by měli číst science-fiction, ne detektivky a westerny. (Arthur C. Clarke)
Přitom je důležité si uvědomit, že UI je nástroj. A záleží na lidech, jak onen nástroj použijí. Horák upozorňuje, že interpretace ze strany UI bude vždy jiná než ta lidská. A největší nebezpečí, jež lidstvu od UI podle něj hrozí, je čistá statistika. UI si totiž vše vyvozuje na základě statistické analýzy a nezohledňuje širší kontext, který zatím dokáže pojmout pouze člověk.
Hlavní výzvou je ukočírování takového postupu legislativně a filozoficky. Jenže pokud sestrojíme robota, který bude vykonávat úkony daleko za lidským chápáním a uvědomí si sám sebe, je možné, že jakoukoli pojistku obejde. „Byl by to úplně nový druh a choval by se zcela nepredikovatelně,“ říká Žalud. „UI je mocný nástroj a je na nás, jak ho použijeme,“ dodává.
Podívejte se také na naši reportáž o českých zbrojařích: