V úterý zasedne Rada bezpečnosti OSN pod předsednictvím Velké Británie k tématu umělé inteligence. A to vůbec poprvé. Co při jednání sledovat a co od něj čekat?
Setkání Rady bezpečnosti OSN k tématu AI je v této chvíli důležité hlavně jako symbol. Jde o deklaraci toho, že přišel čas se tématem začít vážně zabývat.
„Nepředpokládám, že by v New Yorku došlo k nějakým zásadním rozhodnutím. Vnímám to ale jako signál, že je AI považována za globální bezpečnostní téma, což je důležité,“ shrnuje svůj postoj k úternímu setkání expert na umělou inteligenci Jan Romportl.
Nynější setkání je určitě i politickým tahem ze strany Velké Británie. Ta má jako jediná v Evropě jakž takž technologický potenciál AI někam dál táhnout.
Pojďme se krátce podívat, co už v oblasti umělé inteligence stihly Spojené národy i předsedající Velká Británie opravdu udělat.
Spojené národy a AI
Co se umělé inteligence týče, nejde o první aktivitu Spojených národů jako takových. Etikou umělé inteligence a jejími hrozbami i přínosy se OSN zabývala už dříve, speciální zájem o ni měla organizace UNESCO.
Skutečná formalizace tohoto zájmu přišla až v reakci na přelomové velké jazykové modely jako ChatGPT. Jako první se k výzvě vývojářů, kteří hlásali „pozastavte vývoj AI“, přidalo opět UNESCO, a to v březnu 2023. Nejsilnější, a přitom realistický návrh ale zatím představil generální tajemník OSN Antonio Guterres v červnu 2023.
Čtěte také: Bodu, od kterého už umělá inteligence nepůjde vypnout, si ani nemusíme všimnout, říká Kulveit
Postavil se za návrh nové mezinárodní agentury modelované po vzoru Mezinárodní agentury pro atomovou energii (IAEA). Argumentace je zde koneckonců relativně podobná jako právě u atomové energie. Umělá inteligence má obří ekonomický potenciál, ale její zneužití nebo jen vymknutí se z rukou má potenciál masivně uškodit všem.
Proč právě Británie?
„Nynější setkání je určitě i politickým tahem ze strany Velké Británie. Ta má jako jediná v Evropě jakž takž technologický potenciál AI někam dál táhnout, takže když prosazuje její zodpovědnou regulaci, nepůsobí to jako z nouze ctnost,” komentoval okolnosti Jan Romportl.
Velká Británie na AI, její vývoj i regulaci skutečně sází a snaží se stát celosvětovým lídrem. V červnu ohlásila vznik Foundation Model Taskforce, která má přinést vlastní „základní model“. Ten by měl schopnostmi odpovídat komerčním modelům jako ChatGPT či Google Bard, ale zároveň být bezpečný a spolehlivý. Rozpočet tohoto útvaru v tuto chvíli činí 100 milionů liber (přes 2,7 miliardy Kč), což není v porovnání s náklady v tomto průmyslu nijak zvlášť vysoké číslo.
Srovnat to můžeme například s Microsoftem, který v červnu investoval 10 miliard dolarů (přes 211 miliard Kč) do OpenAI, aby zajistil její integraci do svých produktů. Když ale k britské Taskforce přidáme 900 milionů liber (skoro 24,9 miliardy Kč), které chce země investovat do vývoje „superpočítačů”, je to už na úrovni státu solidní závazek.
Ambiciózní jsou také záměry Velké Británie na poli regulace. Spojené království vydalo nejen svůj whitepaper o dlouhodobém postoji k AI, ale též chystá „tento rok“ summit k rizikům AI.
Jeho přípravou byl pověřen v červnu vybraný šéf výše zmíněné Foundation Model Taskforce – podnikatel a investor v technologickém sektoru Ian Hogarth. Soudě dle jeho článku pro Financial Times, Hogarth není zrovna velký AI optimista.
Bude to tak mocná technologie, že ji musíme z hlediska řízení rizik postavit na úroveň jaderné energie a biotechnologií.
„Jeho výběr do čela Taskforce i přípravy summitu je tak možné vnímat jako jasnou ukázku britského kurzu: AI má ohromný potenciál, který je třeba rozvíjet, ale přináší i ohromná rizika, která je třeba řešit,“ shrnuje svůj pohled na britskou pozici odborník na globální hrozby Jan Kulveit.
Co by se mělo stát a co se stane?
,,Umělá inteligence se samozřejmě výrazně projeví i v architektuře mezinárodní bezpečnosti. Teď je nutné zajistit aspoň úplné základy. Pro začátek by byla skvělá alespoň dohoda na ponechání všech klíčových rozhodnutí ohledně zbraní hromadného ničení na lidech a dohody na sdílení informací o průlomech v efektivitě AI,“ míní Jan Kulveit.
V tuto chvíli samozřejmě nemůžeme předpokládat ani dohodu na těchto základních otázkách, nebo jestli na ně alespoň dojde. Vzhledem k dřívějšímu vývoji se dá očekávat pokus domluvit se rámcově na otázce mezinárodní agentury pro monitoring rizik souvisejících s AI, ale ani to není jisté.
,,Bez AI to prostě nepůjde. Ale zároveň to bude tak mocná technologie, že ji musíme z hlediska řízení rizik postavit na úroveň jaderné energie a biotechnologií. Pokud je tedy aktuální setkání Rady bezpečnosti jedním z kroků, které povedou ke vzniku nějakého AI ekvivalentu již existující Mezinárodní agentury pro atomovou energii, tak z mého pohledu je to dobře,“ hodnotí šance a možnosti setkání Jan Romportl.
O vývoji ohledně bezpečnosti a umělé inteligence nejen na Radě bezpečnosti OSN vás budeme dále informovat.