Americké letectvo netuší, jak testovat své budoucí robotické piloty

Americké letectvo netuší, jak testovat své budoucí robotické piloty
Autor fotografie: Northrop Grumman|Popisek: Ilustrační snímek vojenského dronu X-47B
24 / 10 / 2016, 12:45

Protože základní otázkou je, jak můžete překvapit robotický dron, který může svou strategii zrevidovat a poopravit stokrát, než lidský pilot mrkne...

Američtí vojenští velitelé utrácejí miliardy dolarů na rozvoj robotické umělé inteligence, která má, jak říkají zajistit technologickou převahu v příštím desetiletí nebo dvou.

Zde je ale otázka pro nadcházejících pět let: jak si vyzkoušet zbraňové systémy s umělou inteligencí takovým způsobem, který je zároveň bezpečný a přesto věrohodně představuje bojové prostředí?

Maj. Gen. Robert McMurry Jr., který vede Air Force Research Lab (AFRL) na letecké základně Wright-Patterson Air Force Base v Ohiu, je zvyklý na testování nebezpečných a futuristických zbraní, jako jsou lasery.

"Buď není dostatečně smrtící, nebo je to ta nejnebezpečnější věc vůbec" žertoval McMurry na snídani Národní obranné průmyslové asociace minulou středu. "Ale to zpochybňuje rozsah zkoušek... Autonomie to celé posune na zcela novou úroveň."

V současné době se McMurry a jeho tým snaží přijít na to, jak testovat autonomní roboty, kteří by mohli jednoho den pomoci stíhačům ve skutečném boji. Pod programem nazvaným Loyal Wingman, výzkumníci z university v Cincinnati vyvinuli ALPHA , pozoruhodný systém, který využívá fuzzy logiku a rychlé zpracování, aby konzistentně porážel lidské piloty v simulovaném prostředí. Jak rychle? Podle tvůrců ALPHA může systém jednou za 6,5 milisekundy nabrat údaje z čidel, zorganizovat je a vytvořit kompletní mapu scénáře, analyzovat současný postup a provést změny, nebo vytvářet zcela nový scénář pro čtyři stroje."

"Zjednodušeně řečeno, umělá inteligence je tak rychlá, že by mohla zvážit a koordinovat nejlepší taktický plán a přesné odpovědi, v dynamickém prostředí více než 250 krát rychleji než její lidský oponent mrkne."

Co si myslíte o bezpečnost a spolehlivosti softwaru, který reviduje svou strategii řádově rychleji, než stačíte mrknout? Jak "to" překvapit a jak si otestovat svou reakci na toto překvapení? Ve skutečnosti "Jak to otestovat" je dilema, které straší počítačové odborníky už od Alana Turinga. Zatímco Turingovým měřítkem umělé inteligence byla schopnost zmást člověka textem, McMurry hledá něco méně humanistického a praktičtější: úroveň důvěry mezi stroji a jejich provozovately.

"Jestli chcete autonomní systém jako partnera lidské posádky, jak ten člověk může věřit autonomnímu systému?" řekl McMurry. "Základním stavebním kamenem důvěry není integrita a pravda. Základním stavebním kamenem důvěry je kompetence. Systém má dělat to, co očekáváte, způsobem, kterým vás během mise neustále podporuje. Když to udělá, začnete mu věřit. "

McMurry říká, že cesta k důvěře leží více přes virtuální a simulované hodnocení leteckého úřadu pro strategické plánování rozvoje.

"Existuje názor, že jsme stále v základním systémovém inženýrství, které říká: "Začnu s požadavky na úrovni systému a rozkložím je směrem dolů až do nejmenších subsystémů. Nevím, jak se to dělá s autonomním systémem," řekl McMurry. "Změní to pro nás pravidla hry. Budeme muset přijít na to, jak dál. Už tímto směrem postupujeme. Nemůžete získat prostředí, které potřebujete otestovat v reálném světě. Takže jdeme vymyslet, jak to udělat spoustou modelování a simulací."

Jinými slovy, budeme muset nechat testování strojů nové generace dalším strojům.

Zdroj: Defense One

Tagy článku