Právní aspekty automatizace rozhodovacích procesů - Masaryk ...

5 downloads 136 Views 913KB Size Report
Nakonec jsou analyzovány možnosti automatizace rozhodování v justici a státní správě. ..... jejíž základy a zásady, na nichž staví, vznikaly v minulosti. V době.
PRÁVNICKÁ FAKULTA MASARYKOVY UNIVERZITY Právo a právní věda

ÚSTAV PRÁVA A TECHNOLOGIÍ

Diplomová práce

Právní aspekty automatizace rozhodovacích procesů

Lukáš Matějka Brno 2011

Prohlášení Prohlašuji, že jsem diplomovou práci na téma: Právní aspekty automatizace

rozhodovacích

procesů

zpracoval

sám.

Veškeré

prameny a zdroje informací, které jsem použil k sepsání této práce, byly citovány v poznámkách pod čarou a jsou uvedeny v seznamu použitých pramenů a literatury

Poděkování Rád bych poděkoval vedoucímu práce Mgr. Jaromíru Šavelkovi za jeho připomínky a cenné podněty při vedení diplomové práce a rodině za podporu v průběhu celého studia.

Anotace Tato

práce

se

z právní

perspektivy

zabývá

automatickým

rozhodováním. Po teoretickém uvedení do problematiky rozhodování následuje analýza nejvýznamnějších systémů umělé inteligence použitelných pro automatické rozhodování. Z této analýzy vyplývá hodnocení právních následků akcí konaných automatem, zejména pak odpovědnosti za ně. Následuje úvaha nad možným budoucím vývojem automatických systémů do podoby umělých bytostí. Nakonec jsou

analyzovány

možnosti

automatizace

rozhodování

v justici

a státní správě. Klíčová slova automatické

rozhodování,

automatizace,

odpovědnost,

právo,

rozhodovací proces, umělá inteligence

Annotation This thesis deals with automated decision making from the legal perspective. Theoretical introduction to the area of decision making is followed by an analysis of the most significant artificial intelligence systems that are applicable for automated decision making. Based on this analysis, legal effects of automatically conducted actions are evaluated; especially liability for these actions. Further the possible development

of

automatic

machines

into

artificial

beings

is

contemplated. Finally the possibilities of automation in justice and public administration are analysed. Keywords automated decision making, automation, liability, law, legal, decision making process, artificial intelligence

zadání 1. strana

zadání 2. strana

1 2

Obsah Úvod ........................................................................................... 9 2.1 Cíle práce .......................................................................... 10 2.2 Stručná historie a terminologie .......................................... 11

3

Rozhodovací procesy ................................................................. 13 3.1 Co je rozhodovací proces? .................................................. 13 3.2 Význam rozhodovacích procesů ......................................... 13 3.3 Automatizované rozhodovací procesy ................................. 14 3.4 Typy rozhodování .............................................................. 17 3.4.1 Programová a neprogramová rozhodnutí................... 18 3.4.2 Strategická a operativní rozhodování ........................ 18

4

Způsoby automatizace rozhodovacích procesů .......................... 20 4.1 Oblasti automatizace rozhodování ..................................... 20 4.2 Historie umělé inteligence.................................................. 23 4.3 Současný stav poznání a oblasti aplikace UI ...................... 24 4.4 Umělé neuronové sítě ........................................................ 25 4.5 Expertní systémy............................................................... 28 4.5.1 Tvorba ES ................................................................ 30 4.5.2 Použití expertních systémů ...................................... 31

5

Odpovědnost za aktivity automatických a autonomních systémů .................................................................................... 33 5.1 Soukromoprávní odpovědnost za škodu ............................. 33 5.2 Trestní odpovědnost .......................................................... 40 5.3 K možnosti aplikace zákonů robotiky ................................. 43 7

6

Umělé bytosti............................................................................ 45 6.1 Definice a povaha umělých bytostí ..................................... 46 6.1.1 Povaha umělých bytostí............................................ 48 6.2 Možné přístupy k umělým bytostem de lege ferenda .......... 49

7

Automatizace rozhodovacích procesů v justici a státní správě ... 53 7.1 Asistenční činnosti ve státní správě a justici ...................... 54 7.1.1 Současný stav .......................................................... 54 7.1.2 Možnosti automatizace pomocných činností ............. 56 7.1.3 Předpověď rozhodnutí .............................................. 58 7.2 Automatické systémy ve vlastním rozhodování .................. 59 7.2.1 Očekávatelné přínosy automatizovaných rozhodnutí. 59 7.2.2 Meze, rizika a nevýhody: .......................................... 60 7.2.3 Zavádění automatizovaných rozhodnutí do státní správy a justice ........................................................ 61

8

Závěr ........................................................................................ 64

9

Resumé .................................................................................... 67

10 Definice .................................................................................... 70 11 Zkratky .................................................................................... 72 12 Použité zdroje ........................................................................... 73

8

2

Úvod

Stále více jsou naše životy ovlivňovány technikou. Technikou, jejíž možnosti a schopnosti jsou stále rozsáhlejší. Čím dál tím častěji jsou strojům svěřovány i různě komplikované činnosti, které vykonávají bez lidských zásahů a s pouze omezenou kontrolou. Začínají se objevovat i stroje schopné autonomního provozu a lze se domnívat, že jich bude jen přibývat. Autonomně jezdící automobily a letadla, vojenské nebo záchranné roboty nasazované na nejnebezpečnější úkoly jsou těmi nejviditelnějšími. Přesto je lze považovat pouze za špičku ledovce. Většina počítačových programů 1 totiž neovládá žádné auto ani žádného robota. Většina nemá přímý fyzický vliv na okolí. Proto

však

nejsou

méně

významné.

Rozhodují

o

obchodních

transakcích, pomáhají hledat naleziště surovin 2 nebo diagnostikovat nemoci 3. A přesto neexistuje právní regulace autonomních systémů. Zatímco dnes to možná není zásadním problémem, v budoucnu by být mohlo. Zásadním rozdílem je, že v případě autonomních systémů jde o kvalitativní změnu. Zatímco například s příchodem internetu se zásadním způsobem zrychlilo a usnadnilo předávání informací, možnost dálkové komunikace zde byla dlouhodobě – změna byla kvantitativní. Autonomní systémy představují entitu, se kterou právo v zásadě nepočítá – mohou být schopny relativně samostatného rozhodování,

ale

nejsou

člověkem.

Zároveň

nejsou

natolik

samostatné, aby mohly být nadány plnou právní subjektivitou. V současnosti zná právo pouze dvě entity s podobnými vlastnostmi: děti

a

zvířata,

přičemž

děti

jsou

nadány

částečnou

právní

Což je v současnosti a minimálně v blízké budoucnosti ta část, která rozhoduje a řídí.

1

2

Například expertní systém Prospector.

3

Například expertní systém Mycin.

9

subjektivitou a zvířata jsou považována za zvláštní druh věci 4. To činí autonomní systémy velice specifickou skupinou. Stav, kdy neexistuje zvláštní právní regulace na problematiku, která je zatím pouze okrajová a kterou bude třeba ve zvýšené míře řešit především v budoucnosti, netřeba považovat za kritický. Je zde však důvod přicházející realitu zohledňovat u nově přijímaných zákonů i jiných regulací. Rovněž nelze pominout potřebu široké diskuse o tom, jak by taková úprava měla vypadat.

2.1 Cíle práce Tato

diplomová

práce

se

bude

zabývat

problematikou

automatizovaného rozhodování z pohledu práva. Za tím účelem bude analyzována teorie rozhodování a jeho hlavní aspekty. Na teorii rozhodovacího procesu naváže přehled a zhodnocení prostředků automatizace. Budou představeny prostředky automatizace rozhodování, které jsou dnes nejčastěji využívány s vyzdvižením těch vlastností, které jsou

relevantní

pro

právní

posouzení

rozhodnutí

vykonaných

takovými prostředky. Jde zejména o systémy umělé inteligence a jejich specifické vlastnosti. Hlavním

cílem

bude

právní

rozbor

následků

rozhodnutí

automatických a autonomních programů za současné právní úpravy a v omezené míře návrh východisek pro případnou úpravu budoucí. Tato práce si neklade za cíl zodpovědět všechny možné otázky a lze očekávat, že některé zůstanou otevřené pro další diskusi.

4 Zvláštnost ale spočívá především v ochraně před týráním, zvířatům totiž nebývají svěřována žádná rozhodnutí.

10

2.2 Stručná historie a terminologie První zmínky o umělých bytostech se vyskytují v hebrejské mytologii v podobě golemů. „Golem provádí jednoduché, opakující se úkony, je však těžké ho zastavit.“ 5 Touto definicí se golem velmi blíží našemu chápání slova robot pro kombinaci svého určení a mechanické povahy. Další umělé bytosti se objevují v mytologii i v umění od této doby až do současnosti. Ve většině publikací, které se, byť vzdáleně, dotýkají robotiky, (a v českých obzvláště) je zvykem uvést okolnosti vzniku slova Robot, které odvodil Josef Čapek ze slova „robota“, a jeho první použití Karlem Čapkem v divadelní hře Rossum‘s Universsal Robots (R. U. R.) v roce 1920. Bylo jím nahrazeno do té doby používané slovo automaton. 6 Bez zajímavosti není ani fakt, že Robot popsaný Karlem Čapkem se příliš nepodobá robotu tak, jak ho chápeme dnes. Čapkovi Roboti byli vyráběni na biologicko-chemické bázi, a co do vzhledu, se nelišili od lidí. V dnešní době bychom tyto bytosti označili spíše jako androidy. Český pravopis připouští použití slova robot v životné i neživotné formě. Obecně akceptovaná pravidla pro rozlišení, který robot má být životný, a který ne, neexistují. Autor této práce zastává názor, že vhodným dělícím kritériem je mobilita a autonomie robota. Zatímco stacionární

roboty

mají

obvykle

povahu

naprogramovaných

jednoúčelových automatů, autonomní mobilní roboti se vyznačují množstvím vlastností společných s živočichy, které se často více či méně úspěšně snaží napodobit a proto je na místě použití životné formy.

5 STONE, Wesley L. Robotics and Automation Handbook. Kurfess, Thomas R. : CRC Press, 2005. ISBN 0–8493–s "STONE, Wesley L. Robotics and Automation Handbook. Kurfess, Thomas R. : CRC Press, 2005. ISBN 0-8493-1804-1." \c 16

STONE, Wesley L. Robotics and Automation Handbook. Kurfess, Thomas R. : CRC Press, 2005. ISBN 0-8493-1804-1.

6

11

Dalším autorem, který měl značný vliv na nazírání některých, především etických, aspektů robotiky a existence umělých bytostí byl Isaac Asimov. Ve své povídce Runaround (1942), kde mimo toho také poprvé použil slovo „robotika“ ve významu, v jakém je známo dnes, formuloval Tři zákony robotiky. Až v roce 1985 doplnil své tři zákony o nultý. „0) Robot nesmí ublížit lidstvu nebo svou nečinností dopustit, aby mu bylo ublíženo. 1) Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby mu bylo ublíženo. 2) Robot musí poslechnout člověka, kromě případů, kdy je to v rozporu s prvním zákonem. 3) Robot se musí chránit před poškozením, kromě případů, kdy je to v rozporu s prvním nebo druhým zákonem.“ 7 Otázka, do jaké míry budou tyto zákony robotiky dodržovány, značně závisí na tom, kdo bude financovat jejich výzkum a vývoj. Pokud je autorovi známo, žádný stát tyto zákony nepřijal za vlastní inkorporací do svého právního řádu. Jejich normativita tak spočívá v mimoprávním působení na tvůrce robotů. Nutno však podotknout, že adresáty těchto zákonů měli být plně autonomní roboti. Vůli tvůrců robotů aplikovat tyto zákony extenzivně je i tak třeba hodnotit pozitivně. Se značnou jistotou lze snahu o dodržení těchto pravidel předpokládat u robotů průmyslových a zábavních, kde půjde především o maximální možnou eliminaci nehod. Jiná je situace u robotů vojenských, které často už z povahy svého určení nebudou mít možnost dodržovat první zákon robotiky.

7 ASIMOV, Isaac. Runaround. In CAMPBELL, John W., Jr. Astounding Science Fiction. New York : Street & Smith, 1942. s. 94-104. Citace rozšířena o nultý zákon.

12

3

Rozhodovací procesy

V této

kapitole

budou

analyzovány

pojmy

rozhodování

a rozhodovacího procesu. Mimo jiné i na základě rozšířenosti rozhodování bude demonstrován značný význam rozhodovacích procesů.

Pro

úplnost

bude

uvedeno

základní

dělení

(typy)

rozhodování s přihlédnutím k jejich automatizovatelnosti.

3.1 Co je rozhodovací proces? Rozhodovacím procesem se rozumí postup, kdy nějaká entita (obvykle člověk, ale stále častěji stroj) vybírají jednu nebo několik variant řešení nebo postupu z více možných variant. Přitom všechny možné varianty rozhodnutí nemusí být, a často nejsou, známy na začátku rozhodování a někdy ani v jeho průběhu.

3.2 Význam rozhodovacích procesů Důležitost rozhodování na všech úrovních naší společnosti od vrcholných politických pozic až po drobná rozhodnutí je značná a také se touto problematikou zabývá množství literatury. Oblastí, ve které

je

v brzké

době

možno

očekávat

nejdynamičtější

rozvoj

automatizovaných rozhodnutí, je management – právě zde není výjimečným

výskyt

rozhodnutí

s relativně

omezenou

množinou

vstupních faktorů, která jsou však natolik komplexní, že rozhodování člověka se stává obtížným pro nemožnost postihnout všechny varianty. A protože „komponenta rozhodování přímo ovlivňuje všechny ´interní´ manažerské komponenty“ 8 je správné rozhodování klíčové. Vzhledem k tématu práce nebudou nadále probírána rozhodnutí, která učinil člověk, ale pouze ta učiněná výhradně strojem nebo za jeho výrazného přispění. VÁGNER, Ivan. Systém managementu. Brno : Masarykova Universita, 2006. ISBN 80-210-3972-8.

8

13

3.3 Automatizované rozhodovací procesy Předně je vhodné říci, co se rozumí automatizovaným rozhodnutím. Je jím rozhodnutí, které učiní počítač sám na základě programu a je třeba je zásadně odlišovat od vůle člověka projevené prostřednictvím počítače v případech, kdy se počítač a jeho program na rozhodnutí nijak nepodílí. „Od vůle projevené prostřednictvím zařízení na zpracování dat (nejčastěji počítač) je třeba odlišit tzv. počítačový projev, kdy počítač sám automaticky vygeneruje reakci na akci – projev vůle druhé strany projevené

elektronickým

způsobem,

např.

e-mail

potvrzující

zaregistrování doménového jména. Zde evidentně chybí projev lidské vůle

v reálném

čase.

Protože

však

počítačová

reakce

byla

naprogramována člověkem, jedná se přece jen o projev lidské vůle: provozovatel příslušného software sice neprojevil vůli v reálném čase, ale z počítačového projevu lze odvodit všeobecnou vůli vždy za určitých podmínek (např. správné vyplnění e-žádosti o registraci doménového jména) právní následky založit.“ 9 Je vhodné se zabývat důvody, proč by automatizace rozhodování mohla způsobovat potíže v právním posouzení následků takových rozhodnutí. Tato otázka je spojena s historií vývoje právní úpravy, jejíž základy a zásady, na nichž staví, vznikaly v minulosti. V době jejich vzniku nebyla možnost existence samostatně rozhodující entity jiné než člověka a později vzniklé abstrakce – právnické osoby – představitelná, natož předvídatelná. Pokud by zde taková možnost byla, lze se domnívat, že by právní úprava vypadala mnohdy jinak. Jako příklad lze uvést úpravu provozu

na

pozemních

komunikacích.

V době,

kdy

nebylo

SVOBODA, Pavel, et al. Právní a daňové aspekty e-obchodu. Praha : Linde Praha, 2001. 464 s. ISBN 80-7201-311-4.

9

14

představitelné, že by vozidlo bylo řízeno někým jiným než člověkem, neexistoval

žádný

důvod

vytvářet

abstraktnější

právní

úpravu

a nevázat oprávnění k řízení vozidla na člověka. V současné situaci (a především v blízké budoucnosti), kdy jsou autonomně řízená vozidla realitou 10, však takový důvod existuje. Zvláště významně se projeví v oblasti přičitatelnosti určitého rozhodnutí například kvůli stanovení odpovědnosti, pokud rozhoduje automat s určitou mírou autonomie. V takovém případě by mohlo přestávat platit tvrzení, že „jedině rozhodovatel definitivně rozhoduje o volbě varianty k realizaci a nese za své rozhodnutí a jeho realizaci plnou odpovědnost“ 11. Skutečným rozhodovatelem je zde autonomní systém, který nemůže být odpovědný, zatímco po odpovědné osobě, která by odpovědnost nést mohla (a předpokládá se to) nelze toto spravedlivě

požadovat,

protože

nad

rozhodnutím

nemá

plnou

kontrolu. V tomto kontextu si je nutné uvědomit i další velmi důležitou skutečnost,

kterou

představují

meze

možností

automatizace

rozhodování. Smyslem automatizace (jakékoliv) je, aby byl daný úkol vykonáván rychleji, spolehlivěji a levněji. Je pravdou, že některé úkoly by jinak než automatizovaně provádět nebylo možné, a to kvůli jejich

časové

nebo

jiné

náročnosti. 12

Většina

automatizovaně

10 Viz MARKOFF, John. Google Cars Drive Themselves, in Traffic. The New York Times [online]. October 9, 2010, n/a, [cit. 2010-12-28]. Dostupný z WWW: . nebo extrémně rychlý vývoj schopností vozidel účastnících se DARPA Grand Challenge a DARPA Urban Challenge viz DARPA Grand Challenge. In Wikipedia : the free encyclopedia [online]. St. Petersburg (Florida) : Wikipedia Foundation, [cit. 2011-02-27]. Dostupné z WWW: . 11 VÁGNER, Ivan. Systém managementu. Brno : Masarykova Universita, 2006. ISBN 80-210-3972-8.

Jako příklad může posloužit hromadná identifikace osob z obrazových dat na letištích, podrobné sledování dopravní situace nebo trvalý monitoring odlehlých míst. 12

15

řešených problémů je však, alespoň teoreticky, řešitelná i bez použití automatizace. 13 Tento fakt se stává maximálně důležitým v situaci, kdy přestává být rozhodnutí jednoznačnou funkcí vstupních dat. Za současného stavu poznání 14 není možné naučit výpočetní prostředky vykonávat činnost, kterou lidé vykonávat nejsou schopni. Tou hlavní výhodou použití

výpočetních

prostředků,

kterou

je

rychlost

nelze

vykompenzovat nedostatek schopnosti inteligentního uvažování. Tato

omezení

často

pramení

přímo

z technických

způsobů

automatizace rozhodovacích procesů, které budou popsány dále. Řada přímočarých úloh je řešitelná sestavením určitého algoritmu, který je následně vykonáván. Problémy, u kterých takový algoritmus není ani známý, ani snadno sestavitelný, se používá některého z těchto prostředků umělé inteligence: 

neuronové sítě,



expertní systémy,



fuzzy logika,



strojové učení nebo



genetické programování a evoluční algoritmy.

Společné jim je to, že po vytvoření technického řešení systému (programového vybavení) je nutné ho naplnit daty – učením u neuronové sítě, vytvořením báze znalostí u expertního systému. Tato data poskytuje zpravidla určitým způsobem člověk, ať již předložením vzorových dat (vstup → požadovaný výsledek) nebo

13 Minimálně je znám princip fungování a automatický systém poskytuje přesnější vstupní data a lepší možnost zpracování. 14 S příchodem systémů schopných samostatného učení a s možnostmi přesahujícími možnosti lidského mozku nebudou takové překážky relevantní.

16

přímo odpovídáním na dotazy. 15 V takovéto situaci není možno žádným způsobem naučit systém rozhodovat o otázkách jako je spravedlnost, morálka, estetika nebo náboženská víra. Ne snad proto, že tyto kategorie nejsou přesně vymezeny ani definovány – to je překonatelný problém.

16

Tím hlavním problémem je neexistence

univerzálně platného pojetí těchto kategorií. Bylo by tak možné vytvořit systém, který by s přijatelnou spolehlivostí aproximoval názory svého učitele – člověka 17, ale to není řešení daného problému. Počítač těžko může poskytnout odpovědi na politické otázky, o kterých se lidé nedokážou dohodnout. Nelze předpokládat, že jakákoliv automatizace rozsoudí dlouho se vlekoucí filosofické spory. Pro pochopení mezí vhodnosti automatizace rozhodování je nutné se podrobněji zaměřit na jednotlivé druhy rozhodnutí.

3.4 Typy rozhodování Ne každé rozhodování je stejné. Jednotlivá rozhodování se mohou lišit svojí důležitostí, obtížností, strukturou, četností, časovým horizontem nebo množstvím významných faktorů, které je třeba zvažovat. Všechny tyto prvky mají vliv na to, zda dané rozhodování je vhodné automatizovat či nikoliv. Z pohledu automatizace rozhodování je důležité, zda jde o rozhodnutí programová nebo neprogramová. Dalším dělením, které je nutno zmínit jsou rozhodnutí strategická a operativní.

Výjimkou jsou právě evoluční algoritmy, které se vyvíjejí do značné míry náhodně a strojové učení, kde není vždy nutný lidský vklad pro učení. 15

16 Což zdaleka neznamená, že je snadný. V uvedených případech by byl pravděpodobně největší problém s vhodnou reprezentací dat.

Není bezpodmínečně nutné, aby se takový člověk aktivně účastnil, jako vstupní data by bylo možno použít i jeho existující rozhodnutí. Je rovněž možné, aby učitelem byla skupina lidí, ta ale musí mít dostatečné koherentní názory – při odlišnosti učících vzorů bez zjevných důvodů by systém nebyl schopen se na základě daných dat naučit. 17

17

3.4.1 Programová a neprogramová rozhodnutí Programová rozhodnutí jsou taková, která poskytují strukturovaná řešení pro konkrétní problémy. Do programových rozhodnutí patří často

rozhodnutí,

která

jsou

vykonávána

opakovaně.

Takové

rozhodnutí je sledem standardizovaných aktivit a postupů, které jsou vyzkoušené a prověřené. Programové rozhodnutí nemusí být, a často ani

není,

rozhodnutím

jednoduchým. 18

Množství

možností

a ovlivňujících vlivů může být obrovské. Hlavním znakem je však strukturovanost rozhodnutí, z níž vychází postup při tomto typu rozhodování. Takováto rozhodování jsou pak obzvláště vhodná pro automatizaci. Neprogramová rozhodnutí jsou typická pro nestrukturované problémy a jejich řešení. Pro problémy vyznačující se komplexností, nejednoznačností a obvykle neexistující dokumentací. Neprogramová rozhodnutí obvykle řeší unikátní problémy, které se vyskytují pouze jednou nebo zřídka. Automatizace takových rozhodnutí je buď nemožná, nebo neefektivní. 19 3.4.2 Strategická a operativní rozhodování Dělení rozhodování, které by nemělo být opomenuto je dělení na rozhodování strategické a operativní. Rozdělení závisí na tom, zda je dané

rozhodnutí

spojeno

s dlouhodobou

perspektivou

nebo

s každodenními všedními záležitostmi. U strategických rozhodnutí je důležitější kvalita rozhodování nad její rychlostí a to především kvůli dlouhodobosti jejich následků.

18 CEJTHAMR, Václav; DĚDINA, Jiří. Management a organizační chování. 2., aktualizované a rozšířené vydání. Praha : Grada Publishing, 2010. 334 s. ISBN 978-80-247-3348-7. 19

tamtéž

18

Naopak tomu je u rozhodnutí operativních. U nich je zásadním faktorem rychlé vyhodnocení alternativ a stanovení cílů. 20 Uvedenými vlastnostmi je dána i vhodnost automatizace obou typů rozhodnutí. Zatímco operativní rozhodnutí, u kterých se důraz na

rychlost

minimálně

vyrovná

důležitosti

kvality,

jsou

k automatizaci velmi vhodná, u strategických rozhodnutí je prostor pro automatizaci (a zároveň i ochota svěřit takové rozhodnutí stroji) omezen. U strategických rozhodnutí má tak automatizace funkci především v pomocných a podpůrných činnostech. Další dělení rozhodování používané v managementu jako např. rozhodování shora a zdola nemají z hlediska zaměření této práce podstatný význam.

CEJTHAMR, Václav; DĚDINA, Jiří. Management a organizační chování. 2., aktualizované a rozšířené vydání. Praha : Grada Publishing, 2010. 334 s. ISBN 978-80-247-3348-7. 20

19

4

Způsoby automatizace rozhodovacích procesů

Automatizací rozhodnutí se rozumí proces přesunu rozhodovací funkce z člověka na stroj, kdy ve výsledku vlastní rozhodnutí učiní stroj místo člověka. Stroj tedy není pouhým pomocníkem, ale subjektem rozhodování. Systémy, kterým je svěřeno určité rozhodování je možné rozdělit do dvou hlavních skupin: 

automatické systémy a



autonomní/inteligentní systémy.

Automatické systémy, se používají především pro jasně definované úlohy, snadno kvantifikovatelné. Existuje jednoznačný algoritmus, který na základě vstupních dat deterministicky nalezne výsledek. Tyto systémy se nachází v průmyslu, kde řídí technologické procesy, v domácnostech, ale i v automobilech, kde ty pokročilejší zasahují i do vlastního řízení. Autonomní inteligentní systémy se odlišují především neexistencí jednoznačného algoritmu vedoucího ke stanovení výsledku. Na rozdíl od deterministických autonomních systémů nedávají kategorické výsledky, často jsou to spíše váhy nebo pravděpodobnosti. Používají se v současnosti především pro zpracování obrazových dat, hledání korelací v datech a jiné komplexní problémy.

4.1 Oblasti automatizace rozhodování Už dlouhou dobu je značná část průmyslových procesů řízena různě komplexními automatickými systémy řízení. Z právního hlediska nezpůsobují tyto provozy větších problémů. Za tím je možno vidět několik důvodů. Předně je kladen velký důraz na jejich spolehlivost 20

a bezpečnost 21, následkem čehož vzniká minimum problémových situací. Ještě důležitějším faktorem z právního hlediska, ale je jednoznačná identifikovatelnost odpovědných subjektů. V případě selhání je možno určit, zda systém byl vadně navržen, realizován nebo provozován. Lze pak stanovit, zda za případnou škodu odpovídá dodavatel systému nebo bude následky nést sám provozovatel. Situace v dopravě je o něco komplikovanější. Na rozdíl od průmyslu a některých zvláštních případů 22 je v dopravě velké množství

účastníků

s různou

úrovní

řidičských

schopností.

Následkem toho vznikají i bez ohledu na automatické systémy v automobilech nehody, u kterých není zcela jasné zavinění. Pokud by některý z řidičů tvrdil, že na vině je řídicí systém auta, situace by se zkomplikovala ještě více. I zde se dá předpokládat, že dopravní prostředky řízené autonomně budou bezpečnější. V současné době však toto není, minimálně v českém prostředí, možné 23. Obdobná je situace i v jiných zemích a tak testování takových systémů probíhá většinou

v režimu,

kdy

je

přítomna

osoba

s oprávněním

řídit

a možností kdykoliv převzít řízení. V tomto případě je odpovědnost jednoznačná 24, do budoucna je však třeba počítat s potřebou právní úpravu změnit a umožnit aby se do provozu zapojovala i autonomně řízená vozidla. V případě takové změny je třeba uvažovat i o způsobu certifikace pro autonomní vozy, a to na úrovni výrobců. Rovněž otázka

21 V průmyslových aplikacích se na spolehlivost a dlouhodobý bezchybný a bezzásahový provoz dává mnohem větší důraz než v ostatních oblastech lidské činnosti. 22

Jako je letecká doprava nebo železnice.

23 Zákon č. 361/2000 Sb., o provozu na pozemních komunikacích v § 3/3 uvádí, že motorové vozidlo může řídit jen osoba s příslušným řidičským oprávněním a žáci autoškol. 24 Odpovědnost je jednoznačná z pohledu problematiky autonomně rozhodujícího stroje, jinak stejně jednoznačná jako v případě vozidla řízeného jen člověkem.

21

odpovědnosti by musela být upravena odlišně od současné s tím, že by větší část odpovědnosti nesl výrobce. Bylo by žádoucí, aby v rámci takové změny proběhla širší diskuse, jejímž výsledkem by byly obecnější závěry o postavení autonomních systémů, aby bylo možné zachovat principiální jednotnost právní úpravy napříč různými oblastmi. Zejména v oblasti obchodu mají význam automaticky uzavírané kontrakty, jejichž dojednávání probíhá obvykle přes internet. Ten je ovšem pouze médiem a podstatné je postavení automatického systému – subjektu rozhodování. „Automatizované systémy pro uzavírání smluv se používají už delší dobu. Přesto elektronické smlouvy uzavřené za použití inteligentních softwarových činitelů mají jedinečné kvality a vlastnosti, které je činí dostatečně odlišnými od smluv uzavřených elektronickými nebo automatickými systémy.“ 25 V kontextu autonomních a inteligentních systémů je třeba uvažovat možnost kontroly provozovatele systému nad jeho činností a předvídatelnost jeho akcí. Už dnes se v justiční a správní praxi používají různé systémy, které, zatím ve velmi omezené míře, pomáhají automatizovat vedlejší a servisní činnosti soudů a státní správy. Jednotlivé nepropojené systémy zjevně nevyžadují zvláštní právní úpravu, to by ovšem neplatilo o systému natolik komplexím, že by samostatně prováděl i více kroků. Míra použití prvků umělé inteligence se liší podle odvětví – zatímco průmysl a státní orgány se k adopci nových technologií staví zdrženlivě, spotřební elektronika výzkum, nebo obchod využívají nové

DAHIYAT, Emad Abdel Rahim. Intelligent agents and liability : is it a doctrinal problem or merely a problem of explanation?. Artifical Intelligence and Law. 2010, Vol. 18, Issue 1, s. 103–121. Dostupný také z WWW: . 25

22

technologie co nejdříve. Nepřekročitelným faktorem je v každém okamžiku míra poznání a technické možnosti, které historicky rostly postupně jako odpovědi na aktuální otázky.

4.2 Historie umělé inteligence Historie umělé inteligence jako samostatného vědního oboru se datují od roku 1956, ve kterém proběhla konference „The Dartmouth summer research project on artificial intelligence“ 26, ačkoliv první pokusy o tvorbu inteligentních strojů se objevovaly už dříve. 27 Mezi počáteční cíle vývoje umělé inteligence patřilo například odvozování matematických

vzorců

a

řešení

matematických

a

technických

problémů. Obor umělé inteligence byl vymezen následovně: „Umělá inteligence je věda o vytváření strojů nebo systémů, které budou při řešení určitého úkolu užívat takového postupu, který – kdyby ho dělal člověk – bychom považovali za projev jeho inteligence.“ 28 První pokusy směřovaly do oblastí prohledávání stavového prostoru a hlavně do výzkumu umělých neuronových sítí. Po slibných začátcích a především velmi neskromných očekáváních následovalo zklamání a na léta byl výzkum UNS významným způsobem utlumen. Není bez zajímavosti, že na tom měl paradoxně výrazný podíl Marvin Lee Minsky 29, když chybně 30 zobecnil negativa 31 specifické podoby 32

HABIBALLA, Hashim. Umělá inteligence [online]. Ostrava : Ostravská Univerzita, 2004 [cit. 2011-02-19]. Dostupné z WWW: . 26

27 Například jednoduchý model neuronu ze 40. let od W. S. McCullocha a W. Pittse.

Definice z MINSKY, Marvin Lee. Computation: Finite and Infinite Machines. New Jersey : Prentice Hall, Inc., 1967. ISBN 0-13-165563-9. 28

29 Marvin Lee Minsky je jeden ze zakladatelů oboru umělé inteligence a významný odborník na umělé neuronové sítě. 30 Existuje názor, že tuto chybu učinil záměrně, aby byly kapacity přesměrovány do jiných oblastí výzkumu, které považoval za perspektivnější.

23

neuronové sítě na všechny konfigurace. Od té doby byla značná pozornost věnována zejména expertním systémům. Přibližně od 80. let minulého století nastala určitá renesance UNS a na poli umělé inteligence je dosahováno pravidelně dílčích, ale ne nevýznamných praktických úspěchů.

4.3 Současný stav poznání a oblasti aplikace UI Naděje vkládané do aplikací umělé inteligence v prvopočátcích byly zčásti naplněny. Systémy umělé inteligence sice neučinily významné vědecké objevy 33, zato nacházejí uplatnění ve velkém množství aplikací denního použití, které by bez nich nebyly řešitelné. Mezi hlavní oblasti použití systémů umělé inteligence patří zejména: 

rozpoznání obrazu a zpracování obrazových dat,



optické rozpoznání znaků (OCR) – převod naskenovaného textu na zpracovatelná data,



převod řeči na text 34,



předpovědi v časových řadách – počasí, ceny akcií na burze,



hledání optimálních řešení při navrhování plošných spojů,



prohledávání možných tras v navigačních systémech, nebo



klasifikace – rozdělení objektů do skupin podle vlastností.

31 Tímto negativem byla neschopnost aproximovat logickou funkci XOR (výlučné nebo).

Toto omezení platí pro topologii sestávající z jednoho perceptronu, např. třívrstvá perceptronová síť tuto funkci realizovat umožňuje. 32

33 Alespoň autorovi nejsou žádné objevy učiněné samostatně počítačovým systémem známy. Lze se jen dohadovat, zda by případný autor takový objev přiznal počítači, nebo by jej prezentoval jako vlastní. 34 Převod mluveného slova do textové podoby má spolu s OCR význam mj. i pro soudní praxi.

24

Jak je patrno, jde o velmi separované úlohy, jejichž uplatnění je především v pomoci člověku při rozhodování nebo usnadnit časově náročnou rutinní činnost. Skutečně samostatné rozhodování je spíše výjimečné. Jak už bylo naznačeno výše, systémy využívající prvky umělé inteligence jsou schopny řešení problémů, které není výhodné nebo možné řešit klasickým způsobem. Cenou za to je částečná ztráta kontroly nad výsledkem a z toho plynoucí nárůst nejistoty. Je tedy potřeba vždy pečlivě zvážit, zda má být dána přednost tradičnímu algoritmu

nebo

prvkům

umělé

inteligence.

V následujících

podkapitolách budou představeny nejběžnější inteligentní systémy, konkrétně umělé neuronové sítě a expertní systémy.

4.4 Umělé neuronové sítě Umělé neuronové sítě jsou paralelní systémy prvků modelujících činnost biologických neuronů, které jsou uspořádány a vzájemně provázány tak, aby celý systém byl schopen zpracovat data požadovaným způsobem. Již první pokusy s umělými neuronovými sítěmi byly prováděny na optickém rozpoznávání znaků a zpracování obrazu je dodnes významnou oblastí použití umělých neuronových sítí. Dalšími, neméně významnými oblastmi použití, jsou předpovědi na základě historických dat nebo rozpoznání (přepis) mluveného slova. Obecně jde zejména o těžko algoritmizovatelné problémy. Drtivá většina, pokud ne všechny, neuronové sítě mají společné to, že mají přesně definovaný formát vstupních a výstupních dat, kterým je uspořádaná množina čísel, obvykle jako vektor nebo matice. Tato čísla reprezentují zpracovávaná data (jasové úrovně u obrázku, jednotlivé body časové řady, příznaky objektů, které je

25

třeba klasifikovat…). Výstupem je rovněž jedno nebo více čísel, která je třeba interpretovat. I z tohoto velmi stručného popisu je patrné, že umělé neuronové sítě nejsou schopny samostatné funkce bez dalších součástí, které zajistí vhodnou přípravu vstupních dat a interpretaci výsledků. Pro pochopení fungování a omezení umělých neuronových sítí je vhodné se podívat podrobněji na princip jejich funkce. Základem umělých neuronových

sítí

je

matematický

model

neuronu,

obvykle

perceptron 35.

Obr. 1 Schéma perceptronu 36

V průběhu procesu učení jsou učícím algoritmem 37 nastaveny váhy vstupů neuronu takovým způsobem, aby danému vstupu odpovídal požadovaný výstup. Výstup se získá tzv. aktivací neuronu,

Zobecnění více matematických modelů z roku 1957, jehož autorem je Frank Rosenblatt. 35

36 PRANANTHA, Danu. Lifelong Learning Journal [online]. October 15, 2009 [cit. 2011-02-21]. Neural Network in Business Intelligence . Dostupné z WWW: . 37 Nejčastěji používaným algoritmem pro učení je backpropagation – zpětné šíření chyby výstupu.

26

která spočívá v přivedení signálů na patřičné vstupy a jejich váženém součtu. Tento jednoduchý princip vede k překvapivě dobrým výsledkům. I jediný perceptron je při správném naučení schopen reagovat na naučený znak 38. Pro složitější případy a lepší výsledky jsou neurony uspořádány a vzájemně propojeny do sítí tak, že výstup některých neuronů je vstupem další vrstvy. Velkou výhodou výpočtů založených na neuronových sítích je jejich schopnost zobecňovat. Kromě toho, že neuronová síť reaguje správně na vzory předložené při učení, což se předpokládá, měla by být schopna správně reagovat i na jiné podobné vzory, které nemusely při učení být dostupné. Byť umělé neuronové sítě mohou jen stěží být samostatně rozhodující

entitou,

často

budou

tvořit

podstatné

součásti

autonomních systémů, řídicích programů robotů nebo expertních systémů, které budou zmíněny dále. Už proto má smysl se ptát, jak probíhá jejich tvorba a učení, což jsou podstatné informace pro případné stanovení odpovědnosti. Umělé neuronové sítě jsou obvykle realizovány jako softwarová simulace neuronů spuštěná na běžném počítači, případně na hardwaru specializovaném na neurální výpočty. Každopádně základní topologie a příslušné druhy učících algoritmů jsou známy a teoreticky důkladně popsány. 39 Správnost jejich konkrétní realizace je tedy dobře ověřitelná a lze předpokládat plnou kontrolu tvůrce nad ní. Jiná situace je s volbou dat pro učení a nastavením parametrů učení. Není totiž znám přesný způsob jaká data vybrat a jak zvolit

Na rozpoznání 26 znaků abecedy by tedy v ideálním případě postačilo 26 perceptronů. 38

39

Což nevylučuje vznik jiných v budoucnosti.

27

parametry. Nelze předem zjistit, zda určitá volba byla dobrá, nebo ne. A už vůbec není možno určit, jak mají vypadat jednotlivé nastavené váhy na konci učení. Navíc počáteční váhy jednotlivých vstupů bývají nastavovány náhodně, takže i při stejné volbě vstupních dat a parametrů mohou být výsledky mírně odlišné. A to ještě nebyla zmíněna možnost průběžného učení neuronové sítě i ze vstupních dat. V tomto případě se výsledky dynamicky mění a není v moci tvůrce ovlivnit, jak bude vypadat výstup po určité době provozu. Další aspekt plyne ze schopnosti generalizace 40, která, pokud má být využita 41, už ze své podstaty vylučuje možnost ověření správnosti funkce na celém rozsahu budoucích vstupních dat. To vnáší do provozování systémů založených na umělých neuronových sítích jistý prvek nejistoty. Ze své povahy neposkytují neuronové sítě 100% jednoznačné odpovědi



výsledky.

Nicméně

podle

toho

zda

se

výsledná

pravděpodobnost této hodnotě velmi blíží (což odpovídá velmi přesné shodě

s naučeným

vzorem)

nebo

zda

se

pohybuje

v nízkých

hodnotách odpovídajících aktivaci náhodnými hodnotami lze poměrně dobře usuzovat na spolehlivost obdrženého výsledku.

4.5 Expertní systémy Expertní systém je „inteligentní počítačový program, který užívá znalosti a inferenční procedury k řešení problémů, které jsou natolik obtížné, že pro své řešení vyžadují významnou lidskou expertízu.“ 42 Snahou

expertních

systémů

je

simulovat

rozhodovací

činnost

lidského experta takovým způsobem, že kvalita rozhodovacího

Jde o schopnost neuronové sítě správně zpracovat data pouze podobná datům použitým při učení. 40

41

A dlužno konstatovat, že téměř vždy má.

42 Definice podle E. Feigenbauma z BERKA, Petr, et al. Expertní systémy. Praha : VŠE, 1998. 160 s. ISBN 80-7079-873-4.

28

procesu

bude

lepší

nebo

alespoň

srovnatelná

s lidským

rozhodováním. V počátcích expertních systémů panovala velmi optimistická představa univerzálního experta, který by byl schopen okamžitě řešit všechny úlohy v dané oblasti. Překážky, na které narazily tyto představy, byly jak technického charakteru (expertní systémy řešily úspěšně pouze obvyklé problémy), tak přijetím od uživatelů (neochota poslouchat

stroj).

Z těchto

problémů

tak

vyplynulo

omezení

požadavku na samostatné rozhodování a vytvořily se role, ve kterých může expertní systém fungovat: 

expert – systém ví víc než uživatel a obvykle i sám rozhoduje,



kolega – systém ví přibližně stejně jako uživatel a funguje jako poradní hlas nebo nabízí a posuzuje řešení,



asistent – systém nedosahuje schopností uživatele, ale řeší opakující

se

úlohy,

aby

se

uživatel

mohl

věnovat

komplikovaným případům. Hlavní

charakteristikou

expertního

systému

je

existence

inferenčního (řídicího, vyvozovacího) mechanismu a oddělené báze znalostí. Vlastní program obsahuje jen inferenční mechanismus, uživatelské rozhraní a případně vysvětlovací modul. Expertní znalosti jsou uchovány v bázi znalostí, která je relativně nezávislá na inferenčním mechanismu. Znamená to možnost vytváření prázdných expertních systémů, které je před použitím nutno naplnit znalostmi – vytvořit bázi znalostí. Další významnou odlišností expertních systémů je přítomnost vysvětlovacího modulu. Ten umožní, že expertní systém nejen dospěje k nějakému závěru, ale umí tento závěr i odůvodnit. Dostatečné vysvětlení postupu, který vedl k danému závěru, je zásadní pro důvěryhodnost vytvářených rozhodnutí a jejich přezkoumatelnost. Vysvětlovací modul chybí v obecných znalostních systémech. 29

Poslední, a z uživatelského pohledu nejdůležitější, odlišností expertního systému od „normálního“ počítačového programu je možnost práce s neurčitostí. Tato neurčitost může být jak v bázi znalostí (pravidlo platí většinou nebo často), tak v bázi dat (vstupní informace jsou neurčité).

Obr. 2 Architektura expertního systému 43

Na schematickém znázornění architektury expertního systému na obr. 2 je dobře patrno oddělení báze znalostí od zbytku systému. 4.5.1 Tvorba ES Jak vyplývá z výše uvedeného, sestává tvorba expertního systému ze dvou zásadních fází a to:

43



naprogramování inferenčního mechanismu a



naplnění báze znalostí.

DVOŘÁK, Jiří. Expertní systémy. Brno : VUT, 2004. 92 s.

30

Právě plnění báze znalostí je tou nejnáročnější fází tvorby expertního systému. Předně vyžaduje množství času a spolupráci znalostního inženýra s expertem v dané oblasti, která nemusí být vždy bezproblémová. Nelze pominout, že v tomto procesu mohou být do báze znalostí uloženy chyby (nepravdivé nebo nedokonalé znalosti), které bude expertní systém spolehlivě reprodukovat ve všech svých rozhodnutích. I proto je velmi důležité ladění báze znalostí, které představuje nejdelší a nejpracnější část tvorby báze znalostí. 44 Mezi hlavní problémy při tvorbě báze znalostí patří: 

neochota expertů sdělit svoje znalosti (obava z konkurence),



neschopnost expertů zdůvodnit přesně svoje odpovědi,



uplatňování i znalostí z běžného života,



neschopnost znalostních inženýrů porozumět expertovi (např. problémy s terminologií).

Uplatňuje se zde i tzv. paradox znalostního inženýrství: „Čím více se experti stávají kompetentními, tím méně jsou schopni popsat znalost, kterou používají při řešení problémů.“ 45 4.5.2 Použití expertních systémů Ač použití expertních systémů přináší mnoho výhod, je třeba mít na vědomí i jejich omezení. Použití expertních systémů je vhodné tam, kde problémy jsou příliš neurčité nebo komplikované pro nasazení tradičních algoritmů. Na druhé straně, problémy příliš vágní nejsou v současnosti expertní systémy schopny uspokojivě řešit. Podle statistiky z roku 1992 vévodí oblastem nasazení expertních systémů obchod, výroba a medicína. 46 Je třeba upozornit i na vlastnost expertních

systémů,

která



významný

dopad

na

případné

44

JIRSÍK, Václav. Expertní systémy : prezentace k přednáškám. Brno : VUT, 2010.

45

DVOŘÁK, Jiří. Expertní systémy. Brno : VUT, 2004. 92 s.

46 BERKA, Petr, et al. Expertní systémy. Praha : VŠE, 1998. 160 s. ISBN 80-7079873-4.

31

posuzování

odpovědnosti

za

rozhodnutí

učiněná

expertním

systémem: expertní systém si není vědom mezí svých schopností. Z hlediska právních následků akcí konaných expertními systémy, zejména pak odpovědnosti za ně, je třeba uvažovat se skutečností, že na tvorbě expertního systému se podílí mnoho různých tvůrců a každý může svou chybou zapříčinit, že expertní systém se zachová nežádoucím způsobem. Lze však konstatovat, že pro jednoznačně oddělené části expertního systému lze stanovit i odpovědný subjekt. Plně odpovědného za správnou funkci inferenčního mechanismu lze považovat programátora – tvůrce inferenčního mechanismu. Poněkud obtížnější je situace u odpovědnosti za bezvadnost báze znalostí. Prvním důvodem, a pravděpodobně tím významnějším, je fakt,

že

chyba

může

vzniknout

nejen

chybou

experta

nebo

znalostního inženýra, ale i chybou komunikace mezi nimi. V tomto kontextu nelze vyloučit situace, kdy předvídat takovou chybu v komunikaci nebylo v možnostech ani jednoho ze zúčastněných. Druhým možným zdrojem problémů jsou omezené znalosti experta, které mohou být i vnitřně rozporné. Ač by se s určitým množstvím vnitřních rozporů a nejistot měl dobrý inferenční mechanismus vypořádat, nelze to požadovat bezmezně.

32

5

Odpovědnost za aktivity automatických a autonomních systémů

Po analýze vlastností dvou hlavních systémů považovaných za umělou inteligenci lze přistoupit k rozboru odpovědnosti za jejich rozhodnutí. Pro odpovědnost za libovolné aktivity autonomního systému, včetně správných nebo chybných rozhodnutí, která učiní, budou důležité hlavně dva typy odpovědnosti: 

soukromoprávní odpovědnost a



trestněprávní odpovědnost.

Toto rozlišení je důležité, protože u každého z uvedených typů mohou být závěry různé. Existuje jistě více typů odpovědnosti, které však nemají pro diskutovanou problematiku tak zásadní význam. Obecným (společným) znakem odpovědnosti je povinnost snést zákonem stanovanou sankci. Sporným pak je názor na právní důvod sankce, kterým může být porušení povinnosti nebo muže nastat i bez zavinění. 47

5.1 Soukromoprávní odpovědnost za škodu Z pohledu občanského práva je základním východiskem odpovědnosti § 420

odst.

1

OZ 48,

který

jako

prvotní

předpoklad

vzniku

odpovědnosti uvádí porušení právní povinnosti. Takovým porušením může být i nedostatečné předcházení škodám, což je povinnost stanovená v § 415 OZ. Pro provoz automatických a autonomních systémů jsou důležitá ustanovení § 420 odst. 2 a § 420a. Použití autonomních systémů k provozní činnosti lze subsumovat pod

KNAPP, Viktor. Teorie práva. 1. vydání. Praha : C. H. Beck, 1995. 247 s. ISBN 80-7179-028-1. 47

48

Zákon č. 40/1964 Sb., občanský zákoník ve znění pozdějších předpisů

33

ustanovení § 420a, zejména pak pod ustanovení uvedené v odst. 2 a). Zde je jednoznačně uvedeno, že za škody způsobené věcí použitou při provozní činnosti odpovídá provozovatel. Jde tedy o objektivní odpovědnost, které se lze podle § 420a odst. 3 zprostit pouze v případě, že škoda byla způsobena neodvratitelnou událostí nemající původ v provozu, anebo vlastním jednáním poškozeného. Jak patrno je možnost liberace velmi omezená. Zvláštní odpovědnost za škodu způsobenou okolnostmi, které mají původ v povaze přístroje nebo jiné věci, jichž bylo při plnění závazku použito, je stanovena v § 421a. Odpovědnosti podle tohoto paragrafu se nelze zprostit žádným způsobem. Vztah mezi § 420a a § 421a je vztah obecnosti a zvláštnosti, jak ostatně vyplývá i ze systematického zařazení

dotčených

ustanovení.

To

znamená,

že

pokud

je

aplikovatelný § 421a je vyloučena aplikace § 420a a s tím i možnost zproštění se odpovědnosti. Navíc § 420a lze aplikovat pouze na případy, kdy škoda vznikla vlastní provozní činností. Jak vyplývá i z judikatury NS 49, nelze § 420a aplikovat na následky pochybení při výkonu určité činnosti, kam by spadalo i pochybení způsobené chybným automatickým rozhodnutím. Poněkud mírnější je odpovědnost podle § 420. Zde je totiž koncipována subjektivně a ke zproštění postačí subjektu prokázat, že škodu nezavinil. Tato odpovědnost je ovšem k oběma výše zmíněným nejobecnější a uplatní se tedy až na případy, na které nelze aplikovat žádnou z dříve uvedených. Zůstává však otázka, jak by bylo v tomto případě posuzováno zavinění v případě nežádoucího jednání techniky způsobeného jejím selháním, nebo nevhodným nastavením. Zejména v případech, kdy

49

Usnesení NS ČR ze dne 22. 10. 2008, sp. zn. 25 Cdo 2805/2006 a

Rozsudek NS ČR ze dne 25. 11. 2009, sp. zn. 25 Cdo 2429/2007

34

provozovatel věnoval značnou pozornost omezení možných rizik a opatřením k předcházení škodám a jediná souvislost vzniku škody s jednáním

provozovatele

spočívá

v samotném

použití

určitých

technických prostředků, je obtížné tvrdit, že jde o zavinění. Na druhou stranu, smyslem ustanovení o odpovědnosti za škodu je ochrana poškozeného a ten by neměl být nucen nést následky jednání provozovatele autonomního systému. Specifickým případem pak je provoz dopravního prostředku. V současnosti podléhá odpovědnost za škodu způsobenou provozem dopravních prostředků § 427 OZ. Ten stanoví, že „(1) Fyzické a právnické osoby provozující dopravu odpovídají za škodu vyvolanou zvláštní povahou tohoto provozu. (2) Stejně odpovídá i jiný provozovatel motorového

vozidla,

motorového

plavidla,

jakož

i

provozovatel

letadla.“ 50 Jde tedy opět o odpovědnost objektivní. Odlišná od shora uvedených případů je zde i možnost zproštění, která je v obecném případě vyloučena. Jedinou možností zproštění se, je prokázání, že škodě nemohlo být zabráněno ani při vynaložení veškerého úsilí, které lze požadovat. Podmínky pro zproštění jsou tedy velmi přísné. Je vhodné, a to především s ohledem na zaměření této práce do budoucnosti, srovnat stávající účinnou úpravu s úpravou podle návrhu občanského zákoníku 51, který se pravděpodobně stane klíčovou normou v této oblasti na dlouhou dobu. Podle důvodové zprávy k návrhu občanského zákoníku 52 se současná úprava odpovědnosti za škodu způsobenou provozní

50

Zákon č. 40/1964 Sb., občanský zákoník ve znění pozdějších předpisů

51 Návrh občanského zákoníku [online]. [cit. 2011-02-16]. Dostupné z WWW: .

Důvodová zpráva k návrhu občanského zákoníku zákoníku [online]. [cit. 201102-16]. Dostupné z WWW: . 52

35

činností jeví jako zmatečná, s čímž lze jen souhlasit. Tento zmatek je spatřován ve vztahu mezi § 420a a § 432. Nicméně i u ustanovení ostatních paragrafů je patrná jistá nesouvislost a nejasnost v jejich vymezení. Úprava škody z provozní činnosti, která je v návrhu řešena v § 2866 NOZ 53 se zásadně neliší od stávající úpravy. To platí i o škodě způsobené provozem dopravního prostředku upravené v § 2869 an. NOZ. U těchto dvou typů odpovědnosti je tedy jediným rozdílem odlišná formulace (odpovědnost za škodu ve stávající úpravě oproti povinnosti k náhradě škody v navrhované). Co je ovšem nové, je ustanovení § 2878 až § 2880 o škodě způsobené věcí. Částečně se tato úprava překrývá se stávajícím § 421a. Zásadní změna – z pohledu provozu autonomních strojů – je navrhované ustanovení § 2879 odst. 1. Předpokládá možnost, že věc způsobí

škodu

sama

od

sebe,

což

může

být

právě

případ

autonomních strojů: „(1) Způsobí-li škodu věc sama od sebe, nahradí škodu ten, kdo nad věcí měl mít dohled; nelze-li takovou osobu jinak určit, platí, že jí je vlastník věci. Kdo prokáže, že náležitý dohled nezanedbal, zprostí se povinnosti k náhradě.“ 54 Bohužel ani z důvodové zprávy nelze jednoznačně potvrdit, že právě autonomní stroje jsou přímým důvodem existence této úpravy – důvodová zpráva se k § 2879 vyjadřuje dosti neurčitě: „Dále se navrhuje zařadit úpravu povinnosti k náhradě škody způsobené věcí v některých

speciálních

případech.

53

Návrh občanského zákoníku

54

§ 2879 návrhu občanského zákoníku

36

Tato

ustanovení

dosud

chyběla…“ 55. To by však nemělo být na překážku aplikovatelnosti tohoto ustanovení na případ způsobení škody autonomním strojem. Navrhovaná úprava, na rozdíl od účinné 56, navíc počítá s možností liberace pro toho, kdo prokáže, že náležitý dohled nezanedbal. Pro úplnost je třeba zmínit i ustanovení, která se strojů, jakkoliv autonomních, na první pohled netýkají. Tím jsou ustanovení o škodě způsobené zvířetem. Paralela s autonomním mobilním robotem je zřejmá – v obou případech jde o entity s vlastním rozhodováním, přímo nenavázaným na jejich okolí, ale přesto okolím ovlivňovaným. Navíc ani zvířata ani roboti nejsou nadáni způsobilostí k právům a povinnostem, natož způsobilostí k právním úkonům. Ač tato úprava pravděpodobně

nebude

na

problematiku

autonomních

strojů

aplikovatelná, srovnání je zajímavé. Navrhovaná úprava náhrady škody způsobené zvířetem předpokládá dvě situace: 

škodu způsobí užitkové nebo asistenční zvíře (je specificky užitečné a vykonává nějakou činnost; § 2876 NOZ) nebo



obecné zvíře (do této kategorie budou pravděpodobně spadat zejména domácí mazlíčci; § 2875).

Zatímco v generálním případě se nejeví žádná možnost liberace, v případě

zvířat

užitkových

nebo

asistenčních

se

povinnosti

k náhradě škody zprostí ten, kdo prokáže, že při dozoru nad zvířetem nezanedbal potřebnou pečlivost, anebo že by škoda vznikla i při vynaložení potřebné pečlivosti. I v tomto případě lze vidět analogii s roboty – využití sahá od čistě komerčně využívaných průmyslových robotů, přes případné asistenční až po hračky.

55 Důvodová zpráva k návrhu občanského zákoníku zákoníku [online]. [cit. 201102-16]. Dostupné z WWW: . 56

srovnání s nejbližším § 421a

37

Srovnáním ustanovení o škodě způsobené zvířetem a škodě způsobené věcí se ukáže, že zatímco u užitných aplikací je úprava prakticky stejná 57, liší se u obecného případu, kdy pro věci není žádné rozlišení podle použití, zatímco u zvířat je. Návrh je tak k věcem mírně benevolentnější. V současnosti je tedy jednoznačné, že odpovědnost za jakoukoliv činnost, kterou vykoná automatický nebo autonomní systém nese v plné míře provozovatel či vlastník daného systému. V určitých situacích je možné, aby se mohl domáhat náhrady po svém dodavateli. Zatímco u jednoduchých (deterministických) systémů lze takový stav považovat za uspokojivý, u autonomních systémů je situace složitější 58. Lze přijmout bez námitek, že za provoz autonomního nebo automatického stroje nebo obecně systému by měl odpovídat jeho provozovatel. Problém je, jak ostatně uvádí ve svém výše citovaném článku E. A. R. Dahiyat, že provozovatel často není a narůstající měrou nebude schopen možná rizika provozu daného systému zhodnotit a vyhnout se jim a to zejména z důvodu nedostatečných odborných znalostí. A požadovat po široké veřejnosti – všech potencionálních

uživatelích

autonomních

systémů



aby

měla

odborné znalosti z oblasti robotiky a umělé inteligence na úrovni, která by jim umožnila plně porozumět všem omezením a rizikům

U zvířat zákon vyžaduje dozor a pečlivost při něm, zatímco u věcí je vyžadován náležitý dohled. Není jasné, zda je tento rozdíl cílený a míra pozornosti při kontrole má být různá jak je tomu např. u dělení věznic podle trestního zákoníku, nebo jde o neodůvodněné rozlišení, jak by vyplývalo i z článku RŮŽIČKA, Miroslav. Kontrola a dohled v soustavě státního zastupitelství I. Právní rádce [online]. 22. 1. 2008, 1/2008, [cit. 2011-02-17]. Dostupný z WWW: . ISSN 12137693. 57

DAHIYAT, Emad Abdel Rahim. Intelligent agents and liability : is it a doctrinal problem or merely a problem of explanation?. Artifical Intelligence and Law. 2010, Vol. 18, Issue 1, s. 103–121. Dostupný také z WWW: . 58

38

plynoucím z použití takových systémů je zcela zjevně naprosto nepřiměřené. Je tedy třeba požadovat tuto odbornou úroveň po výrobci systému, který by ji stejně měl mít. Po uživatelích – provozovatelích – je pak vhodné požadovat, aby systém provozovali a používali v souladu s pokyny od dodavatele. Takové chování by mělo být považováno za náležitý dohled a v tomto případě by uživatel neměl být povinen k náhradě škody, resp. by měl mít možnost se domoci, aby tuto odpovědnost převzal výrobce. Při odchýlení se od pokynů od výrobce nebo dodavatele je situace zcela jiná. Kdo takové doporučení nerespektuje, měl by počítat s tím, že tím na sebe bere zvýšenou odpovědnost. Takový uživatel by měl nést následky všech akcí konaných autonomním systémem. Pouze pokud by prokázal, že ke konkrétnímu nežádoucímu následku nedošlo vlivem jeho odchýlení se od pokynů výrobce a došlo by k nim i při jejich dodržení, měl by mít možnost liberace. Šlo by tedy o vyvratitelnou

domněnku

způsobení

nežádoucích

následků

nestandardním použitím. Je totiž třeba brát v úvahu i oprávněné zájmy poškozeného, který by neměl být negativně ovlivněn svobodnou volbou jiného použít určitý systém ve svůj prospěch. Je tím myšleno, že odpovědnost by se neměla ztratit a vždy by měl být někdo, kdo ji nese a případnou škodu

nahradí.

Bohužel

nelze

vyloučit

situace,

kdy

zavinění

objektivně nelze přiřknout nikomu 59, nebo viník zjevně existuje, ale není známý. V případě, kdy škoda vznikne v důsledku specifických vlastností

autonomního

stroje,

by,

dle

názoru

autora,

měl

odpovědnost nést provozovatel zařízení i v případech, kdy škodu přímo nezavinil. Vždyť ten, kdo bere pozitivní výsledky z používání

59

Především v případech majících souvislost s přírodními jevy.

39

něčeho, by měl i nahradit škodu, která je tím způsobena, byť neúmyslně a třeba i bez zavinění. V případech živelních událostí a neznámých

viníků

nelze

najít

jiné

východisko,

než

strpění

škodlivých následků poškozeným. Takové řešení jistě není ideální, ale těžko hledat lepší. Popisovaný stav je navíc řešitelný i v současném právním rámci, neboť neznámý pachatel není novým fenoménem. Pro úplnost je třeba zmínit, že do soukromoprávní odpovědnosti patří

kromě

odpovědnosti

za

způsobenou

škodu

například

i odpovědnost pracovněprávní. Nelze vyloučit, že autonomní stroj způsobí zaměstnavateli škodu nebo zraní zaměstnance. Každopádně umělý systém nemůže být zaměstnavatelem ani zaměstnancem s právní subjektivitou a proto budou případy, kdy zvláštní povaha autonomních systémů bude v příčinné souvislosti s důvodem vzniku pracovněprávní odpovědnosti, velmi ojedinělé.

5.2 Trestní odpovědnost Zatímco v případě odpovědnosti soukromoprávní je množství různých právních

hodnocení

odpovědnosti

poměrně

omezené 60,

v právu

trestním je značné množství skutkových podstat a pro každou by hodnocení mohlo být různé. Proto bude v následující části rozebrána pouze obecná trestněprávní odpovědnost bez snahy o konkrétní rozbor jednotlivých skutkových podstat trestných činů. Předně je třeba konstatovat, že stroj nebo umělý systém obecně nemůže v působnosti českého práva spáchat trestný čin a už vůbec nemůže být trestně odpovědný. Trestní zákoník 61 předpokládá jako možného pachatele pouze fyzickou osobu. 62

60

Tato informace ovšem nevypovídá o celkovém počtu řešených případů.

61

Zákon č. 40/2009 Sb., trestní zákoník, ve znění pozdějších předpisů

62

§ 22 TZ; o jiném možném pohledu bude pojednáno později

40

Přesto nelze vyloučit, že autonomní stroj 63 nebo systém 64 se zachová tak, že kdyby se takovým způsobem zachoval člověk, bylo by dotčené jednání trestným činem. To se může stát i v případě divokého zvířete. Podstatný rozdíl je však v tom, že, na rozdíl od zvířete, umělý systém někdo vytvořil a uvedl do chodu. Je proto namístě otázka, zda a do jaké míry mohou lidé nést trestněprávní odpovědnost za činy autonomních systémů. Základním rozhraničením budiž rozdělení trestných činů na: 

trestné činy úmyslné (§ 15 TZ) a



trestné činy nedbalostní (§ 16 TZ).

V případě úmyslných trestných činů netřeba pochybovat o trestní odpovědnosti pachatele. Pokud někdo autonomní systém vytvoří, naprogramuje nebo jinak navede, aby spáchal trestný čin, lze případ posuzovat tak, že ho použil jako pouhý nástroj. S případem použití nástroje trestní právo počítá a nemělo by způsobovat žádné problémy. Odlišná je situace v případě neúmyslných trestných činů. Pro potřeby trestního zákoníku je nedbalost stanovena následovně: „a) věděl, že může způsobem uvedeným v trestním zákoně porušit nebo ohrozit zájem chráněný takovým zákonem, ale bez přiměřených důvodů spoléhal, že takové porušení nebo ohrožení nezpůsobí, nebo b) nevěděl, že svým jednáním může takové porušení nebo ohrožení způsobit, ač o tom vzhledem k okolnostem a k svým osobním poměrům vědět měl a mohl.“ 65

Například autonomní mobilní robot by se mohl dopustit usmrcení z nedbalosti (§ 143 TZ) nebo nějaké formy ublížení na zdraví (§§ 145–148 TZ).

63

64 Například počítačový softwarový systém v prostředí internetu by se mohl zachovat způsobem odpovídajícím § 182 TZ – porušení tajemství dopravovaných zpráv. 65

§ 16 TZ

41

Uvedená citace se však vztahuje na postoj člověka k případnému trestnému činu. Nijak nepostihuje situaci, kdy určitý autonomní systém si naplánuje akci, která by odpovídala některé ze skutkových podstat trestných činů. 66 Z pohledu stroje pak půjde o úmysl, zatímco z pohledu jeho majitele zde jakýkoliv úmysl bude chybět. Protože, jak už bylo zmíněno, má smysl mluvit pouze o trestní odpovědnosti majitele, šlo by i v tomto případě o trestný čin nedbalostní. Z výše uvedeného vyplývá, že posuzování akcí autonomních systémů, které by u lidí byly trestné, bude mít pro jejich majitele velmi podobné následky jako činy zvířat: v případě úmyslu ze strany majitele bude stroj posuzován jako pouhý nástroj a majitel ponese plnou odpovědnost; v případě selhání stroje bude majitel odpovídat za svou nedbalost spočívající v tom, že ho řádně nezabezpečil. Ve srovnání s úpravou odpovědnosti v soukromém právu se trestněprávní úprava zdá být na možnost jiných autonomních aktérů než fyzických osob, kteří navíc nemají právní subjektivitu, připravena o poznání hůře. Tento stav je ještě umocněn nemožností analogie v trestním právu. Zbývá si tedy položit otázku, jak by vypadala ideální úprava trestního práva s ohledem na možnou existenci autonomních aktérů odlišných od lidí. Pravděpodobně není sporu o tom, že trestní odpovědnost za autonomní systém záměrně navržený nebo naučený způsobem, který ho nutí jednat v rozporu se zákonem, by měl nést

I současné systémy mohou mít, a často mají, plánovací moduly, které na základě stavu okolí a zadaného úkolu rozhodují o následujících činnostech. A i v případě, že zadaný úkol zákonu neodporuje, nelze vyloučit možnost, že konkrétní strojem zvolený postup v pořádku nebude. Důvodem takového selhání může být nemožnost jiného řešení vedoucího ke splnění úkolu ve spojení s nedostatečným ošetřením takové situace v programu systému. 66

42

plnou odpovědnost jeho provozovatel 67, jak to ostatně odpovídá i účinné úpravě. Z pohledu tvůrců a provozovatelů autonomních systémů se odpovědnost za následky, které nebyly úmyslné ani předvídatelné, mohla zdát přehnanou. Nelze zpochybnit, že prokazování viny by v takových situacích bylo obtížné 68, nicméně je žádoucí zamyslet se nad smyslem trestněprávních odpovědnosti, kterým má být zejména ochrana třetích osob a motivace pachatele k nápravě. V tomto případě však nelze říct, že ze strany provozovatele nebo výrobce trvale hrozí společnosti nějaké nebezpečí. A tento fakt by měl být zohledněn.

5.3 K možnosti aplikace zákonů robotiky Při úvahách o zákonné úpravě autonomních bytostí nelze nezmínit zákony robotiky formulované Isaacem Asimovem. 69 Tato pravidla jsou poměrně široce přijímaná a většinou tvůrců autonomních umělých systémů respektována. Přestože zamýšleným adresátem jsou sami roboti na velmi vysokém stupni vývoje, je v dnešní době aktuální spíše naplňování jejich smyslu ze strany tvůrců. Z hlediska právní teorie jde o normy imperfektní podmíněné a v případě nultého a prvního imperfektní nepodmíněné. Jejich obsah jednoznačně staví hodnotu lidského života na vrchol, zajímavým je upřednostnění

poslušnosti

před

sebezachováním,

což

je

výraz

chápání robotů jako věci spíše než jako umělé bytosti ve smyslu použitém dále. Co se týká obsahu, jde o velmi obecné formulace na úrovni principů a to i přes na první pohled formálně přesnou

Odpovědnost se může vztahovat i na majitele nebo výrobce a to podle míry zavinění. 67

Zejména prokázání, že potenciální pachatel „vědět měl a mohl“ podle § 16 odst. 1 TZ. 68

69

Jejich text je citován v úvodu.

43

formulaci. Lze konstatovat, že pro právní praxi nejsou v současném znění vhodné. 70 De lege ferenda se v současnosti nezdá být nutné legislativně učinit tato nebo podobná pravidla závaznými, zejména z důvodu jejich dobrovolného dodržování. To ovšem neznamená, že taková situace

v budoucnu

nenastane.

Zejména

s rozvojem

plně

autonomních strojů, případně umělých bytostí, bude nutné řešit, jak se mají chovat. O konceptu umělých bytostí pojednává následující kapitola.

70 POLČÁK, Radim. Právo a evropská informační společnost. Brno : Masarykova univerzita, 2009. 204 s. ISBN 978-80-210-4885-0.

44

6

Umělé bytosti

Se stálým zvyšováním úrovně automatických a autonomních systémů provázeným

růstem

jejich

schopnosti

a

především

rostoucím

množstvím a důležitosti úkolů jim svěřovaných, má smysl se zabývat umělými bytostmi jako specifickou skupinou. Koncept umělé bytosti není zdaleka nový a objevuje se prakticky od

počátku

existence

inteligentní

lidské

společnosti 71.



do

současnosti, resp. nedávné minulosti, byly umělé bytosti především doménou vědeckofantastické umělecké tvorby a představ. Už delší dobu existují snahy o stvoření umělých inteligentních bytostí a jejich posuzování. Alan Turing pravděpodobně nenavrhoval svůj test 72 v rámci prostého slohového cvičení. Cílem bylo zodpovědět otázku 73, zda stroje mohou myslet. Je pravdou, že od té doby se postoj k umělým bytostem měnil a přednost získávaly praktičtější problémy. A zatímco v počátcích byl Turingův

článek

jistě

inspirací

pro

rozvoj

umělé

inteligence,

postupem času se stal spíše rozptylujícím faktorem. Odlehčená historie Turingova testu by mohla vypadat asi takto: „1950 – 1966: Zdroj inspirace pro všechny zabývající se UI. 1966 – 1973: Odvedení od slibnějších směrů výzkumu UI.

71

Viz zmínky o golemech a začátcích robotiky v Úvodu.

Turingův test popisuje metodiku ověření úrovně umělé inteligence. Spočívá v dálkové komunikace člověka s počítačem nebo jiným člověkem. Pokud člověk není schopen spolehlivě určit, zda komunikuje s počítačem nebo s jiným člověkem, počítač v testu uspěl (je inteligentní). 72

TURING, Alan M. Computing Machinery and Intelligence. Mind : a quarterly review of psychology and philosophy. October, 1950, Vol. LIX, No. 236, s. 433-460. Dostupný také z WWW: . ISSN 0026-4423. 73 Byť v té době šlo spíše teoretickou otázku, jsou představitelné počítače, které v testu uspějí.

45

1973 – 1990: Nyní zdroj rozptýlení spíše pro filosofy než pracovníky s UI. 1990 – Odložen do historie.“ 74 Vznikaly další testy k ověření inteligence strojů. Tyto výzvy se plnit zčásti dařilo a z části nedařilo. Mezi ty úspěšné lze bezesporu zařadit hraní šachu 75, robotický fotbal 76, automatickou tvorbu textů a aktuálně schopnost odpovídat na soutěžní otázky pokládané v přirozeném jazyce 77. Takových výzev existuje samozřejmě mnohem více 78. Počítače od IBM jako Deep Blue nebo Watson zjevně umělými bytostmi nejsou, je tedy třeba nalézt hranici umělých bytostí.

6.1 Definice a povaha umělých bytostí Co vlastně je umělá bytost? Všechny výše uvedené systémy vykazují určitou míru inteligence a samostatného rozhodování. Přesto je těžko lze označit za bytost, byť s nimi mohou mít společné vlastnosti. Existuje mnoho definic umělých bytostí, což efektivně znamená, že neexistuje žádná. „Silná UI je umělá inteligence, která dosahuje nebo přesahuje lidskou inteligenci – inteligence stroje, který je schopen úspěšně

74 WHITBY, Blay. Why The Turing Test is AI's Biggest Blind Alley. [online]. 1997, [cit. 2011-02-17]. Dostupný z WWW: .

Human-computer chess matches. In Wikipedia : the free encyclopedia [online]. St. Petersburg (Florida) : Wikipedia Foundation, [cit. 2011-02-19]. Dostupné z WWW: . 75

Robotic Football League [online]. 2011 [cit. 2011-02-27]. Dostupné z WWW: .

76

77 VÁCLAVÍK, Lukáš. IBM Watson: superpočítač, který dokáže porazit člověka. Cnews.cz [online]. 21. 1. 2011, [cit. 2011-02-18]. Dostupný z WWW: .

např. COHEN, Paul. If not Turing’s test, then what?. [online]. September 20, 2005, [cit. 2011-02-19]. Dostupný z WWW: . 78

46

vykonávat

jakoukoliv

duševní

činnost,

kterou

může

vykonávat

člověk“ 79 „Umělá bytost je pojem užívaný pro popsání strojové inteligence, která se vyvine v existující infrastruktuře na rozdíl od toho, když je vědomě navržena a postavena takovým způsobem.“ 80 „Umělá bytost je systém uměle vytvořený člověkem. Tento systém má schopnosti reagovat na prostředí, ve kterém existuje, měnit toto prostředí a dosahovat svých cílů v tomto prostředí.“ 81 Tyto tři vybrané definice se liší a to zásadně. Zatímco první považuje za charakteristickou míru schopností, kterou musí systém dosáhnout,

aby

byl

umělou

bytostí.

Druhá

požaduje

proces

samovolného vzniknutí, čímž je v přímém rozporu s třetí uvedenou definicí, která předpokládá vytvoření člověkem. Co se vlastní podoby umělé bytosti týká, žádná z uvedených definic, a to mají společné, neklade specifické nároky na fyzickou formu. Všechny definice tak připouštějí jak bytosti čistě virtuální, tak bytosti s fyzickým tělem 82. Připuštěním, že umělá bytost nemusí disponovat

fyzickým

tělem

a

může

tak

existovat

výlučně

79 Tato definice odpovídá obecné umělé inteligenci. Definice pojmu „Artificial Being“ podle Googlu

Vyhledávání Google [online]. 2011-02-20 [cit. 2011-02-20]. Define:Artificial Being. Dostupné z WWW: . Převzato z: Strong AI. In Wikipedia : the free encyclopedia [online]. St. Petersburg (Florida) : Wikipedia Foundation, [cit. 2011-02-27]. Dostupné z WWW: . 80 Knowledgerush [online]. 2009 [cit. 2011-02-20]. Artificial being. Dostupné z WWW: .

Tato definice je zaměřená na proces vzniku spíše než na úroveň inteligence. 81 KRAUSOVÁ, Alžběta. Legal Regulation of Artificial Beings. Masaryk University Journal of Law and Technology. Summer 2007, volume 1, number 1, s. 187-197. Dostupný také z WWW: . 82

Typicky mobilní roboty.

47

v kyberprostoru jako „technologicky zprostředkovaném prostoru pro společenské interakce“ 83 vyvstává otázka, jaká je povaha bytostí, které fyzickým tělem disponují. V případě strojů není až tak obtížné oddělit umělou bytost 84 od hardwaru, na kterém se funguje. Podle A. Krausové je „umělá bytost chápána jako systém, počítačový program, ne médium, na kterém existuje“. 85 Lze ale toto tvrzení vztáhnout na lidské bytosti? Pokud v budoucnu bude možné 86 přenést lidskou mysl do počítačového hardwaru, bude tato virtuální mysl nadána stejnými práv jako před přenosem? Je třeba si uvědomit, že tím by vznikla možnost nesmrtelnosti a nekonečné existence, která by nemusel být přijímána pozitivně 87. Každopádně v případě umělých bytostí se jeví vhodným netrvat na existenci fyzického těla. 6.1.1 Povaha umělých bytostí Je jasné, že umělá bytost by měla mít jiný než biologický základ 88, cílené vytvoření nebo naopak samovolný vznik v umělém prostředí

POLČÁK, Radim; ŠKOP, Martin; MACEK, Jakub. Normativní systémy v kyberprostoru : úvod do studia. Brno : Masarykova univerzita, 2005. 102 s. ISBN 80-210-3779-2. 83

84

V tomto pojetí pouze softwarová část.

85 KRAUSOVÁ, Alžběta. Legal Regulation of Artificial Beings. Masaryk University Journal of Law and Technology. Summer 2007, volume 1, number 1, s. 187-197. Dostupný také z WWW: . 86

Podle názoru autora je v zásadě pouze otázkou času, kdy se tak stane.

Ve vědeckofantastické literatuře se často objevují zmínky o bytostech, které přejdou na vyšší (nemateriální) úroveň existence. 87

Na druhou stranu v povídce Isaaca Asimova „The Bicentennial Man“ robot ve snaze stát se člověkem vede řadu soudních sporů s výsledkem, že jakékoliv procento umělých částí neovlivní negativně lidský status člověka. Přesto podmínkou pro uznání robota člověkem je vzdání se nesmrtelnosti. V současnosti se zdaleka nejpravděpodobnější zdá software digitálního počítače fungující na elektronickém hardwaru; genovou manipulací nově vytvořený živočich by tedy umělou bytostí nebyl. Naopak pokud by šlo o vypěstování biologického mozku, jak provedl Kevin Warwick a jeho tým, bylo by vhodné výsledek za umělou bytost považovat i přes biologickou povahu. O uměle vypěstovaném mozku 88

48

není třeba bezpodmínečně vyžadovat. Podle názoru autora práce je však v definici umělé bytosti klíčový aspekt, který uvedené definice postihují

jen

částečně.

Umělá

bytost

by

měla

být

schopna

přirozeného učení ze zkušeností a okolních informací. Měla by tedy být schopna se vyvíjet bez vnějšího zásahu a to nikoliv pouze ve smyslu rozšiřování nějaké databáze, ale hlavně „postupování“ na vyšší, kvalitnější úrovně inteligence. V konečném důsledku by pak taková bytost měla být schopna dosáhnout sebeuvědomění a vlastní vůle. De lege lata by taková umělá bytost byla stále považována za nehmotnou věc a z právního pohledu by obsahovala určitou formu databáze podle autorského zákona 89 a zároveň by, alespoň částečně byla autorským dílem a zároveň fakticky i autorem svých částí. Tato skutečnost by ale právem nebyla uznána, protože by takové umělé bytosti chyběla právní subjektivita. Rovněž původní autor by těžko mohl prokazovat, že části programu vzniklé v rámci samostatného vývoje umělé bytosti jsou jeho dílem, i když vyloučit to nelze 90.

6.2 Možné přístupy k umělým bytostem de lege ferenda Zbývá se tedy zamyslet nad otázkou, jak by právo k umělým bytostem 91 přistoupit mělo a proč. Z praktických důvodů, jakými je například možnost alespoň analogického použití existující judikatury a dlouhodobé zkušenosti s fungováním určité úpravy, by měla být

pojednává: University of Reading [online]. 14 August 2008 [cit. 2011-02-21]. Robot with a Biological Brain: new research provides insights into how the brain works . Dostupné z WWW: . Zákon č. 121/2000 Sb., o právu autorském, o právech souvisejících s právem autorským a o změně některých zákonů (autorský zákon), ve znění pozdějších předpisů 89

90 Počítačem generované obrazy nebo audiovizuální díla jsou běžně jako autorská chráněna. 91 Pro potřeby této podkapitoly se předpokládá, že umělé bytosti vymezeny v předcházející podkapitole mohou existovat.

49

dána přednost použití existujících právních konceptů a jejich kombinacím případě úpravám před úplně novým způsobem regulace. Jako výchozí bod pro právní úpravu postavení umělých bytostí se hodí zejména: 

fikce právnické osoby,



postavení zvířat,



postavení dětí,



historické regulace postavení otroků nebo



postavení lidských bytostí.

Pro pojímání umělých bytostí jako právnických osob svědčí mnohé. Jak bylo diskutováno výše, umělá bytost nemusí nutně mít pod kontrolou fyzické tělo a je tedy ze své podstaty nehmotná, stejně jako právnická osoba. Stejně jako právnická osoba bude i umělá bytost schopna rozhodování a projevů vůle. Ale hlavně je právnická osoba

entitou

bez

fyzické

podoby,

která

je

vybavena

právní

subjektivitou. Proti této možnosti stojí ale dosti podstatný fakt a tím je, že právnická osoba je závislou na fyzických osobách, které ji ovládají a kterými vykonává svoji existenci. Bez lidí se vztahem k právnické osobě ztrácí koncept právnické osoby smysl. 92 Stále by však bylo možno uvažovat o regulaci na pomezí fyzické a právnické osoby, která by stála na stejné úrovni. Pro takovouto formu regulace se vyslovila i A. Krausová 93.

92 V této souvislosti je zajímavá otázka, zda by při účinné právní úpravě bylo možné založit společnost a společenskou smlouvou svěřit její řízení počítačovému programu se jmenováním formálních statutárních orgánů složených z lidí.

V příspěvku KRAUSOVÁ, Alžběta. Legal Regulation of Artificial Beings. Masaryk University Journal of Law and Technology. Summer 2007, volume 1, number 1, s. 187-197. Dostupný také z WWW: . 93

50

Další

překážkou

je,

že

způsobilost

k právním

úkonům

právnických osob je fakticky vázána na fyzické osoby, které úkony za PO činí. Deliktní způsobilost, která by u umělých bytostí byla nanejvýš vhodná, u právnických osob sice v českém právu přítomna není; na druhou stranu ve světovém pohledu existuje, a proto nelze tuto odlišnost považovat za zásadní překážku. Celkově rozdíly mezi právnickou osobou a umělou bytostí spíše převažují nad společnými prvky a proto by dle názoru autora nebylo založení úpravy statutu umělých bytostí na existující úpravě právnických osob moudré. Lze

předpokládat,

že

první

umělé

bytosti

splňující

dříve

nabídnutou definici budou někým vlastněny, typicky svým tvůrcem a budou spíše objektem práva než jeho subjektem. Potřeba nějaké právní reakce na realitu existence umělých bytostí pravděpodobně vyvstane dříve, než umělé bytosti budou na takové úrovni, aby bylo možné je vybavit plnou subjektivitou. Faktická pozice umělých bytostí pak nebude nesrovnatelná s postavením zvířat. Stejně jako zvířata budou pravděpodobně využívány

k práci

a

k zábavě.

Svým

postavením

ani

svými

schopnostmi se nebudou moci rovnat s lidmi, přesto však budou dalece přesahovat „obyčejné“ věci, včetně elektroniky. V této fázi vývoje není vyloučen vznik práv pro umělé bytosti analogický k dnešní ochraně zvířat proti týrání. S rostoucími schopnostmi umělých bytostí nastane nutnost je vybavit právní subjektivitou, protože už nebude možné požadovat po jejich majitelích plnou odpovědnost za všechny jejich činy. S možností být nositelem práv a povinností přijde i nutnost tato práva nabývat. Bude proto nutné vybavit umělé bytosti i způsobilostí k právním

51

úkonům. Zpočátku pouze částečnou, závislou na stupni vyspělosti konkrétního systému. V této situaci by mohly nastat problémy s konfliktem částečné právní subjektivity a faktického stavu. Pokud v této době budou jménem svých vlastníků a na jejich účet provádět významné úkony včetně velmi komplexních, je možné, že udělená částečná subjektivita nebude pro některé systémy dostatečnou. Navíc by se do konfliktu dostala případná subjektivita a vlastnické právo, jehož objektem by byl subjekt práva. V další fázi vývoje dosáhnou některé systémy takové úrovně, že se vyrovnají lidem nejen ve schopnostech, ale i ve vnímání a uvědomění sebe sama. Pokud, a takový scénář zdaleka nelze považovat za nepravděpodobný, nebudou umělé bytosti vybavovány postupně subjektivitou a právy, dosáhnou vývojového stupně srovnatelného s lidským v postavení objektu práva spíš než jeho subjektu. Tato situace by paradoxně mohla způsobit nejmenší množství komplikací ze všech možných, neboť taková situace zde historicky již byla. Postavení otroků nebylo odlišné od postavení zvířat a věcí, zároveň co do intelektu a míry uvědomění není srovnání snad ani možné. Jak k existenci institutu srovnatelného s otroctvím nebo nevolnictvím, které byly v minulosti zejména z morálních důvodů zrušeny, přistoupí společnost, zůstane pravděpodobně otevřenou otázkou až do doby, kdy tato situace nastane.

52

7

Automatizace rozhodovacích procesů v justici a státní správě

Státní správa, justici nevyjímaje, je nepochybně významnou součástí existence současné společnosti. Nadto je, více než jiné obory, provázána s právem. Jako reprezentant státní moci s možností autoritativního rozhodování musí (nebo by alespoň měla) státní správa a zvláště justice vytvářet velmi kvalitní rozhodnutí, podložená pevnými argumenty a důkladně zdůvodněná. Nadto by měla fungovat efektivně, protože je financována z veřejných rozpočtů. Zde vzniká určitý střet, protože požadavky na zvyšování kvality sebou často nesou i požadavek na štědřejší financování. Bylo by jistě neuvážené automatizaci a priori vyřazovat z oblasti justice a státní správy. Navzdory tomu se lze setkat i s názory, že „s rozvojem

moderních

technologií

vyvstává

riziko

automatizace

soudnictví“ 94. S názorem, který automatizaci soudnictví bez dalších argumentů zavrhuje, nelze souhlasit. Jako argument proti je uváděno odchýlení od základního účelu soudního řízení, kterým je spravedlivá ochrana základních práv a zájmů. Především argument, že „Počítač žádné spravedlivé ochrany schopen není – program pouze porovná předem zadaná kriteria“ 95 je přinejmenším sporný. Tradičně bývá spravedlnost vykládána způsobem, který zaručuje všem stejný přístup a posouzení předem zadaných kriterií toto beze zbytku naplňuje. Vždyť posuzovat zákonem předem zadaná kriteria by měl i soudce.

94 PŘIDAL, Ondřej. Právo na spravedlivý proces v civilním řízení. Brno, 2010. 229 s. Dizertační práce. Masarykova univerzita.

PŘIDAL, Ondřej. Právo na spravedlivý proces v civilním řízení. Brno, 2010. 229 s. Dizertační práce. Masarykova univerzita.

95

53

Nutně zde tedy vyvstává otázka pojetí spravedlnosti. Měřit všem stejným metrem je zjevně spravedlivé a na první pohled správné. Ale neexistuje zde riziko přílišné spravedlnosti? Není jedním z hlavních zdrojů obav z exaktního matematicky přesného rozhodování možnost vymizení části shovívavosti?

7.1 Asistenční činnosti ve státní správě a justici Oblastí vhodnou k automatizaci, která je z aktuálního pohledu významnější, je tvorba instrumentů, které mohou být právníky použity

ke

zvýšení

kvality

nebo

efektivity

jejich

rozhodování.

Důvodem je, kromě objektivních technických omezení, i tradice založená Knappovým přechodem od ideologického pojetí právní informatiky

k pragmatičtější

tvorbě

instrumentaria. 96

Další

skutečností, kterou nelze zanedbat je, že plná elektronizace justice (ve smyslu spisu, podání, záznamů apod.) je nezbytným předpokladem pro automatizaci vlastního rozhodování. 7.1.1 Současný stav V současnosti probíhají v České republice i ve zbytku Evropy rozsáhlé snahy o elektronizaci justice. Tyto se takřka výhradně zaměřují na pomocné funkce, jako vyhledávání předpisů nebo předchozích rozhodnutí. V širším pohledu na celou státní správu je snaha o propojování databází a urychlení přístupu k jejich datům ze strany státních orgánů nebo vytvoření elektronického spisu. Kromě toho jsou využívány technické prostředky urychlení přepisu soudních jednání z hlasového záznamu a další izolované nástroje, jako např. elektronický platební rozkaz. Ve výsledku tak „představují samostatné jednotky, které byly zaváděny bez koncepce a bez návaznosti na okolní související systémy. Tato nekoncepčnost se ve značné míře

96 POLČÁK, Radim. Právo a evropská informační společnost. Brno : Masarykova univerzita, 2009. 204 s. ISBN 978-80-210-4885-0.

54

promítá i v podstatné nekompatibilitě

a diverzifikaci jednotlivých

systémů.“ 97 Lze jen souhlasit s autorem, když zmíněné nedostatky považuje za podstatné a tvrdí, že moderní eJustice by se s těmito problémy měla vypořádat a dosáhnout co největší míry stability, univerzálnosti a jednotnosti. Mezi hlavní prvky elektronizace justice v České republice patří: 

elektronický platební rozkaz 98,



datové schránky 99 a



vnitřní informační systémy v justici 100.

Jak je patrno, používané systémy mají se skutečnou elektronizací justice pramálo společného. V případě elektronického platebního rozkazu jde pouze o akceptaci elektronického podání soudem – po příchodu na soud je podání vytištěno a nadále se nikterak neliší od podání papírového. Rovněž datové schránky jsou pouze zabezpečenou verzí elektronické pošty a jejich funkce je toliko komunikační. 101 Těžko lze tedy očekávat, že by urychlily nebo usnadnily soudci vlastní rozhodování. A dokonce ani podoba elektronických podání není uspokojivá. Současný stav, kdy elektronické podání probíhá třemi různými způsoby 102 rozhodně nelze považovat za vyhovující.

STUPKA, Václav. eJustice. Brno, 2010. 69 s. Diplomová práce. Masarykova univerzita. Vedoucí práce Radim Polčák. 97

Zákon č. 99/1963 Sb., občanský soudní řád, ve znění pozdějších předpisů §174a 98

99 Zákon č. 300/2008 Sb., o elektronických úkonech a autorizované konverzi dokumentů, ve znění pozdějších předpisů 100

Zejména ISAS, ISVKAS aj.

101 To rozhodně neznamená, že není významná. Podle vyjádření několika soudců tvoří značnou část náplně jejich práce doručování různých dokumentů účastníkům a dalším osobám, což není činnost, kterou by soudce měl ztrácet čas.

Na serveru http://epodatelna.justice.cz je k 15. 3. 2011 elektronický platební rozkaz podáván ve formátu PDF, který vyžaduje software společnosti Adobe; návrhy v rejstříkových věcech se vyplňují do formuláře ve formátu ZFO, který k vyplnění 102

55

7.1.2 Možnosti automatizace pomocných činností Jak zaručit koncepční rozvoj eJustice, kdy jednotlivé systémy budou vzájemně provázané a budou mít pozitivní vliv na kvalitu a rychlost rozhodování? Dle názoru autora by základem jakéhokoliv projektu elektronizace

justice

měl

být

elektronický

spis 103.

Důvodem

důležitosti spisu je, že spis je prvkem, který spojuje všechny ostatní prvky jakéhokoliv řízení a tím tvoří centrální bod, na který lze všechny další agendy navázat, ač ve výsledku je tím nejdůležitějším vlastní rozhodnutí. A nelze se spokojit s oddělenými spisy pro jednotlivé oblasti státní správy nebo dokonce pro jednotlivé soudní instance. Je třeba trvat na tom, aby od prvního podání, správního řízení nebo policejního šetření až po řízení před Ústavním soudem byl spis jednotný a datově kompatibilní – aby v případě odvolání mohl být celý spis zpřístupněn patřičnému orgánu bez nutnosti ho odesílat. Takový požadavek rozhodně není přemrštěný po technické stránce, ani nemožný z pohledu právního. Zavedení elektronického spisu by kromě přímých výhod (dostupnost odkudkoliv, snadný přístup všech oprávněných k jeho obsahu, možnost vyhledávání ve spisech…) přinesl

i

synergické

výhody

spočívající

v zásadním

usnadnění

zavádění dalších elektronických agend. Přehlednost a organizovanost elektronického indexovaného spisu by byla rovněž vyšší. Optikou této práce je však nejdůležitější výhodo elektronického spisu možnost jeho automatického zpracování. Některé úkoly vykonávané v rámci státní správy a justice, které přímo

nesouvisí

s rozhodováním,

by

bylo

vhodné

provádět

vyžaduje Form Filler od společnosti Software602 a ostatní podání se odesílají přes formulář na webové stránce, který vyžaduje Java plugin od společnosti Oracle. Není cílem této práce rozebírat výhody a nevýhody jednotlivých způsobů vyplnění a odeslání, je však nutno konstatovat, že všechny způsoby jsou funkčně srovnatelné a pouze kvůli nekoncepčnosti není způsob jednotný. 103 Tím je myšlen spis, který existuje primárně v elektronické podobě a jeho případná papírová podoba je kopií, nikoliv naopak.

56

elektronicky a pokud možno automaticky již nyní. Do jisté míry se to již děje v případě dokumentace průběhu řízení (protokolování). Lze však uvažovat o změně formy protokolu na pouze zvukovou podobu s připojeným strojovým přepisem kvůli automatickému vyhledávání. Doslovný textový přepis totiž není u všech řízení nutný. Navíc s rostoucí

kvalitou

strojového

přepisu

lze

zvukové

záznamy

zpracovávat opakovaně a není se tedy třeba obávat o ztrátu informace – prvotní záznam by zůstal zachován. Zde se nabízí prostor pro využití umělých neuronových sítí. Bez zajímavosti není ani možnost použití existujících zvukových záznamů a jejich ručně vytvořených přepisů jako dat pro učení specifického právního odborného jazyka. Lze si snadno představit software, který by na základě obsahu podání stran, obsahu protokolu jakož i zbytku spisu a zároveň srovnáním

s obsahy

ostatních

spisů

hledáním

podobností

automaticky vyhledával související zákony a judikaturu. V této souvislosti se jeví vhodné, aby soudní rozhodnutí a v ideálním případě

i

legislativa

obsahovaly

metadata 104

použitelná

pro

automatické zpracování rozsudků. Je úkolem technického řešení, aby tato metadata i sama o sobě pomáhala soudcům a nepředstavovala novou administrativní zátěž. Platí sice zásada iura novit curia, ovšem při současném rozsahu účinných předpisů nelze vyloučit možnost opomenutí některého z nich ani ze strany kvalifikovaného soudce. Přínos lze kromě prvotního cíle (kvalitnějších rozhodnutí) spatřovat i v rychlejší konvergenci judikatury k její ustálené podobě. Samo o sobě takové doporučení nemá potenciál negativně ovlivnit kvalitu rozhodovacího procesu. Otázkou zůstává, zda by takové zjednodušení nevedlo v delším časovém horizontu soudce k pohodlnosti a pouze pasivnímu Data o datech. Například formalizované označení procesních stran a jednotlivých částí dokumentu, provázané odkazy na paragrafy zákonů a jiná rozhodnutí. 104

57

přijímání a aplikaci systémem navržených předpisů a judikatury. Zjistit předem, jaký vliv mohou mít tyto prostředky na rozhodování, je však nemožné. 7.1.3 Předpověď rozhodnutí Systémy

k předpovídání

soudních

rozhodnutí

zatím

v českém

prostředí využívány nejsou, alespoň ne ve větším měřítku. Byť by taková předpověď neměla právní relevanci a nemohla by být použita jako argument u soudu, mohla by být užitečnou při rozhodování, zda jít k soudu a jak tam vystupovat. Pokus o předpověď hlasování jednotlivých porotců amerického Nejvyššího

soudu

již

proběhla.

Překvapivě

Počítač

překonal

v úspěšnosti nejen generátor náhodného výsledku 105, ale i právní experty, kteří se naopak svou úspěšností od generátoru náhodných čísel příliš nevzdálili. 106 Úspěšnost právních expertů byla mírně přes 59 %, počítač vykázal 70% úspěšnost a z existence pouze dvou možných odpovědí (pro a proti zrušení) lze dovodit úspěšnost náhodného hádání – 50 %. 107 Přitom odhady počítače byly založeny na velmi omezených datech 108. Není bez zajímavosti ani to, že úspěšnost se významně lišila u jednotlivých soudců. To vznáší otázku,

zda

jsou

soudci,

jejichž

hlasování

lze

s vysokou

Běžným testem, zda předpověď funguje je srovnání s generátorem náhodného výsledku – pokud je pravděpodobnost lepší, má se za to, že předpověď minimálně do určité míry funguje. 105

MARTIN, Andrew D., et al. Competing Approaches to Predicting Supreme Court Decision Making. Perspectives on Politics. 2004, Volume 2, Issue 04, s. 761-767. DOI: 10.1017/S1537592704040502. 106

107 AYERS, Ian. How computers routed the experts. Financial Times [online]. August 31 2007, -, [cit. 2011-03-13]. Dostupný z WWW: . 108 pouze 6 ukazatelů, některé zdánlivě nedůležité (vnímání veřejností); metodika rozhodování expertů není autorovi známa

58

pravděpodobností odhadnout před proběhnutím řízení, skutečně nezávislí.

7.2 Automatické systémy ve vlastním rozhodování Nutně se nabízí otázka, do jaké míry lze a do jaké míry je vhodné svěřit rozhodování v justici a státní správě strojům. Při takových úvahách je třeba mít na paměti jak současná omezení techniky, tak její budoucí možnosti. Předně je třeba zodpovědět otázku, proč vůbec by mělo být vhodné vlastní rozhodování automatizovat, případně proč nikoliv. Ať už by odpověď byla jakákoliv, měla by automatizace být prostředkem k řešení problému, nikoliv samoúčelným procesem. Jinými slovy: míra automatizace by měla vyplývat z předem známých cílů daného rozhodování, neměla by být stanovena nezávisle na cílích a to v žádném směru. 7.2.1 Očekávatelné přínosy automatizovaných rozhodnutí Co tedy lze od automatizovaných rozhodnutí očekávat? Jednotu rozhodování a předvídatelnost – je jistě legitimním požadavkem, aby právo bylo předvídatelné. Lze očekávat, že mimo fázi pilotních projektů byly oblasti rozhodování automatizovány globálně a rozhodování by zajišťoval jeden systém na celém území (např. státu). Takový stav vede k větší předvídatelnosti a tím i k vyšší důvěryhodnosti rozhodování. Nezávislost – automatizovaný systém by ze své podstaty nebyl schopen zvýhodňování kterékoliv ze stran z osobních, zištných nebo jiných důvodů. Rovněž by nebyl ovlivnitelný podvědomými vlivy nebo předsudky, jejichž omezení je pro člověka náročné, ne-li nemožné. Rychlost – rychlost (nebo spíše její nedostatek) je nesporně problémem současné justice. Především v opakujících se rutinních 59

záležitostech by automatizace rozhodování ušetřila množství času a umožnila

by

soudcům

věnovat

se

právně

a

společensky

problematickým případům (hard cases). Spolehlivost – především v otázkách procesních by použití výpočetní techniky mělo řadu pozitiv. Nehrozilo by opomenutí a opět by mohlo dojít od odbřemenění soudce od podružných činností. Výčet možných přínosů automatizovaného rozhodování v justici a státní správně uvedený v tomto oddíle není úplný a ani si to neklade za cíl. Zásadním bylo ukázat, že potenciální výhody existují a jsou reálné. 7.2.2 Meze, rizika a nevýhody: Vlastností strojů, ze které do jisté míry vyplývá většina jejich výhod, je vysoký stupeň jistoty v rozhodování – na stejnou otázku lze očekávat vždy stejnou odpověď. To je zároveň do určité míry rizikem. Chybné rozhodování bude stroj opakovat trvale, dokud nebude nějakým způsobem 109 provedena korekce. Jednoznačnou

mezí

rozhodování

(přinejmenším

v dohledné

budoucnosti) jsou otázky bez jednoznačně určitelné odpovědi, které v současnosti typicky rozhodují ústavní soudy a jim podobné hraniční orgány. Určitým rizikem je vznik ekvivalentu SEO v případě rozsáhlé (plné) automatizace určitého rozhodování, kde rozhodující subjekt nemá kontrolu nad vstupními informacemi 110. V takovém případě lze očekávat snahu účastníků rozhodování (pravděpodobně s pomocí

109 Například manuálním zásahem ze strany kontrolujícího soudce. Na druhou stranu systém rozhodující samostatně by měl mít schopnost reflektovat výsledky odvolání ve svých dalších rozhodnutích a to je funkce, na které je v zájmu spravedlnosti bezvýhradně trvat. 110 Což je typická situace pro rozhodování státní správy a soudů. Rozhodující subjekt nemá možnost ovlivnit, co účastníci tvrdí.

60

specialistů) cíleně zkreslovat svoje tvrzení tak, aby bylo rozhodnuto v jejich prospěch na základě známého algoritmu rozhodování. Jedním z prostředků, které vyhledávače proti praktikám SEO používají je přísné utajení přesného algoritmu hodnocení. Byť by toto řešení pravděpodobně bylo účinné i pro rozhodování správní a soudní, vnucuje

se

otázka,

zda

je

v takové

situaci

legitimní

skrývat

rozhodovací algoritmus, pokud je znám 111. V tom by šlo spatřovat určitou analogii s utajením určitých částí soudních nebo správních řádů, které by bylo shledáno jako protiústavní 112. Další analogie, kterou v tomto kontextu autor spatřuje, jsou interní normativní akty, které rovněž nejsou veřejné, a přesto mají podstatný vliv na výsledky správních řízení. Dalším a velmi podstatnou hrozbou je nedůvěra – minimálně v počátečních

fázích

by

nezanedbatelné

skupiny

adresátů

rozhodování trpěly nedůvěrou k rozhodnutím vydaným strojem. A důvěra je klíčovým elementem ve správném fungování justičního systému. 7.2.3 Zavádění automatizovaných rozhodnutí do státní správy a justice Zatímco zavádění automatizace do pomocných funkcí může být velmi postupné a ze strany rozhodujících subjektů v zásadě dobrovolné, u vlastního rozhodování je situace komplikovanější. Nelze očekávat skokové zavedení plné automatizace rozhodování na žádné úrovni. Nadto by to nebylo ani žádoucí. Pro změny v tak citlivé oblasti jako je státní rozhodování a zejména soudní je důležité, aby bylo přijato všemi nebo alespoň výraznou většinou dotčených.

111 U člověka obecně znám není, takže taková otázka postrádá soudce – člověka – postrádá smysl. 112 Ústavní zákon č. 1/1993 Sb., Ústava České republiky, ve znění pozdějších předpisů Čl. 52

61

Obecně

přijímaným

popisem

přístupu

uživatelů

k zavádění

nových technologií je tzv. Technology Acceptance Model. Zásadním je definování pojmů: 

Vnímaná užitečnost 113 – „míra jakou osoba věří, že používání určitého systému zvýší její pracovní výkon“ 114.



Vnímaná snadnost použití 115 – „míra jakou osoba věří, že používání určitého systému nebude provázeno námahou“ 116.

Tento model vyjadřuje, jak moc bude, případně nebude, nová technologie využívána, a to v závislosti na její užitečnosti a snadnosti použití. Přestože byl model dále rozšiřován do své druhé a třetí verze a také do podoby unifikované teorie přijetí a používání technologie 117, bude pro potřeby této práce postačovat jeho první verze.

Obr. 3 Technology acceptance model 118

113

Perceived usefulness (PU)

114 DAVIS, Fred D. . Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Quarterly. 1989, Volume 13, Number 3, s. 319–340. 115

Perceived ease-of-use (PEOU)

DAVIS, Fred D. Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Quarterly. 1989, Volume 13, Number 3, s. 319–340. 116

117 VENKATESH, Viswanath , et al. User acceptance of information technology: Toward a unified view. MIS Quarterly. 2003, Volume 27, Number 3, s. 425–478.

DAVIS, Fred D.; BAGOZZI, Richard P.; WARSHAW, Paul R. . User Acceptance of Computer Technology : a comparison of two theoretical models. Management Science. August 1989, Vol. 35, No. 8, s. 982-1003. 118

62

Empiricky bylo zjištěno, že existuje silná vazba mezi užitečností a jak skutečným používáním systému, tak zamýšleným užíváním systému v budoucnosti, přičemž zamýšlené budoucí použití bylo ovlivněno silněji. Snadnost použití měla rovněž silný (i když poněkud slabší) vliv, opět silnější na zamýšlené budoucí použití. Velmi důležitým zjištěním je že snadnost použití měla kromě přímého vlivu na postoj k používání dané technologie vliv i na vnímání užitečnosti. To znamená, že uživatelé vnímají snáze použitelné technologie jako užitečnější.

To

je

důležitá

skutečnost,

kterou

je

nutno

při

automatizaci rozhodování a snad ještě více při zavádění asistenčních systémů brát v úvahu. Při

zavádění

automatického

rozhodování

do

justice

lze

předpokládat zkušební dobu, kdy budou automatická rozhodnutí prováděna vedle těch neautomatických a podle jejich shody bude posuzována

jejich

kvalita.

Následně

lze

očekávat,

že

kvalita

rozhodnutí vzroste do té míry, že se soudci budou moci zaměřit spíše na

kontrolní

činnost

a

náročné

případy.

Tato

změna

bude

pravděpodobně postupná tak, jak porostou technické možnosti, schopnost soudců prostředky automatizace používat a ochota veřejnosti automaticky učiněná rozhodnutí přijímat. Závěrem lze konstatovat, že současné snahy o elektronizaci justice, ač nemají s automatizací mnoho společného, staví základy systému,

na

kterých

možná

v budoucnu

bude

stát

justice

automatická. Proto ani z pohledu automatizace justice nemohou být podceňovány. Až po plné elektronizaci justice totiž lze uvažovat o praktickém zavádění prvků automatizace do justiční praxe.

63

8

Závěr

Rozhodovací procesy se vyskytují ve všech oblastech lidské činnosti a mají značný dopad do sféry zájmů širokého spektra osob, tím více pokud jde o rozhodování autoritativní. Zároveň je stále větší množství rozhodování prováděno automaticky, aniž by se tato skutečnost výrazně odrazila v legislativě nebo alespoň v právní doktríně. Autor si stanovil za cíl analyzovat povahu automaticky konaných rozhodnutí a nejčastěji používaných prostředků pro automatizované rozhodování.

A

tím

přispět

do

nastávající

diskuze

ohledně

automatických rozhodnutí v různých oborech lidské činnosti. Tato práce si nekladla za cíl najít definitivní odpovědi na všechny otázky týkající se automatizace rozhodovacích procesů, což by snad ani nebylo možné. Rozhodnutí prováděná automatizovaně jsou pro laickou veřejnost obtížně uchopitelná a dvojnásob to platí o prostředcích a metodách, na které spoléhají. To vede často k obavám a nedůvěře a tak především

ve

automatizace

sféře

vlivu

státu

rozhodování.

není

využíván

Z analýzy

celý

potenciál

rozhodovacích

procesů

a jednotlivých typů rozhodnutí vyplynulo, že zejména opakující se rozhodnutí

a

rozhodnutí

jasně

strukturovaná

je

vhodné

automatizovat. Následně byly představeny nejčastější prostředky využitelné pro částečnou nebo plnou automatizaci rozhodnutí. Z jejich vlastností vyplývají

jak

jejich

výhody,

kterými

jsou

zejména

rychlost

a spolehlivost tak omezení, mezi které patří zejména neschopnost posoudit

meze

vlastních

předvídatelnost chování

schopností

systémů

s prvky

nebo umělé

nedostatečná inteligence

vstupními daty zásadně odlišnými od těch předpokládaných. 64

se

Co se týká odpovědnosti za rozhodnutí učiněná automatickým systémem, nelze konstatovat, že by šlo o mezeru v právu, která by znemožnila rozhodnutí v takové věci a to zejména díky pojetí jakéhokoliv

výtvoru

člověka

jako

věci

bez

právní

subjektivity

a související plnou odpovědností provozovatele takového systému. Problematickou je v tomto kontextu spíše skutečnost, že ne vždy odpovídají takové závěry rozumnému uspořádání, což je ovšem do značné míry politická otázka a jako taková bez možnosti objektivního posouzení. S rostoucí úrovní techniky a zejména té výpočetní vzrůstá i množství

a

samostatnost

umělých

bytostí,

která

v dohledné

budoucnosti pravděpodobně dosáhne úrovně, která vyvolá zásadní otázky o postavení umělých bytostí. Předjímat výsledky velmi obtížné, pakliže ne nemožné, přesto byly analyzovány některé možné směry vývoje postavení uměle vytvořených bytostí a jejich předpokládatelné následky. Pro obor práva je specificky významné rozhodování ve státní správě a zejména v justici. Zde je využití automatizace v plenkách, což do značné míry souvisí s nedostatečným a nekoordinovaným zaváděním i jen základních prostředků výpočetní techniky do těchto činností a se značnou konzervativností prostřední státních úřadů a soudů.

Výhody plynoucí z automatizace jednotlivých úkonů

konaných státní správou a soudy by bylo škoda nevyužít, toto využití by však nemělo být bezhlavé a samoúčelné – vždy je nutno pečlivě vážit všechny přínosy i nevýhody a hrozby. Jak už bylo konstatováno výše, automatizace (čehokoliv) by měla být řešením existujícího problému, nikoliv důvodem tvorby a řešení úkolů, které by bez ní vůbec nemusely existovat. Ač je autor práce ve vztahu k automatizaci optimistou, nelze ignorovat úskalí a rizika, která by automatizace mohla přinést. 65

V současnosti se jako hlavní překážka rozsáhlejší automatizace mimo uzavřené průmyslové komplexy, kde už do značné míry proběhla, jeví nechuť

uživatelů

učit

se

novým

věcem

a

postupům

spolu

s nedostatečnou znalostí možností automatizace. Tomuto stavu odpovídá i neexistence zejména aktuální české literatury na dané téma. Velmi zajímavé je, že cíle směřování elektronizace a automatizace v soudnictví se pramálo změnily od dob Viktora Knappa 119. Sice už neprahneme po socialistickém modelu práva, kde ideologicky neomylné stroje kontrolují nespolehlivé soudce, v praktických otázkách však stále jde o zjednodušení komunikace a zpracování text. Zde lze konstatovat, že vzhledem k technickému vývoji učiněnému za posledních dvacet let, je míra použití automatických systémů k usnadnění justiční a správní činnosti překvapivě malá.

119

KNAPP, Viktor, et al. Právo a informace. Praha : Academia, 1988. 292 s.

66

9

Resumé

Historically, there have been numerous attempts to automate difficult and dull tasks. Today, however, the technology has advanced to a stage where this aim became possible. The top of the automation pyramid are automated decisions, because decision making is the most complex activity to be carried out. The decision making process is a highly important part of everyday life, and at the same time it directly influences the actions taken at all levels. Specific types of decisions were identified as being particularly suitable for automation, to name the most important ones: operative decisions (as opposed to strategic) and program decisions (well structured). Further the nature of automated decision making systems has been revealed. The example of artificial neural networks has shown that even unstructured data with no easily specifiable inner bounds can be successfully processed. This, however, is at the cost of losing the ability to predict possible behaviour of such system – a property immanent to deterministic systems. Simultaneously, the limitations concerning data representation impair, for now, artificial neural networks as independent decision makers. Still they can, and should, be treated as a valuable help and assistance with decision making. Contrary to neural networks, expert systems are much more suitable to play the role of an actual decision maker, because both their input and output are far more variable. Unfortunately not even expert systems are flawless. For some tasks they need neural networks to work within them. Yet, the greatest drawback of expert systems stays elsewhere, in their very specific element – the knowledge base. Or, more precisely, in the process of its creation. Being as complicated process as it is, it makes mistakes practically 67

inevitable and extremely difficult to find, thus very costly. This is not to say that expert systems are not perspective or useful, only their nature has to be carefully considered when dealing with them. This, in some sense peculiar, nature of artificial intelligence systems has to be taken into account when assessing legal consequences of actions or decisions of such automatic machines. And it is vital when creating legislature. By comparing the actual version of Czech Civil Code and the proposal of the new one, it has been found that under most circumstances it is the user who is likely to be held liable. Both laws are similar in this matter, the new one is only structured better and has a few added provisions. With quite strict conditions for liberation, it might be sometimes close to impossible to fulfil all his duties. On the other hand, interests of the other party cannot be neglected. It would be highly unjust to make user of automated system pick the fruits from it and make the damaged party bear the costs. The situation is not so straightforward with criminal liability. Generally civil law seems to be able to accept independently acting things easier than criminal law. In criminal law the basic distinction for unlawful actions committed by automatic machines will the intention of their creator – whether it happen by his order or independently of his will. Some basic ideas for future regulation have been expressed. Novelisation of criminal code will become necessary when the machines will reach a level of intelligence comparable to one of a human. In this case artificial being is more appropriate term. Despite the numerous definitions of artificial being one more is offered. In contrast to the others it does not concentrate on the process of its creation or absolute level of intelligence. The key factor

68

is the ability to gradually learn from experience without external interventions. It is not an easy question to answer, what level of development is needed to form high quality court decisions. In any case the vital condition for automated court decisions is that the judicial agenda is fully computerized. In the process of computerizing and later automating justice, one should always be kept in mind. The level of automation

ought

to

be

set

by

independently as the main target.

69

actual

needs,

not

imposed

10 Definice automatizace rozhodování – proces přesunu rozhodovací funkce z člověka na počítač, výsledkem je automatizované rozhodnutí automatizované rozhodnutí – rozhodnutí, které učiní počítač sám na základě programu evoluční algoritmy – výsledek genetického programování nebo prostředek realizující evoluci řešení expert, kolega asistent – možné role expertního systému podle míry jakou se podílí na vlastním rozhodnutí expertní systém – inteligentní počítačový program, který pomocí inferenční procedury řeší obtížné problémy na základě vhodně zakódovaných znalostí fuzzy logika – (mlhavá, neurčitá logika) forma vícehodnotové logiky určená k práci s nejednoznačnými hodnotami genetické

programování –

přístup

k programování

vycházející

z biologické evoluce založený na náhodném generování řešení následovaném výběrem a rozvíjením těch nejúspěšnějších spíše než cíleným uspořádáváním instrukcí rozhodovací proces – výběr jedné nebo několika variant z více možných subjektem rozhodování (rozhodovatelem) silná UI – umělá inteligence se všeobecnými schopnostmi přesahující schopnosti člověka slabá UI – umělá inteligence řešící pouze konkrétní úkoly strojové učení – obor umělé inteligence zabývající se schopností počítačových systémů se učit 70

umělá bytost – entita s umělým základem schopná inteligentní interakce se svým okolím umělá inteligence1 – vědní obor zabývající se tvorbou inteligentních systémů umělá inteligence2 – entita umělého původu vybavená inteligencí umělá neuronová síť – paralelní systém založený na modelování činnosti biologických neuronů vnímaná snadnost použití – míra jakou osoba věří, že používání určitého systému nebude provázeno námahou (součást TAM) vnímaná užitečnost – míra jakou osoba věří, že používání určitého systému zvýší její pracovní výkon (součást TAM)

71

11 Zkratky OZ

zákon č. 40/1964 Sb., občanský zákoník, ve znění pozdějších předpisů

NOZ návrh občanského zákoníku TZ

zákon č. 40/2009 Sb., trestní zákoník, ve znění pozdějších předpisů

ES

expertní systém

UNS umělá neuronová síť NS

Nejvyšší soud

UI

umělá inteligence

PO

právnická osoba

FO

fyzická osoba

ZPÚ způsobilost k právním úkonům TAM technology acceptance model – model přijímání technologií

72

12 Použité zdroje Monografie BERKA, Petr, et al. Expertní systémy. Praha : VŠE, 1998. 160 s. ISBN 80-7079-873-4. CEJTHAMR, Václav; DĚDINA, Jiří. Management a organizační chování. 2., aktualizované a rozšířené vydání. Praha : Grada Publishing, 2010. 334 s. ISBN 978-80-247-3348-7. DVOŘÁK, Jiří. Expertní systémy. Brno : VUT, 2004. 92 s. KNAPP, Viktor, et al. Právo a informace. Praha : Academia, 1988. 292 s. KNAPP, Viktor. Teorie práva. 1. vydání. Praha : C. H. Beck, 1995. 247 s. ISBN 80-7179-028-1. POLČÁK, Radim. Právo a evropská informační společnost. Brno : Masarykova univerzita, 2009. 204 s. ISBN 978-80-210-4885-0. POLČÁK, Radim; ŠKOP, Martin; MACEK, Jakub. Normativní systémy v kyberprostoru : úvod do studia. Brno : Masarykova univerzita, 2005. 102 s. ISBN 80-210-3779-2. PŘIDAL, Ondřej. Právo na spravedlivý proces v civilním řízení. Brno, 2010. 229 s. Dizertační práce. Masarykova univerzita. STUPKA, Václav. eJustice. Brno, 2010. 69 s. Diplomová práce. Masarykova univerzita. Vedoucí práce Radim Polčák. SVOBODA, Pavel, et al. Právní a daňové aspekty e-obchodu. Praha : Linde Praha, 2001. 464 s. ISBN 80-7201-311-4. VÁGNER, Ivan. Systém managementu. Brno : Masarykova Universita, 2006. ISBN 80-210-3972-8.

73

Články COHEN, Paul. If not Turing’s test, then what?. [online]. September 20, 2005, [cit. 2011-02-19]. Dostupný z WWW: . DAHIYAT, Emad Abdel Rahim. Intelligent agents and liability : is it a doctrinal problem or merely a problem of explanation?. Artifical Intelligence and Law. 2010, Vol. 18, Issue 1, s. 103–121. Dostupný také z WWW: . DAVIS, Fred D. . Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Quarterly. 1989, Volume 13, Number 3, s. 319–340. DAVIS, Fred D.; BAGOZZI, Richard P.; WARSHAW, Paul R. . User Acceptance of Computer Technology : a comparison of two theoretical models. Management Science. August 1989, Vol. 35, No. 8, s. 982-1003. KRAUSOVÁ, Alžběta. Legal Regulation of Artificial Beings. Masaryk University Journal of Law and Technology. Summer 2007, volume 1, number 1, s. 187-197. Dostupný také z WWW: . MARTIN, Andrew D., et al. Competing Approaches to Predicting Supreme Court Decision Making. Perspectives on Politics. 2004, Volume 2, Issue 04, s. 761-767. DOI: 10.1017/S1537592704040502. RŮŽIČKA, Miroslav. Kontrola a dohled v soustavě státního zastupitelství I. Právní rádce [online]. 22. 1. 2008, 1/2008, [cit. 2011-02-17]. Dostupný z WWW: . ISSN 1213-7693. TURING, Alan M. Computing Machinery and Intelligence. Mind : a quarterly review of psychology and philosophy. October, 1950, Vol. LIX, No. 236, s. 433-460. Dostupný také z WWW: . ISSN 0026-4423. VENKATESH, Viswanath , et al. User acceptance of information technology: Toward a unified view. MIS Quarterly. 2003, Volume 27, Number 3, s. 425–478. WHITBY, Blay. Why The Turing Test is AI's Biggest Blind Alley. [online]. 1997, [cit. 2011-02-17]. Dostupný z WWW: .

Předpisy a judikatura Důvodová zpráva k návrhu občanského zákoníku zákoníku [online]. [cit. 2011-02-16]. Dostupné z WWW: . Návrh občanského zákoníku [online]. [cit. 2011-02-16]. Dostupné z WWW: . Rozsudek NS ČR ze dne 25. 11. 2009, sp. zn. 25 Cdo 2429/2007 Usnesení NS ČR ze dne 22. 10. 2008, sp. zn. 25 Cdo 2805/2006 Ústavní zákon č. 1/1993 Sb., Ústava České republiky, ve znění pozdějších předpisů Zákon č. 121/2000 Sb., o právu autorském, o právech souvisejících s právem autorským a o změně některých zákonů (autorský zákon), ve znění pozdějších předpisů 75

Zákon č. 300/2008 Sb., o elektronických úkonech a autorizované konverzi dokumentů, ve znění pozdějších předpisů Zákon č. 361/2000 Sb., o provozu na pozemních komunikacích Zákon č. 40/1964 Sb., občanský zákoník ve znění pozdějších předpisů Zákon č. 40/2009 Sb., trestní zákoník, ve znění pozdějších předpisů Zákon č. 99/1963 Sb., občanský soudní řád, ve znění pozdějších předpisů

Ostatní zdroje ASIMOV, Isaac. Runaround. In CAMPBELL, John W., Jr. Astounding Science Fiction. New York : Street & Smith, 1942. s. 94-104. AYERS, Ian. How computers routed the experts. Financial Times [online]. August 31 2007, -, [cit. 2011-03-13]. Dostupný z WWW: . DARPA Grand Challenge. In Wikipedia : the free encyclopedia [online]. St. Petersburg (Florida) : Wikipedia Foundation, [cit. 2011-02-27]. Dostupné z WWW: . Human-computer chess matches. In Wikipedia : the free encyclopedia [online]. St. Petersburg (Florida) : Wikipedia Foundation, [cit. 2011-02-19]. Dostupné z WWW: . JIRSÍK, Václav. Expertní systémy : prezentace k přednáškám. Brno : VUT, 2010. Knowledgerush [online]. 2009 [cit. 2011-02-20]. Artificial being. Dostupné z WWW: 76

. MARKOFF, John. Google Cars Drive Themselves, in Traffic. The New York Times [online]. October 9, 2010, n/a, [cit. 2010-12-28]. Dostupný z WWW: . PRANANTHA, Danu. Lifelong Learning Journal [online]. October 15, 2009 [cit. 2011-02-21]. Neural Network in Business Intelligence . Dostupné z WWW: . Robotic Football League [online]. 2011 [cit. 2011-02-27]. Dostupné z WWW: . Strong AI. In Wikipedia : the free encyclopedia [online]. St. Petersburg (Florida) : Wikipedia Foundation, [cit. 2011-02-27]. Dostupné z WWW: . University of Reading [online]. 14 August 2008 [cit. 2011-02-21]. Robot with a Biological Brain: new research provides insights into how the brain works . Dostupné z WWW: . VÁCLAVÍK, Lukáš. IBM Watson: superpočítač, který dokáže porazit člověka. Cnews.cz [online]. 21. 1. 2011, [cit. 2011-02-18]. Dostupný z WWW: . Vyhledávání Google [online]. 2011-02-20 [cit. 2011-02-20]. Define:Artificial Being. Dostupné z WWW: . 77