Kdo mne zná, ten ví, jak miluji technologie a vědu. Můj vztah k tomu vlastně i souvisí s tím, co dělám. Kolem AI je teď docela humbuk, protože existuje petice, kterou podepsal i Steve Wozniak, že by se její vývoj měl pozastavit alespoň na půl roku. Podle mne to není dost dlouhá doba a osobně bych uvítal, aby dokonce země, kde vzniká, vydaly moratorium a její vývoj stoply. A to klidně i na dva roky. Nebo neurčito. Překvapivé, že?
Nebojím se ani tak toho, že by umělá inteligence dosáhla bodu, že si uvědomí sebe sama a začal by se odehrávat scénář dystopického filmu. Je to jedna z těch méně pravděpodobných hrozeb. Ačkoliv i zde stále váhám. Na jedné straně, vědom si toho, že nevíme, co je to vědomí, jak ho definovat jako proces a jestli ho vůbec máme v té podobě, jak ho sami chápeme a nejsme jen složitější, na podněty reagující biologické stroje, nedokážeme ho tedy vědomě replikovat. Jenže… co když je to vlastně jen svévolná nadstavba komplexnosti propojení našich neuronů? V našem mozku je mezi desítkami miliard mozkových buněk až biliarda propojení. A to třeba jednou potká i AI. To riziko neznáma už se s tímto vývojovým skokem totiž jeví daleko bližší. A už sami vývojáři připouští, že někdy netuší, jak sám konkrétní proces proběhnul. Je to umělá neuronová síť, která se už i nám lidem může jevit v dílčích operacích nepochopitelná. Ale to není jediná hrozba…
Jsou tu další rizika, pojící se například s deepfakes – podvrhy, kterým to ještě lidé ochotně usnadní, protože se tak maximálně naučili mačkat tlačítko SDÍLET bez toho, aby využili, byť jen desetinu svého mozku. Kritické myšlení nula. Je to na internetu, musí to být pravda. AI bude, možná nevědomě, sloužit ruské (i jiné) trollí továrně s výrobou lživých materiálů, kterými budou ovlivňovat ještě o něco efektivněji veřejné mínění. Víme, že snad údajně si už AI i najala člověka na to, aby prošla Turingovým testem CAPTCHA, takže třeba i pomůže této trollí farmě s distribucí takových materiálů? Vzhledem ke svojí inteligenci by měla v sobě mít mechanismy, aby takovým věcem dokázala zabránit. Chceme-li obdařit AI tímto darem, musíme ji nutně opatřit i svědomím. Morálním kodexem, který bude ještě o level dál než Asimovovy zákony robotiky.
Dalším bodem je to, že vývoj jde tak rychle, že ještě nejsou zcela vydefinované základní etické zásady, jimiž se bude AI řídit. Bude zneužita pro fake? Velmi snadno. Zabrání tomu? Bude hledat řešení pro ilegální činnost? Může. Zabrání tomu, aby byla rozšířením mozku někoho, kdo chce její schopnosti zneužít? To zůstává otázkou.
Současně je to tak neuchopitelný, abstraktní proces, že tedy nevíme, odkud se data berou, kde a do jaké míry bylo porušeno něčí (i autorské) právo a potenciálně i soukromí, neboť možná operovala s daty a z nich plynoucími souvislostmi, ke kterým by nemusel být konkrétní jedinec nakloněn. Všichni jásají nad obsahem, který je schopna generovat. Ale jakou má genezi? Jak můžete vědět, do jaké míry někoho vykrádáte? Opravdu se pod takové věci chcete podepsat? A budete i před soudem s klidným svědomím obhajovat „svůj“ obsah? A k těm souvislostem – vzpomeňte si na to, jaké vždycky bylo téma to, co o nás ví v současnosti sociální sítě a vyhledávač. Jak nás dovedou profilovat. Jenže tam je to alespoň nějaký ošetřený smluvní vztah, který má jasně definovaný rozsah. U AI věřím, že opravdu 100 % trénovacích dat není po všech stránkách úplně košer.
Filozofická rovina? Potíž je už v tom, že věc s takovým zásadním dopadem a schopnostmi, dávají dohromady nedokonalé a vadami ověnčené lidské bytosti. Ponese tedy stejné vady, jako její nedokonalí tvůrci? Z křivého dřeva nic rovného nevyrobíte.
Jako člověka mne samozřejmě nenechává chladným, že tu vzniká inteligence, která bude v budoucnosti své schopnosti (a tedy i vlastnosti) takřka exponenciálním způsobem zlepšovat. Tempo růstu nám, obyčejným a limitovaným smrtelníkům, bude připadat nepředstavitelné. A máme jistotu, že bude škálovat jen svoje pozitivní vlastnosti?
Stojíme na prahu něčeho zásadního, co se vymkne kontrole raz dva. Je tam milion možných otázek, které si jako lidstvo můžeme položit. Hlavní téma je však etika. My jsme ti, kdo tady mají kolíkovat hřiště a buď nastavíme jasně rozsah toho, jak nám bude sloužit AI, nebo její vývoj pozastavme na dobu neurčitou. Nekonečno možností totiž přináší i nekonečno zodpovědnosti. A na to musíme pamatovat především.