Human Level AI: Aby umělá inteligence zůstala dobrá
i Zdroj: PCTuning.cz
Hry Článek Human Level AI: Aby umělá inteligence zůstala dobrá

Human Level AI: Aby umělá inteligence zůstala dobrá | Kapitola 5

Michal Rybka

Michal Rybka

27. 7. 2018 09:00 102

Seznam kapitol

1. Co s umělou inteligencí 2. Více práce pro všechny!? 3. Boj proti armádě klonů 4. Obtížný hmyz 5. Dřív než nás předběhne 6. Čas jen pro sebe

Strojová inteligence je starý koncept: Pohybující se magické sochy najdeme v příbězích starého Egypta, v Šeherezádě, u Čapka a jak u technooptimistů, tak i u technoskeptiků. Příchod umělé inteligence nás čeká – a s ním i velké změny ve společnosti. Jak se na něj připravit? Jak zařídit, aby umělá inteligence zůstala dobrá?

Reklama

Jak jsem již psal dříve, naše představy o nastupující inteligenci jsou omezené. Dovedeme si představit inteligenci srovnatelnou s naší, ale máme jenom omezené možnosti představit si funkci superinteligence, která masivně překračuje tu naši – asi jako když kočka omezeně chápe, co lidi dělají, případně tam může být ještě větší rozdíl, například mezi octomilkou a člověkem.

Do jisté míry budeme muset připustit to, že přestaneme rozumět všem detailům toho, o čem superinteligence přemýšlí a kam směřuje, důležité ale je, aby nás pochopila dříve, než nás předběhne. Lidé jsou obecně méně inteligentní, než si myslí, klidně dnes způsobí ekologickou katastrofu, jenom aby měli vilu s vířivkou, dost kokainu a ženských. V tomto směru máme blíže kryse než skutečně inteligentní bytosti – a to zvláště platí pro ty, kteří opouštějí etická pravidla kvůli krátkému výronu dopaminu v jejich mozku. To jsou ti největší zoufalci.

Skutečně inteligentní bytosti jsou schopny překročit limity vlastní existence a dobrovolně přijmout omezení ve prospěch dlouhodobé prosperity celku. Dlouhodobou existenci společností nelze budovat na krátkodobých zájmech. Nelze ji stavit na egoismu, protože ten se schovává za většinou ekologických katastrof a katastrof způsobených lidmi obecně.

Zdánlivě jednoduchá pravidla povedou pouze k naší zkáze. Podařilo se už identifikovat několik potenciálních problémů, se kterými se můžeme setkat, jako je například nekritická optimalizace vůči jednomu cíli – to se nazývá „paperclip optimizer“. V tomto hypotetickém scénáři žádáme po AI, aby maximalizovala výrobu kancelářských sponek, což nakonec učiní na náš úkor, protože bude dělat vše, co je v její moci, aby vyráběla kancelářské sponky. Pokud si pamatujete pohádku „Hrnečku vař“, máte dobrou představu o tom, jak by tento kolaps vypadal: Sponky by byly všude, ale jenom ty.

Human Level AI: Aby umělá inteligence zůstala dobrá
i Zdroj: PCTuning.cz

Tomuto vývoji se rovněž říká „perverzní efekt“, což je sázka na jednu optimalizaci, na jednu metriku. Studie ukazují, že pokud to uděláme, dočkáme se logického, ale přece jenom neočekávaného výsledku. Pokud se například rozhodnete odměňovat AI za co nejnižší počet reklamací, je pro ni logické všechny reklamace odmítnout anebo prostě vyvěsit na lince podpory telefon. Zákazníci se vám sice nedovolají, ale počet reklamací bude nula, tedy dostane maximální bonus. Toto není teoretický příklad, nevěřili byste, kolik motivačních systémů i pro lidi je nastaveno takto debilně – a protože to nikdo nehodnotí systematicky, ale podle čísel, stále to funguje.

autor: Circe Denyer, zdroj: publicdomainpictures.net
i Zdroj: PCTuning.cz
autor: Circe Denyer, zdroj: publicdomainpictures.net

Předchozí
Další
Reklama
Reklama

Komentáře naleznete na konci poslední kapitoly.

Reklama
Reklama