HL-AI 2018: Jak daleko máme k opravdové AI?
i Zdroj: PCTuning.cz
Hry Článek HL-AI 2018: Jak daleko máme k opravdové AI?

HL-AI 2018: Jak daleko máme k opravdové AI? | Kapitola 8

Michal Rybka

Michal Rybka

1. 9. 2018 03:00 11

Seznam kapitol

1. HLAI 2018: Jak daleko je k opravdové strojové inteligenci? 2. Nikdo neví, kdy human level inteligence přijde 3. Nikdo neví, zda vůbec human level inteligence přijde 4. Nevíme, jestli nám nechybí nějaká z komponent 5. Příliš specializovaná
6. Celá řada forem AI, které nejdou dohromady 7. Automobily táhnou 8. Bezpečnost AI je zatím dost přehlížena 9. Nikdo (oficiálně) nechce vyvíjet autonomní zbraně 10. Čtyři zásadní rizika podle UN

Minulý týden, 22.-25. srpna 2018, proběhla v Praze konference Human Level Artificial Intelligence Prague 2018. Na ní se sešla řada výzkumníků, vývojářů a dalších lidí, kteří se zabývají umělou inteligencí. Jaká jsou největší úskalí současné AI a co je potřeba zlepšit?

Reklama

Bezpečnost AI je zatím dost přehlížena

Bezpečnost AI je velké téma, kterému se věnoval rozsáhlý panel, rovněž o něm přednášel i Jan Romportl, který se věnuje jak datově vědě, tak i filozofii AI. Bezpečnosti se donedávna věnoval jenom málokdo, přestože je známá celá řada rizik. Předně – je zde velký prostor pro katastrofu, která vznikne tak, že AI udělá něco, co je z jejího pohledu logické, ale škodlivé pro všechny ostatní. Situace známá jako paperclip maximizer popisuje inteligenci, která má co nejefektivněji vyrábět sponky – a tomu cíli podřídí vše, takže celou planetu nakonec předělá na sponky. Jde o příklad AI, která se chová tak trochu jako Hrnečku vař – a nemá jednoduše zarážku, která jí prozradí, že sponek či kaše vzniklo až příliš.

Panel o bezpečnosti AI
i Zdroj: PCTuning.cz
Panel o bezpečnosti AI

Riziko roste samozřejmě s tím, jak bude AI zasahovat do reálného světa – a důsledky ještě nebyly promyšleny. Kupříkladu u samořiditelných aut zatím panuje doktrína, že AI nesmí dělat etická rozhodnutí – jenomže řidič dělá etická rozhodnutí, to se nedá nic dělat. Pokud si pořídíte inteligentní stroj, smí vás prásknout za to, že děláte něco nelegálního? Nemusí jít jenom o banality, ale představte si, že stroj například zjistí, že shromažďujete chemikálie pro teroristický útok. Pokud není přípustný zásah do soukromí třeba proto, že podvádíte manželku – je přípustný v situaci, kdy chcete spáchat něco opravdu hrozného? Dříve nebo později se k tomu dostaneme, ale bude to vyžadovat hodně práce na úrovni práva a filozofie.

Otázkám bezpečnosti se věnujeme zatím málo a panel vyzval k tomu, aby se věnovalo podstatně více prostředků a úsilí. Zvláště ve chvíli, kdy kapacita AI poroste směrem k lidské, musíme mít jistotu, že její zájmy a naše zájmy jsou totožné. Jde o bezpečnost nejenom u finálních produktů, ale také při vývoji, takže se počítá s tím, že experimenty se silnou AI se budou dělat v izolovaném prostředí a na modelech.

Předchozí
Další
Reklama
Reklama

Komentáře naleznete na konci poslední kapitoly.

Reklama
Reklama