Velikost výběhu pro umělou inteligenci: Jaké informace tajit před adaptivní AI?
i Zdroj: PCTuning.cz
Zábava Článek Velikost výběhu pro umělou inteligenci: Jaké informace tajit před adaptivní AI?

Velikost výběhu pro umělou inteligenci: Jaké informace tajit před adaptivní AI? | Kapitola 2

Michal Rybka

Michal Rybka

15. 4. 2023 14:00 21

Seznam kapitol

1. Stroj bez sociální inteligence 2. Lidi jsou prostě lidi 3. Sami nejsme konzistentní 4. Hodnoty civilizace

Dnešní modely, jako je GPT-4, patří mezi moderované, tedy ty, které se učí na vybraných datasetech – a v druhém kroku se ještě navíc vyhodnocují lidmi, aby se nám jejich výstupy líbily víc. Panují velké obavy o to, co se stane, když se AI dostane k neomezeným znalostem, ze kterých si sama může vyvodit všelicos.

Reklama

Interakce AI s nefiltrovaným světem bude velký problém i v případě, že její nástup nenaštve větší počet lidí. Spousta teoreticky dobrých nápadů kolabuje na tom, že „lidi jsou prostě lidi“, můžete si vymyslet sebevymazlenější teorie, třeba libertariánství, které je založené na dobrovolné směně a tak nějak počítá s tím, že tam prostě nevzniknou tlupy, které budou obírat jednoho po druhém. Anebo ideální komunismus, kde každý „bude pracovat podle svých možností a dostávat podle svých potřeb.“ Dřív nebo později se ukáže, že to je volovina, že spousta lidí se chce jenom flákat a nakonec to dopadne jako v Okresu na severu, kde stranický tajemník konstatuje, že „socialismus musejí vybudovat s tím, co mají, protože nikdo nám žádný jiný lidi nedá“.

Ba co více – moderovaný přístup k informacím nemá jenom AI, máme ho i my. Funguje buď pozitivně, kdy nám podsouvá to, čemu máme věřit – a tomu se říká propaganda – anebo negativně, kdy se potlačují informace, kterým nemáme věřit – a tomu se říká cenzura. Podobně jako u AI se zastánci lidských moderovaných informačních ohánějí tím, že pravda je složitá, že by tomu lidi stejně nerozuměli, že by je to jenom mátlo – a proto je třeba, aby se někdo moudřejší a lepší pozastavil nad tím, co populus smí vědět a co by si měl myslet.

Pokud se bojíme říkat pravdu sami sobě, jak se nemáme bát říkat ji strojům? Pointa je v tom, že lidé mají alespoň rámcově podobnou psychologii, dá se očekávat, že se na něčem shodnou – ale máme podobné hodnoty a podobný kulturní bias, tedy společné vidění světa, které do nás otiskla naše kultura. To je důležité, protože to do nás propisuje základní hodnoty, jako je schopnost určovat, co je zlé a co je dobré, říká nám to, že lidský život je cenný a podobně. Pro nás je přirozené rozlišovat mezi zdroji a tvrzeními právě na základě těchto hodnot.

AI potřebuje něco podobného, potřebuje mít základní systém hodnot, která definují nepřekročitelné meze. Většina neúmyslných katastrof, které diskutuje literatura, se týká toho, že AI přijde na nějaké logické řešení, které je ale nekompatibilní s našimi hodnotami. Perfektní řešení hladomoru v nějaké zemi je prostě nechat vymřít místní populaci na úroveň, která je udržitelná, takže nejjednodušší řešení je nedělat vůbec nic – ale to není to řešení, které od AI chceme, ignoruje naši základní představu o tom, že lidský život je cenný.

Předchozí
Další
Reklama
Reklama

Komentáře naleznete na konci poslední kapitoly.

Reklama
Reklama