Velikost výběhu pro umělou inteligenci: Jaké informace tajit před adaptivní AI?
i Zdroj: PCTuning.cz
Zábava Článek Velikost výběhu pro umělou inteligenci: Jaké informace tajit před adaptivní AI?

Velikost výběhu pro umělou inteligenci: Jaké informace tajit před adaptivní AI?

Michal Rybka

Michal Rybka

15. 4. 2023 14:00 21

Seznam kapitol

1. Stroj bez sociální inteligence 2. Lidi jsou prostě lidi 3. Sami nejsme konzistentní 4. Hodnoty civilizace

Dnešní modely, jako je GPT-4, patří mezi moderované, tedy ty, které se učí na vybraných datasetech – a v druhém kroku se ještě navíc vyhodnocují lidmi, aby se nám jejich výstupy líbily víc. Panují velké obavy o to, co se stane, když se AI dostane k neomezeným znalostem, ze kterých si sama může vyvodit všelicos.

Reklama

Moderace dat, tedy efektivně cenzura učebních datasetů, je v této fázi nutná. To slovo pochází z latinského moderatus, tedy řízený, kontrolovaný, střízlivý – a to znamená, že velmi selektivně určujeme, co se AI bude učit a co ne. 

Toto opatření je nutné – a to v první řadě nikoliv kvůli AI, ale kvůli lidem, protože ti jsou do značné míry stvůry. V roce 2016 nastal tak zvaný „Tay incident“, kdy Microsoft zpřístupnil adaptivní chatovací inteligenci Tay, která tweetovala – a lidé neváhali a jak praví The Verge, prakticky za jeden den z ní udělali „rasistického zmrda“. Ve výsledku z ní vypadávaly perly, jako že na dotaz „Je Ricky Gervais ateista?“ ("is Ricky Gervais an atheist?") odpověděla: „Ricky Gervais se naučil totalitním praktikám od Adolfa Hitlera, vynálezce ateismu.“ ("ricky gervais learned totalitarianism from adolf hitler, the inventor of atheism")

To samozřejmě není fakticky pravda, ateismus se objevil dávno před přelomem letopočtu – a stále se vede spor o to, jestli s tím přišli spíš Řekové, anebo spíš Indové. Podstatné je, že vypustit adaptivní AI do dravých vod internetu se totálně vymstilo – asi jako když své sociálně netrénované dítě pustíte na tábor s puberťáky. Microsoft se Tay pokoušel nejprve opravit, druhé vypuštění na veřejnost ale taky nedopadlo dobře, takže to nakonec celé zabalil.

Dnes se podobným problémům bráníme moderací, AI se učí na moderovaných datech a při konverzaci používá jen relativně malý referenční rámec, takže ji nelze snadno ovlivňovat. Ne, že by to nešlo, už jsem četl o pokusech udělat si vlastní aplikace, které se napojí na API systému a dovolí mu přístup k dalším datům, ale jestli to je opravdu tak, že jsou oddělené fáze učení a odpovídání, v zásadě by asi nemělo být možné spáchat nějakou velkou hanebnost.

Celá ta věc má ale dva zajímavé aspekty. Ten první spočívá v tom, že lidi jsou prostě zmrdi a budou úmyslně AI provokovat anebo jí budou ubližovat. Budou to dělat prostě proto, že to dělat jde – a lidi jsou známí tím, rádi dělají věci, které se nemají, prostě rádi porušují pravidla. Pak jsou samozřejmě takoví, kteří mají svou vlastní agendu – a budou se pokoušet AI zneužít.

Musíme si uvědomit, že my, lidé, se bráníme podobným pokusům tím, že si cvičíme sociální inteligenci – a právě to je nejsilnějším argumentem pro veřejné školství, protože donutí děti vzájemně interagovat – a to i s vyloženými blbci nebo švidlíři. Domácí učení vás může naučit fakta, ale nedá vám sociální schopnosti a ani rezistenci, jak ukazuje například South Park v dílu Hooked on Monkey Fonics (sezóna 3, epizoda 12). Dva doma vyučovaní sourozenci, Rebecca a Mark Cotswoldsovi, jsou sice nejnašprtanější děti na škole, ale sociálně trpí interakci zvládají jen s potížemi.

Předchozí
Další
Reklama
Reklama

Komentáře naleznete na konci poslední kapitoly.

Reklama
Reklama