Galerie 3
AI čerpá od AI. Model ChatGPT 5.2 cituje AI encyklopedii Grokipedia
i Zdroj: Depositphotos.com
Novinka AI čerpá od AI. Model ChatGPT 5.2 cituje AI encyklopedii Grokipedia

AI čerpá od AI. Model ChatGPT 5.2 cituje AI encyklopedii Grokipedia

David Švrček

David Švrček

2

Nejnovější verze ChatGPT začala využívat jako zdroj dat AI encyklopedii Elona Muska. Hrozí tak šíření dezinformací skrze neověřený generovaný obsah.

AI model LTX2 směle konkuruje placeným generátorům videí

AI model LTX2 směle konkuruje placeným generátorům videí

Blíží se konec generování videí přes placené služby. Videa k nerozeznání od reality zvládnete už i na svém počítači.

Poslechni si audioverzi
00:00:00
00:00:00
Reklama

Nejnovější vydání jazykového modelu od OpenAI, GPT 5.2, sklízí kritiku za využívání neověřených zdrojů informací. Podle zjištění serveru The Guardian začal tento model při dotazech na méně frekventovaná témata, jako je íránská politika nebo biografie britských historiků, citovat data z Grokipedie. Jedná se o projekt společnosti xAI od Elona Muska, který se snaží konkurovat Wikipedii, avšak s tím zásadním rozdílem, že veškerý obsah je generován umělou inteligencí. Uživatelé nemohou články přímo psát ani editovat, pouze navrhovat změny, které AI vyhodnotí. Není zde tedy žádná lidská verifikace informací, jako je tomu u Wikipedie.

AI čerpá od AI. Model ChatGPT 5.2 cituje AI encyklopedii Grokipedia
i Zdroj: OpenAI

Toto zjištění odborníci již dříve označovali jako „kolaps modelu“. Pokud se AI učí z dat vygenerovaných jinou AI, může docházet k postupné degradaci kvality výstupů a recyklaci chyb. No, vlastně se koloběh informací tak trochu zacyklí sám do sebe. Jazykové modely jsou velmi náchylné k takzvaným halucinacím, tedy vymýšlení si faktů, což v minulosti potvrdily i experimenty. Zkrátka pokud AI neví, informaci si vymyslí nebo sáhne po nějakém méně relavantním zdroji. Pokud ChatGPT přebírá neověřené informace od Groka, vzniká tak již zmíněná nebezpečná informační smyčka, v níž se bludy stávají „pravdou“ jen proto, že je stroje vzájemně citují. Běžní uživatelé, kteří nemají kritické myšlení při práci s AI tak pravděpodobně fake news ani neodhalí, protože dané problematice nerozumí a považují AI za relevantní zdroj, což je špatně.

AI čerpá od AI. Model ChatGPT 5.2 cituje AI encyklopedii Grokipedia
i Zdroj: xAI

Riziko nespočívá jen v náhodných chybách, ale i v cílené manipulaci. Objevují se varování před takzvaným „groomingem“ LLM modelů, kdy propagandistické platformy chrlí obří objemy dezinformací s cílem otrávit tréninková data pro AI lží, která bude uživatelům předkládána jako pravda. Pokud se modely začnou odkazovat na jiné generované a nefiltrované zdroje, otevírá se prostor pro exponenciální šíření bludů a zaděláváme si na vellý informační problém.


Reklama
Reklama

Komentáře

Nejsi přihlášený(á)

Pro psaní a hodnocení komentářů se prosím přihlas ke svému účtu nebo si jej vytvoř.

Rychlé přihlášení přes:

Reklama
Reklama
Reklama