AI čerpá od AI. Model ChatGPT 5.2 cituje AI encyklopedii Grokipedia
Nejnovější verze ChatGPT začala využívat jako zdroj dat AI encyklopedii Elona Muska. Hrozí tak šíření dezinformací skrze neověřený generovaný obsah.
AI model LTX2 směle konkuruje placeným generátorům videí
Blíží se konec generování videí přes placené služby. Videa k nerozeznání od reality zvládnete už i na svém počítači.
Nejnovější vydání jazykového modelu od OpenAI, GPT 5.2, sklízí kritiku za využívání neověřených zdrojů informací. Podle zjištění serveru The Guardian začal tento model při dotazech na méně frekventovaná témata, jako je íránská politika nebo biografie britských historiků, citovat data z Grokipedie. Jedná se o projekt společnosti xAI od Elona Muska, který se snaží konkurovat Wikipedii, avšak s tím zásadním rozdílem, že veškerý obsah je generován umělou inteligencí. Uživatelé nemohou články přímo psát ani editovat, pouze navrhovat změny, které AI vyhodnotí. Není zde tedy žádná lidská verifikace informací, jako je tomu u Wikipedie.
Toto zjištění odborníci již dříve označovali jako „kolaps modelu“. Pokud se AI učí z dat vygenerovaných jinou AI, může docházet k postupné degradaci kvality výstupů a recyklaci chyb. No, vlastně se koloběh informací tak trochu zacyklí sám do sebe. Jazykové modely jsou velmi náchylné k takzvaným halucinacím, tedy vymýšlení si faktů, což v minulosti potvrdily i experimenty. Zkrátka pokud AI neví, informaci si vymyslí nebo sáhne po nějakém méně relavantním zdroji. Pokud ChatGPT přebírá neověřené informace od Groka, vzniká tak již zmíněná nebezpečná informační smyčka, v níž se bludy stávají „pravdou“ jen proto, že je stroje vzájemně citují. Běžní uživatelé, kteří nemají kritické myšlení při práci s AI tak pravděpodobně fake news ani neodhalí, protože dané problematice nerozumí a považují AI za relevantní zdroj, což je špatně.
Riziko nespočívá jen v náhodných chybách, ale i v cílené manipulaci. Objevují se varování před takzvaným „groomingem“ LLM modelů, kdy propagandistické platformy chrlí obří objemy dezinformací s cílem otrávit tréninková data pro AI lží, která bude uživatelům předkládána jako pravda. Pokud se modely začnou odkazovat na jiné generované a nefiltrované zdroje, otevírá se prostor pro exponenciální šíření bludů a zaděláváme si na vellý informační problém.