Hesla od AI jsou riziko - jsou překvapivě snadno prolomitelná
Svěřujete tvorbu hesel AI? Raději s tím přestaňte. Vědci zjistili, že AI generuje extrémně předvídatelná hesla, která lze až překvapivě snadno prolomit.
Pokud jste si mysleli, že pokročilé jazykové modely AI jako ChatGPT, Claude nebo Gemini dokážou vytvořit neprůstřelné a bezpečné heslo pro vaše online účty, bezpečnostní experti vás rychle vyvedou z omylu. Nový výzkum od společnosti Irregular totiž ukázal, že hesla generovaná umělou inteligencí jsou od základu děravá. Na první pohled sice vypadají složitě a obsahují všechny požadované znaky, ve skutečnosti ale postrádají to nejdůležitější – skutečnou náhodnost. Pro hackery a automatizované nástroje jsou tak velmi snadným terčem.
Kamenem úrazu je samotná povaha velkých jazykových modelů (LLM). Tyto systémy netvoří věci náhodně, nýbrž na základě statistické pravděpodobnosti a naučených vzorců. Během testování se ukázalo, že AI modely se neustále opakují. Když výzkumníci požádali model Claude Opus o 50 bezpečných hesel, získali pouze 30 unikátních výsledků, přičemž 18 hesel bylo naprosto totožných. Každé vygenerované heslo navíc začínalo písmenem (nejčastěji velkým „G“) a na druhém místě byla téměř vždy číslice „7“.
Podobně tragicky dopadla i konkurence. ChatGPT s oblibou začínal svá hesla písmenem „v“ a jako druhý znak sázel „Q“. U Gemini zase dominovalo písmeno „k“ doplněné o znaky „#“ nebo „9“. Umělá inteligence se tak při tvorbě hesel paradoxně dopouští stejných chyb jako lidé – opakuje zažité vzorce a nevyužívá plný potenciál abecedy.
Odborníci proto důrazně varují před tím, aby lidé nebo automatizované skripty používali LLM k vymýšlení hesel. Podle nich je tento problém na úrovni AI modelů neopravitelný, protože jsou optimalizovány právě pro předvídatelnost, nikoliv pro chaos potřebný k bezpečné kryptografii. K tvorbě silných hesel byste tak měli i nadále používat výhradně osvědčené a specializované správce hesel, kteří staví na skutečně náhodném generování znaků.