Sora padla. Máme si něco přát? | Kapitola 3
Seznam kapitol
Že firmy ruší neúspěšné služby, je naprosto běžná věc. O poznání neobvyklejší je ale to, že firmy nečekaně ukončují úspěšné služby jako generátor videí Sora od OpenAI.
Pak je tu otázka dalších rizik, tedy faktorů, které mohly provoz Sory komplikovat nebo prodražovat. Jde o řadu faktorů, které se přímo netýkají provozu, ale právních a bezpečnostních aspektů, které musí veřejná služba také řešit. To, co je opravdu zajímavé, že ještě před třemi dny, 23. března 2026, vydala OpenAI aktualizované informace o tom, „jak používat Soru bezpečně“ (Creating with Sora safely). A tento text nám může ukázat na to, jaké byly problémy v Soralandu, abych tak řekl.
1) Rozlišování obsahu s umělou inteligencí. „Každé video vygenerované pomocí Sora obsahuje viditelné i neviditelné vodoznaky původu. Všechna videa Sora také obsahují metadata C2PA – standardní podpis v oboru – a udržujeme interní nástroje pro vyhledávání reverzního obrazu a zvuku, které dokážou s vysokou přesností sledovat videa zpět k Sora, a to na základě úspěšných systémů generování obrázků ChatGPT a Sora 1. Mnoho výstupů také obsahuje viditelné, dynamicky se pohybující vodoznaky, které obsahují jméno tvůrce.“
Fake generovaný obsah je problém – a proto se videa značkují. V současnosti to může být o to větší problém, protože se generovaná videa používají také propagandisticky. Dřív se pro simulaci fake válečných scén používaly hry, hlavně ARMA, ale tady může být zakopaný první „mrtvý pes“ – někdo si s OpenAI promluvil o jejich potenciální zodpovědnosti za jimi generovaný obsah a pro vedení OpenAI se to mohlo ukázat jako příliš riziková věc. Samotná existence vodoznaků nemusela být postačující řešení.
2) Převod obrázků s podobiznou skutečných osob do videa. „V rámci posilování ochranných pravidel Sora umožňujeme kreativnější vyjádření a propojení, včetně možnosti vytvářet videa z fotografií rodiny a přátel. Uživatelé mohou nahrávat obrázky s lidmi a vytvářet videa v Sora, poté co potvrdí, že mají souhlas od zobrazených osob a práva k nahrávání médií. Převod obrázků na video s lidmi podléhá obzvláště přísným bezpečnostním opatřením, která jsou ještě přísnější než u postav Sora (dříve známých jako funkce cameo). Obrázky obsahující děti a mladě vypadající osoby podléhají ještě přísnějšímu moderování a omezením ohledně toho, co z nich lze vytvořit. Tato videa budou při sdílení vždy opatřena vodoznakem.“
Používání skutečných lidí bylo, je a bude u AI generovaného obsahu obrovský problém. Zatím se zneužívá hlavně u politiků a u fake porna, ale použití cizí podoby – a to i v relativně neškodné situaci – je z právního hlediska obrovský problém. A je docela pravděpodobné, že ten, kdo bude chtít generovat AI obsah s využitím podoby osob bez jejich souhlasu, nebude chtít generovat zcela neškodný obsah. A to může znamenat obří riziko.
To samé se týká postav v zastoupení (characters), u kterých byly uvedeny podobné požadavky s tím, že pokud by došlo k porušení pravidel, postih by směřoval nejen na konkrétní video, ale na všechny, které postavu využívaly.
3) Omezení pro dospívající. „Sora zahrnuje silnější ochranu pro mladší uživatele, včetně omezení obsahu pro dospělé. RSS kanál je navržen tak, aby byl vhodný pro všechny uživatele Sora a obsah, který může být škodlivý, nebezpečný nebo nevhodný pro daný věk, je pro účty dospívajících filtrován. Profily dospívajících se nedoporučují dospělým a dospělí nemohou s dospívajícími zahajovat komunikaci pomocí zpráv. Rodičovská kontrola v ChatGPT umožňuje rodičům spravovat, zda mohou dospívající posílat a přijímat soukromé zprávy, a také vybrat nepersonalizovaný kanál v aplikaci Sora.“
Omezení pro mladší uživatele byla a jsou implementační můra všude – a to jak z hlediska restrikcí, tak i predátorů, kteří jsou velice vynalézaví, pokud jde o to, jak dospívající kontaktovat, aby jimi mohli manipulovat. Pokud pouštíte na svou platformu veřejnost, musíte to nějak řešit se všemi problémy, které z toho vyplývají. A to stojí další peníze.
4) Filtrování škodlivého obsahu. „Sora využívá vícevrstvou ochranu, aby zajistila bezpečnost feedu a zároveň ponechala prostor pro kreativitu. Při tvorbě se ochranné prvky snaží blokovat nebezpečný obsah ještě před jeho vytvořením – včetně sexuálního materiálu, teroristické propagandy a propagace sebepoškozování – kontrolou jak výzev, tak výstupů napříč několika videozáznamy a zvukovými přepisy.“
Lidi jsou divní – a když se jim nepodaří vygenerovat souložícího Hitlera, tak zkusí alespoň hajlující kočku. Zkusí to – a vy to musíte vychytat, včetně opisů, což jsou způsoby jak domanipulovat umělou inteligenci do něčeho, co by dělat neměla. V tom jsou lidé velice imaginativní a věřte mi, budete se divit, čeho všeho jsou schopní.
Pokus pokrýt všechny možné případy, včetně neustálého udržování filtrů, protože tohle zkoumání, co by se dalo ještě udělat, nikdy nepřestane, bude stát další peníze. Další a další peníze nad náklady, které prostě jenom potřebujete pro generování videa. Potřebujete týmy, které trvale monitorují, jestli někdo neudělal do vašich systémů díru, zda někdo nenašel skulinu – a budete to muset platit stále.
5) Pravidla pro používání zvuku. „Přidání zvuku do Sora komplikuje problém bezpečnosti, a i když je dokonalá ochrana obtížná, do této oblasti i nadále seriózně investujeme. Sora automaticky prohledává přepisy generované řeči a hledá potenciální porušení zásad a také blokuje pokusy o generování hudby, která napodobuje žijící umělce nebo existující díla. Naše systémy jsou navrženy tak, aby takové výzvy detekovaly a zastavily, a respektujeme žádosti o odstranění od tvůrců, kteří se domnívají, že výstup Sora porušuje jejich dílo.“
Přidání audia do generovaných filmů přinesla zcela nezávislou úroveň problémů, protože kromě problematického nebo nelegálního obsahu najednou máte problém s autorsky chráněnou hudbou, úryvky z filmů a představení a podobně. V podstatě se dá říci, že čím dál se Sora dostala, tím víc problémů (a tedy i nákladů) svým tvůrcům přinesla.
6) Kontrola nad publikací ze strany uživatelů. „Sami si vyberete, kdy a jak budete svá videa sdílet, a svůj publikovaný obsah můžete kdykoli odstranit. Videa budou ve feedu sdílena pouze tehdy, když se tak rozhodnete. Každé video, profil, přímá zpráva, komentář a postava mohou být nahlášeny jako zneužití s jasnými možnostmi nápravy v případě porušení zásad. Můžete se také kdykoli rozhodnout zablokovat účty, což ostatním zabrání v prohlížení vašeho profilu nebo příspěvků, používání vaší postavy a kontaktování vás prostřednictvím přímých zpráv.“
Publikace AI generovaného obsahu je docela velká věc. Podle současných precedentů autorská práva za AI generovaný obsah jdou za autorem promptu, který prompt vytvořil a on je tedy v autorskoprávním smyslu autorem. Jiné interpretace říkají, že protože dílo vytvořil stroj, tak žádného autora nemá a technicky vzato jde tedy o dílo volné.
Rozhodnutí, zda dílo zveřejníte, nebo nezveřejníte je jedno z nejzásadnějších práv autora. Pokud to kontroluje tvůrce promptu pomocí svého profilu, chová se jako autor – a přes profil by tedy měl mít kontrolu nad publikací nebo nepublikací díla, případně jeho stažením (retrakcí). Provozovatel služby je v nezáviděníhodné pozici, jak se k tomu postavit, protože to jeho služba dílo vytvořila (a v případě Sory taky fakticky za jeho peníze). Provozovatel má přitom nad zveřejněným dílem jenom malou kontrolu, což není ideální pozice.