Microsoft Copilot je jen pro zábavu, na vážné rady ho nepoužívejte
Ačkoli Microsoft integruje umělou inteligenci do svých produktů pro firmy, v podmínkách užití sám varuje, že na výstupy velkých jazykových modelů nelze spoléhat.
Společnost Microsoft v poslední době agresivně prosazuje své služby umělé inteligence, obzvláště s příchodem počítačů s označením Copilot+. Podle aktualizovaných podmínek užití se však zdá, že softwarový gigant svému vlastnímu výtvoru tak úplně nevěří. V dokumentu totiž stojí, že AI asistent Copilot je určen pouze pro účely zábavy a uživatelé by na něj neměli spoléhat, pokud jde o důležité rady.
Pravidla jasně uvádějí, že použití Copilota je na vlastní nebezpečí, systém může dělat chyby a nemusí fungovat podle představ. Takové zřeknutí se odpovědnosti představuje poměrně ironický kontrast k marketingovým kampaním, které AI prezentují jako revoluční nástroj pro byznys a zásadní součást operačního systému Windows 11. Podobná upozornění na možná pochybení a nepřesnosti mají i další platformy, jako je xAI.
Pro odborníky seznámené s fungováním jazykových modelů se jedná o logické varování. Mnozí uživatelé, a dokonce i zkušení profesionálové, ovšem někdy berou výstupy umělé inteligence jako nezpochybnitelný fakt. Nedávné incidenty spojené s výpadky serverů AWS, které způsobil programovací bot bez lidského dohledu, přesně tyto obavy potvrzují.
Generativní AI může významně zvýšit produktivitu, stále jde však pouze o nástroj, u něhož je nutné každý výstup ověřovat. Společnosti se podobnými doložkami snaží vyhnout právním sporům, na druhou stranu tím ale mohou zlehčovat reálná rizika plynoucí z nasazování umělé inteligence do reálného provozu, jen aby přilákaly platící zákazníky a zhodnotily své masivní investice.