Microsoft přesouvá Copilot na „pouze pro účely zábavy“ v nových podmínkách služby

16

Microsoft kráčí po tenké hranici mezi agresivním marketingem a právní obranou. Zatímco technologický gigant utrácí miliony za umístění své Copilot AI jako základního nástroje produktivity – dokonce jde tak daleko, že uvádí na trh samostatnou kategorii hardwaru známou jako Copilot+ PC – nejnovější právní poznámky v podání naznačují mnohem opatrnější přístup.

Od 24. října 2025 obsahují aktualizované smluvní podmínky společnosti Microsoft překvapivé prohlášení: “Copilot slouží pouze k zábavním účelům. Může dělat chyby a nemusí fungovat podle očekávání. Nespoléhejte se na Copilota při důležitých rozhodnutích. Používejte Copilot na vlastní nebezpečí.”

Právní nesoulad: produktivita vs. zábava

Mezi tím, jak Microsoft prodává Copilot a jak jej právně definuje, je patrný rozpor. Na jedné straně společnost integruje umělou inteligenci do balíčků Microsoft Office a Windows a staví ji jako profesionálního digitálního asistenta schopného řídit složité pracovní postupy. Na druhou stranu nová právní formulace klasifikuje tento nástroj jako zdroj „zábavy“.

Toto rozlišení je zásadní z několika důvodů:

  • Štít odpovědnosti: Označením služby „zábava“ Microsoft vytváří právní nárazník proti uživatelům spoléhajícím se na informace generované umělou inteligencí při přijímání zásadních rozhodnutí v oblastech, jako je právo, lékařství nebo finance.
  • Problém „halucinací“: Navzdory rychlému pokroku jsou modely umělé inteligence stále náchylné k „halucinacím“ – příležitostem, kdy spolehlivě prezentují nepravdivé informace jako fakt. Nové podmínky výslovně varují, že AI nemusí fungovat podle plánu.
  • Rizika duševního vlastnictví: Společnost Microsoft objasňuje, že nezaručuje, že odpovědi Copilot neporuší práva třetích stran. To přenáší právní zátěž na uživatele, pokud publikují nebo distribuují obsah generovaný umělou inteligencí, který porušuje autorská práva.

Rozšíření odpovědnosti za „akce“ AI

Aktualizované podmínky také řeší rozšiřující se možnosti umělé inteligence, jako jsou Copilot Actions, Copilot Labs a integrované nákupní služby.

S tím, jak se umělá inteligence posouvá od pouhého generování textu k provádění úkolů – jako je nakupování nebo správa souborů – sázky rostou. Společnost Microsoft výslovně uvádí, že pokud dáte Copilotovi pokyn k provádění akcí vaším jménem, ​​nesete výhradní odpovědnost za výsledky těchto akcí. To znamená, že pokud chyba AI způsobí nesprávnou transakci nebo ztrátu souboru, odpovědnost ponese člověk, nikoli poskytovatel softwaru.

Trend k opatrnosti v éře AI

Zatímco jazyk Microsoftu o „zábavě“ se zdá být obzvláště přímočarý, sleduje obecný trend v oboru. Většina hlavních vývojářů AI používá podobný „zmírňující“ jazyk ke správě očekávání a minimalizaci rizika soudních sporů. Tvrdý jazyk Microsoftu však zdůrazňuje rostoucí propast mezi vnímanou užitečností AI a její právní spolehlivostí.

Jak se umělá inteligence hlouběji začleňuje do našich profesionálních životů, odpovědnost za ověřování jejích výsledků zůstává výhradně v lidských rukou.

Závěr
Microsoft se právně distancuje od samotných příslibů produktivity, které používá při uvádění Copilota na trh. Uživatelé by měli AI považovat za kreativního partnera pro brainstorming, nikoli za autoritativní zdroj pravdy nebo důvěryhodného agenta pro kritické úkoly.