KPMG oslovilo zástupce 300 světových firem z různých odvětví. Přes 70 % z nich předpokládá, že AI bude mít na jejich společnost pozitivní vliv, a plánují AI řešení zavést do dvou let. 92 % respondentů vnímá i rizika, která jsou s implementací AI řešení spojena. Mezi ta nejzávažnější řadí kyberbezpečnost, únik citlivých dat nebo autorská práva a duševní vlastnictví. Přečtěte si shrnutí výzev a rizik, které řešení na bázi AI přináší.

Model umělé inteligence si zjednodušeně můžete představit jako „mozek“, který byl vytrénován na jednu úzce zaměřenou činnost. Abychom ho vytrénovali, potřebujeme mu poskytnout dobrý algoritmus a kvalitní, vyvážená data. Neméně důležité je i nastavení procesů pro případ, že budeme potřebovat model AI převychovat, protože nedodává očekávané výsledky. Generativní umělá inteligence pak představuje algoritmy, které dokážou generovat obsah, ať v textové, obrázkové, či jiné formě. 

Největší bariéry při implementaci AI: chybějící odborníci, finance nebo jasný obchodní plán

Podle studie Generative AI vnímá 77 % vedoucích pracovníků velkých společností generativní umělou inteligenci jako nejvýznamnější nově vznikající technologii, se kterou se doposud setkali. Přisuzují jí větší důležitost než dalším aktuálně rezonujícím technologiím, jako je 5G nebo rozšířená realita. 71 % z nich pak plánuje zavést první řešení na bázi generativní AI do dvou let. Předpokládají, že jim pomůže zvýšit produktivitu jejich společnosti.

Podle Adama Vytlačila, manažera pro oblast Customer & Digital v KPMG, jde generativní AI dobře využít v oblastech, kde „boti“ mohou obstarat rutinní úkoly, případně předpřipravit odpověď nebo podpůrné informace pro lidskou obsluhu. „Firmy už delší dobu využívají virtuální asistenty, díky nimž svým zákazníkům poskytují podporu 24/7. Dnešní generativní modely umělé inteligence umí dotazům lépe porozumět a odpovědět tak způsobem, který se více podobá lidské reakci. Tím výrazně stoupá kvalita těchto nástrojů, která v minulosti nebyla zrovna nejlepší, a rozšiřují se možnosti jejich využití.“

Přes velké nadšení, které okolo umělé inteligence aktuálně panuje, se většina lídrů velkých společností necítí dostatečně připravena na její implementaci. Ve firmách chybí specializovaní pracovníci, kteří by AI řešení uměli zavést. Pouze 1 % z oslovených respondentů potvrdilo, že takovými pracovníky disponuje. Ostatní plánují potřebný „talent“ teprve nabrat nebo vytrénovat současné zaměstnance, popř. obojí. Mezi další dvě nejčastěji zmiňované překážky se pak podle průzkumu řadí cena vývoje a nedostatečně specifikovaný obchodní model/plán.

Na efektivní a systematické používání modelů AI nejsou dostatečně připraveny ani české firmy. Mnozí manažeři zatím ani netuší, v jakých všech odděleních se umělá inteligence, zejména ta generativní, používá a k jakým účelům. Nejednou se nám stalo, že náš klient zmapoval více než 100 použití, o kterých vůbec nevěděl. Firmy by tedy v prvním kroku měly tato řešení napříč celou společností sepsat. Bez toho, aby o nich věděly, nemohou efektivně řídit rizika s nimi spojená ani se připravit na chystaný AI Act,“ říká Ondřej Michalák, který se v KPMG zabývá odpovědným využitím umělé inteligence.  

Nezapomeňte zvýšit kyberbezpečnost a pohlídat si data

Možností využití umělé inteligence je dnes mnoho, s novými možnostmi ale přichází i nová rizika, která si světoví lídři dobře uvědomují. Většina z nich (77 %) je přesvědčena, že si s nimi zvládnou poradit. Pojďme se podívat na některá z nich. 

Riziko zneužití a úniku dat

Většina generativních modelů AI pracuje s daty svého modelu a zároveň s daty, která jim poskytne uživatel. Tímto způsobem se učí a vytváří svoji znalostní základnu. Data, která poskytovatel služby takto získá, může případně později použít k zodpovězení dotazu někoho jiného, čímž vzniká riziko úniku citlivých informací. U nástrojů, které jsou poskytovány jako externí služba, se také zatím často mění licenční podmínky. Data mnohdy zůstávají uložena na serverech poskytovatele a nemusíme vědět o jejich dalším využití.

Jednou z možností, jak riziko zneužití dat omezit, je data anonymizovat odstraněním či maskováním všech osobních nebo citlivých údajů. Ani takto očištěná data vám ale nezaručí stoprocentní ochranu. Studie ukazují, že algoritmy dokážou rozeznat totožnost jedince, i pokud byla data anonymizována. Nástroje tak mohou minimálně tušit, jaký problém momentálně v organizaci řešíte, takže například vaše nová strategie už nemusí být tak „tajná“.

Bez kvalitních dat nečekejte kvalitní výstupy

Všichni, kdo s AI pracují, si musí být vědomi toho, že nepoužívají finální produkt, ale nástroj, který svým způsobem sami trénují a vyvíjejí. Výstupy jsou pouze tak kvalitní, jak kvalitní byly vstupy, proto je nezbytné poskytovat modelu AI kvalitní data.

V KPMG jsme proto například zpřístupnili všem našim zaměstnancům školení o generativní umělé inteligenci v rámci našeho programu Digital and Data Foundations. Tento program poskytuje přehled o vývoji umělé inteligence a o tom, jak s její pomocí vytvářet důvěryhodný obsah. Zvažte, zda podobné školení nezprostředkovat i svým zaměstnancům.

Kyberbezpečnost

Kyberzločinci mohou generativní AI zneužít například pro tvorbu uvěřitelnějších phishingových útoků nebo generování přístupových údajů, kterými snadno proniknou do vašich systémů. Dalším rizikem je tzv. otrava dat, kdy lidé danému nástroji cíleně podsouvají nepravé či škodlivé informace a kazí tak výstupy vytvořené AI.

I na tato rizika se lze připravit a předejít jim např. nastavením obecně platných směrnic pro práci s umělou inteligencí vytvořených na míru nástroji, pro který se rozhodnete.

Poskytnutí zavádějících informací

Vzhledem k tomu, že generativní modely potřebují ke svému natrénování enormní množství dat, musí nutně vycházet i z dat, která nejsou z tak kvalitních zdrojů nebo je neposkytli dostatečně kvalifikovaní uživatelé. Při školení v oblasti AI zdůrazňujte svým zaměstnancům zejména na to, aby veškerý takto vytvořený obsah pečlivě kontrolovali. Předejdete tak sdílení nepravdivých nebo nepřesných informací, které by mohly poškodit důvěryhodnost vaší organizace.

Ohlídejte si data governance 

Data governance hraje zásadní roli při zajišťování etického, bezpečného a odpovědného využívání dat v rámci systémů umělé inteligence. Pokud chcete využívat vlastní modely AI, neopomeňte efektivní data governance.

Začněte sestavením specializovaného týmu, který bude za data zodpovídat. Měl by zahrnovat zástupce různých oddělení (například IT, právního oddělení, compliance a dalších).

Autorská práva a duševní vlastnictví

Komu patří obsah, který prošel skrz generativní umělou inteligenci? Zatím neexistuje jednoznačná odpověď. Záleží na mnoha faktorech, jako jsou například pravidla a obecné podmínky nástroje, který využíváte, nebo jak s vygenerovaným obsahem dále naložíte. Je také těžké definovat, jak moc byste text museli upravit, abyste ho mohli prohlásit za svůj.

Pokud budete vámi používané modely generativní AI trénovat na základě svých originálních dat, která nejsou chráněna autorskými právy, výrazně tak snížíte riziko jejich porušení.

Modely umělé inteligence mohou výrazně zvýšit naši produktivitu, zároveň nás ale dělají zranitelnějšími. Proto je nezbytné mít jistotu, že tato technologie funguje správně a generuje pro vás ta nejlepší řešení. Ověřte si, že je tomu tak i ve vaší firmě, díky naší službě Responsible AI.

 

KPMG letos v rámci online průzkumu oslovilo 300 zástupců velkých světových společností (obrat jedna miliarda dolarů a více), aby získala jejich pohled na generativní umělou inteligenci. Oslovené firmy se lišily jednak svým druhem a odvětvím, ale i trhem, na kterém působí. První průzkum proběhl v březnu 2023, krátce poté, co svět zahltil Chat GPT. V červnu tohoto roku vyzpovídalo KPMG americké lídry znovu a zjistilo tak, jak se jejich pohled na generativní modely AI změnil. Celý průzkum najdete tady