Jak firmy využívají AI: Proč je důvěra v umělou inteligenci klíčem k úspěchu?

Budování důvěry v umělou inteligenci je klíčovým prvkem pro její úspěšné využívání ve firmách. Umělá inteligence je v současnosti ve fázi druhé vlny zavádění do praxe, která představuje generativní AI s dalekosáhlými důsledky pro podnikání a společnost.

S umělou inteligencí je to jako s loterií: je snadné si představit možnosti, které se naskytnou, pokud vám padnou ta správná čísla. Ale trefit jackpot u AI – utopie poháněné technologiemi, kde asistenti AI výrazně zvýší produktivitu zaměstnanců a všude vytvářejí nové příležitosti – to závisí na jednom zásadním prvku: důvěře.

Ilustrační fotografie

„Stejně jako u každé technologie, ať už jde o jednoduchý nástroj jako je vidlička nebo kladivo, získáte důvěru v jejich používání až ve chvíli, kdy se tato technologie ukáže jako přínosná,“ říká Daniela Lima, výkonná ředitelka společnosti Salesforce Futures

Přední odborníci na umělou inteligenci, od analytiků a datových vědců až po designéry a futuristy, se zamýšlejí nad tím, proč je budování důvěry v umělou inteligenci klíčovým prvkem pro její úspěšné využívání ve firmách.

Skvělá AI vyžaduje, aby jí lidé rozuměli

Lidé využívají umělou inteligenci už mnoho let – od odemykání telefonů pomocí rozpoznávání obličeje a přivolání vozidla pro spolujízdu až po seznamování v seznamovací aplikaci.

Kat Holmesová, EVP a Chief Design Officer společnosti Salesforce, tyto zkušenosti nazývá „matchmaking“, tedy skloubení potřeb jednotlivce s možnostmi technologie.

Průzkum: České firmy mají ve využívání AI velkou rezervu

„Strojová inteligence a strojové učení jsou již nějakou dobu klíčovou součástí naší společnosti a úspěch přichází ve chvíli, kdy dojde k pozitivní shodě s osobou – vznikne relevantní výsledek, který jako by byl vytvořen přímo a jen pro mě,“ říká Holmesová.

Zavádění generativní AI do praxe může mít dalekosáhlé důsledky pro podnikání a společnost. A to vede k nové naléhavé potřebě zajistit, aby byla nasazována v souladu s důvěrou těch, kteří ji budou využívat a na které bude mít dopad. Technologové a firmy si však kladou otázku, jak toho dosáhnout.

Jak navrhovat důvěryhodnou umělou inteligenci

Klíčovým prvkem pro vytváření důvěry je způsob, jakým vývojáři navrhují uživatelské rozhraní umělé inteligence. „Jedním z nejdůležitějších a nejnáročnějších úkolů v oblasti designu je pomoci lidem udělat první krok do nového světa nové technologie,“ vysvětluje Holmesová. „Lidé potřebují jednoduchý důkaz, že jejich důvěra nebude zklamána.“

Podle Holmesové se však nesmí nic překombinovat. „Mohlo by to být jednoduché tlačítko, které poskytne doporučení. Tento malý, jednoduchý důkaz je jako první pozdrav, když se lidé potkají. Je to okamžik prvního očního kontaktu,“ uvádí Holmesová.

Nedávné pozdvižení kolem ChatGPT ukazuje naši nepřipravenost na nástup umělé inteligence

A pak, stejně jako u lidí, je dalším krokem k nastavení důvěry v umělou inteligenci pokračující interakce, jako je zjištění, zda byl výstup poháněný umělou inteligencí užitečný nebo zda by mohl být znovu použit či vylepšen.

„Tím nastává vzájemný vztah mezi mnou a touto technologií. Poté, co si vyzkouším první interakci, je dalším krokem možnost tuto technologii utvářet a zlepšovat na základě mé zpětné vazby. Díky těmto zpětným vazbám začínám budovat důvěru, která může vést ke složitějším a možná i zajímavějším scénářům. Vše ale začíná jednoduchou přesvědčivou výzvou k vyzkoušení něčeho nového,“ konstatuje Holmesová.

Jak získat důvěru zaměstnanců v umělou inteligenci

Dostat se k tomuto prvnímu kroku však znamená, že k němu firmy musí mobilizovat své zaměstnance.

Nedávná studie Harvard Business Review zjistila, že umělá inteligence čelí propastné nedůvěře: většina lidí (57 %) umělé inteligenci stále nedůvěřuje a 22 procent se k ní staví neutrálně. Výzkum společnosti Salesforce doplňuje, že podle více než dvou třetin zákazníků je pro společnosti kvůli pokroku v oblasti AI stále důležitější, aby byly důvěryhodné.

Podle Daniely Limy existuje několik cest, jak si pracovníci mohou vybudovat důvěru v umělou inteligenci. Jednou z klíčových cest je přitom školení. „Lidé budou umělé inteligenci s větší pravděpodobností důvěřovat, pokud budou mít pocit, že chápou, kdy a jak se umělá inteligence používá, a budou mít dostatečné dovednosti pro používání této technologie,“ říká Lima, podle které může zlepšování gramotnosti a dovedností lidí v oblasti AI přispět k budování důvěry.

Ilustrační fotografie

Další cesta je společenská a institucionální. Lidé mají tendenci delegovat svou důvěru autoritativním zdrojům – důvěru jim například zvýší fakt, že jejich společnost nebo vláda zavedla bezpečnostní opatření pro danou technologii.

To je jeden z důvodů, proč je podle Limy povinností firem zajistit školení a zavést bezpečnostní opatření, kdy umělou inteligenci používat a kdy ne. „Je to výchozí bod pro konverzaci o tom, zda budou zaměstnanci AI na pracovišti důvěřovat.“

Organizace musí také zajistit, aby u vedení zůstali lidé, kteří budou řídit umělou inteligenci a v případě potřeby zajišťovat dohled nad modelem AI. V rámci svého závazku k odpovědné a důvěryhodné AI například společnost Salesforce zahájila několik školení na téma Trailhead, aby uživatelům pomohl zvýšit jejich znalosti a schopnost zodpovědně používat AI.

Vytváření umělé inteligence, která překonává technické problémy

Lidé vždy vytvářeli nové technologie a ne vždy to byla hladká cesta, konstatuje Muralidhar Krishnaprasad, výkonný viceprezident pro inženýrství ve společnosti Salesforce.

„Je důležité uvědomit si, že když se objeví tyto převratné trendy, pokaždé přijde strach z toho, co se může stát. Ale zároveň, pokud budete novinky ignorovat, nemusíte jako firma nebo podnik přežít, protože je to taková převratná změna,“ říká Krishnaprasad.

Podle Krishnaprasada je třeba zajistit, aby modely vycházely z vysoce kvalitních dat, zejména pokud jde o generativní umělou inteligenci, a řešit tak obavy z chyb a toxických nebo zkreslených výstupů.

Jan Gemrich: Tak pokročilou AI, aby pro nás byla hrozbou, zřejmě nestvoříme

„Zejména u generativní umělé inteligence, protože celý model je postaven tak, aby byl kreativní – snaží se vytvořit spoustu věcí, i když neexistují. Je opravdu důležité, abyste se ujistili, že za prvé začnete se správnými daty a podklady. Pokud se chystáte položit otázku, ujistěte se, že víte, jakými daty ji chcete nakrmit, abyste získali odpovědi,“ doplňuje.

Uživatelé by také měli chápat, kam jejich data při používání generativní umělé inteligence směřují – zejména zda velký jazykový model (LLM), který za nástrojem stojí, zachycuje jejich data pro vlastní trénink. „Kontrola nad svými daty je důležitá také z hlediska bezpečnosti, protože pokud předáte všechny své modely nějakému poskytovateli LLM, tento poskytovatel LLM vysaje všechna vaše data a zahrne je do modelu, což znamená, že vaše data jsou nyní veřejným majetkem.“

K odstranění těchto obav zavedla společnost Salesforce funkci nulovou retenci, což znamená, že poskytovatelé LLM třetích stran nikdy neuchovávají žádné údaje o zákaznících. 

Důvěryhodná AI je etická AI

Přes všechny přísliby, které umělá inteligence skýtá, není práce s ní bez rizika.

Paula Goldmanová, ředitelka pro etické a humánní využití, a Kathy Baxterová, hlavní architektka pro etickou praxi společnosti Salesforce v oblasti umělé inteligence, upozornily ve svém článku na potřebu „upřednostnit odpovědné inovace, které pomohou řídit, jak lze a je třeba tuto transformační technologii využívat – a zajistit, aby naši zaměstnanci, partneři a zákazníci měli k dispozici nástroje, které potřebují k bezpečnému, přesnému a etickému vývoji a využívání těchto technologií.“

Jan Romportl: Na univerzitách by mělo být více excelentního výzkumu a kvalitnějšího vzdělávání

Kai Nunez, viceprezident Salesforce pro výzkum a informace, zdůrazňuje potřebu jakési Hippokratovy přísahy technologa.

„Jako technologové musíme být zodpovědnější, abychom dodávali produkty, které neškodí. Musíme nést odpovědnost za vlastnosti, funkce nebo kód, který vypustíme do svět. „Vedoucí pracovníci v oblasti technologií umělé inteligence mohou minimalizovat předpojatost tím, že do životního cyklu vývoje produktu v každé jeho fázi vetknou etiku. Nesmí se jednat o dodatečnou myšlenku. Musí být součástí definice hotové věci,“ upozorňuje.

I když se objevily případy, kdy umělá inteligence vytvářela obsah, který odrážel stereotypy a předsudky, Nunez uvedl, že právě proto musí být vývoj umělé inteligence inkluzivní, zejména mezi historicky nedostatečně zastoupenými skupinami – a proto je třeba více pracovat na tom, aby si tato technologie získala jejich důvěru.

Důvěra se přitom buduje prostřednictvím reprezentace. Lidé raději používají nástroje, které odrážejí jejich hlas, jejich potřeby a jedinečné zkušenosti. Zahrnutí zkušeností těchto nedostatečně zastoupených skupin je zásadní pro to, aby se zabránilo vytvoření začarovaného kruhu nedostatečného zastoupení v modelech.

Vytváření důvěryhodné umělé inteligence

Na druhou stranu Holmesová vidí také cestu k větší dostupnosti rolí a demokratizaci zaměstnání v oblasti technologií. Vzhledem k tomu, že modely umělé inteligence jsou stále více schopné zastávat datové a analytické práce, lidé, kteří tyto dovednosti postrádají a dříve nemohli uvažovat o různých technologických rolích, do nich nyní mohou vnést svůj jedinečný pohled.

„Chceme, aby se lidé z různých prostředí mohli zapojit do technologií a podílet se na jejich podobě a designu. Umělá inteligence je příležitostí, jak tyto dveře otevřít opravdu zeširoka a získat přispěvatele ze všech prostředí,“ sděluje Holmesová.

„Všechno se odvíjí od vstupních dveří, které vytvoříme, a od toho, jak přívětivé je toto prostředí, jakmile lidé vstoupí a začnou používat umělou inteligenci. Pokud se lidé budou cítit, že patří do středu této revoluce, budou se podílet na jejím formování do budoucna.“

Hlavní vědecký pracovník výzkumu umělé inteligence společnosti Salesforce Silvio Savarese nastínil konkrétní postupy pro budování důvěryhodné umělé inteligence.

Podle Savareseho je třeba více pracovat na zvyšování povědomí uživatelů, aby pochopili silné a slabé stránky umělé inteligence. S tím mohou pomoci samotné modely AI, které označují, nakolik je model přesvědčen o správnosti daného výstupu. A modely AI by měly uživatelům označit, na základě jakých dat byla odpověď poskytnuta, aby se přímo řešily obavy o důvěryhodnost a přesnost dat. Klíčová je v podstatě transparentnost a vysvětlitelnost.

Mnoho dílků skládačky důvěry

Aby všechny zúčastněné strany – od zaměstnanců a zákazníků až po regulační orgány a širokou veřejnost – mohly důvěřovat umělé inteligenci, musí se spojit mnoho dílků složité skládačky. Naštěstí společnosti nemusí znovu vynalézat kolo – cesta k důvěře v AI je dobře prošlapaná technologiemi a velkými myšlenkami, které jí předcházely.

Umělá inteligence tedy možná vůbec není jako loterie. Společnosti a vedoucí představitelé si mohou štěstí v oblasti umělé inteligence zajistit sami, a to jednoduše tím, že se vydají po důvěryhodných stopách ostatních.

Redakčně upravená tisková zpráva Salesforce

• Teritorium: Česká republika
• Oblasti podnikání: Věda, výzkum a vývoj

Doporučujeme