Generativní AI ve společnosti Salesforce
Potenciál generativní umělé inteligence v Salesforce – a obecněji ve firemních technologiích – je obrovský.
AI je již nedílnou součástí platformy Customer 360 a naše technologie Einstein AI poskytují každý den téměř 200 miliard predikcí ve firemních aplikacích Salesforce, včetně:
- Sales, která využívá poznatky AI ke stanovení dalších kroků důležitých pro rychlejší uzavírání obchodů.
- Servis, který využívá AI k vedení konverzací podobných lidským a k poskytování odpovědí na opakující se otázky a úkoly, čímž uvolňuje ruce odpovědným zaměstnancům k vyřizování složitějších požadavků.
- Marketing, který využívá AI k pochopení chování zákazníků a personalizaci načasování, zacílení a obsahu marketingových aktivit.
- Obchod, který využívá AI k zajištění vysoce personalizovaných nákupních zkušeností a inteligentnějšího elektronického obchodování.
Generativní AI má nyní potenciál pomoci našim zákazníkům navázat kontakt s publikem novými, personalizovanějšími způsoby v mnoha interakcích v oblasti prodeje, zákaznického servisu, marketingu, obchodu a IT. Dokonce zkoumáme možnosti využití kódu generovaného umělou inteligencí, abychom pomohli našim zákazníkům – i těm, kteří nemají certifikované vývojáře Salesforce ve svých řadách – psát kvalitní kód rychleji, s použitím menšího počtu řádků kódu, a tedy s menšími nároky na procesor.
Pokyny pro důvěryhodnou generativní umělou inteligenci
Stejně jako u všech našich inovací zavádíme do našich produktů etická ochranná pravidla a pokyny, abychom zákazníkům pomohli inovovat zodpovědně a zachytit potenciální problémy dříve, než nastanou.
Vzhledem k obrovským příležitostem a výzvám, které se v této oblasti objevují, navazujeme na naše Zásady důvěryhodné umělé inteligence novým souborem pokynů zaměřených na odpovědný vývoj a implementaci generativní umělé inteligence.
Níže uvádíme pět zásad, kterými se řídíme při vývoji důvěryhodné generativní umělé inteligence, a to jak ve společnosti Salesforce, tak i mimo ni.
Přesnost: Musíme poskytovat ověřitelné výsledky, které vyvažují přesnost, preciznost a odvolatelnost modelů tím, že zákazníkům umožníme trénovat modely na jejich vlastních datech. Měli bychom informovat o případech, kdy existuje nejistota ohledně pravdivosti odpovědi umělé inteligence, a umožnit uživatelům tyto odpovědi ověřit. Toho lze dosáhnout uvedením zdrojů, vysvětlitelností důvodů, proč AI poskytla odpovědi, které poskytla (např. výzvy k řetězci myšlenek), zdůrazněním oblastí, které je třeba překontrolovat (např. statistiky, doporučení, data), a vytvořením ochranných zábran, které zabrání tomu, aby některé úlohy byly plně automatizovány (např. spuštění kódu do produkčního prostředí bez lidské kontroly).
Bezpečnost: Stejně jako u všech našich modelů umělé inteligence bychom měli vynaložit veškeré úsilí na zmírnění rizika zkreslení, toxicity a škodlivých výstupů tím, že budeme provádět průběžné hodnocení úrovně zkreslení, vysvětlitelnosti, robustnosti a red teamingu. Musíme také chránit soukromí u všech osobních údajů (PII) přítomných v datech použitých pro trénink a vytvořit ochranná opatření, abychom zabránili dalším škodám (např. vynucené publikování kódu v sandboxu namísto automatického přesunu do produkce). Upřímnost: Při shromažďování dat pro trénování a vyhodnocování našich modelů musíme respektovat původ dat a zajistit, že máme souhlas s jejich použitím (např. open-source, data poskytnutá uživateli). Musíme být také transparentní a přiznat, že daný obsah vytvořila umělá inteligence, například v situacích, kdy je poskytován autonomně (např. odpověď chatbota spotřebiteli, použití vodoznaků).
Zplnomocnění: Existují případy, kdy je nejlepší procesy plně automatizovat, ale existují i jiné případy, kdy by AI měla hrát pouze podpůrnou roli a kdy je nutný lidský úsudek. Musíme určit vhodnou rovnováhu, abychom „posílili“ lidské schopnosti a zpřístupnili tato řešení všem (např. generování textu ALT k obrázkům).
Udržitelnost: Při snaze o vytváření přesnějších modelů bychom měli vyvíjet modely správné velikosti, aby se snížila naše uhlíková stopa. Pokud jde o modely umělé inteligence, větší neznamená vždy lepší: V některých případech menší, lépe vycvičené modely překonávají větší, řídce vycvičené modely.
Autoři: Paula Goldman, manažerka pro etické a humánní otázky, Kathy Baxter, hlavní architektka uvádění AI do praxe, Salesforce