V dnešní době si 33 % lidí myslí, že nějakým způsobem využívají platformy s umělou inteligencí, ve skutečnosti je to téměř 80 % lidí. Přestože je AI velmi užitečná, stále potřebuje nás, abychom její výstupy kontrolovali. Představím a objasním vám dva klíčové pojmy spojené s prací s AI – přístup human-in-the-loop (člověk v procesu) a halucinations (halucinace), které jsou pro pochopení způsobu práce s AI dost podstatné.
Co je human-in-the-loop přístup?
Human-in-the-loop (zkráceně HITL) znamená, že do procesu práce s AI je zapojen člověk. Tento přístup je nezbytný, protože AI nedokáže nahradit schopnost kritického myšlení a přemýšlení, které je založeno na okolnostech a na zkušenost, které máme pouze my, lidé. Proto v tomto procesu sloužíme jako ověřovatelé a korektoři výstupů AI, abychom zajistili, že jsou výsledky přesné a odpovídající potřebám, které máme. HITL je kombinací strojové a lidské inteligence.
Jak může vypadat human-in-the-loop v praxi?
Například pojišťovna, která využívá AI k odpovídání na dotazy klientů, může proces nastavit tak, že AI nejdříve vytvoří návrh odpovědi na dotazy na základě klíčových slov. Tento návrh poté zkontroluje pracovník zákaznické podpory, který odpověď případně upraví a až následně odešle. Takto se zachovává kvalita i relevantnost odpovědi, zatímco samotný proces je rychlejší a efektivnější.
Použití přístupu human-in-the-loop je také součástí dodržení principu odpovědné AI.
Co je halucinace AI?
Druhým pojmem, který vám představím, je halucinace. V kontextu AI znamená halucinace chybný výstup, který není pravdivý nebo smysluplný. AI může vytvářet halucinace z několika důvodů, například kvůli nekvalitním nebo neaktuálním tréninkovým datům nebo špatně formulovaným promptům.
Jak se může projevit halucinace v AI výstupu?
Halucinace mohou mít různé podoby – od drobných nepřesností až po významné chyby.
- Pokud například obchodní manažer používá AI nástroj k analýze čtvrtletních prodejních dat a AI mylně označí produkt jako nevýnosný, může to vést k chybným rozhodnutím. Halucinace tak mohou vést k dezinformacím nebo k rozhodnutím, která se negativně projeví na výsledcích firmy.
- Na druhou stranu halucinace mohou být užitečné ve tvůrčích činnostech, například při generování obrázků pro videohru. Pokud AI vytvoří fantazijní obrázek hradu plujícího na obloze, jde o záměrně vytvořenou halucinaci, která může obohatit kreativní proces. Přesto je důležité používat AI s opatrností, protože halucinace mohou být zavádějící, pokud jsou použity v nesprávném kontextu.
Jak spolu tyto koncepty souvisí?
Použití přístupu human-in-the-loop nám může pomoci minimalizovat riziko halucinací. Když jsme aktivně zapojení do procesu práce s AI, můžeme kontrolovat a opravovat nepřesnosti, čímž zajistíme, že AI výstupy jsou relevantní, přesné a etické.
Human-in-the-loop přístup a porozumění halucinacím jsou základními kroky ke zlepšení kvality AI výstupů a k jejich bezpečnému využívání. Tyto principy nám pomáhají rozšířit možnosti AI, a zároveň nás, společnost, chrání před možnými negativními důsledky, jako jsou dezinformace nebo špatná rozhodnutí.
Zdroj: Znalosti nabité v kurzu Google AI Essentials.