Co je odpovědná AI a proč je důležitá?

11. 11. 2024

AI usnadňuje práci, zvyšuje efektivitu.  Stejně jako každá technologie však přináší také výzvy a potenciální rizika. Odpovědná AI je proto o principu vývoje a využití této technologie eticky, se záměrem prospět společnosti a vyhnout se škodlivým dopadům. Téma odpovědné AI mě zaujalo v rámci mé certifikace Google AI Essentials, a proto jsem se rozhodla, že se o něj podělím i s vámi. Níže najdete několik informací k tomu, jaké základní principy odpovědné AI můžeme zvážit a podíváme se na kroky, které lze podnikat pro zajištění etického a bezpečného využití AI.

Co je odpovědná AI?

Odpovědná AI je přístup, který klade důraz na etické a bezpečné používání umělé inteligence. Znamená to, že my jako uživatelé AI bychom měli chápat její omezení, rozpoznávat možné předsudky, přistupovat k ní s kritickým myšlením a zavazovat se k jejímu etickému využívání. Naše schopnost kritického myšlení, empatie a komplexního porozumění okolností jsou dovednosti, které AI nemůže plně nahradit.

Představme si například autopilota v letadle. Autopilot udrží letadlo na správné dráze, ale v případě neočekávané situace, jako je extrémně špatné počasí, je nutná přítomnost pilota, který provede rozhodnutí a případně zajistí bezpečné přistání. Stejně tak i AI může být užitečným pomocníkem v práci, ale zásadní rozhodnutí zůstávají na nás.

Principy odpovědné AI

1. Etika a férovost

AI by měla být navržena a používána bez předsudků. AI modely se trénují na datech vytvořených lidmi, což znamená, že mohou odrážet lidské hodnoty i předsudky. Použijme příklad generování obrázků. Chceme vygenerovat obrázek člověka na pozici CEO, a pokud jsou tréninková data zkreslená, může se stát, že nám AI nabídne pouze obrázky bílých mužů. Tento předsudek lze zmírnit trénováním AI modelů na rozmanitějších datech, která zohledňují širší škálu lidí a perspektiv. To zahrnuje kontrolu a odstranění datových předsudků, které mohou vést k nevyváženým výsledkům.

2. Transparentnost

Uživatelé by měli rozumět, jak AI funguje a jak dospívá k určitým závěrům. Je důležité, abychom jako uživatelé AI věděli, jaké údaje používá a jaké vzorce rozpoznává. Díky tomu můžeme lépe identifikovat možné chyby nebo zaujatosti a včas zasáhnout. Pokud například AI generuje zaujatý výstup, lze model pomocí feedbacku přetrénovat a jeho tvůrci mohou upravit tréninková data.

Veškeré informace, s kterými se setkáme, mohou být dnes generovány AI, a to s různými účely. Proto bychom si všechny informace měli dobře ověřovat, než na jejich základě budeme jednat, či je sdílet dál. Využívejme například metodu S.H.A.R.E., která představuje strukturovaný přístup k ověřování informací, který můžeme aplikovat pro vyhodnocení obrazového, textového nebo video obsahu.

  • Zdroj (Source): Ověřme si obsah z důvěryhodných a oficiálních zdrojů.
  • Nadpis (Headline): Nadpisy ne vždy odhalí pointu článku, proto si přečtěme celý článek, než jej budeme sdílet.
  • Analýza (Analyze): Analyzujme předložená fakta, abychom se ujistili, že vše, co čteme, je pravdivé.
  • Upraveno (Retouched): Snadno se dnes setkáme s upravenými fotografiemi a videi, proto buďme opatrní. Mohou být (cíleně) zavádějící.
  • Chyba (Error): Pokud se setkáme s obsahem, kde se objevují chyby nebo překlepy, je pravděpodobnější, že informace v něm nejsou pravdivé.

3. Ochrana soukromí a bezpečnost dat

AI modely by měly respektovat právo na soukromí a bezpečnost osobních údajů. Je ale na nás, na uživatelích, abychom byli opatrní s tím, jaké údaje do AI zadáváme, a abychom zvážili, zda jsou tyto informace nutné pro získání požadovaného výstupu. V některých případech, kdy jsou AI nástroje využívány pro profesionální účely, může být přidání citlivých údajů nezbytné. Ale riziko narušení soukromí a bezpečnosti je také naše zodpovědnost. Proto je dobré sledovat informace o tom, jaký způsob ochrany dat jednotlivé AI nástroje využívají, a zvážit rizika, která nám jejich sdílení může přinést.

4. Bezpečnost a minimalizace rizik

AI technologie je zatím mimino, a proto outputy jednotlivých modelů stále vyžadují náš pravidelný dohled a kontrolu, abychom si mohli být jisti, že fungují správně a nedochází k nežádoucím výsledkům, jako jsou tzv. halucinace – chybné nebo zkreslené informace, které AI může generovat. Halucinace mohou vést k nepřesným výsledkům, což je obzvlášť kritické u aplikací, kde by nesprávné informace mohly mít vážné následky.

Deepfakes jako příklad rizika

Jedním z rizik spojených s AI jsou deepfakes – uměle vytvořené obrazy nebo videa, které zobrazují lidi, jak dělají nebo říkají věci, které ve skutečnosti neudělali. AI technologie může být zneužita k šíření dezinformací, které mohou poškodit jednotlivce nebo organizace. Bacha na ně.

5. Odpovědnost a dohled

AI systémy by měly být vždy pod naším dohledem. Human-in-the-loop je nezbytný přístup, kdy člověk je tím, kdo kontroluje a koriguje výstupy AI, čímž zajišťuje přesnost a spolehlivost. Bez něj se mohou (nejen) internetem šířit nepravdy, polopravdy nebo dezinformace.

Druhy potenciálních rizik

  1. Přidělovací újma (Allocative Harm)
    Tento typ újmy nastává, když AI nástroje zamezují určité skupině lidí přístup k informacím nebo zdrojům, které mohou ovlivnit jejich životní podmínky. Například pokud AI systém špatně vyhodnotí data analýzy potenciálních uchazečů a my na základě oné chyby označíme uchazeče jako nevhodného, může to dotyčného poškodit. Proto je důležité, abychom důkladně kontrolovali všechny výstupy AI a ověřovali si informace.
  2. Kvalitativní újma (Quality-of-Service Harm)
    Tento typ újmy se projevuje, když AI nástroje nefungují stejně dobře pro všechny skupiny lidí. Příkladem mohou být technologie rozpoznávání řeči, které zpočátku nepracovaly dobře s různými dialekty nebo vzory řeči lidí s hendikepem. Já osobně to vnímám, když mluvím s Advanced Voice Chat (který zatím v EU dostupný není, ale díky za VPN  ) a i přes snahu hlas instruovat, aby na mě mluvil v češtině, používá jakýsi mix slovenštiny s češtinou s přízvukem jiného slovanského jazyka).
  3. Reprezentační újma (Representational Harm)
    Reprezentační újma nastává, když AI zesiluje společenské stereotypy a posiluje nerovnosti. Například překladače mohou nesprávně přisuzovat určité role na základě pohlaví (např. lékař pro muže, sestřička pro ženy). Když na to dojde, dejme AI feedback a upravme zadání; požádejme AI o spravedlivější řešení.
  4. Újma na společenské úrovni (Social System Harm)
    Tato újma se může projevit ve velkém měřítku a zahrnuje například šíření dezinformací pomocí deepfake videí. Tato videa mohou ohrozit důvěru ve veřejné činitele nebo v politické procesy. To už jsme viděli.
  5. Mezilidská újma (Interpersonal Harm)
    AI může být zneužita k ovlivnění osobních vztahů, například když někdo zneužije AI nástroje k šikaně nebo omezování jiných lidí. To je na svědomí každého.

Udržování AI modelů aktuálních

AI modely trpí takzvaným „driftem,“ což znamená, že časem mohou ztrácet na přesnosti, pokud nejsou pravidelně aktualizovány a trénovány na aktuálních datech.

Ať už v placených či neplacených verzích, některé modely jsou navíc trénovány jen na datech dostupných do určitého časového bodu, známého jako „knowledge cutoff„. Tento bod určuje, do jakého data má model přístup k informacím. Například model GPT-3.5 od OpenAI má knowledge cutoff v září 2021, což znamená, že neobsahuje informace po tomto datu. Proto bychom se měli informovat, jak stará jsou data, na kterých AI model pracuje.

Microsoft a zodpovědná AI

Microsoft klade důraz na transparentnost, bezpečnost a inkluzivitu ve všech fázích vývoje AI. Vytvořili šest základních zásad pro odpovědnou AI, které zahrnují: nestrannost, spolehlivost a bezpečnost, ochranu osobních údajů a zabezpečení, inkluzivitu, transparentnost a zodpovědnost. Tyto zásady jsou základem pro každou fázi vývoje AI systémů v Microsoftu a byly navrženy s cílem zabránit diskriminaci a zajistit spravedlivé zacházení pro všechny uživatele.

Kromě toho Microsoft klade důraz na otevřený dialog a spolupráci s odborníky i veřejností, aby zajistil, že jeho AI technologie bude přínosná a bezpečná pro všechny. Firma také vyvíjí nástroje a standardy pro etické hodnocení AI, včetně sledování a pravidelné kontroly modelů, aby se minimalizoval jejich negativní dopad.

Google a zodpovědná AI

Google, obdobně jako Microsoft, přijal své principy odpovědné AI, které navíc každým rokem aktualizuje. Ty mají zajistit bezpečný a spravedlivý vývoj této technologie. Cílem je:

  • Přinášet společenský prospěch
  • Vyvarovat se vytváření nebo posilování nespravedlivých předsudků
  • Budovat a testovat AI s ohledem na bezpečnost
  • Zodpovídat se lidem
  • Zahrnout principy ochrany soukromí
  • Usilovat o vědeckou důslednost

OpenAI a zodpovědná AI

Společnost OpenAI se zavázala k odpovědnému vývoji umělé inteligence prostřednictvím čtyř klíčových strategií:

  1. Komunikace rizik a přínosů: Transparentně informuje o potenciálních rizicích a výhodách AI technologií.
  2. Technická spolupráce: Spolupracuje s dalšími organizacemi na vývoji bezpečnostních norem a standardů.
  3. Zvýšená transparentnost: Sdílí informace o svých postupech a výzkumu, aby podpořila důvěru a odpovědnost.
  4. Podpora standardů: Podporuje vytváření a dodržování průmyslových standardů pro bezpečný vývoj AI.

Odpovědná AI jako příležitost

AI nám nabízí nové možnosti, ale pouze při odpovědném přístupu může přinést skutečný prospěch pro společnost. My máme tu úžasnou příležitost být u zrodu AI mimina, a je na nás, abychom se vzdělávali v oblasti etických přístupů, byli obezřetní při sdílení citlivých informací a podporovali inkluzivitu při využívání této mladé technologie. Důsledné dodržování zásad odpovědné AI nám umožní vytvořit systémy, které skutečně slouží všem – eticky, férově a bezpečně, a tak je předat i dalším generacím.

Zdroj: Znalosti nabité v kurzu Google AI Essentials.

Lada GROWLY Krčilová

Ahoj, jsem ráda, že tě zaujal můj článek, doufám, že v něm najdeš vše, po čem zrovna pátráš. Kdyby náhodou ne, a chtěl/a by ses o to se mnou podělit, ráda si to přečtu. Stačí napsat na Lada@Growly.cz.