Jak ohleduplný přístup k umělé inteligenci omezuje předpojaté soubory dat

Předpojaté datové sady a etická umělá inteligence

Aby byla řešení s umělou inteligencí účinná, potřebují datové sady. A vytváření těchto souborů dat je na systematické úrovni zatíženo implicitním problémem zkreslení. Všichni lidé trpí předsudky (vědomými i nevědomými). Předpojatosti mohou mít libovolný počet forem: geografické, jazykové, socioekonomické, sexistické a rasistické. A tyto systematické zkreslení jsou zapečeny v datech, což může vést k produktům umělé inteligence, které udržují a zvětšují zkreslení. Organizace potřebují ohleduplný přístup ke zmírnění předsudků, které se vkrádají do datových souborů.

Příklady, které ilustrují problém zkreslení

Jedním pozoruhodným příkladem zkreslení této sady dat, které v té době sklidilo mnoho negativního tisku, bylo řešení pro obnovení čtení, které upřednostňovalo mužské kandidáty před ženami. Důvodem je to, že datové soubory náborového nástroje byly vyvinuty pomocí životopisů z posledních deseti let, kdy většinu uchazečů tvořili muži. Data byla zkreslená a výsledky odrážely tuto předpojatost. 

Další široce uváděný příklad: Na výroční vývojářské konferenci Google I/O sdílel Google náhled dermatologického asistenčního nástroje poháněného umělou inteligencí, který pomáhá lidem pochopit, co se děje s problémy souvisejícími s jejich pokožkou, vlasy a nehty. Dermatologický asistent zdůrazňuje, jak se umělá inteligence vyvíjí, aby pomáhala se zdravotní péčí – ale také zdůraznila, že se do umělé inteligence může vplížit zkreslení v důsledku kritiky, že tento nástroj není vhodný pro lidi s jinou barvou pleti.

Když Google oznámil tento nástroj, společnost poznamenala:

Abychom se ujistili, že vytváříme pro každého, náš model zohledňuje faktory, jako je věk, pohlaví, rasa a typ pleti – od světlé pleti, která se neopálí, až po hnědou pleť, která se spálí jen zřídka.

Google pomocí umělé inteligence k nalezení odpovědí na běžné kožní stavy

Ale článek ve Vice řekl, že Google nedokázal použít inkluzivní datovou sadu:

Ke splnění úkolu výzkumníci použili trénovací datový soubor 64,837 12,399 snímků 3.5 90 pacientů umístěných ve dvou státech. Ale z tisíců zobrazených kožních onemocnění pouze XNUMX procenta pocházelo od pacientů s Fitzpatrickovým typem kůže V a VI – tedy s hnědou kůží a tmavě hnědou nebo černou kůží. Podle studie bylo XNUMX procent databáze složeno z lidí se světlou pletí, tmavší bílou nebo světle hnědou pletí. V důsledku neobjektivního vzorkování dermatologové tvrdí, že aplikace by mohla skončit nadhodnocenou nebo podhodnocenou diagnózou lidí, kteří nejsou běloši.

Vice, nová dermatologická aplikace Google nebyla navržena pro lidi s tmavší pletí

Google odpověděl tím, že před formálním uvolněním nástroj vylepší:

Náš dermatologický asistenční nástroj s umělou inteligencí je vyvrcholením více než tříletého výzkumu. Vzhledem k tomu, že naše práce byla uvedena v Nature Medicine, pokračovali jsme ve vývoji a zdokonalování naší technologie začleněním dalších datových sad, které zahrnují data darovaná tisíci lidí a miliony více upravených obrázků týkajících se kůže.

Google pomocí umělé inteligence k nalezení odpovědí na běžné kožní stavy

Jakkoli bychom mohli doufat, že programy AI a strojového učení by mohly tyto předpojatosti napravit, realita zůstává: jsou jen jako chytrý protože jejich datové soubory jsou čisté. V aktualizaci staré programové rčení garbage in/garbage outAI řešení jsou jen tak silná, jak silná je kvalita jejich datových sad hned od začátku. Bez opravy ze strany programátorů nemají tyto datové soubory dostatek zkušeností, aby se samy opravily – protože prostě nemají žádný jiný referenční rámec.

Základem všeho je odpovědné vytváření datových sad etické umělé inteligence. A lidé jsou jádrem řešení. 

Mindful AI je etická AI

Předpojatost se neděje ve vzduchoprázdnu. Neetické nebo neobjektivní soubory dat pocházejí z nesprávného přístupu ve fázi vývoje. Způsob, jak bojovat proti chybám předpojatosti, je přijmout zodpovědný přístup zaměřený na člověka, kterému mnozí v oboru říkají Mindful AI. Mindful AI má tři kritické komponenty:

1. Mindful AI je zaměřena na člověka

Od počátku projektu AI, ve fázích plánování, musí být potřeby lidí středem každého rozhodnutí. A to znamená všichni lidé – nejen podmnožina. To je důvod, proč se vývojáři musí spoléhat na různorodý tým globálně založených lidí, kteří školí aplikace AI tak, aby byly inkluzivní a nezaujaté.

Crowdsourcing souborů dat od globálního, různorodého týmu zajišťuje včasnou identifikaci a odfiltrování zkreslení. Lidé různých etnických skupin, věkových skupin, pohlaví, úrovně vzdělání, socioekonomického prostředí a umístění mohou snadněji rozpoznat soubory dat, které upřednostňují jeden soubor hodnot před jiným, a tím odstranit nezamýšlené předsudky.

Podívejte se na hlasové aplikace. Při aplikaci vědomého přístupu umělé inteligence a využití síly globálního fondu talentů mohou vývojáři zohlednit jazykové prvky, jako jsou různé dialekty a akcenty v souborech dat.

Vytvoření rámce návrhu zaměřeného na člověka od začátku je zásadní. Jde o dlouhou cestu k zajištění toho, aby generovaná, spravovaná a označovaná data splňovala očekávání koncových uživatelů. Je však také důležité udržet lidi ve smyčce během celého životního cyklu vývoje produktu. 

Lidé ve smyčce mohou také pomoci strojům vytvořit lepší zážitek z umělé inteligence pro každé konkrétní publikum. V Pactera EDGE naše týmy datových projektů AI sídlící po celém světě chápou, jak mohou různé kultury a kontexty ovlivnit shromažďování a správu spolehlivých školicích dat AI. Mají potřebné nástroje, které potřebují k označování problémů, jejich sledování a opravování, než bude spuštěno řešení založené na umělé inteligenci.

Human-in-the-loop AI je projektová „záchranná síť“, která kombinuje silné stránky lidí – a jejich různorodé zázemí s rychlým výpočetním výkonem strojů. Tato spolupráce mezi lidmi a umělou inteligencí musí být zavedena od začátku programů, aby zkreslená data netvořila základ projektu. 

2. Všímavá umělá inteligence je zodpovědná

Být odpovědný znamená zajistit, aby systémy umělé inteligence nebyly zaujaté a aby byly založeny na etice. Jde o to být si vědom toho, jak, proč a kde jsou data vytvářena, jak je syntetizují systémy umělé inteligence a jak se používají při rozhodování, rozhodnutí, která mohou mít etické důsledky. Jedním ze způsobů, jak toho může podnik dosáhnout, je pracovat s nedostatečně zastoupenými komunitami, aby byly otevřenější a méně zaujaté. V oblasti anotací dat nový výzkum zdůrazňuje, jak víceúkolový model s více anotátory, který zachází se štítky každého anotátora jako se samostatným dílčím úkolem, může pomoci zmírnit potenciální problémy spojené s typickými metodami základní pravdy, kdy neshody anotátorů mohou být způsobeny nedostatečným zastoupením a mohou být ignorovány při agregaci anotací do jedné základní pravdy. 

3. Důvěryhodný

Důvěryhodnost vychází z toho, že firma je transparentní a vysvětlitelná v tom, jak je model AI trénován, jak funguje a proč doporučují výsledky. Podnik potřebuje odborné znalosti s lokalizací AI, aby svým klientům umožnil vytvořit jejich aplikace AI inkluzivnější a personalizovanější, respektující kritické nuance v místním jazyce a uživatelských zkušenostech, které mohou zvýšit nebo narušit důvěryhodnost řešení AI z jedné země do druhé. . Podnik by měl například navrhovat své aplikace pro přizpůsobené a lokalizované kontexty, včetně jazyků, dialektů a přízvuků v aplikacích založených na hlasu. Aplikace tak přináší stejnou úroveň sofistikovanosti hlasového zážitku do každého jazyka, od angličtiny až po málo zastoupené jazyky.

Spravedlnost a rozmanitost

V neposlední řadě vědomá AI zajišťuje, že řešení jsou postavena na spravedlivých a různorodých souborech dat, kde jsou sledovány a vyhodnocovány důsledky a dopady konkrétních výsledků, než se řešení dostane na trh. Tím, že jsme všímaví a zapojujeme lidi do každé části vývoje řešení, pomáháme zajistit, aby modely umělé inteligence zůstaly čisté, minimálně zaujaté a co nejvíce etické.

Co si myslíte?

Tyto stránky používají Akismet k omezení spamu. Zjistěte, jak jsou vaše údaje komentářů zpracovávány.