SAMSUNG_022024C Advertisement SAMSUNG_022024C Advertisement SAMSUNG_022024C Advertisement

Umelá inteligencia nemusí byť vždy spravodlivá - ako to ale spoznať?

Technológie
0
Nástroj, ktorý ľuďom pomôže identifikovať a prípadne napraviť neférové skreslenie algoritmov umelej inteligencie, vyvinula firma Accenture. Cieľom je zachytiť diskrimináciu skôr, než začne infikovať modely AI a spôsobovať škodu. AI airness je súčasťou širšieho balíka, ktorý firma nedávno ponúkla ako podporu transparentnosti a etiky pri zavádzaní strojového učenia. Počítačové algoritmy sa dostávajú do úlohy, kedy v prvom site rozhodujú o rade záležitostí - robia akýsi predvýber, ktorý predkladajú na doriešenie "ľudským" kolegom. A tak umelá inteligencia môže rozhodovať o tom, či určitý človek dostane pôžičku, ponuku zamestnania, prípadne povolenie k určitej činnosti. Accenture sa preto v rámci aktivít zameraných na odstránenie zaujatosti k AI rozhodla vytvoriť nástroj, ktorý vyhodnocuje, či systémy AI rozhodujú spravodlivo a objektívne. Umelá inteligencia sama o sebe nemôže byť spravodlivá alebo nespravodlivá - ide o to, že algoritmy, ktoré pre rozhodovanie využíva, môžu kodifikova ... Zobrazit Galériu

Redakcia

Všetky autorove články
umelá inteligencia AI Google clovek stroj bezpečnosť buducnost

Mohlo by vás zaujímať

Mohlo by vás zaujímať