Definition
Bias inom AI hänvisar till systematiska fel i AI-resultat orsakade av snedvridna data, bristfällig design eller samhälleliga orättvisor som återspeglas i datamängder. Det kan leda till orättvisa eller diskriminerande resultat.
Syfte
Syftet med att studera partiskhet är att identifiera och mildra orättvisa i AI-system. Organisationer strävar efter att bygga mer rättvisa modeller genom att ta itu med dessa problem.
Betydelse
- Leder till diskriminering vid anställning, utlåning eller sjukvård om det inte åtgärdas.
- Undergräver förtroendet för AI-system.
- Kräver regelefterlevnad i känsliga branscher.
- Relaterat till rättvisa och ansvarsfulla AI-metoder.
Så fungerar det
- Identifiera potentiella källor till bias (datainsamling, märkning, modellering).
- Analysera datamängder för obalans.
- Tillämpa rättvisemedvetna träningsmetoder.
- Testa utdata med rättvisemått.
- Justera designen och omskola vid behov.
Exempel (verkliga världen)
- COMPAS riskbedömningsverktyg: kritiserat för rasistisk fördom.
- Amazons anställningsalgoritm: förkastad på grund av könsbias.
- Ansiktsigenkänning: känt för att felklassificera vissa demografiska grupper.
Referenser / Vidare läsning
- AI-bias — NIST.
- Rättvisa och maskininlärning — Barocas, Hardt och Narayanan (bok).
- Algoritmisk bias — ACM FAccT-konferensprotokoll.
- Diverse AI-träningsdata: Nyckeln till att eliminera partiskhet