top of page

Når algoritmene tar styringen, kan verdier forvitre

Jon Arve Risan, Daglig leder NorStella

En artikkel jeg leste forleden (publisert hos MIT Sloan) innledet slik:

Ukontrollerte, ikke menneskelige (in-human) AI-løsninger kan føre til katastrofal sosial skade. For å utvikle og distribuere ansvarlige AI-systemer, må du først tilpasse disse systemene til organisasjonens verdier. Deretter kan du vurdere hvilke skjevheter AI kan få lov til å forbedre.

Det nye systemet ble designet for å optimalisere effektiviteten, men uten å være oppmerksom på detaljene i enkeltsaker.  Tanken er at ved å eliminere menneskelig dømmekraft, som i sin natur er formet av skjevheter og personlige verdier, ville det automatiserte programmet ta bedre, mer rettferdige og mer rasjonelle beslutninger til mye lavere kostnader.

 

Så feil kan man ta!

Når vi bruker teknikk på en prosess, spesielt i form av automatiserte beslutningssystemer, begrenser vi implisitt hensynet til hele spekteret av menneskelige verdier i den prosessen. Det har viktige praktiske konsekvenser, fordi verdier angår atferd og mål som er personlig og sosialt å foretrekke, og de er typisk flere, komplekse og noen ganger motstridende.

 

Med andre ord menneskelig!

Hvordan kan denne dimensjonen best ivaretas? Artikkelen anbefaler at ethvert program basert på algoritmiske rutiner testes i flere sykluser som simulerer de virkelige omstendighetene der programmet skal brukes. Testing av programmer før utplassering kan bety at noen systemer aldri blir distribuert rett og slett fordi risikoen for skade ville være for stor. Testresultatet må revideres av mennesker som legger sine verdier til grunn for vurderingen.

Med slik innledende testing burde involverte ledere etablere beredskap for mer kritiske og refleksive vurderinger av om verdiene de bruker for å ta lederbeslutninger.

AI vil dermed bli et positivt hjelpemiddel som styrker kvaliteten og robusthet i virksomheten hvor både etiske og effektive forhold blir ivaretatt.

Publisert 16.03.2023

bottom of page