Når intelligensen er kunstig – hvad så med tilliden?

Foto: Shutterstock

Hvordan kan man sikre forbrugerne, når maskiner selv kan analysere data og finde sammenhænge, som den menneskelige hjerne måske ikke kan overskue?

Maskiner der kan træffe beslutninger på egen hånd, løse komplekse problemstillinger, genkende mønstre og lære sig selv nye ting.

Kunstig intelligens er efterhånden ved at være så intelligent, at det bliver brugt i flere og flere sammenhænge lige fra selvkørende biler og søgemaskiner på nettet til diagnosticering af sygdomme og udvikling af ny medicin.

- Vi ser i Forbrugerrådet Tænk kunstig intelligens som en gevinst - både samfundsmæssigt og for den enkelte. Det er vores indgang til det, siger Anette Høyrup, der er Seniorjurist i Forbrugerrådet Tænk og deltager i Dansk Standards udvalg for kunstig intelligens.

- Der er hundredevis af produkter, som ud fra et forbrugersynspunkt kan gøre hverdagen nemmere – lige fra intelligente løbeure til varmepumpen i sommerhuset, der varmer huset op på forhånd. Samtidigt kan kunstig intelligens være med til at effektivisere, fx i forvaltningen, hvilket både kommer samfundet og den enkelte til gavn, uddyber hun.

Foto: Anette Høyrup, seniorjurist i Forbrugerrådet Tænk

Vi må ikke give køb på individets rettigheder

Men de mange nye muligheder med kunstig intelligens rejser en række vigtige spørgsmål om tilliden mellem menneske og maskine.

- Dataetik er enormt vigtigt, når vi taler om kunstig intelligens. Og der er helt sikkert nogle udfordringer både i forhold til det enkelte individs rettigheder, datasikkerhed og gennemsigtighed, mener Anette Høyrup.

Et af de dilemmaer, der kan være, er individets ret til privatliv kontra samfundsnytte. Hvor langt må man fx gå i indsamling og fortolkning af data for at finde frem til udsatte børn i en kommune eller forbedre kræftforskning?

Det enkelte menneskes rettigheder og ret til privatliv kan man ikke bare give køb på, uanset hvor værdigt formålet er.

Anette Høyrup, seniorjurist i Forbrugerrådet Tænk.

Det kan fx være vigtigt for samfundet at indsamle personlige oplysninger om privatpersoners helbred, så man ved hjælp af kunstig intelligens kan diagnosticere sygdomme. Men det er ikke nødvendigvis noget, som det enkelte individ ønsker eller har glæde af.

- Selvfølgelig vejer samfundseffekterne tungt, men man kan ikke bruge det som argument for at skippe de grundlæggende rettigheder. Det enkelte menneskes rettigheder og ret til privatliv kan man ikke bare give køb på, uanset hvor værdigt formålet er, siger Anette Høyrup.

Risikoen er urimelige og uigennemsigtige beslutninger

En anden udfordring er gennemsigtighed. Kunstig intelligens kan nemlig risikere at understøtte beslutninger, der kan have negative konsekvenser for forbrugerne. Det kunne fx være afslag på lån, stigning i forsikringspræmie eller varer på nettet, der stiger i pris. Alt sammen fordi en kunstig intelligens på baggrund af data, som den har analyseret og fortolket, har besluttet det.

- Det er vigtigt, at der er gennemsigtighed i forhold til de algoritmer, som ligger til grund for beslutningerne - og de skal være forklarlige. Forbrugeren skal altså kunne forstå grundlaget for beslutningen, som fx et afslag på et eller andet, fastslår Anette Høyrup.

Foto: Ryoji Iwata, Unsplash

Samtidigt mener hun, at der skal sættes nogle krav til at undgå bias, dvs. forvrængning af data og resultater, som fx skyldes forudindtagethed. Der er således rum for at få nogle etiske principper bygget ind i standarderne, som rækker videre end lovgivningen.

- Hvis vi ikke tager højde for det, risikerer vi i værste fald stigmatisering og diskriminering, siger Anette Høyrup.

Det kunne fx være et forsikringsselskab, som giver forbrugeren et tilbud om en lavere forsikringspris, hvis han eller hun deler sundhedsdata fra en fitnesstracker. Risikoen er dels, at der bliver samlet for meget data, som ikke er nødvendigt og bruges i andre sammenhænge, fx salg og markedsføring. Her er dog allerede i dag nogle regler i persondataforordningen, som beskytter forbrugeren og også gælder for kunstig intelligens. Men der er også den risiko, at der bliver fejltolket på data – fx pga. en forudindtagethed om, at det er bedre at løbe end at gå – og derudover risikerer man, at vurderingen og analysen af, om prisen på den baggrund skal være højere eller lavere, er uigennemsigtig for forbrugeren.

Det vil øge tilliden, hvis virksomheden tager ansvar helt up front, når de bygger løsningen.

Anette Høyrup, seniorjurist, Forbrugerrådet Tænk.

Virksomhederne skal tage ansvar

Noget andet, som heller ikke er med til at skabe tillid, er de mange lange komplicerede vilkår, som forbrugerne skal acceptere, når de interagerer med tjenester, der anvender kunstig intelligens. Akkurat ligesom ved netsalg, hvor mange klikker ja til noget, de ikke ved, hvad er. Der ligger ifølge Anette Høyrup en stor opgave for virksomhederne, som skal være korte, præcise og klare i mælet.

Derudover er det vigtigt, at virksomheder og myndigheder indbygger datasikkerhed i deres kunstige intelligens-løsninger allerede fra start, når de udvikler nye metoder eller produkter. Det kunne fx være en energimåling i hjemmet, der - når det tilsluttes til nettet - skal være designet, så det automatisk opdateres, så data er krypterede osv. Databeskyttelse skal altså være en del af designet.

- Det vil øge tilliden, hvis virksomheden tager et ansvar helt up front, når de bygger løsningen. Det er også et af de områder, hvor jeg tror, at standardisering kan fremme sikkerheden og dermed tilliden, slutter Anette Høyrup.

Læs også Design AI-produkter så data ikke kræver beskyttelse