När kan man lita på ett AI-system?
Vilka adekvata frågeställningar uppstår när en person använder sig av ett neuralt nätverk som stöd för ett beslut? Den frågan har Lars Holmberg ställt sig i avhandlingen ”Kontextuella neurala nätverk: utmaningar och möjligheter” (eng: ”Neural Networks in Context: Challenges and Opportunities”).
Artificiella neurala nätverk är inspirerade av hjärnans struktur, men skiljer sig på det viset att de inte kan resonera eller förklara varför de kommit fram till ett visst svar. De saknar människans förmåga att kombinera kunskaper och erfarenheter från flera områden och att formulera en orsaksförklaring till detta svar.
I sin avhandling vid Institutionen för datavetenskap och medieteknik, har Lars Holmberg utfört designexperiment som utgår från två olika typsituationer med skilda premisser. I den ena typsituationen presterar de neurala nätverken i paritet med människors kognitiva förmåga.
– I detta fall hjälper oss maskinen med något vi redan kan, fast den gör det exempelvis mycket snabbare. Säg att den ska sortera olika typer av batterier för återvinning. Då kommer den att göra det i stort sett lika bra som en människa. Det är ett användbart (eng: useful) system där en människa kan bedöma vad som gått fel. Här är inte sanningsenlighet (eng: truthful) ett frågetecken, säger han.
Då nätverken överträffar människan
I den andra typsituationen riktar Lars Holmberg sitt fokus på situationer där de neurala nätverken överträffar den mänskliga förmågan.
– Här räcker det inte längre att systemet är användbart, vi måste också veta om resultatet är sanningsenligt eftersom det nu är maskinen som är experten.
Om du då får svaret att det är en champinjon, hur ska du då kunna lita på det? Kanske finns det en giftig svamp som är väldigt lik en champinjon?
Lars Holmberg, Institutionen för datavetenskap och medieteknik
Lars Holmberg förklarar med ett talande svampexempel.
– Säg att man har ett neuralt nätverk som har till uppgift att känna igen och skilja på olika svampar. Om du då får svaret att det är en champinjon, hur ska du då kunna lita på det? Kanske finns det en giftig svamp som är väldigt lik en champinjon? Vi människor kan sätta in svampen i ett större sammanhang – var växer den, hur luktar den, när på året plockades den och av vem - den förmågan saknar maskinen.
Människan kommer alltså fram till ett svar genom både en induktiv (erfarenhetsmässig) och en deduktiv (slutledningsmässig) process, till skillnad från de neurala nätverken som saknar den deduktiva komponenten.
Så kan de närma sig människans process
För att höja sanningsenligheten föreslår Lars Holmberg en modell där de neurala nätverken utvecklar en kapacitet att koppla ihop oberoende begrepp. Det vill säga att de närmar sig vår deduktiva process. Och detta genom att nätverken känner igen till exempel former, färger, antal och orientering.
– Så om man visar en kustlinje för en maskin, känns den inte igen enbart genom andra liknande bilder, utan också för att den innehåller vissa kända element som den lärt sig: som hav, strand, horisont etcetera. Vilket sedan kan lösas upp i ytterligare element. Det här är tankegångar som bygger vidare på tidigare forskning, till exempel från studier i linje med Been Kim som arbetar som forskare på Google Brain.
Även om maskininlärda system kommer att bli mer pålitliga i framtiden anser Lars Holmberg att det fortsatt blir viktigt att veta hur informationen skapas och varifrån den kommer.
– Jag tror det är betydelsefullt att vi håller isär maskinförklaringar och mänskliga förklaringar. Att vi känner till vad det är för källa till en förklaring, säger Lars Holmberg vid Malmö universitet.
Text: Magnus Erlandsson
Fördjupning
Information angående disputationen
Läs hela avhandlingen: Neural Networks in Context: Challenges and Opportunities
Lars Holmberg är knuten till forskningscentret Internet of Things and People (IOTAP) vid Malmö universitet, som du kan läsa mer om här: