Bild
Illustration av en person som sitter vid en dator
Foto: Carolina Svensson
Länkstig

Maskininlärning – ett fysikpris i tiden

Publicerad

Hur fungerar minnet? Årets Nobelpris i fysik handlar om de metoder som gjort det möjligt att återskapa våra hjärnors makalösa minnesverktyg i maskiner. Så kallad maskininlärning eller artificiell intelligens.
– Utvecklingen går rasande fort nu, och arbetet som belönas visar att det går att förstå tekniken, säger Bernhard Mehlig, professor vid Göteborgs universitet.

Årets Nobelpristagare i fysik är två pionjärer inom den moderna maskinlärningen. John Hopfield och Geoffrey Hinton tog gamla teorier om hur människans minne fungerar och skapade de första algoritmerna för maskininlärning med artificiella neurala nätverk, som utvecklades senare till nutidens kraftfulla metoder.

Inspireras av hjärnan

Artificiella neurala nätverk för maskininlärning inspireras av hur hjärnan fungerar. Kopplingarna mellan hjärnans neuroner antar olika värden som i stora nätverk skapar minnen när de tränas på olika uppgifter. Forskare har sedan 1940-talet försökt att förstå hur man skulle kunna använda denna princip för att skapa maskiner som ska kunna lära sig olika saker.

När Nobelpristagaren John Hopfield gjorde sina experiment med neurala nätverk på 1980-talet skapade han ett artificiellt nätverk som kunde minnas bilder som sparades i nätverket. Hopfield visade att detta fungerade väl även om bilderna hade några pixlar som var fel. För att komma fram till detta använde sig Hopfield av den statistiska fysikens metoder, som handlar om så kallat spinglas.

Geoffrey Hinton utvecklade sedan tekniken genom att justera kopplingarna så att nätverket kunde urskilja karaktäristiska drag i en datamängd. Hinton visade varför man behövde så kallade dolda neuroner till detta. Nutidens djupa nätverk innehåller många lager av dolda neuroner. Hinton uppfann också en teknik för att justera nätverkets kopplingar, för att träna nätverket. Ett känt exempel var att kunna skilja på ett T och ett C.

Bild
Porträtt av Bernhard Mehlig
Bernhard Mehlig, professor i komplexa system vid Institutionen för fysik vid Göteborgs universitet.  
Foto: Malin Arnesson

Saknade stora datamängder

– Hans vetenskapliga artikel från 1986 är fantastisk. Nästan allt om maskininlärning fanns med redan i den; hur man gör, vad som krävs och varför det fungerar, säger Bernhard Mehlig, professor i komplexa system vid Göteborgs universitet.

Det finns flera förklaringar till varför det ändå har dröjt 30 år innan dessa neurala nätverk har utvecklats så mycket att de har blivit en del av vår vardag.

– I början saknade man de stora datamängder som krävs för att få tekniken att fungera. När Internet kom uppstod stora bildbanker som var noggrant indexerade, dessa kunde nätverken tränas på för att känna igen olika motiv. Det behövs dessutom processorer i datorerna som kan hantera dessa datamängder, säger Mats Granath, lektor i fysik vid Göteborgs universitet.

Bild
Bild på Mats Granath
Mats Granath, lektor i fysik vid Institutionen för fysik vid Göteborgs universitet
Foto: Privat

Hot i tekniken?

I dag går utvecklingen inom maskininlärning och artificiell intelligens väldigt fort. Frågan är om vi hinner med? Årets Nobelpristagare Geoffrey Hinton har också uttryckt en viss oro för att tekniken med neurala nätverk kan användas till fel saker.

– Hinton tycker se ett hot i tekniken. Vi måste veta vilka styrkor och svagheter som maskininlärning och AI har, säger Mats Granath.

Bernhard Mehlig började undervisa om maskininlärning på Göteborgs universitet 2002, men det var inget roligt i början.

– Det fanns ingen tillämpning och intresset var lågt. Men runt 2015 blev det plötsligt rusning till kursen och årets Nobelpris gör det särskilt roligt, säger han och skyndar i väg till eftermiddagens föreläsning i ämnet.

 

Ett tvärvetenskapligt pris

Bild
Porträttbild på Asad Basheer Sayeed
Asad Basheer Sayeed, forskare på Institutionen för filosofi, lingvistik och vetenskapsteori.
Foto: Monica Havström

Årets Nobelpris i fysik intresserar forskare i många inriktningar på Göteborgs universitet. Här kan du läsa några kommentarer.

Flera forskare på Institutionen för filosofi, lingvistik och vetenskapsteori, arbetar med språkmodeller, så kallade Large Language Models, som ytterst grundar sig i nobelpristagarnas forskning. Bland annat undersöker forskarna på Humanisten vad dessa språkmodeller kan och inte kan, hur man kan bygga AI som kan förklara sina omdömen och beslut, hur man kan kombinera regelstyrda språkmodeller med neurala språkmodeller. 

– Geoffrey Hinton har en kontroversiell syn på artificiell intelligens och dess riktning, men hans arbete utgör grunden till det vi nu undervisar om på språkteknologiprogrammet, säger universitetslektor Asad Basheer Sayeed.

 

På institutionen för data- och informationsteknik bedrivs bred forskning inom maskininlärning och AI, vilket berör alltifrån algoritmer och stora språkmodeller till tillämpning av AI inom sjukvård och forskning. 

Bild
Porträttbild av Stefano Sarao Mannelli
Stefano Sarao Mannelli, forskare på Institutionen för data och informationsteknik
Foto: Privat

Stefano Sarao Mannelli är forskarassistent inom forskningsområdet Data Science och AI:

– Hintons och Hopfields forskning gav ny fart åt området neurala nätverk efter en viss uppförsbacke på 1960-talet och banade väg för grundläggande upptäckter inom maskininlärning, neurovetenskap och kognitionsvetenskap. AI har nu blivit en del av den verktygslåda som forskare använder för att göra upptäckter, och detta påverkar alla områden, inklusive fysik, kemi och biologi. Bland de som arbetar med AI finns det ett tydligt symbiotiskt förhållande till vetenskapen. Det här är ytterligare ett bevis på det. Genom att peka på fysikens betydelse för maskininlärning hoppas jag att fler fysiker väljer att använda sina kunskaper för att förstå många av de olösta problem som vi har inom AI.

Text av: Olof Lönnehed, Monika Havström och Natalija Sako