Omprogrammering av minnet
Omprogrammering av minnet: En ny modell lär sig som en mänsklig hjärna
När du hör de första tonerna av en gammal älskad låt, kan du namnge låten?
Om du kan, grattis - det är triumf för ditt associativa minne, där en enda informationsbit (de första tonerna) utlöser minnet av hela mönstret (låten), utan att du faktiskt behöver höra resten av låten igen.
Vi använder denna praktiska neurala mekanism för att lära oss, komma ihåg, lösa problem och generellt navigera i vår verklighet.
"Det är en nätverkseffekt", sa Francesco Bullo, professor i maskinteknik vid UC Santa Barbara, och förklarade att associativa minnen inte lagras i enskilda hjärnceller.
"Minneslagring och minneshämtning är dynamiska processer som sker över hela nätverk av neuroner."
År 1982 översatte fysikern John Hopfield detta teoretiska neurovetenskapliga koncept till artificiella intelligens, med formuleringen av Hopfield-nätverket.
Genom att göra detta tillhandahöll han inte bara ett matematiskt ramverk för att förstå minneslagring och -återhämtning i den mänskliga hjärnan, han utvecklade också ett av de första återkommande artificiella nätverken - Hopfield nätverket - känt för sin förmåga att hämta kompletta mönster från brusiga eller ofullständiga indata.
Hopfield vann Nobelpriset för sitt arbete 2024.
Enligt Bullo och medarbetarna Simone Betteti, Giacomo Baggio och Sandro Zampieri vid Paduas universitet i Italien är dock den traditionella Hopfielt-nätverksmodellen kraftfull, men den berättar inte hela historien om hur ny information styr minnesåterhämtning.
"Det är värt att notera", säger de i en artikel i tidskriften Science Advances, att "rollen av externa indata till stor del har varit outforskad, från deras effekter på neural dynamik till hur de underlättar effektiv minnesåterhämtning."
Forskarna föreslår en modell för minnesåterhämtning som de säger är mer beskrivande för hur vi upplever minne.
"Den moderna versionen av maskininlärningssystem, dessa stora språkmodeller - de modellerar egentligen inte minnen", förklarade Bullo.
"Du lägger in en prompt och du får en utdata. men det är inte samma sätt som vi förstår och hanterar minnen i djurens värld."
Även om juridiklärare kan ge svar som kan låta övertygande intelligenta, baserat på mönstren i det språk de matas med, saknar de fortfarande det underliggande resonemanget och den erfarenhet av den fysiska verkliga världen som djur har.
"Det sätt på vilket vi upplever världen är något som är mer kontinuerligt och mindre start-och-återställ-baserat", sa Betteti, huvudförfattare till artikeln.
De flesta behandlingarna av Hopfield-modellen tenderade att behandla hjärnan som om den vore en dator, tillade han, med ett mycket mekanistiskt perspektiv.
"Istället, eftersom vi arbetar med en minnesmodell, vill vi börja med ett mänskligt perspektiv."
Huvudfrågan som inspirerade teoretikerna var: När vi upplever världen som omger oss, hur gör de signaler vi tar emot det möjligt för oss att skapa minnen?
Som Hopfield föreställde sig hjälper det att konceptualisera minnehämtning i termer av ett energilandskap, där dalarna är energiminima som representerar minnen.
Minnesåterhämtning är som att utforska detta landskap; igenkänning sker när du faller ner i en av dalarna. Din startposition i landskapet är ditt initiala tillstånd.
"Tänk dig att du ser en katts svans", sa Bullo. "Inte hela katten, utan bara svansen. Ett associativt minnessystem borde kunna återställa hela katten i minnet."
Enligt den traditionella Hopfield-modellen är kattens svans (stimulus) tillräcklig för att placera dig närmast dalen märkt "katt", förklarade han och behandlade stimulusen som ett initialt tillstånd. Men hur kom du till den platsen från första början?
"Den klassiska Hopfield-modellen förklarar inte noggrant hur det att se kattens svans placerar dig på rätt plats för att falla nerför backen på energiminimumet", sa Bullo.
"Hur du rör dig runt i det neurala aktivitetsutrymmet där du lagrar dessa minnen? Det är lite oklart."
Forskarnas modell för inputdriven plasticitet (IDP) syftar till att åtgärda denna brist på tydlighet med en mekanism som gradvis integrerar tidigare och ny information och styr minneshämtningsprocessen till rätt minne.
Istället för att tillämpa den tvåstegsalgoritmiska minneshämtningen på det ganska statiska energilandskapet i den ursprungliga Hopfield-nätverksmodellen, beskriver forskarna en dynamisk, inputdriven mekanism.
"Vi förespråkar idén att när stimulans från den yttre världen tas emot (t.ex. bilden av kattens svans), förändras energilandskapet samtidigt", sa Bullo.
"Stimulansen förenklar energilandskapet så att oavsett di initiala position kommer du att rulla ner till kattens korrekta minne."
"Vi börjar med det faktum att när du betraktar en scen skiftar din blick mellan scenens olika komponenter", sa Betteti.
"Så i varje ögonblick väljer du vad du vill fokusera på, men du har mycket brus runt omkring dig." När du väl låser dig på den inmatning du vill fokusera på justerar nätverket sig för att prioritera den", förklarade han.
Att välja vilken stimulus man sak fokusera på, även känd som uppmärksamhet, är också den huvudsakliga mekanismen bakom en annan neural nätverksarktitektur, transformatorn, som har blivit hjärtat i stora språkmodeller som ChatGTP.
Medan IDP-modellen som forskarna föreslår "börjar från en helt annan utgångspunkt med ett annat mål", sa Bullo, finns det stora potential för att modellen ska vara till hjälp vid utformningen av framtida maskininlärningssystem.
"Vi ser ett samband mellan de två, och artikeln beskriver det", sa Bullo. "Det är inte artikelns huvudfokus, men det finns ett underbart hopp om att dessa associativa minnessystem och stora språkmodeller kan förenas."
Kommentarer
Skicka en kommentar