Chain-of-Thought

Tankekedja – allt du behöver veta om det

Problemlösning har varit en av människans medfödda förmåga. Ända sedan våra primitiva dagar, när våra stora utmaningar i livet inte var att bli uppätna av ett rovdjur till samtiden för att få något hemlevererat snabbt, har vi kombinerat vår kreativitet, logiska resonemang och intelligens för att komma på lösningar för konflikter .

Nu, när vi bevittnar tillkomsten av AI-kännare, står vi inför nya utmaningar med avseende på deras beslutsförmåga. Medan det föregående decenniet bara handlade om att hylla möjligheterna och potentialen hos AI-modeller och applikationer, handlar det här decenniet om att gå ett steg längre – att ifrågasätta legitimiteten för beslut som fattas av sådana modeller och att härleda resonemanget bakom dem.

I takt med att förklarlig artificiell intelligens (XAI) blir mer framträdande, är detta tillfället att diskutera ett nyckelbegrepp i utvecklingen av AI-modeller som vi kallar Chain-of-Thought Prompting. I den här artikeln kommer vi att i stor utsträckning avkoda och avmystifiera vad detta betyder och enkla termer.

Vad är Chain-of-Thought som leder till?

När det mänskliga sinnet är redo för en utmaning eller ett komplext problem, försöker det naturligtvis bryta ner det i fragment av mindre sekventiella steg. Drivet av logik upprättar sinnet kopplingar och simulerar orsak-och-verkan-scenarier för att skapa en strategi för bästa möjliga lösning för utmaningen.

Processen att replikera detta i en AI-modell eller ett system är Chain-of-Thought prompting.

Som namnet antyder genererar en AI-modell en serie eller en kedja av logiska tankar (eller steg) för att närma sig en fråga eller konflikt. Visualisera detta som att ge en sväng-för-sväng-instruktion till någon som ber om en rutt till en destination.

Detta är den dominerande tekniken som används i OpenAI:s resonemangsmodeller. Eftersom de är konstruerade för att tänka innan de genererar ett svar eller ett svar, har de kunnat knäcka konkurrensutsatta prov som tagits av människor.

[Läs även: Allt du behöver veta om LLM]

Fördelar med Chain-of-Thought Prompting

Allt som är logikdrivet ger en betydande fördel. På samma sätt erbjuder modeller som utbildats i tankekedja inte bara noggrannhet och relevans utan en mångfald av fördelar, inklusive:

Förbättrad problemlösning förmågor, där deras betydelse är avgörande inom områden som hälsovård och finans. LLM:er som använder chain-of-thought-uppmaningar bättre förstår explicita och underliggande utmaningar och genererar svar efter att ha övervägt distinkta sannolikheter och värsta tänkbara scenarier.

förmildrande antaganden och resultat genererade från antaganden eftersom modeller tillämpar logiskt och sekventiellt tänkande och bearbetning för att dra slutsatser snarare än att dra slutsatser.

ökade mångsidighet eftersom modeller inte behöver tränas noggrant på ett nytt användningsfall eftersom de går efter logik och inte syfte.

optimerad samstämmighet i uppgifter som involverar flerfaldiga/flerdelade svar. 

Anatomin hos den tankekedjedrivande teknikens funktion

Om du är bekant med den monolitiska mjukvaruarkitekturen skulle du veta att hela mjukvaruapplikationen är utvecklad som en enda sammanhängande enhet. Att förenkla en så komplex skatt kom med mikroservicearkitekturmetoden som innebar att mjukvaran delas upp i oberoende tjänster. Detta resulterade i snabbare utveckling av produkter och sömlös funktionalitet också.

CoT-uppmaning i AI är liknande, där LLM:er guidas genom en serie sekventiella processer av resonemang för att generera ett svar. Detta görs genom:

  • Explicita instruktioner, där modeller direkt instrueras att närma sig ett problem sekventiellt genom enkla kommandon.
  • Implicit instruktion är mer subtil och nyanserad i sitt tillvägagångssätt. I detta tas en modell genom logiken för en liknande uppgift och utnyttjar dess slutlednings- och förståelseförmåga för att replikera logiken för dess presenterade problem.
  • Demonstrativa exempel, där en modell skulle lägga upp steg-för-steg-resonemang och generera inkrementella insikter för att lösa ett problem.

3 Verkliga instanser där CoT-uppmaning används

Finansiella beslutsmodeller

Finansbeslutsmodeller

Multimodal CoT i bots

Multimodal spjälsäng i bots

Hälsovård

Hälsovård

I denna mycket volatila sektor kan CoT-uppmaning användas för att förstå den potentiella ekonomiska banan för ett företag, göra riskbedömningar av kreditsökande och merChatbotar som utvecklas och distribueras för företag kräver nischfunktioner. De måste visa upp förmåga att förstå olika format av input. CoT-uppmaning fungerar bäst i sådana fall, där bots måste kombinera text- och bilduppmaningar för att generera svar på frågor.Från att diagnostisera patienter från sjukvårdsdata till att skapa personliga behandlingsplaner för patienter, CoT-uppmaning kan komplettera vårdmålen för kliniker och sjukhus.

Exempelvis

Kundfråga: Jag märkte en transaktion på mitt konto som jag inte känner igen, mitt betalkort har förlorats och jag vill ställa in varningar för mina kontotransaktioner. Kan du hjälpa mig med dessa frågor?

Steg 1: Identifiera och kategorisera problemen

  • Okänd transaktion.
  • Förlorat betalkort.
  • Konfigurera transaktionsaviseringar.

Steg 2: Adressera den okända transaktionen

Fråga efter detaljer: Kan du ange datum och belopp för transaktionen?

  • Gren 1: Om detaljer anges:
    • Granska transaktionen. Om det är bedrägligt, fråga om kunden vill bestrida det.
  • Gren 2: Om inga detaljer:
    • Erbjud dig att tillhandahålla en lista över de senaste transaktionerna.

Steg 3: Adressera det förlorade betalkortet

Frys kortet: Rekommenderar omedelbar frysning.

  • Gren 1: Om kunden samtycker:
    • Frys kortet och fråga om de vill ha en ersättning. Bekräfta leveransadress.
  • Gren 2: Om kunden tackar nej:
    • Råd att övervaka kontot för obehöriga transaktioner.

Steg 4: Ställ in transaktionsvarningar

Välj varningsmetod: SMS, e-post eller båda?

  • Gren 1: Om en kund väljer:
    • Ställ in varningar för transaktioner över ett angivet belopp. Fråga efter beloppet.
  • Gren 2: Om du är osäker:
    • Föreslå ett standardbelopp (t.ex. $50) och bekräfta.

Steg 5: Ge en sammanfattning och nästa steg

  • Undersöker den okända transaktionen.
  • Frysa betalkortet och eventuellt utfärda ett ersättare.
  • Ställa in transaktionsaviseringar enligt begäran.

Logisk grund:

Denna process hanterar effektivt flera kundfrågor genom tydliga steg och beslutsgrenar, vilket säkerställer heltäckande lösningar.

Begränsningar av CoT-uppmaning

Begränsningar i fråga om spjälsäng

Chain-of-thought är verkligen effektivt men det är också beroende av användningsfallet den tillämpas på och flera andra faktorer. Det finns specifika utmaningar förknippade med CoT-uppmaning i AI som hindrar intressenter från att helt utnyttja dess potential. Låt oss titta på de vanliga flaskhalsarna:

Överkomplicera enkla uppgifter

Även om CoT-uppmaning fungerar bäst för komplexa uppgifter, kan det komplicera enkla uppgifter och generera felaktiga svar. För uppgifter som inte kräver några resonemang fungerar direktsvarsmodeller bäst.

Ökad beräkningsbelastning

Bearbetningen av CoT-uppmaning kräver betydande beräkningsbelastning och om tekniken används på mindre modeller som är byggda med begränsad bearbetningsförmåga kan den överväldiga dem. Konsekvenser av sådana distributioner kan inkludera långsammare svarstider, dålig effektivitet, inkoherens med mera.

Kvaliteten på AI Prompt Engineering

CoT-uppmaning i AI arbetar under antagandet (eller principen) att en specifik prompt är välartikulerad, strukturerad och tydlig. Om en prompt saknar dessa faktorer, förlorar CoT-prompten förmågan att förstå kravet, vilket resulterar i generering av irrelevanta sekventiella steg och i slutändan svar.

Minskad kapacitet i stor skala

Intressenter kan uppleva att deras modeller kämpar om de måste utnyttja tankekedjan för massiva volymer av datamängder eller komplexiteten av problem. För uppgifter som involverar större resonemangssteg kan tekniken sakta ner svarstiden, vilket gör den olämplig för applikationer eller användningsfall som kräver generering av svar i realtid.

CoT prompting är en fenomenal teknik för att optimera prestandan för Stora språkmodeller. Om sådana brister kan åtgärdas och lösas genom optimeringstekniker eller lösningar kan de ge otroliga resultat. När den tekniska utvecklingen går framåt kommer det att bli intressant att se hur Chain-of-Thought-prompten utvecklas och blir enklare men också mer nischad.

Social Dela