AI Hallucination

Den bisarra världen av AI och dess hallucinationer

Det mänskliga sinnet har förblivit oförklarligt och mystiskt under lång, lång tid. Och det ser ut som att forskare har erkänt en ny utmanare till denna lista - artificiell intelligens (AI). Till en början låter det ganska oxymoroniskt att förstå sinnet hos en AI. Men när AI gradvis blir mer kännande och utvecklas närmare att efterlikna människor och deras känslor, bevittnar vi fenomen som är medfödda för människor och djur – hallucinationer.

Ja, det verkar som om själva resan som sinnet ger sig ut på när det överges i en öken, kastas bort på en ö eller ensamt inlåst i ett rum utan fönster och dörrar upplevs av maskiner också. AI hallucination är verklig och tekniska experter och entusiaster har registrerat flera observationer och slutsatser.

I dagens artikel kommer vi att utforska denna mystiska men spännande aspekt av Stora språkmodeller (LLMs) och lär dig udda fakta om AI-hallucinationer. 

Vad är AI-hallucination?

I AI-världen hänvisar hallucinationer inte vagt till mönster, färger, former eller människor som sinnet tydligt kan visualisera. Istället hänvisar hallucinationer till felaktiga, olämpliga eller till och med vilseledande fakta och svar Generativa AI-verktyg komma med uppmaningar.

Föreställ dig till exempel att du frågar en AI-modell vad ett Hubble-rymdteleskop är och det börjar svara med ett svar som, "IMAX-kamera är en specialiserad film med hög upplösning ...." 

Detta svar är irrelevant. Men ännu viktigare, varför genererade modellen ett svar som skiljer sig tangentiellt från den prompt som presenteras? Experter tror att hallucinationer kan bero på flera faktorer som:

  • Dålig kvalitet på AI-träningsdata
  • Övermodiga AI-modeller 
  • Komplexiteten i Natural Language Processing (NLP)-program
  • Kodnings- och avkodningsfel
  • Motstridiga attacker eller hack av AI-modeller
  • Källhänvisningsavvikelse
  • Inmatningsbias eller inmatningstvetydighet och mer

AI-hallucination är extremt farlig och dess intensitet ökar bara med ökad specifikation av dess tillämpning. 

Till exempel kan ett hallucinerande GenAI-verktyg orsaka rykteförlust för ett företag som använder det. Men när en liknande AI-modell används i en sektor som hälso- och sjukvård, ändrar den ekvationen mellan liv och död. Visualisera detta, om en AI-modell hallucinerar och genererar ett svar på dataanalysen av en patients medicinska avbildningsrapporter, kan den oavsiktligt rapportera en godartad tumör som malign, vilket resulterar i en kursavvikelse för individens diagnos och behandling. 

Förstå AI-hallucinationsexempel

AI-hallucinationer är av olika slag. Låt oss förstå några av de mest framstående. 

Faktiskt felaktigt svar på information

  • Falskt positiva svar som flaggning av korrekt grammatik i text som felaktig
  • Falska negativa reaktioner som att förbise uppenbara fel och framhålla dem som äkta
  • Uppfinning av icke-existerande fakta
  • Felaktig inköp eller manipulering av citat
  • Övertro på att svara med felaktiga svar. Exempel: Vem sjöng Here Comes Sun? Metallica.
  • Blanda ihop begrepp, namn, platser eller incidenter
  • Konstiga eller läskiga svar som Alexas populära demoniska autonoma skratt och mer

Förebyggande av AI-hallucinationer

AI-genererad desinformation av vilken typ som helst kan upptäckas och fixas. Det är specialiteten med att arbeta med AI. Vi uppfann detta och vi kan fixa detta. Här är några sätt vi kan göra detta. 

Begränsande svar

De säger att det inte spelar någon roll hur många språk vi talar. Vi måste veta när vi ska sluta prata i dem alla. Detta gäller även AI-modeller och deras svar. I detta sammanhang kan vi begränsa en modells förmåga att generera svar på en specifik volym och minska risken för att den kommer med bisarra resultat. Detta kallas Regularization och det innebär också att bestraffa AI-modeller för att göra extrema och utdragna resultat till uppmaningar. 

Relevanta och lufttäta källor att citera och extrahera svar

När vi tränar en AI-modell kan vi också begränsa källorna som en modell kan referera till och extrahera information från till bara legitima och trovärdiga. Till exempel kan AI-modeller för sjukvård som det ena exemplet vi diskuterade tidigare endast referera till källor som är trovärdiga i information laddad med medicinska bilder och bildteknik. Detta förhindrar maskiner från att hitta och samrelatera mönster från bipolära källor och generera ett svar. 

Definiera syftet med en AI-modell

AI-modeller lär sig snabbt och de behöver bara få veta exakt vad de ska göra. Genom att exakt definiera syftet med modeller kan vi träna modeller att förstå sina egna möjligheter och begränsningar. Detta kommer att tillåta dem att autonomt validera sina svar genom att anpassa genererade svar till användarmeddelanden och deras syfte att leverera rena resultat.

Mänsklig tillsyn i AI

Att träna AI-system är lika viktigt som att lära ett barn simma eller cykla för första gången. Det kräver vuxenövervakning, måttfullhet, intervention och handhållning. De flesta AI-hallucinationer uppstår på grund av mänsklig försumlighet i olika stadier av AI-utveckling. Genom att distribuera rätt experter och säkerställa ett mänskligt arbetsflöde för att validera och granska AI-svar, kan kvalitetsresultat uppnås. Dessutom kan modeller förfinas ytterligare för noggrannhet och precision.

Shaip och vår roll i att förebygga AI-hallucinationer

En av de andra största källorna till hallucinationer är dålig AI-träningsdata. Vad du matar är vad du får. Det är därför Shaip tar proaktiva åtgärder för att säkerställa leverans av data av högsta kvalitet för din generativ AI-träning behov. 

Våra stränga kvalitetssäkringsprotokoll och etiskt framställda datauppsättningar är idealiska för dina AI-visioner när det gäller att leverera rena resultat. Även om tekniska problem kan lösas, är det viktigt att problem med träningsdatakvaliteten åtgärdas på gräsrotsnivå för att förhindra omarbetning av modellutveckling från början. Det är därför din AI och LLM utbildningsfasen bör börja med datamängder från Shaip. 

Social Dela