AI de mogelijkheid geven om zijn eigen denkproces te monitoren: een stap richting mensachtige intelligentie

22

Kunstmatige intelligentie wordt snel steeds capabeler, maar mist nog steeds een sleutelelement van de menselijke intelligentie: zelfbewustzijn. De huidige generatieve AI-systemen zoals ChatGPT werken zonder hun eigen vertrouwensniveaus te begrijpen of te herkennen wanneer ze onzeker zijn. Dit tekort kan ernstige gevolgen hebben op gebieden waar veel op het spel staat, zoals de geneeskunde, de financiële wereld en autonome voertuigen. Er wordt een nieuw wiskundig raamwerk ontwikkeld om deze beperking aan te pakken door AI in staat te stellen zijn eigen ‘cognitieve’ processen te monitoren en te reguleren – waardoor het in wezen een innerlijke monoloog krijgt.

De essentie van metacognitie

Het vermogen om na te denken over denken, bekend als metacognitie, is van fundamenteel belang voor de menselijke intelligentie. Het gaat om het herkennen wanneer een denkproces niet werkt en het dienovereenkomstig aanpassen. Tot voor kort waren AI-systemen zich grotendeels niet bewust van deze mogelijkheid. Onderzoekers proberen daar nu verandering in te brengen door AI te ontwerpen die het eigen vertrouwen kan beoordelen, verwarring kan opsporen en kan beslissen wanneer er meer aandacht moet worden besteed aan een probleem.

Waarom machines zelfbewustzijn nodig hebben

De huidige AI genereert reacties zonder te weten hoe betrouwbaar deze zijn. Bij kritische toepassingen kan deze onzekerheid tot gevaarlijke uitkomsten leiden. Een medische AI ​​zou bijvoorbeeld vol vertrouwen een diagnose kunnen voorstellen zonder tegenstrijdige symptomen te erkennen of te onderkennen wanneer menselijke expertise nodig is.

Het ontwikkelen van metacognitie vereist zowel zelfbewustzijn (het monitoren van de redenering) als zelfregulering (het beheersen van reacties). Onderzoekers hebben een metacognitieve toestandsvector gecreëerd, die de interne cognitieve toestand van een AI kwantificeert in vijf dimensies:

  • Emotioneel bewustzijn : om schadelijke resultaten te voorkomen door emotioneel geladen inhoud te volgen.
  • Juistheidsevaluatie : meet het vertrouwen van de AI in zijn reacties.
  • Experience Matching : Controleert of een situatie lijkt op iets dat de AI eerder is tegengekomen.
  • Conflictdetectie : Identificeert tegenstrijdige informatie die moet worden opgelost.
  • Probleembelang : beoordeelt de inzet en de urgentie om prioriteiten te stellen voor middelen.

Het orkestreren van AI-denkprocessen

Stel je een AI-ensemble voor als een orkest. De metacognitieve toestandsvector fungeert als dirigent en controleert of de ‘muzikanten’ van de AI (individuele grote taalmodellen) in harmonie zijn. Wanneer de AI met een eenvoudige taak wordt geconfronteerd, opereert hij efficiënt in de “Systeem 1”-modus (snelle, intuïtieve verwerking). Maar wanneer hij wordt geconfronteerd met complexiteit, geeft de dirigent de AI opdracht om over te schakelen naar de “Systeem 2”-modus (langzaam, weloverwogen redeneren), waarbij rollen als criticus of expert aan verschillende AI-componenten worden toegewezen.

De impact en toekomst van metacognitieve AI

De implicaties reiken veel verder dan verbeterde nauwkeurigheid. In de gezondheidszorg zou metacognitieve AI onzekere diagnoses kunnen markeren voor beoordeling door mensen. In het onderwijs zou het onderwijsstrategieën kunnen aanpassen op basis van verwarring bij studenten. Bij het modereren van inhoud zou het genuanceerde gevallen kunnen identificeren die een menselijk oordeel vereisen.

Cruciaal is dat dit raamwerk de transparantie vergroot doordat het AI in staat stelt de betrouwbaarheidsniveaus en onzekerheden ervan te verklaren. Deze interpreteerbaarheid is essentieel voor het opbouwen van vertrouwen in kritische toepassingen. Het huidige werk creëert geen bewustzijn, maar dient als een eerste stap naar meer geavanceerde kunstmatige metacognitie. Toekomstig onderzoek zal zich richten op het valideren van het raamwerk, het meten van prestatieverbeteringen en het onderzoeken van meta-redenering (redeneren over redeneren) op gebieden als medische diagnoses en juridisch redeneren.

Uiteindelijk is het doel om AI-systemen te creëren die hun eigen beperkingen en sterke punten begrijpen, en weten wanneer ze zelfverzekerd of voorzichtig moeten zijn of zich moeten onderwerpen aan menselijke expertise.