Zapewnienie sztucznej inteligencji możliwości monitorowania własnego procesu myślowego: krok w kierunku inteligencji na poziomie ludzkim

17

Sztuczna inteligencja szybko staje się potężniejsza, ale wciąż brakuje jej kluczowego elementu ludzkiej inteligencji: samoświadomości. Obecne generatywne systemy AI, takie jak ChatGPT, działają bez zrozumienia własnego poziomu pewności i nie rozpoznają, kiedy nie są pewni. To niedociągnięcie może mieć poważne konsekwencje w kluczowych obszarach, takich jak medycyna, finanse i pojazdy autonomiczne. Opracowywane są nowe ramy matematyczne, które mają zaradzić temu ograniczeniu, umożliwiając sztucznej inteligencji monitorowanie i regulowanie jej własnych procesów „poznawczych”, co zasadniczo zapewnia jej wewnętrzny monolog.

Istota metapoznania

Zdolność myślenia o myśleniu, zwana metapoznaniem, jest podstawą ludzkiej inteligencji. Wymaga to rozpoznania, kiedy proces myślowy nie działa, i odpowiedniego dostosowania się. Do niedawna systemy sztucznej inteligencji w dużej mierze nie były świadome tej możliwości. Naukowcy pracują obecnie nad tym, aby to zmienić, opracowując sztuczną inteligencję, która może ocenić swoją pewność siebie, wykryć zamieszanie i zdecydować, kiedy skupić się bardziej na problemie.

Dlaczego maszyny potrzebują samoświadomości

Współczesna sztuczna inteligencja generuje odpowiedzi, nie wiedząc, na ile są one wiarygodne. W zastosowaniach krytycznych ta niepewność może prowadzić do niebezpiecznych konsekwencji. Na przykład medyczna sztuczna inteligencja może z całą pewnością zasugerować diagnozę, nie rozpoznając sprzecznych objawów ani nie rozpoznając, kiedy wymagana jest specjalistyczna wiedza człowieka.

Rozwój metapoznania wymaga zarówno samoświadomości (monitorowanie rozumowania), jak i samoregulacji (monitorowanie reakcji). Naukowcy stworzyli wektor stanu metapoznawczego, który określa ilościowo wewnętrzny stan poznawczy sztucznej inteligencji w pięciu wymiarach:

  • Świadomość emocjonalna : Aby zapobiegać szkodliwym skutkom poprzez monitorowanie treści naładowanych emocjonalnie.
  • Wynik poprawności : Mierzy pewność sztucznej inteligencji w swoich odpowiedziach.
  • Dopasowane doświadczenie : Sprawdza, czy sytuacja AI przypomina coś, z czym spotkała się wcześniej.
  • Wykrywanie konfliktów : Identyfikuje sprzeczne informacje wymagające rozwiązania.
  • Ważność problemu : ocenia stawkę i pilność w celu ustalenia priorytetów zasobów.

Organizowanie procesów myślowych AI

Pomyśl o zespole AI jak o orkiestrze. Wektor stanu metapoznawczego działa jak dyrygent, kontrolując, czy „muzycy” AI (poszczególne modele dużych języków) są w harmonii. Gdy sztuczna inteligencja staje przed prostym zadaniem, skutecznie działa w trybie „System 1” (szybkie, intuicyjne przetwarzanie). Kiedy jednak napotyka na złożoność, dyrygent kieruje sztuczną inteligencję, aby weszła w tryb „Systemu 2” (powolne, przemyślane rozumowanie), przypisując role takie jak krytyk lub ekspert poszczególnym elementom sztucznej inteligencji.

Wpływ i przyszłość metakognitywnej sztucznej inteligencji

Konsekwencje wykraczają daleko poza poprawę dokładności. W opiece zdrowotnej metakognitywna sztuczna inteligencja może zgłaszać niepewne diagnozy do przeglądu przez człowieka. W edukacji może dostosowywać strategie nauczania w oparciu o dezorientację uczniów. Przy moderowaniu treści może zidentyfikować subtelne przypadki wymagające ludzkiej oceny.

Co najważniejsze, ramy te zwiększają przejrzystość, umożliwiając sztucznej inteligencji wyjaśnianie poziomów pewności i niepewności. Ta interpretowalność jest niezbędna do budowania zaufania w aplikacjach o znaczeniu krytycznym. Obecna praca nie tworzy świadomości, ale służy jako pierwszy krok w kierunku bardziej złożonego sztucznego metapoznania. Przyszłe badania będą skupiać się na testowaniu tych ram, mierzeniu poprawy wydajności i badaniu meta-wnioskowania (powodów uzasadnienia) w obszarach takich jak diagnoza medyczna i rozumowanie prawne.

Ostatecznym celem jest stworzenie systemów sztucznej inteligencji, które rozumieją swoje własne ograniczenia i mocne strony, wiedząc, kiedy zachować pewność siebie, zachować ostrożność, a kiedy zdać się na ludzką wiedzę.