Czym jest Explainable Artificial Intelligence (XAI)? Przewodnik po podstawach

AIArtificialIntelligenceXAI

Algorytmy sztucznej inteligencji potrafią samodzielnie podejmować decyzje i działania. W zależności od branży ich waga może być mniej lub bardziej istotna. W tym drugim przypadku coraz częściej pojawia się pytanie o to, co stoi za konkretną decyzją algorytmu. Problem polega na tym, że często nie umiemy na nie odpowiedzieć. I tu z pomocą przychodzi XAI, czyli wyjaśnialna sztuczna inteligencja (ang. Explainable Artificial Intelligence). Przyjrzyjmy się, na czym polegają próby zrozumienia tego, jak algorytmy podejmują kluczowe decyzje.

Czym jest wyjaśnialna sztuczna inteligencja (XAI)?

Wyjaśnialna sztuczna inteligencja to procesy i techniki zapewniające, że ludzie rozumieją, w jaki sposób sztuczna inteligencja podejmuje konkretne decyzje. Dlaczego jest to takie ważne?

Przyjmijmy, że w jednym ze szpitali zaimplementowano nowy algorytm, który na podstawie obrazów diagnostycznych jest w stanie wykrywać zmiany chorobowe. Następnie taki program analizuje dotychczasowe wyniki pacjenta i układa plan jego leczenia. W tym miejscu rodzi się pytanie: na jakiej dokładnie podstawie program podjął taką, a nie inną decyzję?

Problem polega na tym, że dziś często tego nie wiemy. Dlaczego? Ponieważ coraz więcej modeli AI to tzw. black-boxes, czyli „czarne skrzynki”. Są to modele o tak złożonej strukturze i sposobie działania, że nie jesteśmy w stanie ich zrozumieć. W praktyce oznacza to, że nie wiemy, dlaczego dany model podjął określoną decyzję. Wracając do naszego przykładu: lekarz może nie rozumieć, dlaczego algorytm ułożył taki, a nie inny plan leczenia. Czy w takim razie będziemy od niego oczekiwać, że weźmie na siebie odpowiedzialność za taką decyzję? A jeśli nie on, to kto?

Oczywiście przykład wykorzystania AI w ochronie zdrowia to pewnego rodzaju skrajność. Jednak pokazuje on, jak ważne jest, abyśmy dokładnie wiedzieli, z czego wynikają konkretne decyzje poszczególnych algorytmów sztucznej inteligencji.

Nowości w dziedzinie wyjaśnialnej sztucznej inteligencji

Wbrew pozorom wyjaśnialna sztuczna inteligencja wcale nie jest nowym zagadnieniem. Pierwsze wzmianki na ten temat sięgają lat 70. XX wieku, choć wówczas nie stosowano jeszcze określenia XAI. Odnosiły się one do tzw. rozumowania abdukcyjnego w systemach eksperckich, m.in. związanych z medycznymi diagnozami.

Wraz z rozwojem sztucznej inteligencji i możliwości jej implementacji, przyspieszył również rozwój XAI. Skoro decyzje podejmowane przez programy komputerowe mają coraz większy wpływ na nasze życie, coraz częściej domagamy się wyjaśnień, na jakiej podstawie są one podejmowane.

Dlatego współcześni specjaliści od XAI pracują nad rozwiązaniem następujących problemów:

  • brak transparentności wokół modeli sztucznej inteligencji/uczenia maszynowego,
  • brak zaufania dla programów, korzystających ze sztucznej inteligencji, zarówno wśród osób korzystających z nich na co dzień, jak i wśród opinii publicznej,
  • wątpliwości dotyczące niezamierzonych, ale potencjalnie negatywnych lub nieetycznych decyzji podejmowanych przez sztuczną inteligencję,
  • brak możliwości utrzymania nadzoru i kontroli nad decyzjami i działaniami sztucznej inteligencji.

Innymi słowy, specjaliści XAI dążą do otwarcia „czarnych skrzynek”. Bez tego niemożliwe będzie wykorzystanie algorytmów sztucznej inteligencji, np. w diagnostyce chorób czy autonomicznych pojazdach.

Zasady i przykłady projektowania wyjaśnialnej sztucznej inteligencji

Jakie warunki musi spełnić program komputerowy, aby można było go uznać za XAI? Mówią o tym 4 zasady wyjaśnialnej sztucznej inteligencji. Są to:

  • Explanation – program musi dostarczać lub zawierać dowody, lub powody podejmowanych przez siebie decyzji,
  • Meaningful – program musi zapewniać wyjaśnienia, które są zrozumiałe dla docelowego odbiorcy,
  • Explanation Accuracy – podane wyjaśnienie musi poprawnie odzwierciedlać powody wygenerowania takich, a nie innych wyników,
  • Knowledge Limits – program może działać wyłącznie w warunkach, dla których został zaprojektowany i dopiero wtedy, kiedy udało mu się osiągnąć pewność w uzyskiwanych wynikach.

Co ważne, poszczególne modele mogą być uważane za mniej lub bardziej wyjaśnialne, w zależności od tego, ile rodzajów wyjaśnień są w stanie nam zaoferować.

Dodajmy, że wyjaśnialna sztuczna inteligencja może być wbudowana w dany algorytm uczenia maszynowego lub może stanowić jego niezależną nadbudowę. W tym pierwszym przypadku mówimy o tzw. glass-boxes (ew. white-boxes), czyli o modelach, których rezultaty są wyjaśniane na podstawie samego modelu. Z kolei modele black-boxes opierają się na metodach niezależnych od modelu (model agnostic).

Wdrażanie i użytkowanie wyjaśnialnej sztucznej inteligencji

Jak już wspominaliśmy, wyjaśnialna sztuczna inteligencja ma szczególnie znaczenie w ochronie zdrowia. Dzięki XAI będziemy w stanie zrozumieć, dlaczego została postawiona konkretna diagnoza i na jakiej podstawie powstał dany plan leczenia pacjenta.

Poza tym XAI sprawdzi się w takich przypadkach jak:

  • obronność – modele XAI mogą służyć do wyjaśniania decyzji podjętych, np. przez pojazdy autonomiczne na polu walki,
  • pojazdy autonomiczne – modele XAI mogą tłumaczyć, dlaczego w danej sytuacji pojazd zachował się w określony sposób,
  • finanse – modele XAI mogą tłumaczyć, dlaczego wniosek kredytowy został rozpatrzony pozytywnie lub negatywnie,
  • wykrywanie oszustw finansowych – modele XAI mogą tłumaczyć, dlaczego dana transakcja została oznaczona jako podejrzana.

Podsumowanie

Dopóki nie będziemy rozumieć, jak poszczególne algorytmy AI podejmują decyzje, to możliwości wykorzystania sztucznej inteligencji będą ograniczone. Pojawia się jednak pytanie, czy kiedykolwiek będziemy w stanie zrozumieć, co dzieje się w „czarnej skrzynce”. W końcu sami do końca nie pojmujemy, co stoi za ludzkimi decyzjami. Czy ze zrozumieniem algorytmów AI pójdzie nam łatwiej?

Źródła:

https://nvlpubs.nist.gov/nistpubs/ir/2021/NIST.IR.8312.pdf

https://gcmori.medium.com/what-is-explainable-ai-xai-and-why-you-should-care-e0fd4663beac