Defined Icon
BLOG

Jak agenci AI usprawniają decyzje kredytowe MŚP?

agenci AI SI ocena ryzyka MŚP SME

Inteligencja wspomagana (augmented intelligence) to podejście, w którym algorytmy – takie jak modele scoringowe, reguły decyzyjne czy agenci AI (sztucznej inteligencji) – wzmacniają pracę ludzkiego decydenta, dostarczając mu ustrukturyzowane wnioski, rekomendacje i uzasadnienia. Kluczowe jest jednak to, że nie zastępują one człowieka w odpowiedzialności za ostateczną decyzję, zwłaszcza w złożonych przypadkach. Algorytmy działają tu ramię w ramię z analitykiem kredytowym, przyspieszając i usprawniając jego pracę, ale ostatnie słowo zawsze należy do człowieka.  

W niniejszym artykule omawiamy, jak agenci AI (w tym duże modele językowe, LLM) mogą wspierać proces decyzji kredytowych dla sektora MŚP właśnie w modelu inteligencji wspomaganej. Przeanalizujemy ograniczenia klasycznych metod scoringowych, rolę agentów SI na poszczególnych etapach – od gromadzenia danych po rekomendację decyzji – a także architekturę decyzyjną z mechanizmami kontroli i eskalacji. Przedstawimy praktyczne przykłady, korzyści biznesowe i mierniki sukcesu takiego rozwiązania. Nie zabraknie również omówienia kwestii zgodności z regulacjami oraz metod ograniczania ryzyka związanego ze sztuczną inteligencją. 

Ograniczenia klasycznych modeli scoringowych 

Tradycyjne modele oceny ryzyka kredytowego (scoringi, modele statystyczne czy nawet wczesne modele ML) od lat stanowią podstawę decyzji kredytowych w bankach i firmach pożyczkowych. Sprawdzają się one dobrze w masowej ocenie prostych wniosków – zwłaszcza dla mikroklientów – jednak mają istotne ograniczenia ujawniające się przy bardziej złożonych przypadkach, typowych np. dla finansowania MŚP. Kluczowe słabości klasycznego podejścia obejmują m.in.: 

Wąski zakres danych

Klasyczny scoring opiera się głównie na danych ustrukturyzowanych (liczbowych, kategorycznych) dostępnych w formularzach i bazach finansowych. Informacje jakościowe i nieustrukturyzowane – jak treść dokumentów, opinie z internetu, artykuły prasowe czy skany akt – muszą być pomijane, bo model nie potrafi ich przetworzyć. W efekcie tradycyjny model ignoruje dużą część dostępnej wiedzy o kliencie, która może wpływać na ocenę ryzyka. 

Brak przejrzystości (explainability)

Wynikiem scoringu bywa zwykle pojedyncza punktacja lub rekomendacja (np. decyzja "tak/nie", ewentualnie proponowany limit kredytowy). Dla analityka lub managera ryzyka często nie jest jasne, co się składa na tę ocenę – które czynniki zadecydowały o wysokim ryzyku, albo czemu model odrzucił wniosek. Taka ocena bywa więc postrzegana jako „czarna skrzynka”, trudna do audytu i wyjaśnienia klientowi. 

Sztywność i ograniczona intuicja

Algorytmy scoringowe działają według zaprogramowanych schematów i historycznych wzorców. Nie radzą sobie z nietypowymi sytuacjami, nie potrafią „czytać między wierszami” ani wyciągać wniosków z kontekstu, który nie został ujęty w danych wejściowych. Gdy pojawia się przypadek spoza treningowego rozkładu (np. firma działająca w nowym sektorze, brak pełnej historii kredytowej, niespotykana kombinacja cech), klasyczny model może dać niepewny lub błędny wynik – a przy tym nie zasygnalizuje swojej niepewności. 

Sumarycznie, klasyczne modele scoringowe nadal są przydatne i skuteczne w wielu sytuacjach, ale ich ograniczenia sprawiają,że ocena przedsiębiorcy jest zadaniem trudnym do skutecznej automatyzacji, pracochłonnym i wymagającym doświadczonego i wykwalifikowanego personelu. Szczególnie przy ocenie większych lub nietypowych przedsiębiorstw, działających w specyficznych kontekstach biznesowych, w pełni automatyczne decyzje według starego paradygmatu bywają zawodne. To rodzi potrzebę rozbudowy procesu decyzyjnego o nowe elementy, które zniwelują te braki. 

Rola agentów AI w procesie decyzyjnym 

Agenci sztucznej inteligencji (AI agents) to autonomiczne programy oparte na algorytmach uczenia maszynowego lub AI, które potrafią na podstawie danych wejściowych i zadanego celu podejmować decyzje oraz wykonywać działania, często ucząc się z uzyskanych wyników. W kontekście oceny kredytowej MŚP, rozmaici agenci AI mogą wspierać decydentów na kilku etapach procesu: pozyskiwania danych, ich analizy, interpretacji wyników oraz formułowania decyzji. Poniżej opisujemy kluczowe role, jakie mogą pełnić tacy agenci w modelu inteligencji wspomaganej: 

Agenci ekstrakcji danych

Odpowiadają za wydobywanie cech i informacji ze źródeł, które dotąd były trudno dostępne lub nieustrukturyzowane. Przykładowo, agent ekstrakcji może pobierać dane finansowe firmy z wielu rejestrów i baz jednocześnie, a także czytać dokumenty (skany akt rejestrowych, sprawozdania finansowe w PDF itp.) i wyłuskiwać z nich istotne fakty. W Polsce istnieje 20–30 publicznych źródeł informacji o przedsiębiorcach, z których można czerpać dane (KRS, CEIDG, baza REGON, biała lista VAT, rejestry długów itp.). Wiele z nich zawiera dane w formie tekstowej lub skanów – bez wsparcia AI ich wykorzystanie byłoby praktycznie niemożliwe lub bardzo czasochłonne. Agent SI może automatycznie przeszukać te zasoby. Na przykład, potrafi przejrzeć Internet (wyszukując wzmianki, komentarze, artykuły prasowe o danym podmiocie) i wychwycić potencjalne red flag reputacyjne, czego analityk nie byłby w stanie zrobić ręcznie w rozsądnym czasie. Innym przykładem jest agent przeglądający akta rejestrowe spółki – zamiast poświęcać dziesiątki minut na czytanie każdego dokumentu, algorytm może błyskawicznie przeskanować wszystkie akta i znaleźć np. informację, że członek zarządu był skazany za przestępstwo, co stanowi sygnał podwyższonego ryzyka. Tego typu fakt (który mógłby zostać przeoczony bez dogłębnej analizy dokumentów) zostanie wydobyty przez agenta i oznaczony dla dalszej oceny ryzyka. 

Agenci analizy danych

Ich zadaniem jest wstępna analiza i scoring na podstawie zebranych informacji. Działają oni równolegle do klasycznych modeli – mogą np. interpretować dane finansowe, tekstowe i kontekstowe i na tej podstawie formułować wstępne oceny ryzyka lub sugestie. Taki agent korzysta z pełnego, skonsolidowanego obrazu danych o kliencie (jakiego dostarczyli agenci ekstrakcji) i łączy to z wiedzą ogólną zakodowaną w modelach AI. Przykładowo, może wskazać mocne i słabe strony wniosku kredytowego: identyfikować pozytywne sygnały (np. długo działająca firma, wzrost przychodów, pozytywne opinie) oraz negatywne sygnały (np. zaległości podatkowe, negatywne artykuły prasowe, powiązania z upadłymi podmiotami). Agenci analizy potrafią więc przetwarzać zarówno dane ilościowe, jak i jakościowe, które wcześniej były poza zasięgiem modeli scoringowych. Ważne jest, że komunikują swoje wyniki w przystępnej formie – np. jako komentarze w języku naturalnym, listy wykrytych red flag czy podsumowania tekstowe. Dzięki temu wynik ich pracy jest czytelny i łatwy do zrozumienia dla człowieka (analityka lub menedżera). Tego typu agent odpowiada za interpretację znaczenia danych – tłumaczy surowe liczby na narrację: „Firma ma stabilne przychody, ale istnieje ryzyko związane z...”. 

Agenci interpretacji i wyjaśniania

Pełnią rolę swoistych asystentów decydenta, którzy integrują wyniki klasycznych analiz (scoring, reguły biznesowe) z wnioskami od agentów AI i przygotowują ostateczne uzasadnienia decyzji. Taki agent może wygenerować kompleksowy raport, w którym zestawi wszystkie istotne informacje o kliencie, podsumuje kondycję firmy i wskaże kluczowe czynniki wpływające na ryzyko. Na podstawie zebranych danych i przy uwzględnieniu polityk kredytowych, agent interpretacji może także zaproponować rekomendację – np. „Warunkowo zaakceptować wniosek do kwoty X, ze względu na pozytywną historię kredytową, jednak z zastrzeżeniem [pewnego warunku] z powodu wykrytego ryzyka Y”. Co ważne, każda taka rekomendacja jest opatrzona argumentacją: agent wyjaśnia, dlaczego sugeruje taką decyzję, odwołując się do konkretnych danych (np. „Brak zaległości ZUS/US, dobra rentowność – to argumenty za; jednak wpis w rejestrze długów oraz negatywna wzmianka prasowa z 2023 r. – to argumenty przeciw, dlatego sugeruję warunkową decyzję”). Uzasadnienia są komunikowane w języku naturalnym, co bardzo ułatwia pracę człowieka, który podejmuje decyzję. 

Agenci podejmowania decyzji (decyzyjni)

To najbardziej zaawansowana rola, gdzie agenci symulują proces decyzyjny analogiczny do ludzkiego - z tą różnicą, że działają wielokrotnie szybciej i nie ulegają zmęczeniu, nawet analizując dziesiątki czy setki informacji. Agenci decyzyjni otrzymują od poprzednich agentów pełen zestaw przetworzonych danych wejściowych oraz wskazówki wynikające z polityk kredytowych (np. twarde limity, reguły akceptacji/odrzucenia, kowenanty). Następnie, wykorzystując mechanizmy AI (np. modele językowe) próbują wydobyć ogólne wnioski i podjąć decyzję – podobnie jak człowiek, który rozważa plusy i minusy wniosku. Co istotne, mogą oni działać w pewnym kolektywie – zamiast jednego algorytmu decyzyjnego można zastosować kilku agentów o zróżnicowanych „osobowościach” lub kryteriach, którzy niezależnie oceniają ten sam przypadek, a następnie konfrontują swoje opinie. Ten aspekt omówimy szerzej w kolejnej sekcji. 

Wszystkie powyższe typy agentów składają się na architekturę inteligencji wspomaganej w procesie kredytowym. Zanim jednak przejdziemy do omówienia tej architektury i mechanizmów kontroli, podkreślmy korzyści: algorytmy AI poszerzają zakres analizowanych danych, przyspieszają ocenę (maszyna może wykonać w sekundy to, co człowiek w wiele godzin) oraz sprawiają, że wynik staje się bardziej przejrzysty i uzasadniony dla człowieka. Agenci SI potrafią czytać dokumenty, analizować obrazy czy transkrypty rozmów – są więc uniwersalni względem formatu danych, podczas gdy klasyczne modele tego nie potrafią. Nie męczą się i nie zniechęcają przy żmudnym przekopywaniu informacji, odciążając analityka z najnudniejszych zadań. Rezultaty ich pracy są prezentowane w formie naturalnych opisów, list czynników ryzyka czy alertów, a nie tylko surowych liczb – co zwiększa zrozumiałość tych wyników. Dodatkowo, nowoczesne AI mają zdolność do łańcuchowego rozumowania – mogą przeprowadzić wieloetapową analizę „krok po kroku”, wyciągając wnioski pośrednie i łącząc fakty, dzięki czemu są w stanie zasymulować tok myślenia analityka w bardziej skomplikowanych sytuacjach. Wszystko to składa się na wartość dodaną, jaką wnoszą agenci SI w ocenie ryzyka kredytowego MŚP. 

Współpraca wielu agentów SI przy podejmowaniu decyzji 

Jednym z najciekawszych elementów opisywanego podejścia jest wykorzystanie wielu agentów AI jednocześnie do wypracowania najlepszej decyzji. Zamiast polegać na jednym „super-algorytmie”, tworzymy zespół agentów, z których każdy otrzymuje tę samą wiedzę o kliencie i obowiązujących politykach, ale może mieć nieco inny cel lub „osobowość”. Taka architektura wzorowana jest na dobrze nam znanym mechanizmie dyskusji eksperckiej lub systemie check-and-balance. Przykładowo, możemy zdefiniować następujące role agentów decyzyjnych: 

  • „Adwokat Klienta” – agent nastawiony bardziej liberalnie, szukający argumentów za udzieleniem finansowania. Jego instrukcją może być: znajdź maksymalnie dużo pozytywów i sposobów, by wniosek mógł zostać zaakceptowany (oczywiście w granicach rozsądku i zgodności z wymogami). Taki agent będzie wyrozumiały dla drobnych potknięć w historii kredytowej, jeśli ogólny obraz jest pozytywny. 
  • „Agent Ryzyka” – pełniący rolę „adwokata diabła”. Jego celem jest maksymalna ochrona pożyczkodawcy – wyszukuje wszystkie potencjalne zagrożenia, nawet te mało prawdopodobne, i argumentuje przeciw udzieleniu kredytu, jeśli coś budzi wątpliwości. To konserwatywny analityk, który za priorytet ma minimalizację strat. 
  • „Agent Zgodności” – to agent pilnujący polityk i regulacji (compliance). Sprawdza, czy proponowana decyzja nie narusza żadnych twardych zasad – np. czy mieści się w limitach produktowych, segmentowych, czy spełnia wymogi regulacyjne (jak choćby unikanie dyskryminacji, zgodność z RODO itp.). Ten agent może odrzucić lub skorygować decyzję, jeśli stwierdzi, że jest ona niezgodna z wytycznymi lub prawem. 
  • Agent specjalistyczny (np. OSINT) – można także włączyć wyspecjalizowanego agenta, który śledzi otoczenie zewnętrzne (open-source intelligence). Taki agent mógłby monitorować informacje o danej firmie (np. świeże wiadomości w mediach, wpisy o upadłości powiązanej spółki, itp.) i alarmować o nich. W naszym procesie agent OSINT dostarcza dodatkowych insightów, ale finalnie to trójka powyższych agentów „dyskutuje” nad decyzją. 

Jak w praktyce wygląda współpraca Agentów SI?

W praktyce, proces współpracy wygląda następująco: każdy z decyzyjnych agentów (np. Adwokat Klienta, Agent Ryzyka, Agent Zgodności) osobno ocenia wniosek kredytowy według swojej perspektywy. Mają oni dostęp do pełnego zestawu danych o kliencie, do wyników klasycznego scoringu, do listy zidentyfikowanych red flag itp., a także znają podstawowe założenia polityki kredytowej (jak człowiek-decydent). Różnią się natomiast akcentami w ocenie – jeden szuka przede wszystkim pozytywów, drugi skupia się na negatywach, trzeci na zgodności z zasadami. Każdy agent podejmuje wstępną decyzję: np. pierwszy „akceptuj”, drugi „odrzuć”, trzeci może „warunkowo zaakceptuj, ale pod pewnymi warunkami”.

argumenty Agentów i ich indywidualna ocena ryzyka i decyzja każdego z nich sztuczna inteligencja wspomagana AI

Następnie uruchamiany jest mechanizm deliberacji – agentom poleca się wzajemnie uzasadnić swoje decyzje i skonfrontować argumenty. Można to porównać do zasiadania trzech wirtualnych ekspertów przy stole i przedyskutowania różnic: dlaczego Agent Ryzyka uważa, że należy odmówić? Czy Agent Klienta ma kontrargumenty na jego obawy? A może Agent Zgodności wskaże, że istnieje polityka pozwalająca zaakceptować wniosek przy dodatkowym zabezpieczeniu? Taka dyskusja agentów SI może zostać przeprowadzona w kontrolowany sposób – np. poprzez sekwencyjne wywołanie modeli językowych, gdzie każdy dostaje „głos” i odnosi się do opinii pozostałych. 

Dyskusja i negocjacja agentów AI

Finalnie, agenci mają za zadanie osiągnąć konsensus lub przegłosować ostateczną rekomendację decyzji. Może to być na przykład: “Decyzja: Akceptuj. Uzasadnienie: (tu następuje wspólne uzasadnienie zawierające zarówno argumenty ryzyka, jak i kontrargumenty przemawiające za finansowaniem, oraz ewentualne warunki wskazane przez Agenta Zgodności)”. Wynik takiej deliberacji jest następnie prezentowany człowiekowi decydentowi. Dzięki temu podejmujący decyzję otrzymuje wielostronnie przeanalizowany przypadek wraz z bogatym uzasadnieniem. To tak, jakby miał do dyspozycji opinię całego komitetu kredytowego złożonego ze sztucznych doradców o różnych specjalizacjach – dostępnego od ręki, w kilka minut. 

Finalna decyzja i uzasadnienie agentów AI

Eskalacja, kontrola odstępstw i rola człowieka 

Choć agenci SI potrafią znacznie rozbudować i usprawnić proces oceny ryzyka, człowiek nadal odgrywa kluczową rolę w modelu inteligencji wspomaganej. Po pierwsze, jak wspomniano, finalna decyzja kredytowa formalnie należy do uprawnionego decydenta – AI ma dostarczyć mu najlepsze możliwe rekomendacje i uzasadnienia, ale nie podejmuje wiążących decyzji samodzielnie. Po drugie, w proces wbudowane są mechanizmy eskalacji – czyli automatycznego kierowania spraw do analityka – zawsze, gdy pojawiają się ku temu powody. Jakie to sytuacje?  

Na przykład, gdy wyniki algorytmów są niespójne (model scoringowy mówi „tak”, ale agent AI wykrył poważne red flag i mówi „nie”), albo gdy sprawa wykracza poza ustalone profile (np. wnioskowana kwota kredytu jest bardzo wysoka, albo klient nie spełnia części twardych kryteriów polityki). W takich przypadkach system rozpoznaje, że pełna automatyzacja nie jest bezpieczna i przekazuje decyzję do oceny ręcznej przez doświadczonego analityka. 

Można przyjąć uproszczony schemat: 

  • „Zielone światło” – jeśli wszystkie kryteria ilościowe i jakościowe są spełnione: klasyczny scoring jest wysoki, dane klienta kompletne, brak red flag, kwota niewielka, a jednocześnie wszyscy agenci AI są zgodni co do pozytywnej oceny – wówczas wniosek może zostać automatycznie zaakceptowany przez system (choć oczywiście z zarejestrowaniem uzasadnienia i ewentualną późniejszą weryfikacją wyrywkową przez człowieka). 
  • „Czerwone światło” – jeśli zachodzi sytuacja odwrotna: scoring jest jednoznacznie negatywny lub klient nie spełnia twardych wymogów polityki, dodatkowo system wykrył poważne sygnały ryzyka (np. wysokie prawdopodobieństwo oszustwa, negatywne OSINT) i agenci AI również zgodnie oceniają, że należy ten wniosek odrzucić – wtedy można automatycznie go odrzucić, przyspieszając odpowiedź dla klienta. 
  • „Żółte światło” – wszelkie przypadki pośrednie lub budzące wątpliwości: np. sprzeczne sygnały od modeli i agentów (jeden widzi ryzyko, drugi widzi szansę), braki danych (nie udało się pozyskać wszystkich wymaganych informacji), pojawiły się red flagi wymagające oceny interpretacyjnej, kwota kredytu jest wysoka (więc wymaga większej ostrożności) itp. W tych sytuacjach następuje eskalacja do analityka kredytowego. System przedstawia mu pełen raport z analizy (wszystkie dane, wyniki scoringu, opinie agentów AI wraz z ich argumentami) i to człowiek dokonuje ostatecznej decyzji. 

Taki mechanizm powoduje, że ryzyko błędu zostaje zminimalizowane – przypadki trudne lub niestandardowe zawsze obejmuje nadzór ludzki, co zapobiega ślepej automatyzacji. Jednocześnie przypadki proste, powtarzalne (stanowiące często większość wolumenu) mogą być obsłużone automatycznie w ciągu minut, zamiast godzin czy dni – z korzyścią dla klienta i operacyjnej efektywności. Ważnym elementem kontroli jest także ograniczenie zakresu swobody agentów AI. Projektując system, definiujemy jasne kryteria decyzyjne i granice, w jakich algorytmy mogą się poruszać. Na przykład, agent nie może zaproponować decyzji sprzecznej z prawem lub wewnętrzną polityką – takie próby są blokowane. Możemy też określić limity odstępstw: w jakim zakresie agent może odbiegać od rekomendacji scoringu czy reguł (np. może zaproponować nieco wyższy limit kredytu niż wynikający ze scoringu, ale np. maksymalnie o 20%, o ile uzasadni to wyjątkowo dobrymi czynnikami jakościowymi). Jeśli agent przekroczyłby ten margines – system i tak zażąda decyzji człowieka. 

Audyt decyzji agenta AI

Nie można zapominać o aspekcie kontroli ex-post, czyli audycie decyzji. Każda akcja podjęta przez agentów SI jest logowana i możliwa do prześledzenia (kto, a w zasadzie co „myślał”, że taką decyzję podjąć i dlaczego). System gromadzi dane audytowe – pełny zapis procesowania wniosku, z uwzględnieniem wszystkich sygnałów od agentów. Dzięki temu, w razie potrzeby (np. reklamacji klienta lub kontroli regulatora), można odtworzyć tok rozumowania AI i wyjaśnić decyzję. Co więcej, takie dane posłużą do ciągłego doskonalenia modeli – jeśli analitycy często korygują jakieś decyzje sugerowane przez AI, to jest to sygnał do przeuczenia agentów lub modyfikacji ich instrukcji. 

Przykładowy przebieg oceny kredytowej z wykorzystaniem agentów SI 

Aby lepiej zilustrować, jak wygląda proces podejmowania decyzji kredytowej w modelu inteligencji wspomaganej, prześledźmy go krok po kroku dla przykładowego wniosku małej firmy. Poniżej opisujemy typowy przebieg procesu, od momentu złożenia wniosku do uzyskania decyzji, z wyszczególnieniem zadań wykonywanych przez agentów SI oraz punktów styku z analitykiem: 

  1. Zbieranie danych o wnioskodawcy – Analityk lub system inicjujący podaje jedynie podstawowe dane identyfikacyjne klienta (np. NIP firmy). Agenci ekstrakcji danych automatycznie pobierają informacje ze wszelkich dostępnych źródeł: rejestrów publicznych (KRS, CEIDG, REGON itp.), baz finansowych, biur informacji gospodarczej, a także przeszukują internet pod kątem wzmianek o firmie i jej właścicielach. Dane nieustrukturyzowane (skany dokumentów, artykuły, opinie) są przekształcane na formę tekstową i kluczowe fakty zostają z nich wyodrębnione przez AI. 
  1. Konsolidacja i prezentacja informacji – Zebrane dane są scalane w jednolity profil klienta. System prezentuje je w czytelnej formie dla analityka: m.in. zestawienia finansowe, wskaźniki, wizualizacje (np. graf powiązań kapitałowych i osobowych spółki, z zaznaczonymi potencjalnie ryzykownymi relacjami), listę alertów (np. wykryte negatywne wpisy, ostrzeżenia z rejestrów itp.). Na tym etapie wykonywane są również tradycyjne oceny scoringowe – modele obliczają punktację ryzyka na podstawie danych finansowych i behawioralnych, a także stosowane są reguły decyzyjne (np. odrzucające automatycznie wnioski niespełniające minimum kryteriów). Wyniki scoringu i reguł stają się częścią zestawienia. 
  1. Analiza jakościowa i ocena ryzyka przez AI – Do akcji wkraczają agenci analizy i interpretacji danych. Na podstawie zgromadzonych informacji dokonują oni własnej oceny: np. agent AI analizuje opis działalności firmy, opinie z mediów, historię relacji z kontrahentami. Powstaje ocena reputacji (OSINT) – np. stwierdzenie czy w sieci są pozytywne czy negatywne sygnały o firmie. Agent może wykryć np. artykuł prasowy chwalący innowacyjny produkt firmy (pozytyw) albo informację o pozwie sądowym przeciwko niej (negatyw). Równolegle inny agent (lub ten sam) dokonuje holistycznej oceny kondycji wnioskującego – np. podsumowuje trendy finansowe, strukturę zadłużenia, jakość zabezpieczeń itp. Istotnym wynikiem tego etapu jest lista głównych czynników ryzyka i szans – AI wskazuje, co przemawia za udzieleniem kredytu, a co budzi obawy. Tworzona jest również wstępna rekomendacja dalszych kroków – np. agent może zasugerować: „Sprawdź dokładniej pozycję X w sprawozdaniu” albo „Warto zweryfikować tożsamość jednego z udziałowców” – czyli de facto podpowiedzi dla analityka do pogłębienia pewnych kwestii. 
  1. Wieloaspektowa decyzja agentów SI – Gdy wszystkie powyższe elementy są gotowe, następuje etap podsumowania i decyzji przez agentów AI. Agenci decyzyjni o różnych parametrach (wspomniani: „Adwokat Klienta”, „Agent Ryzyka”, „Agent Zgodności” itp.) zapoznają się z pełnym obrazem sprawy – uwzględniając zarówno wyniki klasycznego scoringu, jak i analizy jakościowej AI. Każdy z nich formułuje własną decyzję wraz z argumentacją. Następnie dochodzi do negocjacji / dyskusji agentów i wypracowania kolektywnej decyzji. Załóżmy dla naszego przykładu, że: Agent Klienta jest skłonny zaakceptować finansowanie dość wysoko, Agent Ryzyka wskazuje kilka poważnych zagrożeń i byłby na „nie”, zaś Agent Zgodności dopuszcza akceptację tylko pod warunkiem dodatkowego zabezpieczenia. W dyskusji agentów ustalono kompromis: warunkowa akceptacja – obniżenie kwoty kredytu o 20% i wymóg poręczenia, z uzasadnieniem, że to zredukuje zidentyfikowane ryzyka do akceptowalnego poziomu. 
  1. Wygenerowanie raportu i rekomendacji – Wynik pracy agentów zostaje zebrany w końcowy raport decyzyjny. Raport ten zawiera podsumowanie kondycji klienta, najważniejsze ustalenia (np. “Branża stabilna, przychody rosnące o ~5% rocznie, ale duża koncentracja odbiorców; reputacja bez zarzutu poza jednym negatywnym komentarzem w mediach społecznościowych; kluczowy członek zarządu z zarzutami karnymi w przeszłości – ryzyko reputacyjne”), listę wykrytych red flag wraz z informacją, jak wpływają na ryzyko, oraz rekomendację decyzji z uzasadnieniem i ewentualnymi warunkami. Taki raport stanowi kompletne dosier sprawy, który trafia do decydenta (lub jest archiwizowany audytowo). W naszym przykładzie raport wskazywałby na warunkową akceptację i precyzował warunki (np. poręczenie) oraz powody. Co istotne, raport ten wyraźnie rozgranicza twarde fakty (wynik scoringu, spełnione / niespełnione kryteria polityki, dane finansowe) od miękkich ustaleń AI (jak ocena reputacji czy potencjalne zagrożenia). Dzięki temu decydent widzi, że np. „model scoringowy dał ocenę średnią, ale AI znalazła dodatkowe czynniki zwiększające ryzyko – stąd ostrożna rekomendacja”. Całość jest napisana przystępnym językiem, co ułatwia szybkie podjęcie decyzji przez człowieka. 
  1. Decyzja i sprzężenie zwrotne – Na koniec, decydent (człowiek) zatwierdza lub koryguje rekomendację. Jeśli się zgadza – decyzja zostaje zakomunikowana klientowi, wraz z ewentualnym uzasadnieniem czy warunkami. Jeśli decydent się nie zgodzi (np. dostrzeże coś, czego algorytmy nie uwzględniły), ma pełną swobodę zmiany decyzji – w takim przypadku powinien jednak uzupełnić raport o wyjaśnienie swojej odmiennej decyzji. Takie przypadki stają się cennymi lekcjami dla systemu. W obu sytuacjach finalizujemy proces, a zebrane informacje o przebiegu sprawy (profile danych, oceny agentów, decyzja finalna) zasilają bazę wiedzy dla przyszłych usprawnień modeli. 

Powyższy przebieg pokazuje synergiczne działanie człowieka i sztucznej inteligencji. Wszystkie rutynowe, powtarzalne czynności wykonują algorytmy – dużo szybciej i szerzej niż zrobiłby to człowiek. Zarazem kluczowe decyzje i nadzór pozostają w rękach ludzi, co zapewnia spełnienie wymogów zaufania, etyki i zdrowego rozsądku tam, gdzie automaty mogą jeszcze zawodzić. 

Korzyści biznesowe i miary sukcesu agentów AI 

Wdrożenie agentów AI w proces oceny kredytowej MŚP ma przynieść wymierne korzyści biznesowe. Można je mierzyć zarówno tradycyjnymi metrykami portfelowymi, jak i nowymi wskaźnikami odzwierciedlającymi efekty działania AI. Poniżej podsumowujemy najważniejsze miary sukcesu takiego systemu oraz odpowiadające im korzyści: 

  • Jakość portfela kredytowego – Docelowo najważniejszym testem skuteczności nowego podejścia będzie poprawa jakości portfela, czyli niższy odsetek kredytów straconych, opóźnionych czy w default. Jeśli agenci SI trafniej oceniają ryzyko, instytucja finansowa powinna udzielać mniej kredytów „złych” i odrzucać mniej „dobrych” (unikając zarówno nadmiernego ryzyka, jak i utraty okazji biznesowych). Wskaźnik szkodowości portfela po czasie vs. decyzje podejmowane z udziałem AI będzie więc kluczowym KPI. 
  • Jakość decyzji algorytmu (zgodność z decyzjami człowieka) – Na etapie wdrożeniowym mierzy się, jak często propozycje decyzji od agentów pokrywają się z decyzjami doświadczonych analityków. Odsetek „przełamanych” decyzji (tzn. takich, gdzie człowiek ostatecznie podjął inną decyzję niż rekomendowało AI) powinien maleć z czasem. Im rzadziej analityk musi korygować AI, tym lepiej działa system. Analiza przypadków odstających pozwala doskonalić agentów. 
  • Czas podejmowania decyzji (Time-to-Yes) – Jednym z najbardziej odczuwalnych efektów biznesowych jest dramatyczne skrócenie czasu analizy wniosku. Sprawy, które kiedyś wymagały kilku dni na zebranie dokumentów i ocenę, teraz mogą być ocenione w ciągu minut lub godzin. Wskaźnik Time-to-Decision/Time-to-Yes mierzy średni czas od złożenia kompletnego wniosku do wydania decyzji pozytywnej. Dzięki automatyzacji i agentom AI, ten czas może spaść z np. 2-3 dni do kilkunastu minut, co jest ogromną przewagą konkurencyjną na rynku. Równie ważny jest odsetek spraw przetworzonych automatycznie bez potrzeby angażowania analityka – im wyższy, tym większa skalowalność procesu bez zwiększania zatrudnienia. 
  • Spójność z polityką i minimalizacja błędów – Miarą sukcesu jest także to, na ile system przestrzega ograniczeń i zasad instytucji. Można monitorować liczbę decyzji wymagających późniejszych korekt lub odwołań (np. przypadki, gdzie klient się odwołał i decyzję zmieniono) oraz przyczyny takich sytuacji. Jeśli system jest dobrze ustawiony, odwołania od decyzji (zwłaszcza uzasadnione) powinny być rzadkością, a zgodność decyzji z polityką kredytową – bliska 100%. 
  • Wykrywanie „red flag” – Sukcesem AI będzie zdolność do wykrywania czynników ryzyka, które wcześniej umykały uwadze. Można mierzyć, ile nieoczywistych red flag (np. powiązania z firmami figurującymi na czarnych listach, subtelne sygnały ostrzegawcze w mediach) algorytm wychwytuje w porównaniu do manualnego procesu. Jeżeli agenci SI identyfikują np. ukryte powiązanie właściciela z upadłą spółką, a analityk by tego nie znalazł – to wymierna wartość dodana przekładająca się na uniknięcie złej ekspozycji. 
  • Doświadczenie użytkownika (analityka / decydenta) – Choć trudniej to zmierzyć liczbowo, bardzo ważnym efektem jest poprawa komfortu pracy samych analityków ryzyka. Zamiast tonąć w papierach i przekopywać się przez dokumenty, otrzymują oni na tacy przeanalizowane dane i rekomendacje. Ich rola przesuwa się z mozolnego zbierania informacji do oceny kluczowych punktów i podejmowania decyzji. Można zbierać jakościowe opinie użytkowników lub mierzyć, ile czasu analitycy poświęcają na jeden wniosek przed i po wdrożeniu AI. Oczekuje się znaczącego spadku obciążenia żmudnymi zadaniami, co pozwoli analitykom skupić się na najbardziej wymagających przypadkach oraz zwiększy ich satysfakcję z pracy. 

Podsumowując, biznesowe benefity z agentów SI to szybsze decyzje (lepsza obsługa klienta i większa sprzedaż przy zachowaniu kontroli ryzyka), trafniejsze decyzje (mniej strat i rezerw, lepszy portfel), pełna skalowalność procesu bez utraty jakości oraz lepsza dokumentacja i audytowalność każdej decyzji. Wdrożenie takiego systemu wpisuje się też w trend zwiększania efektywności kosztowej – automatyzacja pozwala rosnąć wolumenom obsługiwanych wniosków bez proporcjonalnego zwiększania kosztów operacyjnych. 

Zgodność z regulacjami i kontrola ryzyka 

Zastosowanie agentów AI w procesach decyzyjnych musi być projektowane z dbałością o zgodność z regulacjami prawnymi oraz wewnętrzną polityką zarządzania ryzykiem. W szczególności w obszarze kredytów i finansów obowiązuje szereg przepisów dotyczących automatycznego podejmowania decyzji. Kluczowy jest Art. 22 RODO, który daje osobom fizycznym prawo niepodlegania decyzjom opartym wyłącznie na zautomatyzowanym przetwarzaniu, jeśli niosą one ze sobą skutki prawne lub istotnie na daną osobę wpływają. Co prawda większość decyzji kredytowych dla firm nie podlega bezpośrednio RODO (chroni dane osób fizycznych), ale zasady fair lending i oczekiwania nadzorcy co do „human oversight” czynią te wytyczne istotnymi również w sektorze MŚP. Model inteligencji wspomaganej pomaga spełnić wymogi RODO, ponieważ decyzje nie są podejmowane w 100% automatycznie – zawsze przewidziany jest udział człowieka przy zatwierdzeniu lub w sytuacjach niestandardowych. Klient nie jest więc pozostawiony na łasce „czarnej skrzynki” bez prawa odwołania. 

Co więcej, nawet gdy decyzja zapada automatycznie dla prostych przypadków, instytucja jest w stanie przedstawić klientowi wyjaśnienie takiej decyzji. System rejestruje bowiem wszystkie przesłanki i wyniki, które doprowadziły do rozstrzygnięcia – można więc udostępnić klientowi informację, na jakiej podstawie odmówiono kredytu lub przyznano mniejszą kwotę. Takie działanie jest zgodne z duchem przepisów (transparentność wobec klienta) i pomaga budować zaufanie. 

Walidacja modeli i nadzór nad algorytmami

W kontekście regulacji finansowych istotna jest także walidacja modeli oraz nadzór nad algorytmami. Wdrożenie agentów AI powinno iść w parze z solidnymi testami ich działania na historycznych danych, monitorowaniem jakości decyzji w czasie rzeczywistym oraz posiadaniem procedur awaryjnych. Jeśli np. agent AI zacząłby generować niestabilne rekomendacje (np. wskutek zmiany danych wejściowych, których nie było w danych treningowych), system powinien to wykryć (np. poprzez nagły wzrost odsetka eskalacji do ludzi) i zasygnalizować potrzebę interwencji. Ważne jest również, by algorytmy były „świadome” granic swej wiedzy – tzn. projektujemy je tak, aby tam gdzie brakuje danych lub pojawia się sytuacja nietypowa, nie halucynowały odpowiedzi. Właśnie dlatego kluczowe jest dostarczenie agentom jak najpełniejszych, wiarygodnych danych wejściowych i bazowanie na wynikach klasycznych modeli tam, gdzie działają one dobrze. Agenci SI mają uzupełniać, a nie zastępować sprawdzone twarde metody. Wszędzie tam, gdzie AI musi „zgadywać”, wprowadzamy ograniczenia albo przekazujemy sprawę człowiekowi – aby zminimalizować ryzyko błędów i halucynacji. 

Etyka i niedyskryminacja agentów AI

Kolejnym aspektem jest etyka i niedyskryminacja. Modele AI, zwłaszcza te trenowane na danych z Internetu, mogą nieść ryzyko uprzedzeń. W procesie kredytowym musimy zagwarantować, że żaden agent nie będzie podejmował decyzji na podstawie niedozwolonych kryteriów (np. danych wrażliwych jak pochodzenie etniczne, płeć – które mogłyby gdzieś „przeciekać” w danych). Dlatego architektura zawiera wspomnianego Agenta Zgodności, który pilnuje przestrzegania polityk fair lending. Dodatkowo same dane wejściowe przekazywane agentom AI są filtrowane pod kątem minimalizacji biasu – np. usuwamy informacje, które nie powinny wpływać na decyzję. Te działania są niezbędne, by sprostać zarówno regulacjom prawnym, jak i oczekiwaniom społecznym co do sprawiedliwości algorytmów. 

Kontrola ryzyka operacyjnego

Wreszcie, kontrola ryzyka operacyjnego wymaga, aby cały proces z agentami SI był objęty podobnymi rygorami, co tradycyjne procesy: dokumentacja, testy, audyty wewnętrzne. Należy określić właścicieli procesów i modeli (kto odpowiada za ich wyniki), procedury postępowania w razie awarii systemu lub błędnych decyzji, a także regularnie szkolić personel z obsługi nowych narzędzi. W Algolytics praktykujemy podejście, że zespoły ryzyka i data science współpracują przy trenowaniu i nadzorowaniu agentów AI – dzięki czemu biznes rozumie, co robi AI, a AI odzwierciedla potrzeby biznesu. 

Korzyści biznesowe z wdrożenia agentów AI

Agenci sztucznej inteligencji w modelu inteligencji wspomaganej stanowią obiecujące rozszerzenie tradycyjnych metod oceny ryzyka kredytowego MŚP. Pozwalają one wykorzystać szerszy wachlarz danych (w tym informacji dotąd nieuchwytnych dla modeli), przyspieszają decyzje z dni do minut, a jednocześnie zapewniają bogatsze uzasadnienia każdej decyzji. Dzięki temu menedżer ryzyka czy analityk otrzymuje pełniejszy obraz klienta i może podejmować decyzje bardziej świadomie. Businesowo przekłada się to na lepsze zarządzanie ryzykiem (mniej strat kredytowych) przy jednoczesnym zwiększeniu akcji kredytowej (bo szybka decyzja i wygodny proces przyciąga klientów i pozwala obsłużyć ich więcej). Co ważne, wszystko to można osiągnąć bez rezygnacji z kontroli – człowiek nadal nadzoruje działanie AI, a system jest zaprojektowany tak, by spełniać wymogi regulacyjne i etyczne. 

Możliwe kierunki rozwoju koncepcji agentów AI

Patrząc w przyszłość, można wskazać kilka kierunków rozwoju tej koncepcji: 

Doskonalenie modeli AI i integracja z wiedzą domenową

Dzisiejsze duże modele językowe są trenowane na wiedzy powszechnej, która szybko się starzeje i nie uwzględnia specyfiki danej instytucji. Spodziewamy się pojawienia LLM kolejnych generacji, które będzie można łatwiej aktualizować o bieżące dane oraz trenować na firmowych zbiorach (tzw. modele spersonalizowane). To jeszcze bardziej zwiększy trafność agentów SI i zmniejszy ryzyko halucynacji, bo model będzie „wiedział”, jakie są nasze wewnętrzne polityki i realia (już teraz częściowo rozwiązujemy to, podając te informacje modelowi na wejściu, ale w przyszłości model może je znać niejako natywnie). 

Szersze zastosowanie multi-agent i deliberacji

Koncepcja współpracujących agentów (np. odgrywających różne role) dopiero raczkuje, ale ma duży potencjał. W kolejnych latach możemy zobaczyć rozbudowane systemy „komitetów AI” podejmujących wspólne decyzje w wielu domenach ryzyka – nie tylko kredytowego, ale np. w underwritingu ubezpieczeń, wykrywaniu nadużyć, czy nawet w zarządzaniu portfelem inwestycyjnym. Doskonalenie mechanizmów ich interakcji (np. lepsze „osobowości” agentów, efektywniejsze metody osiągania konsensusu) będzie ważnym obszarem R&D. 

Interaktywna współpraca z analitykiem

Obecnie agenci SI przygotowują rekomendację, a analityk może ją zaakceptować lub nie. Przyszłość to bardziej interaktywna współpraca, gdzie analityk może wchodzić w dialog z agentem AI: zadawać dodatkowe pytania („dlaczego uważasz, że to ryzyko jest wysokie?”, „co by się stało, gdyby...”), prosić o doszacowanie czegoś, czy wygenerowanie alternatywnego scenariusza. Takie dialogowe AI stanie się prawdziwym partnerem dla człowieka w podejmowaniu decyzji – niemal jak konsultant, z którym można omówić przypadek. Już dziś technologia na to pozwala, trzeba ją tylko odpowiednio zaadaptować w środowisku korporacyjnym i zadbać o jej weryfikowalność. 

Automatyzacja decyzji w bezpiecznych ramach

W miarę jak zaufanie do agentów AI będzie rosło (na bazie ich wyników), instytucje mogą stopniowo poszerzać zakres automatycznego podejmowania decyzji. Być może limit kwoty kredytu / pożyczki, do której decyzje są całkowicie automatyczne, będzie się zwiększał wraz z doskonaleniem modeli. Oczywiście zawsze będą istniały przypadki tak niestandardowe lub strategiczne, że człowiek musi je ocenić. Jednak prawdopodobnie coraz większy odsetek typowych spraw – nawet w segmencie MŚP – będzie mógł być obsłużony end-to-end przez sztuczną inteligencję pod nadzorem. To pozwoli instytucjom finansowym skalować biznes bez proporcjonalnego wzrostu kosztów, a jednocześnie spełniać wymogi regulacyjne poprzez odpowiednie mechanizmy kontrolne. 

Podsumowanie: Inteligencja wspomagana może realnie wesprzeć procesy decyzyjne w ocenie ryzyka

Podsumowując, agentowe podejście AI w kredytach dla MŚP to przykład praktycznego zastosowania najnowszych zdobyczy technologii w konserwatywnej dotąd dziedzinie, jaką jest ocena ryzyka. Pierwsze wdrożenia (takie jak rozwiązania Algolytics) pokazują, że inteligencja wspomagana może realnie poprawić procesy decyzyjne, pozostawiając człowiekowi rolę ostatecznego arbitra, ale wyposażając go w nowoczesne narzędzia analityczne. Dzięki temu kredytowanie staje się jednocześnie bardziej bezpieczne i bardziej przyjazne – zarówno dla instytucji finansowej, jak i dla klientów z sektora MŚP. Można więc spodziewać się, że w nadchodzących latach tego typu hybrydowe systemy staną się standardem dobrej praktyki w bankowości i fintechu, łącząc to co najlepsze z dwóch światów: szybkość i skalę działania maszyn z intuicją i odpowiedzialnością ludzi. 


Źródło: Artykuł powstał na podstawie wystąpienia Marcina Wocha, CEO Algolytics, na Kongresie Lendtech 2025.

Pobierz prezentację nt. agentów AI w procesach kredytowych i poznaj temat agentów AI od podszewki.

Gotowy, aby rozwinąć swój biznes z Machine Learning & AI?

Zacznij wykorzystywać możliwości uczenia maszynowego i sztucznej inteligencji w swoim biznesie i osiągaj wymierne korzyści biznesowe - wzrost sprzedaży, ograniczenie kosztów i efektywność operacyjną.

Skontaktuj się z nami, a wspólnie opracujemy nowoczesną strategię zarządzania procesami biznesowymi w Twojej firmie.

Odkryj inne nasze artykuły