Bez kategorii

Bank odrzucił twój wniosek? To nie analityk. To algorytm, którego nikt nie rozumie – pomysł na doktorat

Wyobraźcie sobie tę scenę. Młoda para, świetna praca, czysta historia kredytowa, marzą o pierwszym mieszkaniu. Składają wniosek o kredyt hipoteczny. Po kilku dniach przychodzi odpowiedź: „Przykro nam, decyzja odmowna”.

Pytają dlaczego. Pracownik banku bezradnie rozkłada ręce. „Nie wiem. System tak zdecydował”.

To nie jest scena z dystopijnego serialu. To dzieje się tu i teraz. Decyzję o waszej przyszłości, o tym, czy założycie firmę, kupicie dom, czy wyślecie dziecko na studia, coraz częściej podejmuje nie człowiek, a algorytm. Czarna skrzynka, której logiki często nie rozumieją nawet jej twórcy.

I tu zaczyna się problem. Bo co, jeśli ta czarna skrzynka się myli? Co, jeśli jest uprzedzona? I kto, do cholery, ponosi za to odpowiedzialność? To nie jest już tylko problem technologiczny. To niezbadane terytorium na styku prawa, etyki i ekonomii. I, moim zdaniem, to idealny, pionierski temat na doktorat, który ma szansę coś naprawdę zmienić.

Czarna skrzynka, która nie lubi, gdy kupujesz ananasy

Dlaczego to takie skomplikowane? Bo algorytm uczenia maszynowego to nie jest prosty program z listą reguł „jeśli-to”. On się uczy. Analizuje miliony danych – nie tylko twoje dochody i historię w BIK, ale też to, gdzie robisz zakupy, co lajkujesz na Facebooku, o której godzinie wracasz do domu.

I na tej podstawie znajduje korelacje. Czasem dziwaczne. Może się „nauczyć”, że ludzie, którzy kupują karmę dla kota o trzeciej w nocy, są statystycznie gorszymi kredytobiorcami. Albo że fani ananasa na pizzy częściej spóźniają się ze spłatą. To absurdalne przykłady, ale pokazują mechanizm. Algorytm nie musi mieć wprost podanej informacji o twoim pochodzeniu, płci czy stanie zdrowia, żeby na podstawie innych danych wykształcić sobie uprzedzenia i zacząć dyskryminować całe grupy społeczne.

I najgorsze jest to, że gdy zapyta się go „dlaczego?”, on nie odpowie. Nie potrafi. Bo jego „myślenie” to złożona sieć matematycznych zależności, a nie logiczny ciąg przesłanek.

Mamy RODO, więc jesteśmy bezpieczni? Nie tak szybko.

W tym momencie każdy prawnik krzyknie: „Ale mamy RODO! Artykuł 22! Prawo do tego, by nie podlegać decyzji opartej wyłącznie na automatycznym przetwarzaniu! Prawo do wyjaśnienia!”.

I to prawda. Na papierze wyglądamy na chronionych. Ale diabeł, jak zwykle, tkwi w szczegółach.

Po pierwsze, ten sam artykuł 22 ma wyjątki. Jeden z nich mówi, że automatyczna decyzja jest dozwolona, jeśli jest „niezbędna do zawarcia umowy”. A umowa kredytowa idealnie się w to wpisuje. Bank może argumentować, że w dobie milionów wniosków, automatyzacja jest po prostu „niezbędna” do efektywnego działania.

Po drugie, co to właściwie znaczy „prawo do wyjaśnienia”? Czy ogólnikowa informacja w stylu „algorytm ocenił pańską zdolność kredytową negatywnie na podstawie analizy 1500 zmiennych” jest wystarczającym wyjaśnieniem? Oczywiście, że nie. Ale czy mamy prawo żądać od banku pełnego wglądu w kod źródłowy i logikę algorytmu, który jest wart miliony i stanowi tajemnicę handlową? Tu zaczyna się prawdziwy spór.

Plac zabaw dla odważnego doktoranta

I właśnie ten chaos, ta prawna szara strefa, jest niesamowitą szansą dla ambitnego badacza. To pole, na którym można postawić fundamentalne pytania, na które nikt jeszcze nie ma dobrych odpowiedzi.

  • Jak bardzo nasze prawo jest przestarzałe? Można zrobić dogłębną analizę i pokazać, w których miejscach RODO i polskie prawo cywilne po prostu nie radzą sobie z wyzwaniami AI. Gdzie są luki? Gdzie sprzeczności? To praca, która może stać się podstawą do przyszłych nowelizacji.
  • A może inni robią to lepiej? Zamiast wyważać otwarte drzwi, można sprawdzić, jak z tym problemem radzą sobie w USA, Niemczech czy Estonii. Jakie rozwiązania prawne tam działają? Może coś da się zaadaptować na nasz grunt? To klasyczne badania prawno-porównawcze, ale w supernowoczesnym wydaniu.
  • Kto zapłaci za błąd algorytmu? To jest, moim zdaniem, najciekawszy i najtrudniejszy temat. Kto ponosi odpowiedzialność cywilną, gdy stracisz szansę na zakup mieszkania przez błąd programu? Bank? Deweloper, który stworzył AI? A może firma, która dostarczyła dane treningowe? Potrzebujemy nowej koncepcji „odpowiedzialności algorytmicznej”. I ktoś musi ją wymyślić.

Szansa na bycie pierwszym

Wybór tematu doktoratu to inwestycja na lata. Można wybrać temat bezpieczny, odtwórczy, z tysiącem opracowań. A można wejść na niezbadany teren. Temat odpowiedzialności za decyzje AI to właśnie taki teren. To szansa, żeby twoje wnioski cytowano nie tylko na uniwersytetach, ale też w Sejmie, w urzędach regulacyjnych i na salach sądowych.

To praca dla kogoś, kto nie boi się poruszać na styku prawa, technologii i etyki. I kto chce stać się ekspertem w dziedzinie, która za pięć lat będzie jedną z najważniejszych gałęzi prawa.

Czujesz, że to wyzwanie dla Ciebie, ale obawiasz się ogromu pracy i złożoności problematyki? Pamiętaj, że nawet najwięksi pionierzy potrzebowali wsparcia. Jeśli rozważasz podjęcie tego lub innego ambitnego tematu badawczego i potrzebujesz profesjonalnej konsultacji, pomocy w opracowaniu koncepcji, metodologii czy przygotowaniu poszczególnych rozdziałów, nasz zespół jest do Twojej dyspozycji.

Skonsultuj swój temat z naszymi ekspertami i napisz doktorat, który naprawdę ma znaczenie.

Leave a Comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *