Bez kategorii

Plotki o śmierci badacza są przesadzone: 10 mitów o końcu zawodu w erze AI

Kiedy w skrzynce trafia mi mail od zarządu z pytaniem: „Czy nie da się tego zrobić przez AI?”, wiem, że zbliża się rozmowa o cudach. I trochę to rozumiem. Sam czasem patrzę na wynik modelu i myślę: no proszę, to by mi kiedyś zajęło weekend. A potem wracam na ziemię. Bo jeśli moja praca ma jakiś sens, to nie w szybkim liczeniu, tylko w stawianiu właściwych pytań, sprawdzaniu przyczyn i dbaniu, żeby nikogo przy tym nie rozjechać.

Poniżej rozbrajam 10 popularnych mitów o „śmierci” zawodu badacza. Dzielę je na cztery pola, gdzie algorytmy nadal potykają się o rzeczywistość: pytania, przyczynowość, etykę i projektowanie protokołów.

Pytanie to nie prompt

Mit 1: AI sama wybierze ważny problem.
Nie wybierze. Model świetnie streszcza literaturę i rzuca listą tematów, ale hierarchia ważności rodzi się z celów, kosztów i ryzyka po stronie ludzi, nie z prawdopodobieństw w tokenach. Gdy klient mówi „chcę zrozumieć spadek sprzedaży”, ja dopytuję: w którym segmencie, przy jakich kanałach, w jakiej porze roku i co uznamy za sukces. Tego nie załatwi prośba „podaj 10 hipotez”.

Mit 2: Wystarczy wrzucić dane i prawda sama wyskoczy.
Wrzucisz logi, wyjdą korelacje. Piękne, gęste, mylące. Modele potrafią upiększyć przypadek do poziomu zgrabnego wykresu. Kontekst (zmiany VAT, nowy cennik kuriera, remont głównej ulicy) rzadko siedzi w CSV. Trzeba go dowieźć ręcznie.

Mit 3: Hipotezy zrobią się same.
Tak, narzędzia potrafią „podsunąć” kierunki. Ale dobrą hipotezę buduje się jak rusztowanie: co ma ją obalić, jakich wyników się nie spodziewam, gdzie czają się efekty uboczne. To już praca koncepcyjna, nie kopiuj-wklej.

Przyczynowość boli bardziej niż Excel

Mit 4: Duży model = prawda.
Duży model = zwinne przewidywanie wzorców w danych. A ja często nie chcę przewidzieć, tylko zrozumieć, co się stanie, jeśli zmienię zasady gry. Predykcja nie równa się mechanizm.

Mit 5: Korelacja wystarczy.
Jeśli po kampanii rośnie sprzedaż, to kusząco brzmi „działa”. Ale może równocześnie spadła cena u konkurencji, albo weszła nowa wersja produktu. Bez sensownego projektu (losowanie, quasi-eksperyment, kontrola trendów) nie wiemy, czy igła w ruchomej piaskownicy faktycznie pokazuje północ.

Mit 6: AI sama wybierze metodę identyfikacji.
Instrumenty, różnice w różnicach, syntetyczny bliźniak – to nie menu w barze mlecznym. Trzeba sprawdzić założenia. Czy instrument nie wpływa na wynik inną drogą? Czy trend równoległy jest choćby odrobinę wiarygodny? Tu nie ma algorytmu, który odgaduje reguły gry, gdy część reguł jest ukryta.

Etyka to nie checkbox na końcu ankiety

Mit 7: Zgody i ryzyka można dodać po fakcie.
Nie można. Etyka operacyjna zaczyna się przy projektowaniu, bo wpływa na dobór narzędzi, rekrutację, sposób przechowywania danych. Jeżeli wchodzę w wrażliwy temat (zdrowie, finanse), planuję wycofanie zgody, ścieżkę wsparcia i minimalizację krzywdy. Tak, to kosztuje czas.

Mit 8: Anonimizacja załatwia wszystko.
Nie załatwia. Reidentyfikacja po połączeniu źródeł jest banalna. Czasem bezpieczniej jest nie zbierać niż „odanonimizować”. I jeszcze drobiazg: prawo do sprzeciwu to nie formularz w przypisie, tylko realna możliwość odmowy bez kary.

Protokół to architektura decyzji, nie formularz

Mit 9: Pilot jest zbędny, bo model i tak „zrozumie”.
Pilot ratuje projekt przed głupimi błędami: nieczytelną skalą, za długim czasem zadania, złym doborem miary efektu. Tu najwięcej uczę się na własnych potknięciach: np. raz mierzyłem „czas wykonania” w aplikacji, która miała ukryty timeout. Wyniki wyglądały „ładnie” dopóki ktoś nie pokazał mi logów serwera.

Mit 10: Metaanaliza zastąpi teren.
Lubię przeglądy. Ale aplikacja w konkretnej instytucji to zawsze „tu i teraz”: szkolny dziennik inny niż w raporcie, pacjenci z innym zestawem chorób, infrastruktura serwerowa połatana jak koc patchworkowy. Protokół musi pogodzić ideał z realiami.

Krótka historia z Krakowa: buspasy, NO₂ i pokusa prostych wniosków

Weźmy przykład miejski, bo tu ścierają się dane, polityka i codzienność. Załóżmy, że miasto wprowadza nowy buspas na ruchliwej arterii. Pada pytanie: czy spadło stężenie NO₂ w okolicznych punktach pomiarowych i czy kierowcy szybciej dojeżdżają do centrum.

Co robi AI? Pomoże w zebran iu źródeł, napisze skrypty do pobrania danych z czujników, złoży wykresy, porówna przed i po. Fajnie. Tylko że ja muszę podjąć dwie kluczowe decyzje.

Po pierwsze, kontrfaktyczny świat. Nie mam równoległej Krakowskiej rzeczywistości bez buspasa. Mogę użyć różnic w różnicach: dobrać ulice o podobnym profilu, ale bez zmiany organizacji. Problem: w tym samym czasie wchodzi remont wiaduktu i wypadają ferie. Jeśli tego nie uwzględnię, zrobię piękną bajkę.

Po drugie, etyka i rozkład kosztów. Jeżeli okaże się, że NO₂ spadło przy buspasie, a wzrosło na osiedlu obok (ruch przeniósł się na skróty), to czy ogłoszę „sukces”? Kto wyjaśni mieszkańcom, że „średnio w mieście” jest lepiej, a u nich gorzej? W protokole muszę zapisać nie tylko miary, ale i regułę komunikacji z grupami dotkniętymi zmianą.

AI pomoże mi policzyć alternatywne scenariusze (syntetyczny Kraków złożony z innych miast o podobnej pogodzie i trendach ruchu), wygeneruje opis wyników, a nawet podsunie literaturę o efektach przeniesienia ruchu. Ale wybór identyfikacji, priorytety etyczne i sposób rozmowy z ludźmi – to już moja odpowiedzialność.

Co z tego wynika dla praktyki

Nie twierdzę, że modele są przereklamowane. Przeciwnie: traktuję je jak turbo-narzędzia. Piszą mi szkielety kodu, streszczają długie raporty, podsuwają literaturę, podpowiadają alternatywne miary. Ale gdy robi się gęsto – gdy trzeba ułożyć pytanie, odróżnić przyczynę od maskarady korelacji, rozważyć ryzyka i zaprojektować sensowny protokół – nadal potrzebny jest człowiek z krwi, kości i odpowiedzialności.

Jeśli ktoś naprawdę chce „zastąpić badacza”, niech spróbuje przejść przez tę mini-listę z każdego projektu:

  • Czy cel ma adres (dla kogo, po co, przy jakim koszcie błędu), czy tylko ładnie brzmi?
  • Jaki jest świat bez interwencji i czy potrafimy go zbliżyć danymi?
  • Które założenia są kruche i jak je przetestujemy?
  • Kto może ponieść nieproporcjonalny koszt i jak to złagodzimy procedurą, a nie obietnicą?
  • Co zrobimy, jeśli wynik jest „niewygodny” dla zamawiającego?

Jeśli te punkty są pokryte, AI zadziała jak dobrze naostrzone narzędzie. Jeśli nie – wyjdzie nam ładna prezentacja z ładnymi liczbami, która w realnym świecie nie trzyma się kupy.

Nie jestem do końca pewien, jak szybko rynek przestawi się z fetyszu predykcji na kulturę odpowiedzialnych interwencji. Wiem jednak jedno: plotki o zgonie naszego fachu są jak klikbait. Brzmią efektownie, ale po wejściu w szczegóły okazuje się, że robota wcale nie umarła – tylko zmieniła tempo i zestaw zabawek.

Leave a Comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *