
O tym, jak naprawdę wygląda wykorzystanie AI w polskich urzędach i dlaczego często dzieje się to poza oficjalnymi strukturami – pisze Tomasz Mostowski, specjalista ds. generatywnej AI i transformacji cyfrowej. Poniższy artykuł pokazuje, czym jest zjawisko shadow AI oraz jak zamienić je z ryzyka w realną szansę na usprawnienie pracy administracji.
________________________________________
W polskich urzędach AI już jest – tyle że najczęściej nieoficjalnie. Urzędnicy korzystają z narzędzi AI do redagowania pism, transkrypcji spotkań, tworzenia podsumowań. Często robią to po cichu, bez porządnego przeszkolenia i bez ustalonych zasad. To zjawisko ma swoją nazwę: shadow AI. Technologii nie da się zatrzymać – i nie o to chodzi. Chodzi o to, żeby ustalić zasady jej użycia.
________________________________________
Shadow AI: skąd się bierze i co z nim zrobić?
Urzędnicy korzystający z ChatGPT bez oficjalnego przyzwolenia to najczęściej osoby zmotywowane, szukające sposobu na sprawniejszą pracę. Znam przypadek urzędu, w którym po wewnętrznym przeglądzie okazało się, że kilkanaście osób od miesięcy używało AI do przygotowywania projektów dokumentów, skrótów protokołów czy tłumaczeń. Efekty? Imponujące. Ryzyka? Realne i poza jakąkolwiek kontrolą.
Shadow AI to nie problem mentalności pracowników. To objaw braku polityki. Tam, gdzie nie ma jasnych zasad, ludzie tworzą własne – i nie zawsze jest to bezpieczne.
Co konkretnie może pójść nie tak?
Zanim urząd wyda pracownikom zielone światło, warto wiedzieć, czego pilnować. Pierwsze ryzyko to dane osobowe – wklejenie pisma do zewnętrznego narzędzia narusza RODO. Drugie to bezkrytyczne zaufanie wynikom: modele językowe potrafią generować fałszywe informacje z przekonującą pewnością siebie. Trzecie to brak śladu decyzyjnego. Jeśli AI uczestniczyła w podjęciu decyzji wpływającej na prawa mieszkańca – przyznanie świadczenia, odmowa, postępowanie administracyjne – wchodzimy w obszar wysokiego ryzyka według AI Act. To nie jest kategoria teoretyczna. Wiąże się z konkretnymi obowiązkami: dokumentowaniem, nadzorem człowieka, możliwością odwołania. Problem w tym, że ogólnodostępne modele AI – ChatGPT, Copilot i im podobne – nie są zaprojektowane ani certyfikowane do takich zastosowań. Używanie ich w tym kontekście to nie kwestia złej woli, ale nieświadomości. I właśnie dlatego wiedza o tym, do czego można używać AI, a do czego nie – jest tak ważna.
AI literacy: co to oznacza w praktyce?
Pracodawca, który dopuszcza pracownika do obsługi maszyn w fabryce, ma obowiązek go przeszkolić w zakresie BHP. Z AI powinno być tak samo.
I tu warto wiedzieć, że to już nie jest kwestia dobrej woli – to wymóg prawny. Unijne rozporządzenie AI Act, którego przepisy dotyczące AI literacy obowiązują od lutego 2025 roku, wprowadza pojęcie AI literacy – czyli obowiązku zapewnienia pracownikom odpowiedniego poziomu wiedzy o AI. Dotyczy to każdej organizacji wdrażającej lub używającej systemów AI, w tym instytucji publicznych. Jeśli Twoi pracownicy używają AI, masz prawny obowiązek zadbać o ich kompetencje w tym zakresie.
Nie chodzi o stworzenie rozbudowanego regulaminu. Chodzi o minimum, które chroni urząd i pracowników:
• Jasna lista narzędzi dopuszczonych do użycia.
• Zasady dotyczące kategorii danych, których nie wolno wprowadzać do zewnętrznych narzędzi.
• Szkolenia obejmujące podstawowe zasady efektywnego korzystania z AI i krytyczną weryfikację wyników.
• Zachęta do transparentności: pracownicy nie powinni bać się przyznać, że korzystają z AI.
Praktyczny plan wdrożenia: od shadow AI do zarządzanej transformacji
Wiedza o ryzykach to dobry start. Ale sama świadomość niczego nie zmieni – potrzebny jest plan. Oto jak go zbudować.
Krok 1: Nazwij rzeczywistość. Zacznij od wewnętrznego przeglądu – anonimowego, bez sankcji. Jakich narzędzi AI używają pracownicy? Do czego? Jak często? To nie jest kontrola, to diagnoza. Wyniki zazwyczaj zaskakują: skala shadow AI jest większa niż się wydaje, a jakość zastosowań – lepsza. To dobra wiadomość. Oznacza, że masz już zalążek transformacji. Teraz trzeba go tylko wyprowadzić na światło dzienne.
Krok 2: Zidentyfikuj obszary i liderów. Nie wszystkie działy używają AI tak samo. W jednym miejscu jest to obsługa dokumentów, gdzieś indziej analiza danych czy komunikacja z mieszkańcami. Znajdź obszary o największym potencjale i – co ważniejsze – znajdź ludzi, którzy już tam działają. W każdym urzędzie są osoby, które eksperymentują z AI z własnej inicjatywy. To Twoi naturalni liderzy zmiany. Nie próbuj wykreować liderów – rozpoznaj tych, którzy już istnieją, i daj im mandat do dzielenia się wiedzą.
Krok 3: Wprowadź minimum regulacyjne. Nie zaczynaj od kompletnej polityki AI – na to jeszcze przyjdzie czas. Zacznij od jednej strony A4: co wolno, czego nie wolno, jakich danych nie wprowadzać do zewnętrznych narzędzi, do kogo zgłaszać wątpliwości. To wystarczy, żeby shadow AI przestało być problemem, a stało się zasobem.
Kto poprowadzi tę transformację? Raczej nie IT.
Krok 4: Zrozum, że to nie jest sprawa działu IT. Znam tę sytuację aż za dobrze: IT dostaje zadanie „wdrożenia AI”, kupuje licencje, konfiguruje dostępy, wysyła maila z instrukcją. I na tym koniec. Bo IT nie wie, czego urzędnik potrzebuje przy okienku, przy protokole, przy decyzji administracyjnej. Nie wie, bo to nie jest jego świat. A szkolenia? Nikt ich nie robi, bo nikt nie czuje się za nie odpowiedzialny. Wdrożenie innowacji staje się niczyje.
To nie jest zarzut pod adresem IT. To błąd systemowy – wynikający z przekonania, że AI to kolejna technologia do zainstalowania. Tymczasem AI działa zupełnie inaczej. Szybszy sprzęt pozwala obsłużyć więcej spraw w tym samym czasie. AI zmienia sposób, w jaki te sprawy się prowadzi – i wymaga od człowieka nowych umiejętności, nowego myślenia, nowych nawyków. Tego nie da się zainstalować.
Dlatego AI musi być adaptowana przez ludzi nietechnicznych, w ich codziennej pracy. Przez urzędnika, który pisze decyzję. Przez kierownika, który analizuje dane. Przez sekretarkę, która obsługuje korespondencję. Jeśli oni nie wiedzą, jak korzystać z AI świadomie – żadne narzędzie im nie pomoże. I właśnie dlatego potrzebny jest zespół, który rozumie obie strony: technologię i ludzi, którzy mają z niej korzystać.
Potrzebny jest zespół interdyscyplinarny: ktoś z IT, ktoś z kadr, ktoś z obszarów merytorycznych, ktoś bliski zarządzaniu. Zespół, który rozumie kierunek, ma jasno przypisane obowiązki – ale też ma pozwolenie, żeby eksperymentować i wprowadzać zmiany.
Warto też zaakceptować, że innowacja rzadko wychodzi idealnie za pierwszym razem. Czasy są zbyt dynamiczne, żeby czekać na pewność. Lepszy model to małe eksperymenty, szybka nauka i korekta kursu. Nie każdy projekt musi się udać – każdy powinien przynieść wiedzę.
I tu kluczowa zasada: ten zespół musi być na serio. Nie projektem na boku, nie grupą roboczą spotykającą się raz na kwartał. Musi mieć czas, zasoby i wsparcie kierownictwa. Transformacja AI prowadzona między innymi obowiązkami po prostu nie działa.
________________________________________
Podsumowanie
AI w urzędzie to nie fanaberia cyfrowych entuzjastów. To rzeczywistość, która już dziś wpływa na to, jak pracują polscy urzędnicy. Ignorowanie jej nie sprawi, że zniknie – sprawi jedynie, że będzie działać poza kontrolą.
Transformacja AI zaczyna się tam, gdzie urzędnik chce pracować lepiej. Wspieranie jej oznacza jedno: dać ludziom solidne zasady, umiejętności i narzędzia. Kolejność nie jest przypadkowa.
Tomasz Mostowski zajmuje się edukacją w zakresie AI i wspiera organizacje w budowaniu kultury świadomego korzystania z nowych technologii.









