Czego dowiesz się z tego odcinka?
- Zanim zaczniesz wdrożenie AI, zadaj jedno pytanie: co mi to da?
Wiele organizacji wchodzi w AI bo “wszyscy wdrażają”. Radek Podgórski jako audytor ISO 42001 stawia sprawę jasno: jeśli nie wiesz, co konkretnie ma się zmienić w Twoim procesie dzięki sztucznej inteligencji — zatrzymaj się. - Niewidzialne ryzyka: bias modelu, wyciek danych, dezinformacja
Modele AI są podatne na bias — wyregulowane “pod nasze potrzeby” mogą na przykład dyskryminować kandydatów w HR bez wiedzy firmy. Przed wdrożeniem warto także sprawdzić: czy model doucza się na twoich dokumentach i czy zamknięty system będzie w stanie odświeżyć wiedzę gdy zmienią się przepisy. - AI Act wchodzi w 2027 roku. To tylko pozornie odległy termin
„z RODO było tak samo — też było dużo czasu, a wiemy, jak wyszło”. Wewnętrzna polityka AI, która już dziś zabrania wrzucania poufnych danych do publicznych modeli, to budowanie bezpiecznej infrastruktury na przyszłość. - Technologia jest na drugim miejscu. Zawsze.
Żadna norma ISO nie wyklucza czynnika ludzkiego — wręcz odwrotnie. Transformacja musi wychodzić od najwyższego kierownictwa z jasnym komunikatem “po co”. Bez rozwiania lęku i pokazania pracownikom korzyści — wdrożenie skończy się oporem, a nie wynikami. - AI działa w cyberbezpieczeństwie : szanse i zagrożenia
Sztuczna inteligencja wzmacnia ochronę i jest wektorem ataku jednocześnie. Ludzka podatność — phishing, nadmierne zaufanie do modelu — nie znika po wdrożeniu żadnych zabezpieczeń technicznych.
Słuchaj także na:
Spotify
Apple Podcast
Jak sprawdzić, czy Twoja firma wdraża AI z właściwego powodu?
„W ogóle bym nie wchodził w temat jakikolwiek, jeżeli on nie będzie mi rozwiązywał problemu. Jeżeli chcę wejść chociażby do AI, to zadałbym sobie najpierw pytanie, co mi to zrobi?” Radek Podgórski, Lead Audytor TÜV Nord Polska certyfikujący organizacje według ISO 42001, widzi firmy, które tego pytania nie zadają. Wchodzą w AI, bo konkurencja już ma, bo zarząd przeczytał artykuł, bo „to jest teraz trendy, to jest hype”.
Problem pojawia się po wdrożeniu. Dwa, trzy działy korzystają z nowego narzędzia, kolejne siedem, osiem je ignoruje. „Być może dostarczam narzędzie, które będzie dobrą zabawką.” Podgórski nie mówi, żeby nie wdrażać. Mówi, żeby decyzja była „przemyślana, monitorowana, rozwijana i miała za sobą realne KPI”. Wdrożenie AI powinno być audytowalne i mierzalne, powiązane z konkretnymi celami firmy. Bez tego trudno ocenić, czy narzędzie przynosi wartość, czy tylko generuje koszty.
Dlaczego czynnik ludzki decyduje o powodzeniu wdrożenia AI?
Zmiana musi wychodzić od najwyższego kierownictwa, i to z jasną komunikacją „po co”, nie „co”. „Żadna norma, żadne podejście nie wyklucza czynnika ludzkiego. Wręcz odwrotnie” — Podgórski osadza to w kontekście norm ISO, gdzie systemy zarządzania z definicji uwzględniają ludzi.
Pracownicy, którzy nie rozumieją celu wdrożenia, bronią się przed nim. Nie z przekory, ze strachu. Przed utratą pracy, przed zmianą, przed nieznanym. „Dajmy ludziom szansę zrozumieć, oswoić się z tym. Zapewnijmy ich, do czego to jest i że nie ma celów ukrytych. Wtedy transformacja cyfrowa będzie dużo łatwiejsza — ci ludzie zaczną współpracować, a nie bronić się.” Europejskie podejście do zmian różni się od azjatyckiego czy amerykańskiego, ale niezależnie od kultury, czynnik ludzki jest zawsze numerem jeden.
Co to jest AI Act i kiedy zacząć się przygotowywać?
AI Act (Rozporządzenie UE 2024/1689) to europejska regulacja systemów sztucznej inteligencji, która wchodzi w życie etapowo do końca 2027 roku. Podgórski porównuje ją do RODO: „Tak samo jak z RODO było. To też było dużo czasu teoretycznie na wdrażanie.” I wiemy, jak to się skończyło dla firm, które czekały do ostatniego momentu.
Compliance AI jest niedoszacowany. Firmy wchodzą w AI bez polityki użytkowania, bez wiedzy gdzie trafiają dane, bez regulacji wewnętrznych. Prawodawstwo często nie nadąża za technologią, ale to nie zwalnia z odpowiedzialności. „W firmie możemy sobie zrobić przepisy, reguły, postanowienia, których się będziemy trzymali.” Klasyfikacja narzędzi AI, polityka ich użytkowania i wewnętrzne zasady to rzeczy, które można wdrożyć już teraz, niezależnie od tego, kiedy AI Act zacznie obowiązywać w pełni.
Gdzie trafiają dane firmowe wrzucane do zewnętrznych modeli AI?
„Chciałbym wiedzieć, gdzie te dane są wysyłane. Jeżeli one są wysyłane za ścianę, bo tam stoi moja szafa z serwerami — super, wiem. Jak to sprawdzę? Na podstawie czego to działa?” To pytanie rzadko pada przy zakupie narzędzi AI, a powinno być jednym z pierwszych.
Jeśli model doucza się na danych firmowych, pojawia się kolejne pytanie: czy nie doucza modelu głównego producenta i nie wysyła mu paczki informacji? Studenci odkryli fragmenty swoich prac magisterskich w zbiorze treningowym zewnętrznego modelu. Dane finansowe, kontrakty czy strategie produktowe mogą trafić tam, gdzie nikt ich nie spodziewał. Osobny wątek to bias w modelach HR. Algorytm rekrutacyjny trenowany na historycznych danych może powielać uprzedzenia, które firma chciałaby wyeliminować, nie wzmacniać.
Kiedy AI naprawdę rozumie kontekst — i kiedy tylko zgaduje?
Large Language Models (LLM) generują tekst na podstawie wzorców statystycznych. Large Reasoning Models (LRM) to kolejny krok: modele, które planują, analizują spójnie z wielu źródeł i podejmują działania. „Ten drugi model nie będzie tylko papugą, z którą mogę sobie porozmawiać. Będzie modelem, który będzie potrafił dużo więcej.”
LRM potrafi zaplanować wyjazd do Peru, zarezerwować loty i hotel, sprawdzić spójność informacji z dwustu, pięciuset stron, bez halucynacji. Obecne LLM-y zaproponowały „resort narciarski w Łodzi” zamiast w Alpach. LLM sprawdzi się jako asystent do generowania tekstu, ale decyzje biznesowe wymagające analizy wielu źródeł to dziś domena LRM. „Dostajemy informację, która pochodzi z dwustu, pięciuset stron, będzie spójna, sprawdzona, bez halucynacji. LLM dzisiaj tego nie potrafi.”
Jakie są największe ryzyka wdrożenia AI w firmie?
„AI może wspierać cyberbezpieczeństwo — i to naprawdę ma dużą przyszłość. Ale AI może też wykorzystywać podatności.” Data poisoning, czyli zatruwanie źródeł wiedzy modelu, ataki DDoS prowadzone przez AI, phishing generowany przez modele językowe, trudniejszy do wykrycia niż tradycyjny.
Podgórski przywołuje analogię z kobietą, która wjechała samochodem do jeziora, bo nawigacja kazała jej skręcić. W firmie to pracownik, który akceptuje odpowiedź modelu bez weryfikacji, albo zarząd, który wdraża AI bez polityki bezpieczeństwa. „Czynnik ludzki jest najbardziej podatny — stąd phishing, stąd malware, i to się nie zmienia po wdrożeniu AI.”
Czy wdrażasz AI z dobrego powodu? Framework decyzyjny
O gościu
Radek Podgórski jest Lead Auditorem w TÜV Nord Polska, gdzie certyfikuje organizacje według norm ISO 27001 (bezpieczeństwo informacji), ISO 22301 (ciągłość działania) i ISO 42001 (systemy zarządzania sztuczną inteligencją). Dzieki technologicznemu doświadczeniu patrzy na wdrożenia AI nie jako na kolejny trend, ale jako na powtarzający się schemat
