logotyp inwedo
AI Technologia

Czy Twoja firma wdraża AI z właściwych powodów? Rozmowa z auditorem ISO, Radkiem Podgórskim

W tym odcinku rozmawiam z Radkiem Podgórskim, Lead Auditorem w TÜV Nord Polska. Radek certyfikuje organizacje według norm ISO 27001, ISO 22301 i ISO 42001. Na co dzień widzi od środka, jak firmy podchodzą do wdrożeń AI i co z tego wynika. W tej rozmowie mówi o błędach, ryzykach i o tym, kiedy wdrażanie AI ma sens. Omawiamy przykłady z logistyki, działów prawnych, HR i medycyny — wszystko z perspektywy praktyków, którzy z AI i biznesem pracują na co dzień.

blank

Spis treści:

Czego dowiesz się z tego odcinka?

  1. Zanim zaczniesz wdrożenie AI, zadaj jedno pytanie: co mi to da?
    Wiele organizacji wchodzi w AI bo “wszyscy wdrażają”. Radek Podgórski jako audytor ISO 42001 stawia sprawę jasno: jeśli nie wiesz, co konkretnie ma się zmienić w Twoim procesie dzięki sztucznej inteligencji — zatrzymaj się.
  2. Niewidzialne ryzyka: bias modelu, wyciek danych, dezinformacja
    Modele AI są podatne na bias — wyregulowane “pod nasze potrzeby” mogą na przykład dyskryminować kandydatów w HR bez wiedzy firmy. Przed wdrożeniem warto także sprawdzić: czy model doucza się na twoich dokumentach i czy zamknięty system będzie w stanie odświeżyć wiedzę gdy zmienią się przepisy.
  3. AI Act wchodzi w 2027 roku. To tylko pozornie odległy termin
    „z RODO było tak samo — też było dużo czasu, a wiemy, jak wyszło”. Wewnętrzna polityka AI, która już dziś zabrania wrzucania poufnych danych do publicznych modeli, to budowanie bezpiecznej infrastruktury na przyszłość.
  4. Technologia jest na drugim miejscu. Zawsze.
    Żadna norma ISO nie wyklucza czynnika ludzkiego — wręcz odwrotnie. Transformacja musi wychodzić od najwyższego kierownictwa z jasnym komunikatem “po co”. Bez rozwiania lęku i pokazania pracownikom korzyści — wdrożenie skończy się oporem, a nie wynikami.
  5. AI działa w cyberbezpieczeństwie : szanse i zagrożenia
    Sztuczna inteligencja wzmacnia ochronę i jest wektorem ataku jednocześnie. Ludzka podatność — phishing, nadmierne zaufanie do modelu — nie znika po wdrożeniu żadnych zabezpieczeń technicznych.

Słuchaj także na:
Spotify
Apple Podcast

Jak sprawdzić, czy Twoja firma wdraża AI z właściwego powodu?

„W ogóle bym nie wchodził w temat jakikolwiek, jeżeli on nie będzie mi rozwiązywał problemu. Jeżeli chcę wejść chociażby do AI, to zadałbym sobie najpierw pytanie, co mi to zrobi?” Radek Podgórski, Lead Audytor TÜV Nord Polska certyfikujący organizacje według ISO 42001, widzi firmy, które tego pytania nie zadają. Wchodzą w AI, bo konkurencja już ma, bo zarząd przeczytał artykuł, bo „to jest teraz trendy, to jest hype”.

Problem pojawia się po wdrożeniu. Dwa, trzy działy korzystają z nowego narzędzia, kolejne siedem, osiem je ignoruje. „Być może dostarczam narzędzie, które będzie dobrą zabawką.” Podgórski nie mówi, żeby nie wdrażać. Mówi, żeby decyzja była „przemyślana, monitorowana, rozwijana i miała za sobą realne KPI”. Wdrożenie AI powinno być audytowalne i mierzalne, powiązane z konkretnymi celami firmy. Bez tego trudno ocenić, czy narzędzie przynosi wartość, czy tylko generuje koszty.

Dlaczego czynnik ludzki decyduje o powodzeniu wdrożenia AI?

Zmiana musi wychodzić od najwyższego kierownictwa, i to z jasną komunikacją „po co”, nie „co”. „Żadna norma, żadne podejście nie wyklucza czynnika ludzkiego. Wręcz odwrotnie” — Podgórski osadza to w kontekście norm ISO, gdzie systemy zarządzania z definicji uwzględniają ludzi.

Pracownicy, którzy nie rozumieją celu wdrożenia, bronią się przed nim. Nie z przekory, ze strachu. Przed utratą pracy, przed zmianą, przed nieznanym. „Dajmy ludziom szansę zrozumieć, oswoić się z tym. Zapewnijmy ich, do czego to jest i że nie ma celów ukrytych. Wtedy transformacja cyfrowa będzie dużo łatwiejsza — ci ludzie zaczną współpracować, a nie bronić się.” Europejskie podejście do zmian różni się od azjatyckiego czy amerykańskiego, ale niezależnie od kultury, czynnik ludzki jest zawsze numerem jeden.

Co to jest AI Act i kiedy zacząć się przygotowywać?

AI Act (Rozporządzenie UE 2024/1689) to europejska regulacja systemów sztucznej inteligencji, która wchodzi w życie etapowo do końca 2027 roku. Podgórski porównuje ją do RODO: „Tak samo jak z RODO było. To też było dużo czasu teoretycznie na wdrażanie.” I wiemy, jak to się skończyło dla firm, które czekały do ostatniego momentu.

Compliance AI jest niedoszacowany. Firmy wchodzą w AI bez polityki użytkowania, bez wiedzy gdzie trafiają dane, bez regulacji wewnętrznych. Prawodawstwo często nie nadąża za technologią, ale to nie zwalnia z odpowiedzialności. „W firmie możemy sobie zrobić przepisy, reguły, postanowienia, których się będziemy trzymali.” Klasyfikacja narzędzi AI, polityka ich użytkowania i wewnętrzne zasady to rzeczy, które można wdrożyć już teraz, niezależnie od tego, kiedy AI Act zacznie obowiązywać w pełni.

Gdzie trafiają dane firmowe wrzucane do zewnętrznych modeli AI?

„Chciałbym wiedzieć, gdzie te dane są wysyłane. Jeżeli one są wysyłane za ścianę, bo tam stoi moja szafa z serwerami — super, wiem. Jak to sprawdzę? Na podstawie czego to działa?” To pytanie rzadko pada przy zakupie narzędzi AI, a powinno być jednym z pierwszych.

Jeśli model doucza się na danych firmowych, pojawia się kolejne pytanie: czy nie doucza modelu głównego producenta i nie wysyła mu paczki informacji? Studenci odkryli fragmenty swoich prac magisterskich w zbiorze treningowym zewnętrznego modelu. Dane finansowe, kontrakty czy strategie produktowe mogą trafić tam, gdzie nikt ich nie spodziewał. Osobny wątek to bias w modelach HR. Algorytm rekrutacyjny trenowany na historycznych danych może powielać uprzedzenia, które firma chciałaby wyeliminować, nie wzmacniać.

Kiedy AI naprawdę rozumie kontekst — i kiedy tylko zgaduje?

Large Language Models (LLM) generują tekst na podstawie wzorców statystycznych. Large Reasoning Models (LRM) to kolejny krok: modele, które planują, analizują spójnie z wielu źródeł i podejmują działania. „Ten drugi model nie będzie tylko papugą, z którą mogę sobie porozmawiać. Będzie modelem, który będzie potrafił dużo więcej.”

LRM potrafi zaplanować wyjazd do Peru, zarezerwować loty i hotel, sprawdzić spójność informacji z dwustu, pięciuset stron, bez halucynacji. Obecne LLM-y zaproponowały „resort narciarski w Łodzi” zamiast w Alpach. LLM sprawdzi się jako asystent do generowania tekstu, ale decyzje biznesowe wymagające analizy wielu źródeł to dziś domena LRM. „Dostajemy informację, która pochodzi z dwustu, pięciuset stron, będzie spójna, sprawdzona, bez halucynacji. LLM dzisiaj tego nie potrafi.”

Jakie są największe ryzyka wdrożenia AI w firmie?

„AI może wspierać cyberbezpieczeństwo — i to naprawdę ma dużą przyszłość. Ale AI może też wykorzystywać podatności.” Data poisoning, czyli zatruwanie źródeł wiedzy modelu, ataki DDoS prowadzone przez AI, phishing generowany przez modele językowe, trudniejszy do wykrycia niż tradycyjny.

Podgórski przywołuje analogię z kobietą, która wjechała samochodem do jeziora, bo nawigacja kazała jej skręcić. W firmie to pracownik, który akceptuje odpowiedź modelu bez weryfikacji, albo zarząd, który wdraża AI bez polityki bezpieczeństwa. „Czynnik ludzki jest najbardziej podatny — stąd phishing, stąd malware, i to się nie zmienia po wdrożeniu AI.”

Czy wdrażasz AI z dobrego powodu? Framework decyzyjny

O gościu

Radek Podgórski jest Lead Auditorem w TÜV Nord Polska, gdzie certyfikuje organizacje według norm ISO 27001 (bezpieczeństwo informacji), ISO 22301 (ciągłość działania) i ISO 42001 (systemy zarządzania sztuczną inteligencją). Dzieki technologicznemu doświadczeniu patrzy na wdrożenia AI nie jako na kolejny trend, ale jako na powtarzający się schemat

Jagoda Lazarek AI & Innovation Business Partner
Doktor inżynier informatyki z ponad 15-letnim doświadczeniem w nauce, biznesie i startupach. Specjalizuje się w AI, Computer Vision, VR/AR/MR i systemach rekomendacyjnych, wspierając firmy we wdrażaniu nowych technologii. Absolwentka programu TOP 500 Innovators (Cambridge, Oxford, Imperial College London) i stażystka badawcza w IBM Haifa.

Te treści również warto przeczytać!

blank
Business Process Optimization Produkcja

May 15 2025

Automatyzacja procesów produkcyjnych. Jak budować konkurencyjność i ograniczać marnotrawstwo w produkcji żywności.

Rosnące koszty energii, braki kadrowe i presja, by skracać cykle produkcyjne to tylko część wyzwań, przed którymi stoją obecnie wytwórcy żywności. Konsumenci stają się coraz bardziej świadomi i wymagający, więc oczekują wyższej jakości artykułów spożywczych, a nowe regulacje zaostrzają kryteria zrównoważonej produkcji. W tej rzeczywistości każda zmarnowana tona surowca czy odrzucona partia to zarówno obciążenie dla środowiska, jak i konkretny koszt uderzający w rentowność przedsiębiorstwa.

Dowiedz się więcej
Uśmiechnięty mężczyzna w koszuli i krawacie siedzi przy biurku z laptopem, zdjęcie użyte w artykule o transformacji cyfrowej.
Produkcja Produkcja

April 9 2025

Cyfryzacja produkcji: od Excela, przez platformy IoT do automatyzacji i AI

Transformacja cyfrowa nabiera tempa. Ale czy przynosi efekty? Według Gartnera aż 80% prezesów firm z branży produkcyjnej zwiększa inwestycje w technologie cyfrowe (jak AI, IoT czy analityka danych) by sprostać wyzwaniom ekonomicznym i przyspieszyć wzrost. Mimo niepewnej sytuacji gospodarczej…

Dowiedz się więcej
Grafika zapowiadająca artykuł o MCP
AI MCP

September 18 2025

Integracja AI z systemami legacy przez Model Context Protocol (MCP)

O sukcesie lub porażce wdrażania AI w dużej mierze decydują dane — szczególnie w przypadku integracji sztucznej inteligencji z systemami legacy. Gdy dane są rozproszone i niespójne projekty utykają na etapie proof-of-concept albo modele działają na niepełnym obrazie biznesu i dają wyniki, którym trudno ufać. Model Context Protocol pomaga rozwiązać ten problem. Tworzy jedną warstwę komunikacji, w której AI korzysta z danych i akcji systemów w spójny sposób — bez wyłączania źródeł i bez mnożenia integracji.

Dowiedz się więcej
arrow-up icon