Shadow AI głównym zagrożeniem cyberbezpieczeństwa w PolscePoprzedni artykuł 

Najnowsze badania polskiej firmy AMP, specjalizującej się w cyberbezpieczeństwie, wskazują alarmujący stan przygotowania organizacji do bezpiecznego korzystania ze sztucznej inteligencji. Jedynie 33% przedsiębiorstw wprowadziło jakiekolwiek formalne zasady dotyczące stosowania narzędzi AI. W sektorze publicznym odsetek ten jest jeszcze niższy – większość szpitali, przychodni i urzędów nie posiada żadnych procedur kontroli.

69% pracowników używa AI bez wiedzy działu IT

Z analizy AMP wynika, że 69% pracowników w Polsce korzysta z narzędzi generatywnych AI bez wiedzy działu IT, a 72% przynajmniej raz wklejało dane firmowe do publicznych modeli typu ChatGPT lub Gemini. To zjawisko określane jako Shadow AI stanowi obecnie jeden z najpoważniejszych wektorów ryzyka cyberbezpieczeństwa.

Nieodwracalne wycieki danych

Publiczne modele AI przechowują wprowadzane treści na serwerach poza granicami UE, często wykorzystując je do dalszego trenowania. Oznacza to, że dane osobowe, konfiguracje systemów przemysłowych, kody źródłowe czy dokumentacja medyczna mogą trafić w niepowołane ręce. Wycieku takich informacji nie da się cofnąć.

Przykłady poważnych incydentów

Na świecie odnotowano już liczne przypadki poważnych naruszeń. W jednym z europejskich banków pracownik wprowadził do darmowej wersji ChatGPT pełne dane klientów wraz z numerami PESEL i saldami kont. W Samsungu inżynierowie kopiowali fragmenty kodu źródłowego, nieświadomie udostępniając strategiczne informacje. W sektorze przemysłowym dochodziło do wycieku konfiguracji sterowników PLC wraz z hasłami dostępu.

Polska liderem ataków ransomware

Według danych ESET z pierwszej połowy 2025 roku Polska była najczęściej atakowanym krajem w zakresie ransomware – odpowiadała za około 6% globalnych incydentów tego typu. Brak kontroli nad korzystaniem z AI dodatkowo zwiększa to ryzyko.

Sektor publiczny szczególnie narażony

Najgorzej sytuacja przedstawia się w instytucjach publicznych. Szpitale wykorzystują AI do streszczania dokumentacji medycznej, urzędy do redagowania pism, a szkoły do tworzenia ocen opisowych – najczęściej na prywatnych kontach i bez żadnych zabezpieczeń. Przetwarzanie danych wrażliwych w ten sposób stanowi poważne naruszenie przepisów RODO i ustawy o krajowym systemie cyberbezpieczeństwa.

AI jako narzędzie ataku

Sztuczna inteligencja może być również wykorzystywana przez cyberprzestępców. Modele generatywne są podatne na manipulacje poprzez wstrzykiwanie fałszywych danych czy ataki typu prompt injection. Pojawiły się już przypadki generowania przez AI raportów technicznych zawierających błędne parametry, co mogło prowadzić do awarii infrastruktury krytycznej.

Jak zabezpieczyć organizację

Eksperci AMP zalecają wdrożenie kompleksowej polityki bezpiecznego korzystania z AI. Kluczowe elementy to: stworzenie jasnych procedur, regularne szkolenia pracowników, stosowanie systemów DLP i CASB, monitoring ruchu do usług generatywnych oraz rygorystyczna klasyfikacja danych przed ich wprowadzeniem do narzędzi AI.

7 zasad bezpiecznego korzystania z AI według AMP

  1. Nigdy nie wprowadzaj danych wrażliwych do publicznych modeli
  2. Korzystaj wyłącznie z narzędzi zatwierdzonych przez dział IT
  3. Anonimizuj dane przed wprowadzeniem do AI
  4. Zawsze weryfikuj odpowiedzi generowane przez sztuczną inteligencję
  5. Zgłaszaj każde nieautoryzowane użycie narzędzi AI
  6. Szczególnie chroń hasła, klucze API i konfiguracje systemów
  7. Pamiętaj, że AI może generować nieprawdziwe informacje (halucynacje)

Podsumowanie

Sztuczna inteligencja nie jest zagrożeniem sama w sobie – zagrożenie stanowi jej niekontrolowane, nieświadome wykorzystywanie. W sytuacji gdy Polska stała się jednym z najbardziej atakowanych krajów w cyberprzestrzeni, brak odpowiedzialnego podejścia do AI może doprowadzić do poważnych incydentów bezpieczeństwa, których skutki będą odczuwalne przez lata.

AMP S.A., działająca od 2019 roku, oferuje kompleksowe wsparcie w budowie bezpiecznego środowiska wykorzystania sztucznej inteligencji – od audytów i tworzenia polityk po wdrożenia technicznych rozwiązań ochronnych.

Na podstawie informacji firmy AMP S.A.,

 Produkcja: WebFabrika 1999-2026 | Kontakt | Regulamin | Polityka Prywatności