Bezpieczeństwo danych i RODO w AI

Prowadzimy audyt bezpieczeństwa AI dla organizacji, które chcą korzystać z modeli językowych bez ryzyka utraty danych, naruszeń RODO i chaosu wokół shadow AI. Łączymy perspektywę regulacyjną, procesową i techniczną, żeby uporządkować korzystanie z AI w firmie.

Mniejsze ryzykoJasne zasady pracy z danymi, narzędziami i uprawnieniami.
RODO i AI ActAudyt procesów, polityk i miejsc, w których dane trafiają do modeli.
Dobór architekturyEnterprise, on-premise lub air-gapped tam, gdzie to potrzebne.

Na pierwszej rozmowie omawiamy, z jakich narzędzi korzystają zespoły, jakie dane są przetwarzane i czy problem dotyczy polityk, konfiguracji czy architektury.

Kiedy audyt bezpieczeństwa AI jest potrzebny?

Najczęściej wtedy, gdy pracownicy już korzystają z AI, ale organizacja nie ma kontroli nad tym, jakie dane trafiają do modeli i na jakich warunkach są przetwarzane. To punkt, w którym trzeba uporządkować narzędzia, polityki, szkolenia i model techniczny pracy z AI.

Jeśli ważnym tematem jest też kontrola kosztów i dobór modeli, powiązaną usługą jest optymalizacja kosztów AI.

Dla kogo ta usługa jest, a dla kogo nie?

To rozwiązanie jest dla firm, które...

  • organizacje przetwarzające dane osobowe, poufne lub regulowane
  • firmy, w których zespoły już korzystają z AI bez wspólnych zasad
  • sektory wrażliwe: finanse, medycyna, usługi profesjonalne, administracja
  • liderzy chcący połączyć bezpieczeństwo, polityki i praktyczne wdrożenie AI

To nie będzie dobry wybór, jeśli...

  • firmy oczekujące samego dokumentu zgodności bez pracy na realnych procesach
  • organizacje, które nie używają jeszcze AI i nie mają żadnych planów wdrożeniowych
  • zespoły szukające tylko jednorazowej konsultacji narzędziowej bez uporządkowania zasad

Co robimy

Audyt użycia AI i przepływów danych

Sprawdzamy narzędzia, scenariusze użycia, typy danych i poziom ryzyka po stronie organizacji.

Polityki i szkolenia

Przygotowujemy zasady korzystania z AI oraz uczymy zespoły, jak pracować bezpieczniej.

Dobór architektury

Pomagamy ocenić, kiedy wystarczy wariant enterprise, a kiedy lepsze będzie wdrożenie on-premise lub air-gapped.

Wsparcie regulacyjne

Porządkujemy wymagania związane z RODO, AI Act i dokumentacją procesów z udziałem AI.

Możliwe formaty współpracy

Assessment / konsultacja

Wstępna diagnoza problemu i skali ryzyka.

Audyt bezpieczeństwa AI

Raport z rekomendacjami, priorytetami i planem działań.

Pakiet polityk i wdrożenie zasad

Przygotowanie dokumentów, procedur i sposobu ich wdrożenia.

Wsparcie techniczne

Pomoc przy konfiguracji narzędzi, wyborze modelu wdrożenia i zabezpieczeniach.

Szkolenia dla zespołów

Warsztaty z bezpiecznej pracy z AI dla pracowników i liderów.

Jak wygląda współpraca?

Rozpoznanie użycia AI

Identyfikujemy narzędzia, działy, procesy i typy danych związane z pracą z AI.

Ocena ryzyka

Sprawdzamy luki proceduralne, techniczne i organizacyjne oraz ich wpływ na biznes.

Projekt działań

Przygotowujemy polityki, rekomendacje techniczne i model dalszego wdrożenia.

Wdrożenie i edukacja

Pomagamy wdrożyć zasady i przeszkolić zespoły tak, by mogły z nich faktycznie korzystać.

Jak może wyglądać audyt bezpieczeństwa AI?

Najwięcej wartości daje połączenie diagnozy realnego użycia AI z wdrożeniem prostych, egzekwowalnych zasad dla zespołów.

Klient

Firma z branży regulowanej, w której pracownicy zaczęli używać narzędzi AI do pracy na dokumentach i zapytaniach klientów.

Problem

Brakowało wiedzy, jakie dane trafiają do modeli i które narzędzia są bezpieczne dla organizacji.

Rozwiązanie

Audyt użycia AI, rekomendacja konfiguracji narzędzi, polityka pracy z AI i szkolenie dla pracowników.

Efekt

Organizacja odzyskuje kontrolę nad wykorzystaniem AI i może rozwijać use case’y w bardziej uporządkowany sposób.

Najczęściej zadawane pytania

Czy korzystanie z ChatGPT lub Claude jest zgodne z RODO?

To zależy od konfiguracji i typu danych. Wersje konsumenckie (darmowe) zazwyczaj wykorzystują dane do trenowania modeli, co może naruszać RODO przy danych osobowych. Wersje enterprise (ChatGPT Enterprise, Claude for Business, Azure OpenAI) oferują gwarancje nieużywania danych do treningu, umowy DPA i przetwarzanie w EU. Kluczowe jest: (1) wybranie właściwego planu, (2) podpisanie DPA, (3) przeszkolenie pracowników, jakie dane mogą wprowadzać.

Czy można uruchomić LLM całkowicie lokalnie, bez połączenia z chmurą?

Tak - modele open-source takie jak Llama 4, Mistral czy Qwen można uruchomić na własnym serwerze, całkowicie offline (air-gapped). Dane nigdy nie opuszczają infrastruktury firmy. Do wdrożenia potrzebny jest serwer z GPU (np. NVIDIA A100 lub kilka RTX 4090). Mniejsze modele (Phi-4, Mistral 7B) działają nawet na stacjach roboczych z jedną kartą graficzną.

Czym jest AI Act i kiedy zacznie obowiązywać?

AI Act to rozporządzenie UE regulujące wykorzystanie sztucznej inteligencji. Weszło w życie w sierpniu 2024, z okresami przejściowymi: zakazy zabronionych praktyk AI od lutego 2025, obowiązki dla modeli ogólnego przeznaczenia (GPAI) od sierpnia 2025, pełne przepisy dla systemów wysokiego ryzyka od sierpnia 2026. Firmy powinny już teraz przygotowywać się do zgodności.

Czy model open-source uruchomiony lokalnie jest bezpieczniejszy od chmurowego?

Pod kątem prywatności danych - zdecydowanie tak, bo dane nie opuszczają infrastruktury. Pod kątem cyberbezpieczeństwa - to zależy od jakości zabezpieczeń serwera. Model lokalny wymaga odpowiedniego hardeningu, kontroli dostępu i monitoringu. Pomagamy zabezpieczyć całe środowisko, nie tylko sam model.

Pracujemy w sektorze regulowanym (finanse/medycyna) - czy możemy w ogóle korzystać z AI?

Tak, ale wymaga to starannego podejścia. Sektory regulowane (finansowy - DORA, medyczny - MDR, publiczny - NIS2) mają dodatkowe wymogi bezpieczeństwa. Najczęściej rekomendujemy architekturę hybrydową: model on-premise dla danych wrażliwych i regulowanych, model chmurowy (enterprise) dla danych o niższym ryzyku. Pomagamy zaprojektować rozwiązanie zgodne ze specyfiką branży.

Co jeśli pracownicy już korzystają z AI bez naszej wiedzy (shadow AI)?

To jeden z najczęstszych scenariuszy. Zamiast zakazywać (co nie działa - pracownicy i tak będą korzystać), rekomendujemy: (1) audyt - dowiedzieć się, kto, z czego i jak korzysta, (2) legalizacja - udostępnić zatwierdzone narzędzia z odpowiednią konfiguracją, (3) szkolenie - nauczyć bezpiecznych praktyk, (4) monitoring - wdrożyć DLP i logowanie. Zakaz bez alternatywy prowadzi do jeszcze większego shadow AI.

Powiązane usługi

Uporządkuj korzystanie z AI zanim zrobi to za Ciebie incydent

Pomożemy zidentyfikować ryzyka, przygotować zasady pracy z AI i dobrać model techniczny bezpieczny dla danych firmy.

Umów audyt bezpieczeństwa AI

Po kontakcie wracamy z rekomendacją: assessment, audyt albo pakiet polityk i wdrożenia.