Czy korzystanie z ChatGPT lub Claude jest zgodne z RODO?
To zależy od konfiguracji i typu danych. Wersje konsumenckie (darmowe) zazwyczaj wykorzystują dane do trenowania modeli, co może naruszać RODO przy danych osobowych. Wersje enterprise (ChatGPT Enterprise, Claude for Business, Azure OpenAI) oferują gwarancje nieużywania danych do treningu, umowy DPA i przetwarzanie w EU. Kluczowe jest: (1) wybranie właściwego planu, (2) podpisanie DPA, (3) przeszkolenie pracowników, jakie dane mogą wprowadzać.
Czy można uruchomić LLM całkowicie lokalnie, bez połączenia z chmurą?
Tak - modele open-source takie jak Llama 4, Mistral czy Qwen można uruchomić na własnym serwerze, całkowicie offline (air-gapped). Dane nigdy nie opuszczają infrastruktury firmy. Do wdrożenia potrzebny jest serwer z GPU (np. NVIDIA A100 lub kilka RTX 4090). Mniejsze modele (Phi-4, Mistral 7B) działają nawet na stacjach roboczych z jedną kartą graficzną.
Czym jest AI Act i kiedy zacznie obowiązywać?
AI Act to rozporządzenie UE regulujące wykorzystanie sztucznej inteligencji. Weszło w życie w sierpniu 2024, z okresami przejściowymi: zakazy zabronionych praktyk AI od lutego 2025, obowiązki dla modeli ogólnego przeznaczenia (GPAI) od sierpnia 2025, pełne przepisy dla systemów wysokiego ryzyka od sierpnia 2026. Firmy powinny już teraz przygotowywać się do zgodności.
Czy model open-source uruchomiony lokalnie jest bezpieczniejszy od chmurowego?
Pod kątem prywatności danych - zdecydowanie tak, bo dane nie opuszczają infrastruktury. Pod kątem cyberbezpieczeństwa - to zależy od jakości zabezpieczeń serwera. Model lokalny wymaga odpowiedniego hardeningu, kontroli dostępu i monitoringu. Pomagamy zabezpieczyć całe środowisko, nie tylko sam model.
Pracujemy w sektorze regulowanym (finanse/medycyna) - czy możemy w ogóle korzystać z AI?
Tak, ale wymaga to starannego podejścia. Sektory regulowane (finansowy - DORA, medyczny - MDR, publiczny - NIS2) mają dodatkowe wymogi bezpieczeństwa. Najczęściej rekomendujemy architekturę hybrydową: model on-premise dla danych wrażliwych i regulowanych, model chmurowy (enterprise) dla danych o niższym ryzyku. Pomagamy zaprojektować rozwiązanie zgodne ze specyfiką branży.
Co jeśli pracownicy już korzystają z AI bez naszej wiedzy (shadow AI)?
To jeden z najczęstszych scenariuszy. Zamiast zakazywać (co nie działa - pracownicy i tak będą korzystać), rekomendujemy: (1) audyt - dowiedzieć się, kto, z czego i jak korzysta, (2) legalizacja - udostępnić zatwierdzone narzędzia z odpowiednią konfiguracją, (3) szkolenie - nauczyć bezpiecznych praktyk, (4) monitoring - wdrożyć DLP i logowanie. Zakaz bez alternatywy prowadzi do jeszcze większego shadow AI.