Jak bezpiecznie korzystać z generatywnej AI w firmie: praktyczne wskazówki dla działu IT i biznesu

0
16
Rate this post

Z tego artykułu dowiesz się:

Po co w ogóle generatywna AI w firmie i kiedy ma sens

Najprostsze zastosowania, które naprawdę oszczędzają czas

Generatywna AI nie musi od razu zastępować połowy procesów w organizacji. Najszybszy zwrot z inwestycji pojawia się przy drobnych, powtarzalnych czynnościach, które zabierają ludziom po kilka minut dziennie – ale wykonywane są dziesiątki razy w miesiącu. W skali zespołu robi się z tego konkretny koszt.

Typowe przykłady niskokosztowego, bezpiecznego użycia generatywnej AI:

  • skracanie i porządkowanie maili – z długiego, emocjonalnego maila tworzymy krótszą, rzeczową odpowiedź;
  • streszczenia dokumentów – raporty, notatki ze spotkań, długie wątki na Teams/Slacku przerabiane na 5–10 najważniejszych punktów;
  • drafty dokumentów – pierwsza wersja regulaminu, procedury, oferty, polityki bezpieczeństwa, którą człowiek doprecyzowuje;
  • tworzenie wariantów komunikacji – inne wersje tego samego komunikatu: formalna, luźna, dla klienta technicznego i nietechnicznego;
  • pomysły i burze mózgów – listy pomysłów na kampanie, nazwy funkcji w produkcie, pytania na webinar, zakres szkolenia.

Takie zastosowania są tanie, dają szybki efekt i nie wymagają głębokiej integracji z systemami firmy. W wielu przypadkach wystarczy jedno korporacyjne konto w narzędziu AI i proste zasady korzystania. To dobry punkt startu, zanim organizacja zacznie myśleć o dużych, kosztownych projektach.

Gadżet czy narzędzie pracy – jak to odróżnić

Nowe narzędzia AI potrafią wzbudzić efekt „wow”, który łatwo pomylić z realną wartością. Dzięki spektakularnym demom wiele zespołów inwestuje w licencje, które po kilku tygodniach używane są tylko do generowania zabawnych obrazków. To typowy przykład „gadżetu”, a nie narzędzia pracy.

Różnicę można dość prosto uchwycić, zadając trzy pytania:

  • Czy narzędzie oszczędza czas w konkretnym procesie? Jeśli nie da się wskazać procesu (np. „obsługa zapytań klientów”, „tworzenie specyfikacji technicznej”), to sygnał ostrzegawczy.
  • Czy można zmierzyć efekt? Choćby w przybliżeniu: mniej minut na zadanie, mniej błędów, szybszy czas reakcji.
  • Czy użytkownicy wracają do narzędzia sami z siebie? Jeśli po okresie testowym trzeba ich „zmuszać”, to znaczy, że koszt przełączania się jest większy niż korzyści.

Narzędzie pracy stabilizuje się w procesie – staje się elementem checklisty w zadaniach. Gadżet pojawia się przy okazji, bez wpływu na KPI. Dla działu IT i osób decyzyjnych w biznesie to kluczowy filtr, zanim organizacja kupi kolejne abonamenty.

Prosty rachunek: czas oszczędzony vs czas na poprawki

Korzystanie z generatywnej AI wymaga nadzoru człowieka. Odpowiedzialność za wynik spoczywa na pracowniku, więc trzeba wliczyć jego czas na formułowanie promptu, weryfikację odpowiedzi i poprawki. Żeby sprawdzić opłacalność, wystarczy prosty model:

  • czas bez AI – ile minut realnie zajmuje zadanie (np. napisanie maila do klienta) w tradycyjny sposób;
  • czas z AI – ile minut zajmuje: przygotowanie promptu, przeczytanie odpowiedzi, korekta, skopiowanie treści;
  • liczba powtórzeń – ile razy miesięcznie zadanie się powtarza w danym zespole.

Jeśli różnica czasowa jest niewielka, a narzędzie generuje jeszcze dodatkowe ryzyka (np. wklejanie fragmentów umów), często rozsądniej jest nie wprowadzać AI do tego procesu, tylko skupić się na kilku najlepiej rokujących zastosowaniach. W firmach, które liczą koszty, podejście „najpierw kalkulator, potem entuzjazm” oszczędza wiele budżetu.

Gdzie AI się sprawdza, a gdzie raczej szkodzi

Generatywna AI jest mocna tam, gdzie liczy się szybkość tworzenia wersji roboczych i gdzie człowiek jest w stanie łatwo wychwycić błędy. Dobrze sprawdza się w:

  • komunikacji i marketingu (drafty treści, propozycje nagłówków, warianty CTA),
  • obsłudze klienta (sugestie odpowiedzi dla konsultantów, streszczenia zgłoszeń),
  • pracach analityczno-biurowych (podsumowania, porządkowanie informacji, generowanie checklist),
  • wspieraniu pracy programistów (propozycje fragmentów kodu, testów, dokumentacji).

Dużo gorzej jest w obszarach wysokiego ryzyka: decyzje regulacyjne, medyczne, finansowe, zatrudnianie, zwolnienia, rekomendacje inwestycyjne. Tam generatywna AI może być używana najwyżej jako narzędzie pomocnicze (np. wyjaśnienie pojęć, porządkowanie wymogów), ale nie jako „mózg” podejmujący decyzje. Im wyższe ryzyko prawne i reputacyjne, tym ważniejsza rola człowieka jako ostatniego filtra.

Zespół pracowników omawia projekt przy biurku z laptopami i notatkami
Źródło: Pexels | Autor: Thirdman

Krótkie podstawy generatywnej AI dla nietechnicznych: jak to naprawdę działa

Modele językowe a „rozumienie” świata

Modele generatywne, takie jak duże modele językowe (LLM), działają na zasadzie statystyki, a nie prawdziwego rozumienia. Uczą się na ogromnych zbiorach tekstów, analizują wzorce i na tej podstawie przewidują, jakie słowa powinny pojawić się po sobie. Nie mają intencji, świadomości ani poczucia prawdy – ich celem jest wygenerowanie prawdopodobnie pasującej kontynuacji tekstu.

Dla biznesu oznacza to jedno: nawet jeśli odpowiedź brzmi bardzo przekonująco, może być całkowicie błędna. Model ma świetne „poczucie języka”, ale ograniczoną wiedzę o aktualnym stanie świata, zależną od danych treningowych i podpiętych źródeł (np. wyszukiwarka, baza wiedzy). Każda odpowiedź AI musi być traktowana jak robocza hipoteza, a nie gotowy werdykt.

Halucynacje: wymyślone fakty jako normalne zjawisko

„Halucynacja” w kontekście AI oznacza odpowiedź, która wygląda wiarygodnie, ale nie ma pokrycia w rzeczywistości. Model może wymyślić artykuł naukowy, który nigdy nie powstał, podać nieistniejącą sygnaturę wyroku sądowego albo wymyśloną funkcję w używanej w firmie aplikacji.

Nie jest to „awaria” systemu, tylko naturalna konsekwencja jego konstrukcji. Model nie wie, czy coś jest prawdą, tylko czy wygląda jak prawda. Dlatego:

Jeśli interesują Cię konkrety i przykłady, rzuć okiem na: Wdrażanie AI na Edge: wybór sprzętu, kontenery, aktualizacje i monitorowanie modeli.

  • nie wolno opierać decyzji biznesowych wyłącznie na odpowiedzi AI, bez weryfikacji źródeł,
  • w zastosowaniach prawniczych, finansowych, medycznych generatywna AI może co najwyżej przygotować szkic lub listę pytań do eksperta,
  • w politykach firmowych powinien znaleźć się jasny zakaz podejmowania istotnych decyzji wyłącznie na podstawie outputu AI.

Z perspektywy działu IT kluczowe jest, aby użytkownicy rozumieli ten mechanizm – w przeciwnym razie będą nadawać odpowiedziom AI autorytet, którego system po prostu nie ma.

Skąd biorą się koszty generatywnej AI

Koszt generatywnej AI to nie tylko „abonament 20 dolarów miesięcznie”. Całkowity koszt posiadania (TCO) obejmuje kilka elementów:

  • Opłaty za API lub licencje SaaS – płaci się za liczbę zapytań, ilość przetwarzanego tekstu (tokeny) lub liczbę użytkowników.
  • Infrastruktura – jeśli firma decyduje się na wdrożenie on-premise lub na własnym clustrze w chmurze, dochodzi koszt serwerów, GPU, storage’u, kopii zapasowych.
  • Czas ludzi – konfiguracja, integracje, budowa promptów, testy, szkolenia, nadzór, poprawki – to często największa i najbardziej niedoszacowana pozycja.
  • Bezpieczeństwo i compliance – ocena dostawców, audyty, dodatkowe narzędzia (DLP, CASB, monitorowanie dostępu), a także czas zespołów prawnych.

Ograniczenia: kontekst, długość promptu i zmienność wyników

Modele generatywne operują na tzw. „kontekście”, czyli maksymalnej liczbie tokenów (słów, fragmentów słów), które mogą wziąć pod uwagę w jednym zapytaniu. Jeśli użytkownik wkleja bardzo długie dokumenty, część treści może być pomijana lub streszczana w sposób niejawny, co wpływa na jakość odpowiedzi.

Dochodzi zmienność wyników – to samo pytanie może dać nieco inną odpowiedź przy kolejnym wywołaniu, co w wielu procesach nie jest problemem (np. generowanie pomysłów), ale w innych może utrudnić audyt i powtarzalność (np. generowanie odpowiedzi na reklamacje). W takich procesach lepiej stosować sztywne szablony, a AI wykorzystywać do wstępnych propozycji, które człowiek dopasowuje do wzoru.

Dodatkowo, choć modele bardzo dobrze radzą sobie z językiem angielskim, w polskim wciąż zdarzają się większe błędy składniowe, problemy z terminologią branżową czy nieintuicyjne tłumaczenia żargonu. Dla wielu zastosowań nie jest to bariera, ale warto testować kluczowe procesy właśnie w języku polskim, a nie zakładać, że skoro demo po angielsku wyglądało świetnie, to w polskiej wersji będzie identycznie.

Mapowanie ryzyk: z jakimi zagrożeniami firma realnie się mierzy

Katalog kluczowych ryzyk dla organizacji

Bezpieczne korzystanie z AI w firmie wymaga najpierw zrozumienia, gdzie dokładnie mogą pojawić się problemy. Typowe kategorie ryzyk to:

  • Wyciek danych i naruszenie tajemnicy – pracownik wkleja do publicznego chatbota umowę, dane klienta, wewnętrzne procedury, które opuszczają infrastrukturę firmy.
  • Naruszenia RODO – przetwarzanie danych osobowych w narzędziach, co do których nie ma odpowiednich umów, podstawy prawnej lub kontroli nad miejscem przetwarzania.
  • Błędne decyzje biznesowe – oparcie decyzji (np. finansowych, kontraktowych) na halucynacjach modelu, bez dodatkowej weryfikacji.
  • Ryzyka własności intelektualnej – wykorzystanie treści generowanych przez AI bez sprawdzenia, czy nie naruszają cudzych praw autorskich lub licencji.
  • Utrata spójności organizacyjnej – każdy dział używa innych narzędzi AI, brak centralnej polityki, chaos w procesach i brak możliwości audytu.

Same technologie AI rzadko są największym problemem. Znacznie częściej kłopot rodzi się na poziomie organizacyjnym: brak jasnych zasad, brak komunikacji między IT a biznesem, przyzwolenie na „róbta co chceta” w wyborze narzędzi.

Ryzyka wizerunkowe i reputacyjne

Generatywna AI potrafi w kilka sekund wygenerować setki wariantów tekstów, grafik, postów. Kuszące, aby oprzeć na tym dużą część komunikacji firmy. Jeśli jednak proces nie jest kontrolowany, łatwo o poważne wpadki:

  • treści przypominające plagiat (zbyt mocno zbliżone do istniejących materiałów w sieci),
  • grafiki z niezamierzonymi konotacjami (np. stereotypy, elementy polityczne),
  • posty z błędami merytorycznymi, które AI „wymyśliło”, a nikt ich nie zweryfikował.

Dodatkowo pojawia się pytanie transparentności: czy informować klientów, że część treści powstała z pomocą AI? W wielu branżach (np. prawo, medycyna, doradztwo inwestycyjne) ujawnienie takiej informacji może być wymagane albo przynajmniej etycznie wskazane. Wizerunkowe szkody wynikają często nie tyle z samego użycia AI, co z faktu, że klient czuje się wprowadzony w błąd.

Chaos narzędzi i shadow IT

Bez jasnych zasad korzystania z AI szybko pojawia się zjawisko shadow IT – pracownicy instalują własne wtyczki, korzystają z darmowych narzędzi w chmurze, podpisują triale na prywatne adresy e-mail. Dla działu IT oznacza to utratę kontroli nad przepływem danych i brak możliwości oceny ryzyka.

Ryzyko nie polega tylko na kradzieży danych. Równie groźne jest budowanie ważnych procesów na narzędziach, które jutro mogą zniknąć, podnieść ceny albo zmienić zasady licencji. Przykładowo: zespół wsparcia klienta wypracuje sobie świetny workflow w oparciu o konkretną wtyczkę AI do przeglądarki, po czym dostawca ją wycofa. Bez planu B i nadzoru IT firma zostaje z ręką w nocniku.

Przykład incydentu: umowa wklejona do publicznego chatbota

Scenariusz, który w wielu firmach już się wydarzył. Pracownik działu sprzedaży przygotowuje ofertę dla dużego klienta. Umowa jest długa i zawiera skomplikowane zapisy. Chcąc „przyspieszyć”, pracownik kopiuje całą treść i wkleja do publicznego chatbota, prosząc o streszczenie i wskazanie ryzyk.

Analiza incydentu krok po kroku

Wklejenie umowy do publicznego chatbota to jedna z tych sytuacji, które na początku wydają się „oszczędnością czasu”, a kończą się dużym rachunkiem po stronie bezpieczeństwa i prawników. Rozkładając ten incydent na czynniki pierwsze, widać kilka typowych błędów:

  • Brak świadomości – pracownik nie rozumie, że tekst trafia do zewnętrznego dostawcy, który może go logować, przetwarzać poza UE i używać do treningu modeli (jeśli regulamin na to pozwala).
  • Brak jasnych zakazów – w politykach firmy nie ma wprost zapisane, że umów, danych klientów czy poufnych ofert nie wolno wklejać do publicznych narzędzi AI.
  • Brak bezpiecznej alternatywy – pracownik nie ma dostępu do firmowego narzędzia z AI, które działa w modelu „przetwarzamy, ale nie uczymy na waszych danych”, więc wybiera to, co ma pod ręką.
  • Presja czasu i celów sprzedażowych – „masz domknąć deal”, a nie „masz w pierwszej kolejności zadbać o bezpieczeństwo danych”. Priorytety są ustawione jednoznacznie.

Po takim incydencie trzeba zadać sobie kilka pytań: gdzie trafiły dane, czy zawierały dane osobowe, czy klient ma zostać poinformowany, czy naruszono zapisy NDA? Zamiast udawać, że problemu nie było, lepiej potraktować to jako sygnał ostrzegawczy i uruchomić minimalnie formalny proces post mortem – krótko spisać, co się stało, jakie były przyczyny i jakie proste zabezpieczenia można wdrożyć w ciągu najbliższych tygodni.

Dlaczego „zero tolerancji” rzadko działa

Pierwszą reakcją wielu zarządów jest hasło: „zakazać publicznej AI”. Na papierze brzmi to rozsądnie, ale w praktyce:

  • pełna blokada wymaga konfiguracji proxy, DLP, polityk w przeglądarkach – to czas i pieniądze,
  • pracownicy i tak znajdą obejścia (prywatne telefony, domowe komputery, inne przeglądarki),
  • firma traci konkurencyjność tam, gdzie AI mogłaby realnie przyspieszyć pracę.

Zamiast zakazów „na wszystko”, skuteczniejsze są jasne czerwone linie (czego absolutnie nie wolno wklejać) plus stopniowe udostępnianie bezpiecznych narzędzi firmowych. Z perspektywy budżetu ważniejsze bywa ograniczenie chaosu niż całkowite wyeliminowanie ryzyka – bo to ostatnie często jest po prostu nierealne.

Trzech pracowników omawia projekt AI przy laptopach w nowoczesnym biurze
Źródło: Pexels | Autor: Antoni Shkraba Studio

Dane i poufność: co wolno wklejać do AI, a czego nie

Prosty podział danych na poziomie organizacji

Zamiast tworzyć skomplikowane klasyfikacje, które nikt poza bezpieczeństwem informacji nie rozumie, lepiej wprowadzić prosty, czterostopniowy podział danych używany również w kontekście AI:

  • Publiczne – treści, które i tak są dostępne na stronie WWW, w materiałach marketingowych, ofertach wysyłanych masowo.
  • Wewnętrzne – notatki, instrukcje, opisy procesów, które nie są tajemnicą handlową, ale nie są też publikowane.
  • Poufne – umowy, dane finansowe, plany sprzedażowe, listy klientów, specyfikacje techniczne niepublicznych produktów.
  • Szczególnie chronione – dane osobowe wrażliwe, dane medyczne, informacje objęte tajemnicą zawodową (np. radcy prawnego), tajemnice klientów.

Na tej podstawie można zbudować prostą macierz decyzji: jakie kategorie danych wolno przetwarzać w jakich narzędziach AI (publicznych, komercyjnych w modelu SaaS, rozwiązaniach on-premise). Kluczowy jest kompromis między bezpieczeństwem a wygodą – jeśli ograniczenia będą kompletnie oderwane od realiów pracy, użytkownicy zaczną je obchodzić.

Co jest bezpieczne w publicznych chatbotach

Publiczne chatboty (typu ogólnodostępne modele w przeglądarce) mogą być całkiem bezpiecznie używane, jeśli zastosować kilka prostych zasad. Do takich narzędzi można kierować:

  • ogólne pytania edukacyjne (np. „wyjaśnij różnicę między RAG a fine-tuningiem”),
  • pomoc w programowaniu na syntetycznych przykładach (schematyczne dane, fejkowe nazwy firm),
  • tworzenie szablonów (zarysy maili, propozycje struktur dokumentów),
  • pomoc w pracy z własnymi publicznymi materiałami (np. artykuły z firmowego bloga).

Dobrym „bezpiecznym” punktem odniesienia bywa pytanie: czy z tą treścią czuję się komfortowo, gdyby trafiła w ręce konkurencji lub do internetu? Jeśli odpowiedź brzmi „nie”, nie powinna trafiać do publicznego chatbota.

Jak „odchudzać” dane przed wklejeniem do AI

Często nie da się w ogóle wyeliminować AI z procesu, ale można znacząco zmniejszyć wrażliwość danych. Kilka prostych technik:

  • Maskowanie – zastąpienie nazw klientów, numerów umów, kwot i adresów neutralnymi znacznikami („Klient A”, „Miasto X”, „[KWOTA]”).
  • Fragmentacja – wklejanie tylko fragmentów dokumentu, które są potrzebne do konkretnego pytania, zamiast pełnej umowy czy raportu.
  • Parafraza przed wysłaniem – opisanie problemu swoimi słowami bez kopiowania treści 1:1 (np. „klient oczekuje bardzo szerokiego prawa do wypowiedzenia umowy bez przyczyny, jakie są typowe ryzyka po naszej stronie?”).

Takie zabiegi wydłużają nieco czas pracy, ale w zamian znacząco obniżają potencjalne skutki wycieku. To rozsądny kompromis koszt–bezpieczeństwo dla zespołów, które jeszcze nie mają firmowej instancji AI.

Dane osobowe i RODO w praktyce

Jeśli generatywna AI ma kontakt z danymi osobowymi, trzeba przejść kilka „check-pointów”:

  • Rola podmiotów – czy dostawca AI jest podmiotem przetwarzającym (procesorem), czy współadministratorem? Ma to wpływ na treść umów i odpowiedzialność.
  • Lokalizacja danych – w jakich krajach przetwarzane są dane, czy istnieją standardowe klauzule umowne, czy dostawca spełnia wymogi transferu poza EOG.
  • DPIA – dla bardziej wrażliwych zastosowań (np. scoring klientów, automatyczna ocena wniosków) konieczna będzie ocena skutków dla ochrony danych.
  • Minimalizacja – czy w ogóle jest potrzeba wrzucania danych osobowych? W wielu procesach da się je zastąpić pseudonimami lub identyfikatorami technicznymi.

Dla biznesu kluczowe jest jedno: jeśli narzędzie ma przetwarzać dane klientów, musi przejść przez standardową ścieżkę oceny dostawcy i RODO, tak jak każde inne rozwiązanie SaaS. „To tylko AI, nic tam nie zapisujemy” nie jest argumentem, który ochroni firmę przed UODO.

Bezpieczniejsze alternatywy dla wrażliwych danych

Zamiast całkowicie rezygnować z AI przy danych poufnych, można zastosować stopniowanie rozwiązań:

  • Tryby „bez uczenia” – część dostawców oferuje instancje, w których dane klientów nie są używane do trenowania modeli. To prosty krok w górę względem klasycznego publicznego chatbota.
  • Własna instancja w chmurze – model uruchomiony w ramach subskrypcji chmurowej należącej do firmy, z kontrolą nad lokalizacją danych i integracją z SSO.
  • Modele on-premise – najbardziej kosztowna opcja, raczej dla organizacji z dużym wolumenem zapytań i wysokimi wymaganiami regulacyjnymi.

Dla większości średnich firm rozsądny jest wariant pośredni: komercyjny model w chmurze, z wyłączonym uczeniem na danych i z umową powierzenia. Wersje on-premise mają sens dopiero wtedy, gdy korzystanie z AI staje się krytyczną częścią biznesu, a koszty GPU w chmurze przekraczają utrzymanie własnej infrastruktury.

Ramy prawne i compliance: minimalny poziom ogarnięcia dla IT i biznesu

Podstawowe obszary prawne, których nie da się pominąć

Nawet jeśli w firmie nie ma rozbudowanego działu prawnego, kilka obszarów musi być ogarniętych:

  • Ochrona danych osobowych – RODO, lokalne przepisy, wytyczne organów nadzorczych.
  • Prawa autorskie – kto jest właścicielem treści generowanych przez AI, czy wolno je modyfikować, sprzedawać, sublicencjonować.
  • Prawo umów – zapisy w regulaminach dostawców AI, ograniczenia odpowiedzialności, zakazy określonych zastosowań.
  • Prawo sektorowe – regulacje specyficzne dla bankowości, medycyny, ubezpieczeń, energetyki, administracji publicznej.

Nie trzeba od razu zatrudniać zewnętrznych kancelarii za wysokie stawki. Na początek często wystarczy krótki przegląd istniejących umów SaaS i regulaminów najpopularniejszych narzędzi AI używanych przez pracowników, połączony z kilkoma jasnymi wytycznymi dla biznesu.

Modele a prawa autorskie: kto jest właścicielem outputu

Kwestia własności treści wygenerowanych przez AI nie jest jednolicie rozwiązana na całym świecie, ale na poziomie praktycznym firmy mogą przyjąć kilka roboczych zasad:

  • Sprawdzać regulaminy dostawców – część usług przyznaje klientowi pełne prawa do wygenerowanych treści, inne zastrzegają sobie współwłasność lub szeroką licencję.
  • Traktować output AI jako materiał roboczy – ostateczna wersja dokumentu powstaje po edycji przez człowieka, który wnosi własny wkład twórczy.
  • Unikać generowania 1:1 finalnych materiałów marketingowych bez żadnej edycji, szczególnie jeśli są one kluczowe dla wizerunku firmy.

Jeśli firma działa w branży kreatywnej (agencje, software house’y, domy mediowe), opłaca się przygotować krótką notatkę „co mówimy klientom na temat AI”: czy i jak jej używamy, kto odpowiada za prawa autorskie, jakie są ograniczenia. To zapobiega późniejszym sporom o to, „czyja” jest kreacja stworzona przy wsparciu modelu.

Umowy z dostawcami AI: na co zwrócić uwagę

Przy wyborze dostawcy narzędzi AI często patrzy się tylko na cenę i jakość modelu. Tymczasem w regulaminach kryją się zapisy, które mogą mieć dużo większy wpływ na ryzyko niż różnica kilku dolarów na użytkownika. W praktyce dobrze jest sprawdzić przynajmniej:

  • Klauzule o wykorzystaniu danych klienta – czy mogą być używane do trenowania modeli, tworzenia statystyk, usług dla innych klientów.
  • Zakres odpowiedzialności – typowo dostawca mocno ogranicza własną odpowiedzialność za błędy modelu; trzeba mieć świadomość, że roszczenia klientów spadną głównie na firmę korzystającą z AI.
  • Zakazy określonych zastosowań – np. użycie w zastosowaniach medycznych, systemach bezpieczeństwa, decyzjach kredytowych bez dodatkowych zabezpieczeń.
  • Prawo właściwe i sąd – w razie sporu niekoniecznie będzie to polski sąd i polskie prawo.

To wszystko nie oznacza, że trzeba blokować narzędzie, jeśli regulamin jest „twardy”. Często wystarczy dostosować zakres użycia w firmie – np. nie pozwalać na wykorzystywanie danego modelu do generowania treści prawniczych lub decyzji kredytowych, skoro dostawca wyraźnie to wyklucza.

Nowe regulacje dotyczące AI: jak nie utknąć w analizach

Na poziomie UE pojawiają się kolejne regulacje dotyczące systemów AI. Z perspektywy średniej firmy kluczowe jest, aby nie próbować od razu objąć wszystkich wymogów w jednym, wielkim projekcie. Bardziej efektywne jest podejście etapowe:

  • zidentyfikować kilka zastosowań, które mogą podlegać ostrzejszym wymogom (np. scoring, rekrutacja, analiza wniosków finansowych),
  • dla nich przygotować minimalną dokumentację: opis celu, danych wejściowych, kontroli człowieka, sposobu testowania,
  • dla pozostałych zastosowań trzymać się zdroworozsądkowych zasad: rejestr narzędzi, odpowiedzialny właściciel biznesowy, podstawowe logi.

IT i compliance nie muszą znać każdego artykułu nowych aktów. Istotniejsze jest, aby mieć jeden punkt kontaktu w firmie, który śledzi zmiany i potrafi ocenić, czy konkretne wdrożenie powinno przejść głębszą analizę.

Mężczyzna w okularach pracuje na laptopie z otwartym narzędziem AI
Źródło: Pexels | Autor: Matheus Bertelli

Współpraca IT i biznesu: jak uniknąć chaosu i przeciągania liny

Dlaczego biznes ucieka przed IT

W wielu firmach scenariusz jest podobny: zespoły biznesowe chcą „poeksperymentować z AI”, IT odpowiada długą listą wymogów, więc biznes idzie swoją drogą, kupując narzędzia na kartę firmową. Powody są zazwyczaj proste:

  • proces akceptacji nowych narzędzi trwa tygodniami,
  • IT komunikuje się językiem ryzyka, a biznes językiem celów kwartalnych,
  • brakuje jasnego, szybkiego kanału typu „chcemy sprawdzić to narzędzie, co musimy zrobić?”.

Jak IT może stać się „enablerem”, a nie strażnikiem bramy

Żeby zatrzymać „dziki zachód” narzędzi AI, IT musi wyjść trochę przed szereg. Zamiast wyłącznie oceniać i blokować, lepiej zaproponować kilka gotowych ścieżek i z góry ustalone poziomy rygoru. To skraca rozmowy i zmniejsza pokusę kupowania narzędzi bokiem.

Na koniec warto zerknąć również na: Dlaczego ridesharing to przyszłość transportu miejskiego? — to dobre domknięcie tematu.

Praktyczny sposób to prosty „katalog ścieżek”:

  • Ścieżka eksperymentalna – testy na próbce danych, brak danych poufnych, ograniczona liczba użytkowników, prosty formularz zgłoszeniowy, akceptacja w 2–3 dni.
  • Ścieżka pilotażowa – większa liczba użytkowników, lekkie dane produkcyjne (bez danych wrażliwych), krótka analiza bezpieczeństwa i RODO, akceptacja w 1–2 tygodnie.
  • Ścieżka produkcyjna – formalny wdrożeniowy proces projektowy, pełna ocena dostawcy, umowy, integracje z systemami firmowymi.

Biznes nie musi wtedy za każdym razem pytać „jak to załatwić?”, tylko wybiera ścieżkę jak z menu. IT zaś nie musi tłumaczyć od zera, dlaczego na pilota potrzeba minimum kilku dni, a nie godziny.

Prosty proces zgłaszania narzędzi AI

Najwięcej konfliktów rodzi się z chaosu komunikacyjnego, a nie z samej technologii. Przydatny jest jeden, maksymalnie prosty formularz (w Jirze, na SharePoincie, w intranecie – nieważne), który każdy zespół wypełnia, gdy chce użyć nowego narzędzia AI. Powinien dawać odpowiedź na kilka podstawowych pytań:

  • Po co? – opis przypadku użycia w 2–3 zdaniach, oczekiwany efekt (oszczędność czasu, poprawa jakości, coś innego).
  • Jakie dane? – czy są dane klientów, dane finansowe, kody źródłowe, dane osobowe pracowników.
  • Skala? – ilu użytkowników, jakie działy, czy dotyczy klientów zewnętrznych.
  • Czas trwania – jednorazowy eksperyment, pilot na 3 miesiące, stałe rozwiązanie.

Na tej podstawie IT i bezpieczeństwo podejmują decyzję: „zielone światło w trybie eksperymentalnym”, „OK, ale bez danych X i Y” albo „stop, potrzebujemy pilota z pełną oceną dostawcy”. Całość powinna mieścić się w jednej, dwóch stronach formularza – jeśli jest dłużej, biznes zacznie szukać skrótów.

Minimalny „governance” dla średniej firmy

Rozbudowane komitety AI i wielostronicowe polityki są sensowne w korporacjach. W większości średnich firm sprawdzi się lekka struktura zarządzania, która nie pożera kalendarza menedżerów, a jednak daje kontrolę.

Przykładowy zestaw ról:

  • Właściciel AI po stronie biznesu – zwykle ktoś z zarządu lub lider jednego z kluczowych obszarów (operacje, sprzedaż, produkt). Ustala priorytety zastosowań AI w firmie.
  • Koordynator AI po stronie IT – niekoniecznie dyrektor IT, raczej praktyk, który zna możliwości technologiczne i potrafi przełożyć je na język procesów.
  • „Lightweight” komitet AI – przedstawiciel IT, bezpieczeństwa, prawny/compliance i 1–2 osoby z biznesu. Spotkania np. raz na miesiąc, bez prezentacji po 30 slajdów.

Rolą tego zespołu nie jest blokowanie pomysłów, tylko porządkowanie: które pilotaże działają, co warto skalować, czego trzeba zakazać lub przerobić. Dobrą praktyką jest spisanie raz na kwartał tabeli: „jakie narzędzia AI używamy + do czego + kto odpowiada”. Taka lista często zastępuje rozbudowane rejestry systemów.

Transparentność wobec pracowników

Jeżeli firma chce, żeby ludzie korzystali z AI w rozsądny sposób, nie wystarczy im wysłać ogólnego maila z zakazami. Potrzebna jest jasna informacja, co jest dozwolone, a nie tylko czego nie wolno.

Praktyczny pakiet startowy dla pracowników może zawierać:

  • krótką listę zatwierdzonych narzędzi AI (z linkami),
  • 2–3 przykłady „dobrych” zastosowań (np. streszczenia, pierwsze wersje maili, drafty prezentacji),
  • kilka czerwonych flag – czego absolutnie nie wklejamy (konkretne typy danych, np. umowy z kluczowymi klientami, dane medyczne, hasła, klucze API),
  • adres e-mail / kanał na Teams/Slacku typu #pytania-o-AI, gdzie można zapytać bez obaw, że to „głupie pytanie”.

Im prostsza i bardziej konkretna komunikacja, tym mniejsze ryzyko, że ktoś wrzuci do chatbota bazę klientów, bo „przecież nikt nie mówił, że nie wolno”.

Ekonomia wdrożeń: gdzie inwestować, a gdzie odpuścić

Nie każda integracja z AI wymaga projektu na pół roku. Dobrą regułą jest podział inicjatyw na trzy koszyki pod kątem stosunku kosztu do potencjalnego efektu:

  • „Szybkie wygrane” – scenariusze, które można wdrożyć w kilka dni, bez integracji, głównie poprzez szkolenie i szablony promptów (np. wsparcie w pisaniu maili, analiza zestawień w Excelu, tworzenie draftów raportów). Zwykle tu są największe, natychmiastowe oszczędności czasu.
  • „Średnie projekty” – integracje z jednym systemem (np. CRM, Jira), prosty chatbot wewnętrzny, generowanie streszczeń dokumentów z firmowego DMS. Czas realizacji liczony w tygodniach, potrzebny właściciel biznesowy, ale bez generalnego remontu architektury IT.
  • „Ciężkie działa” – systemy decyzyjne, scoring, rekomendacje w czasie rzeczywistym dla klientów. To obszary, gdzie koszty (i ryzyko) szybko rosną, a zwrot wymaga dobrze policzonego biznes case’u.

Z perspektywy budżetu rozsądnie jest zacząć od pierwszej i drugiej kategorii. Dają szybki sygnał, czy kultura organizacyjna „przyjmuje” AI, i nie zamrażają dużych środków na projekt, który później może ugrzęznąć w konsultacjach prawnych.

Szkolenia: nie „evangelist”, tylko instrukcja obsługi

Szkolenia z AI często zamieniają się w pokaz slajdów o tym, jak technologia zmieni świat. Tymczasem zespoły potrzebują bardziej instrukcji obsługi niż inspiracji. Krótsze, częstsze i bardzo zadaniowe sesje działają znacznie lepiej niż jedno, długie „mega-szkolenie”, o którym wszyscy zapomną po tygodniu.

Sprawdza się podejście modułowe:

  • 1 godzina dla wszystkich – podstawy: jak działa generatywna AI, co można, czego nie można, gdzie są zatwierdzone narzędzia.
  • 1–2 godziny dla konkretnego działu – warsztat z realnymi zadaniami: dla księgowości, sprzedaży, HR, obsługi klienta. Ludzie pracują na swoich typowych dokumentach (po anonimizacji), a trener pokazuje konkretne pomysły na skrócenie pracy.
  • „Office hours” raz na miesiąc – otwarte spotkanie online: pytania i odpowiedzi, dzielenie się przykładami z firmy. Bez prezentacji, tylko praktyka.

Takie podejście jest tańsze niż wynajęcie dużej zewnętrznej firmy szkoleniowej na dwa dni, a zwykle daje więcej realnych zmian w codziennej pracy.

Polityka korzystania z generatywnej AI: zasady, które naprawdę są przestrzegane

Jak pisać politykę, żeby nie trafiła do szuflady

Dokument „Polityka AI” ma sens tylko wtedy, gdy ludzie go rozumieją i potrafią zastosować w praktyce. Lepiej mieć 3–4 strony konkretów niż 20 stron ogólników i definicji. Dobrym punktem wyjścia jest spojrzenie na politykę oczami trzech grup: zwykłego użytkownika, menedżera i osób z IT/bezpieczeństwa.

Strukturę można zbudować w prosty sposób:

  • Co jest celem – krótko, w jednym akapicie: „zwiększamy produktywność z zachowaniem bezpieczeństwa danych i zgodności z prawem”.
  • Co jest dozwolone „z automatu” – lista typów zadań, które każdy może wykonywać w zatwierdzonych narzędziach (np. pisanie draftów, streszczanie publicznych materiałów, pomoc w analizie własnych notatek).
  • Co wymaga zgody przełożonego lub IT – np. wykorzystanie AI w procesach klientowskich, integracje z systemami firmowymi, projekty wpływające na decyzje finansowe.
  • Co jest zabronione – kilka jasnych, konkretnych zakazów, bez „prawniczego” żargonu.
  • Gdzie pytać w razie wątpliwości – adres mailowy, kanał komunikatora, osoba odpowiedzialna.

Polityka powinna być napisana językiem ludzi, którzy będą z niej korzystać. Jeżeli zdanie trzeba czytać trzy razy, żeby zrozumieć, o co chodzi – zostanie zignorowane.

Prosty zestaw zasad dla użytkowników

Zamiast ogólnych haseł, lepiej dać pracownikom kilka bardzo konkretach reguł, które można zapamiętać jak „kodeks drogowy” w pigułce. Przykładowy zestaw:

  • Reguła 1: Nie wklejam danych, których nie wysłałbym mailem poza firmę bez szyfrowania.
  • Reguła 2: AI to asystent, nie decydent. Zawsze sprawdzam ważne treści, zanim wyślę je dalej lub wprowadzę do systemu.
  • Reguła 3: Output AI jest „roboczy”. Nie podpisuję się pod treścią, której nie przeczytałem i nie poprawiłem.
  • Reguła 4: Nie podszywam się pod ludzi. Nie tworzę treści mających udawać wypowiedzi konkretnych osób bez ich wiedzy (np. „mail od prezesa”, „opinia prawnika”).
  • Reguła 5: Nie używam prywatnych kont do rzeczy służbowych. Jeśli mam pracować na danych firmowych, korzystam z zatwierdzonych narzędzi i kont firmowych.

Takie zasady można wydrukować na jednej stronie i omówić na spotkaniach zespołów. To tanie, a redukuje większość typowych ryzyk wynikających z niewiedzy.

Zarządzanie „shadow AI” – jak nie gasić pożarów w nieskończoność

Nawet najlepsza polityka nie wyeliminuje całkowicie narzędzi kupowanych na boku. Celem nie jest polowanie na „winnych”, tylko przekierowanie energii pracowników na rozwiązania, które są w miarę bezpieczne i przewidywalne.

Budżetowy pragmatyzm podpowiada, aby zaczynać od najmniejszej sensownej skali: jeden centralny, dobrze zarządzany dostęp do narzędzi AI zamiast dziesiątek pojedynczych subskrypcji w różnych zespołach. Wiele praktyk opisanych jako praktyczne wskazówki: informatyka da się przenieść na grunt zarządzania kosztami AI – standaryzacja, centralny zakup, jasne limity.

Skuteczna taktyka to połączenie marchewki i kija:

  • Marchewka: szybki proces akceptacji narzędzi „niskiego ryzyka”, lista rekomendowanych usług, gotowe konta firmowe. Im łatwiej dostać się do bezpiecznych narzędzi, tym mniej sensu ma kombinowanie.
  • Kij: jasne zasady dotyczące zakupu oprogramowania (także „tanich” subskrypcji), monitoring ruchu do niektórych usług, konsekwencje przy rażących naruszeniach (np. wysłanie całej bazy klientów na prywatne konto chatbota).

Raz na rok można zrobić krótki „audyt AI” – przegląd tego, jakie narzędzia pojawiają się w raportach finansowych (subskrypcje), logach proxy czy zgłoszeniach od zespołów. Zamiast od razu zakazywać, lepiej porozmawiać z użytkownikami: być może znaleźli rozwiązanie, które warto wprowadzić oficjalnie.

Kontrola jakości treści generowanych przez AI

Nawet jeśli dane są bezpieczne, słabej jakości output potrafi zniszczyć relację z klientem, wizerunek lub po prostu wygenerować dodatkową pracę. Firmie opłaca się ustalić minimalne standardy jakości tego, co wychodzi „na zewnątrz” po wsparciu AI.

Dobrym, niedrogim rozwiązaniem jest prosty „checklist” dla treści generowanych przez AI, zanim trafią do klientów lub zarządu:

  • sprawdzenie faktów i liczb (przynajmniej z jednym niezależnym źródłem),
  • korekta językowa (czy tekst brzmi naturalnie, nie jest „przegadany”),
  • dopasowanie do tonu komunikacji firmy (formalny/nieformalny),
  • oznaczenie treści wewnętrznych, które powstały przy wsparciu AI, jeśli ma to znaczenie np. dla zespołu prawnego.

W niektórych procesach (np. odpowiedzi na reklamacje, oferty dla kluczowych klientów) można wprost ustalić, że końcowa wersja musi być zaakceptowana przez człowieka o określonych kompetencjach, a AI robi tylko pierwszą wersję i propozycje wariantów.

Aktualizacja polityki bez paraliżu organizacji

Technologia AI zmienia się szybciej niż typowy cykl aktualizacji regulaminów w firmie. Zamiast wciąż przepisywać cały dokument, praktycznym rozwiązaniem jest rozdzielenie treści na dwie warstwy:

  • Część stała – zasady ogólne, role, odpowiedzialności, podstawowe zakazy i wymogi (np. dotyczące danych osobowych). Ta część zmienia się rzadko.
  • Część operacyjna – lista zatwierdzonych narzędzi, konkretne procedury (np. zgłaszania nowych zastosowań), krótkie FAQ wewnętrzne. Może być aktualizowana częściej, nawet co kilka tygodni, przez właściciela polityki.

Najczęściej zadawane pytania (FAQ)

Jakie są najprostsze i najszybsze do wdrożenia zastosowania generatywnej AI w firmie?

Największy sens mają drobne, powtarzalne zadania: skracanie i porządkowanie maili, robienie streszczeń raportów i notatek ze spotkań, generowanie pierwszych wersji dokumentów (regulaminy, procedury, oferty), a także tworzenie wariantów tej samej komunikacji dla różnych odbiorców.

Do tego dochodzą pomysły i burze mózgów: listy haseł kampanii, propozycje nazw funkcji w produkcie, pytania na webinar, szkice agend szkoleń. Takie użycia nie wymagają integracji z systemami firmy – często wystarczy jedno korporacyjne konto w narzędziu AI i jasne zasady, czego nie wolno tam wklejać.

Jak odróżnić „gadżet” AI od realnego narzędzia pracy?

Dobry filtr to trzy pytania: czy narzędzie oszczędza czas w konkretnym procesie (np. obsługa zapytań klientów, przygotowanie ofert), czy da się ten efekt choćby zgrubnie zmierzyć (minuty, liczba błędów, czas reakcji) i czy użytkownicy wracają do niego sami z siebie po okresie testów.

Jeśli AI pojawia się tylko „przy okazji”, głównie do pokazów i generowania ciekawostek, a nie da się wskazać żadnego KPI, który się poprawił, to jest gadżet. Narzędzie pracy po kilku tygodniach po prostu ląduje w checklistach zadań („zrób draft w AI”, „streść zgłoszenie w AI”) i nikt nie musi do tego zmuszać zespołu.

Jak policzyć, czy generatywna AI naprawdę oszczędza czas i pieniądze?

Najprostszy model to: czas bez AI vs czas z AI razy liczba powtórzeń w miesiącu. Dla jednego zadania policz, ile minut zajmuje tradycyjnie, a ile z AI (wliczając: napisanie promptu, przejrzenie odpowiedzi, poprawki, przeklejenie tekstu). Różnicę pomnóż przez liczbę takich zadań w zespole.

Jeśli oszczędność na jednym zadaniu to 1–2 minuty, ale pojawia się ono dziesiątki lub setki razy miesięcznie, w skali zespołu robi się z tego konkret. Jeżeli różnica jest symboliczna, a do tego rosną ryzyka (np. ktoś wrzuca do AI fragmenty umów), lepiej skupić się na innych procesach niż na siłę „uszczęśliwiać” wszystko AI.

Do jakich zadań w firmie generatywna AI nadaje się dobrze, a gdzie lepiej jej nie używać?

AI dobrze sprawdza się tam, gdzie liczy się szybkość tworzenia wersji roboczych i łatwość wychwycenia błędów przez człowieka. Typowe obszary to: marketing i komunikacja (drafty treści, nagłówki, warianty CTA), obsługa klienta (propozycje odpowiedzi, streszczenia zgłoszeń), prace analityczno-biurowe (podsumowania, checklisty, porządkowanie informacji) i wsparcie programistów (fragmenty kodu, testy, dokumentacja).

Znacznie gorzej nadaje się do obszarów wysokiego ryzyka: decyzje regulacyjne, medyczne, finansowe, HR-owe (zatrudnianie, zwolnienia), rekomendacje inwestycyjne. Tutaj AI może być co najwyżej pomocnikiem do porządkowania informacji i tłumaczenia pojęć, a nie „mózgiem”, który podejmuje decyzje. Im większe ryzyko prawne i reputacyjne, tym silniejszy powinien być ludzki filtr.

Czy można ufać odpowiedziom generatywnej AI przy decyzjach biznesowych?

Modele językowe działają statystycznie – przewidują kolejne słowa, a nie „sprawdzają prawdę”. Dlatego mogą generować tzw. halucynacje: odpowiedzi brzmiące bardzo wiarygodnie, ale oparte na nieistniejących faktach (np. zmyślone artykuły naukowe, błędne sygnatury wyroków, wymyślone funkcje w aplikacjach).

Przy decyzjach biznesowych odpowiedź AI powinna być traktowana jak szkic lub hipoteza, nie jak werdykt. W obszarach prawnych, finansowych czy medycznych sens ma użycie AI do przygotowania zarysu dokumentu lub listy pytań do eksperta, ale nie do podejmowania ostatecznych decyzji. Polityka firmy powinna jasno zabraniać podejmowania istotnych decyzji wyłącznie na podstawie outputu AI.

Jakie są realne koszty wdrożenia generatywnej AI w organizacji?

Sam abonament lub opłata za API to dopiero początek. Do tego dochodzą: infrastruktura (jeśli idziecie w on‑premise lub własny klaster w chmurze: serwery, GPU, storage, backupy), czas ludzi (konfiguracja, integracje, budowa promptów, testowanie, szkolenia, nadzór, poprawki) oraz koszty bezpieczeństwa i compliance (ocena dostawców, audyty, narzędzia typu DLP/CASB, praca działu prawnego).

Dlatego rozsądne podejście to start od prostych, nieintegrowanych zastosowań z jasnymi zasadami użycia, a dopiero po udokumentowaniu oszczędności myślenie o większych projektach. Mniejsze, dobrze policzone pilotaże zazwyczaj wychodzą taniej niż od razu „wielkie wdrożenie na całą firmę”.

Czy każdy pracownik powinien mieć dostęp do generatywnej AI, czy lepiej zacząć od wybranych zespołów?

Z perspektywy kosztów i ryzyka bezpieczniej jest zacząć od kilku zespołów, które mają dużo powtarzalnej pracy tekstowej: obsługa klienta, marketing, analityka, PM-owie. Daje to szybko mierzalne efekty i pozwala dopracować zasady korzystania, zanim dostęp dostaną wszyscy.

Model „jedno korporacyjne konto dla pilota” lub kilka licencji dla liderów zespołów na start często w zupełności wystarcza, żeby wyłapać sensowne przypadki użycia. Dopiero gdy widać realną oszczędność czasu i akceptowalny poziom ryzyka, ma sens skalowanie na szerszą grupę użytkowników.