
Generatywne AI może skrócić przygotowanie oferty, maila czy szkicu artykułu z godzin do minut. W mikrofirmie ryzyko jest jednak większe niż w dużej organizacji: jedna pomyłka potrafi ujawnić dane klienta albo wypuścić w świat treść, której nikt nie sprawdził. Dlatego warto mieć krótką politykę AI – taką, którą da się stosować na co dzień, bez „korporacyjnej papierologii”.
Jeśli chcesz zacząć minimalistycznie, trzy reguły robią największą robotę. Po pierwsze: AI to narzędzie, a odpowiedzialność za efekt zawsze bierze człowiek. Po drugie: do AI nie trafiają dane poufne bez anonimizacji. Po trzecie: wszystko, co idzie do klienta lub do publikacji, przechodzi weryfikację faktów i języka.
W praktyce wystarczą trzy poziomy informacji. Dzięki nim nikt nie zgaduje „czy mogę to wkleić”, tylko działa według prostego schematu:
Zasada operacyjna: publiczne i wewnętrzne możesz podawać do AI, a poufne – tylko po anonimizacji albo w zatwierdzonym narzędziu firmowym, które masz świadomie dopuszczone do takiej pracy.
Anonimizacja ma być praktyczna. Zanim wkleisz fragment do AI, usuń elementy, po których da się zidentyfikować osobę lub firmę: imię i nazwisko, e-mail, telefon, adres, NIP, numery spraw i zamówień, identyfikatory z systemów. Nazwy własne zamień na role („Klient A”, „Dostawca B”). Zostaw tylko to, co jest potrzebne do zadania.
W polityce zapisz też twardy zakaz: nie wklejamy do AI haseł, tokenów, kluczy API i innych danych dostępowych. Bez wyjątków.
Ustal listę zatwierdzonych narzędzi AI (nawet 1–2) i trzymaj się jej. Najwięcej wycieków w małych firmach wynika nie z samego AI, tylko z dodatków do przeglądarki i integracji, które „czytają” strony, pocztę lub dokumenty. Dlatego dopisz prostą regułę: nie instalujemy wtyczek i rozszerzeń związanych z AI bez zgody właściciela firmy.
AI bywa kreatywne, ale bywa też zbyt pewne siebie. Dlatego treści wychodzące na zewnątrz muszą być redagowane i dopasowane do kontekstu. W polityce warto dopisać dwa krótkie wymagania jakości:
Wprowadź obowiązkową weryfikację w obszarach, gdzie błąd jest najdroższy: prawo, podatki, zdrowie i bezpieczeństwo, kalkulacje finansowe, parametry techniczne. Wystarczy krótki zapis: AI może sugerować, ale nie rozstrzyga. Decyzję i komunikat bierze człowiek, a jeśli czegoś nie da się zweryfikować – nie publikujemy i nie wysyłamy.
Mała firma potrzebuje prostego planu. W razie wysłania błędnej treści lub ujawnienia danych stosujemy trzy kroki: zatrzymujemy dalsze udostępnianie, opisujemy zdarzenie (co, kiedy, komu), a następnie wprowadzamy poprawkę w procesie (np. checklistę anonimizacji lub dodatkową kontrolę przed wysyłką). To ogranicza szkody i uczy zespół właściwych nawyków.
Nie musisz archiwizować każdego promptu. Wystarczy prosty zwyczaj: w zadaniu/projekcie zaznaczasz, że powstał szkic z użyciem AI, kto go przygotował i gdzie jest wersja końcowa po weryfikacji. Przy wrażliwych tematach dopisz krótką notatkę, na podstawie czego zweryfikowano informacje (np. dokument klienta, oficjalna dokumentacja, konsultacja ze specjalistą). To pomaga utrzymać jakość i porządek, a w razie sporu pokazuje, że firma działała rozsądnie.
Ustal listę zatwierdzonych narzędzi, dopisz trzy poziomy informacji, wprowadź zakaz wklejania danych dostępowych i poufnych oraz jeden obowiązkowy krok „weryfikacja przed wysyłką”. Na koniec wyślij politykę do zespołu/podwykonawców i wpisz ją do onboardingu. To małe kroki, ale w mikrofirmie zwykle wystarczają, żeby korzystać z AI szybciej i bezpieczniej.
Źródła: