Umowy na AI – na co uważać przy zakupie i wdrożeniu narzędzi AI?
27.04.2026 | SZTUCZNA INTELIGENCJA (AI)
Zakup narzędzia opartego na sztucznej inteligencji jest coraz częściej standardową decyzją biznesową. Firmy wdrażają chatboty, copilots, systemy wspierające sprzedaż, automatyzację obsługi klienta, analitykę predykcyjną, narzędzia HR czy rozwiązania generatywne do pracy biurowej.
Wiele takich projektów realizowanych jest w sposób uproszczony – poprzez akceptację standardowego regulaminu SaaS albo podpisanie krótkiej umowy handlowej, która nie uwzględnia specyfiki systemów AI. To może być kosztowny błąd.
Technologia AI generuje ryzyka, których klasyczne umowy IT często nie adresują, jak np. nieprzewidywalność wyników, odpowiedzialność za błędne decyzje, wykorzystanie danych klienta do trenowania modeli, ryzyka regulacyjne związane z AI Act, kwestie własności intelektualnej, czy brak kontroli nad zmianami modelu.
W tym numerze AI Flash pokazujemy, jakie postanowienia umowne należy przeanalizować przed zakupem systemu AI – i dlaczego klasyczny wzór umowy IT może okazać się niewystarczający.
Zakup AI to nie zwykły software
Tradycyjne oprogramowanie działa według ustalonej logiki i przewidywalnych parametrów. Można opisać jego funkcjonalności, przetestować je i stosunkowo łatwo określić odpowiedzialność stron. W przypadku AI sytuacja wygląda inaczej.
System oparty na AI może:
- generować odpowiedzi, których nie da się w pełni przewidzieć,
- zmieniać zachowanie po aktualizacjach modelu,
- tworzyć rezultaty obarczone błędem lub uprzedzeniami,
- działać inaczej w zależności od kontekstu promptu,
To oznacza, że klasyczna umowa licencyjna lub standardowy SaaS agreement nie odpowiada na wszystkie pytania, które pojawiają się przy wdrożeniu AI.
Najważniejsze klauzule w umowie AI
1. Status regulacyjny systemu i zgodność z AI Act
Jednym z pierwszych pytań powinno być: jakiego rodzaju system AI kupujemy? Czy jest to: model ogólnego przeznaczenia (GPAI), system wysokiego ryzyka, komponent osadzony w innym produkcie?
To nie jest wyłącznie kwestia techniczna. Od klasyfikacji zależą obowiązki prawne stron.
W tym kontekście, należy oczekiwać od dostawcy:
- oświadczenia dotyczącego statusu systemu,
- informacji o zgodności z AI Act,
- przekazania dokumentacji technicznej,
- informacji o ograniczeniach użycia,
- wsparcia w razie zapytań regulatora.
2. Odpowiedzialność za output AI
To jedna z najważniejszych części kontraktu. System AI może wygenerować: błędną rekomendację, nieprawdziwe dane, halucynację, treść naruszającą prawa osób trzecich, wadliwą analizę prowadzącą do straty biznesowej.
Pytanie brzmi: kto za to odpowiada?
W praktyce wielu dostawców próbuje w umowach wyłączyć odpowiedzialność za wszelkie rezultaty działania AI.
Typowe zapisy:
- „results may be inaccurate”
- „customer is solely responsible for use of outputs”
- „provider disclaims liability for generated content”
To szczególnie niebezpieczne, jeśli AI wspiera decyzje HR, finansowe, compliance lub operacyjne.
3. Dane wejściowe i poufność promptów
Firmy często nie doceniają znaczenia promptów i danych przekazywanych do systemu.
Tymczasem mogą one zawierać: dane osobowe, informacje handlowe, tajemnice przedsiębiorstwa, dane klientów, dokumenty wewnętrzne, know-how organizacji.
Umowa powinna jasno określać:
- czy dane są wykorzystywane do trenowania modelu,
- czy prompty są przechowywane,
- w jakiej lokalizacji dane są hostowane i kto ma do nich dostęp
Brak takich regulacji to częsty problem przy korzystaniu z publicznych modeli AI.
4. Własność intelektualna
Kto ma prawa do efektów pracy systemu AI? To pytanie dotyczy m.in.: tekstów marketingowych, raportów, kodu źródłowego, grafik, czy modeli trenowanych dla klienta.
Warto rozstrzygnąć:
- czy output może być używany komercyjnie,
- czy użytkownik ma wyłączność,
- czy dostawca zachowuje prawa,
- czy podobne treści mogą zostać wygenerowane dla innych użytkowników,
- kto odpowiada za naruszenia praw autorskich.
Bez tego mogą pojawić się spory przy dalszym wykorzystaniu rezultatów.
5. Zmiany modelu i aktualizacje
System AI nie jest produktem statycznym. Dostawcy często: zmieniają modele bazowe, aktualizują parametry, usuwają funkcje, modyfikują limity użytkowania. Warto zatem zabezpieczyć: obowiązek informowania o istotnych zmianach, okresy przejściowe, kompatybilność integracji, możliwość testów przed wdrożeniem zmian, prawo rozwiązania umowy przy istotnym pogorszeniu usługi.
6. Audyt i transparentność
Jeśli AI wspiera ważne procesy biznesowe, użytkownik powinien mieć możliwość uzyskania informacji o działaniu usługi. W umowie warto przewidzieć: listę subprocesorów, informacje o architekturze rozwiązania, politykę aktualizacji, zasady retencji danych, możliwość uzyskania raportów bezpieczeństwa, procedurę obsługi incydentów.
Najczęstsze ,,red flags"
Uważaj, jeśli widzisz w umowie:
- pełne wyłączenie odpowiedzialności dostawcy
- brak zapisów o danych klienta
- brak AI Act compliance clause
- jednostronne prawo zmiany usługi
- brak SLA
- brak prawa audytu
- brak procedury exit planu
- niejasne zasady IP
Jak możemy pomóc?
Wspieramy firmy przy zakupie i wdrażaniu rozwiązań AI, m.in. w zakresie:
- negocjacji umów z dostawcami AI,
- audytów kontraktów AI SaaS,
- przygotowania klauzul AI Act,
- analizie odpowiedzialności kontraktowej stron.
Dobrze przygotowany kontrakt może zdecydować o tym, czy projekt AI będzie bezpieczny, skalowalny i zgodny z prawem.