Kiedy ta usługa, a nie zwykli „agenci AI”
Większość polskich MŚP nie potrzebuje cloud AI w tej skali. Standardowy chat agent na OpenAI API lub voice agent na ElevenLabs starcza w 80% przypadków — patrz Agenci AI.
Cloud AI ma sens gdy:
- Macie dużo wewnętrznej wiedzy (1000+ stron dokumentów, polityk, procedur, knowledge base) i chcecie internal chatbota, który odpowiada Waszemu zespołowi z tej bazy.
- Pracujecie w środowisku regulowanym (banking, healthcare, telecom, insurance) i nie możecie wysyłać danych do OpenAI/Anthropic publicznych endpointów.
- Macie istniejący kontrakt z Microsoft/AWS/Google i chcecie konsolidować w ich ekosystemie zamiast dodawać 5 nowych dostawców.
- Potrzebujecie 99.9% uptime z SLA — gotowe agent platforms (ElevenLabs, Vapi) nie dają takich gwarancji enterprise.
Trzy chmury — kiedy która
Microsoft Azure AI Foundry (priorytet dla MS-stack)
Najlepsze dla firm używających Microsoft 365 / Teams / SharePoint, wymaganej integracji z Active Directory / Entra ID, compliance EU (Azure ma datacentrum w Polsce — Microsoft Cloud for Sovereignty), internal Copilot Studio chatbots.
Co robimy: setup Azure subscription + resource groups + cost management. Deploy Azure OpenAI Service z prawnym zerowym retention. Integracja z SharePoint / OneDrive jako knowledge base. RAG przez Azure AI Search (Vector Search). Copilot Studio chatbots dla działów.
AWS Bedrock (priorytet dla regulowanych)
Najlepsze dla bankingu, insurance, healthcare z wymaganiami SOC2 / ISO27001. Use cases gdzie potrzebujecie wybierać między modelami (Anthropic Claude w Bedrock vs OpenAI w Azure vs Llama via Bedrock). Klienci już z AWS infrastructure.
Co robimy: setup AWS Bedrock z VPC isolation. Anthropic Claude / Meta Llama / Mistral models w prywatnej sieci. Knowledge bases przez Amazon Kendra lub OpenSearch. Lambda functions dla orchestration. IAM roles dla RBAC.
Google Vertex AI (rzadko)
Najlepsze dla firm już z Google Workspace + GCP. Use cases multimodalne (image + text + video) — Gemini 2.5 Pro jest najlepsze. Big data analytics z BigQuery + Vertex AI.
Cena — od czego zależy
30–50k PLN — Cloud AI starter: 1 chmura, 1 use case (np. internal chatbot nad SharePoint), 1-2 weeks discovery + 6-8 weeks build. Pierwszy klient którego stać na to to firma 100-150 osób.
60–90k PLN — Cloud AI standard: 1 chmura, 2-3 use cases (chatbot + RAG + automation), 8-12 weeks. Firma 200-300 osób, kilka działów.
100–150k PLN — Cloud AI advanced: Multi-cloud lub Azure z high security tier, compliance audit (ISO27001, SOC2 alignment), 12-16 weeks. Firma 300+ osób w regulowanej branży.
Dodatkowe koszty (płaci klient bezpośrednio dostawcy):
- Azure / AWS / GCP subscription — typowo $500–5000/mo zależnie od ruchu
- LLM API calls — $200–3000/mo zależnie od ilości zapytań
- Storage (vector DB) — $50–500/mo
Te koszty są zewnętrzne — my robimy stand-up i optimization, ale faktura od cloud providera idzie bezpośrednio do Was.
Co dostajecie
- Architektura — diagramy w Mermaid, dokumentacja w polskim Notion, runbook na wypadek incident
- Infrastruktura — provisioned przez Terraform / Pulumi, version-controlled w Waszym Git
- Pipelines — CI/CD dla model deployment, embedding refresh, prompt updates
- Monitoring — dashboardy: koszty (per use case, per dzień), accuracy, latency, error rates
- Compliance docs — DPA z dostawcami LLM, RODO assessment, AI Act risk assessment dla high-risk use cases
- Szkolenie — 4-godzinne onboarding Waszego IT teamu, jak utrzymywać i rozwijać
ROI typowo
To nie jest usługa o „szybkim ROI” jak n8n workflow. To jest infrastructure inwestycja na 3-5 lat.
Internal chatbot dla 200-osobowej firmy:
- Pre: pracownicy tracą 2 godziny tygodniowo szukając informacji w SharePointie
- Post: agent odpowiada w 5 sekund, pracownicy zgłaszają 90% mniej „nie mogę znaleźć”
- Oszczędność: 200 osób × 2h/tydz × 80 PLN/h = 32 000 PLN/tydzień = 1.6M PLN/rok
- W praktyce realny pickup 30% (nie wszyscy używają od razu) → 480k PLN/rok
- Koszt: 80k wdrożenie + 20k retainer/rok + 30k cloud bills/rok = 130k Y1
- ROI: ~3-4 miesiące
Plan buildu (8–16 tygodni)
Faza 1 — Discovery & architecture (tydzień 1–2)
Workshop z IT, security, compliance teams. Audyt istniejącej infrastruktury i wymagań. Decyzja chmura (Azure / AWS / GCP). Architektura high-level w Miro/Mermaid. Compliance check (RODO, AI Act, ewentualnie ISO/SOC2).
Faza 2 — Foundation (tydzień 3–6)
Setup chmury, accounts, IAM, security baseline. Network — VPCs, private endpoints, encryption. Identity — SSO integration z Waszym IdP. Cost management + alerting.
Faza 3 — Core build (tydzień 7–12)
LLM service deployment (Azure OpenAI / AWS Bedrock). Knowledge base ingestion + embedding. RAG pipeline + retrieval tuning. Frontend integration (Copilot Studio / custom React / Teams app). Logging, monitoring, observability.
Faza 4 — UAT + production (tydzień 13–16)
Internal beta z 10-30 osobami. Tuning na podstawie real usage. Stopniowy rollout 10% → 50% → 100%. Production hand-over + documentation.
Dla kogo nie
- Firmy poniżej 100 osób — nadmiar dla Waszej skali. Polecamy Agentów AI (gotowe platformy).
- Firmy bez własnego IT/DevOps — będzie problem z utrzymaniem długoterminowym. Albo zatrudnijcie kogoś, albo zostańcie z managed agent platforms.
- Firmy chcące „szybko” — to są projekty 3-4 miesięczne. Jeśli macie deadline 6 tygodni, polecamy alternatywę.
FAQ
Czy mogliście użyć on-prem zamiast cloud?
Tak, dla regulowanych klientów. Llama 3.1 / Mistral 8x7B działają na własnych serwerach z kartami GPU (NVIDIA A100/H100). Setup ~2x droższy, utrzymanie 3x trudniejsze. Polecamy tylko gdy regulacja faktycznie wymaga (np. niektóre banki).
Co z AI Act od sierpnia 2026?
EU AI Act dotyczy „high-risk” use cases (HR, credit scoring, education, medical, law enforcement). Dla większości business AI (internal chatbot, customer support) jest „limited risk” i wymaga tylko transparency (oznaczenie że to AI). Pełen compliance audit robimy w fazie 1, dokumentacja w deliverables.
Czy mogę zacząć tylko od proof-of-concept?
Tak — robimy 4-6 tygodniowe POC za 25-35k PLN. Pełen architektura na małym scope (np. chatbot dla 1 działu HR z 100 dokumentami knowledge base). Jeśli się sprawdza — przechodzimy do pełnego buildu.