AIBRON Kontakt →

USŁUGA · 04

Cloud AI — Azure, AWS, Google

Stand-up Azure AI Foundry, AWS Bedrock, Google Vertex. RAG nad SharePointem, internal chatboty pod Waszą wiedzą.

Cena 30–150k PLN
Czas 8-16 tygodni
Dla kogo firmy 100-500 osób, MS-stack lub regulowane (banking, healthcare)

Kiedy ta usługa, a nie zwykli „agenci AI”

Większość polskich MŚP nie potrzebuje cloud AI w tej skali. Standardowy chat agent na OpenAI API lub voice agent na ElevenLabs starcza w 80% przypadków — patrz Agenci AI.

Cloud AI ma sens gdy:

  1. Macie dużo wewnętrznej wiedzy (1000+ stron dokumentów, polityk, procedur, knowledge base) i chcecie internal chatbota, który odpowiada Waszemu zespołowi z tej bazy.
  2. Pracujecie w środowisku regulowanym (banking, healthcare, telecom, insurance) i nie możecie wysyłać danych do OpenAI/Anthropic publicznych endpointów.
  3. Macie istniejący kontrakt z Microsoft/AWS/Google i chcecie konsolidować w ich ekosystemie zamiast dodawać 5 nowych dostawców.
  4. Potrzebujecie 99.9% uptime z SLA — gotowe agent platforms (ElevenLabs, Vapi) nie dają takich gwarancji enterprise.

Trzy chmury — kiedy która

Microsoft Azure AI Foundry (priorytet dla MS-stack)

Najlepsze dla firm używających Microsoft 365 / Teams / SharePoint, wymaganej integracji z Active Directory / Entra ID, compliance EU (Azure ma datacentrum w Polsce — Microsoft Cloud for Sovereignty), internal Copilot Studio chatbots.

Co robimy: setup Azure subscription + resource groups + cost management. Deploy Azure OpenAI Service z prawnym zerowym retention. Integracja z SharePoint / OneDrive jako knowledge base. RAG przez Azure AI Search (Vector Search). Copilot Studio chatbots dla działów.

AWS Bedrock (priorytet dla regulowanych)

Najlepsze dla bankingu, insurance, healthcare z wymaganiami SOC2 / ISO27001. Use cases gdzie potrzebujecie wybierać między modelami (Anthropic Claude w Bedrock vs OpenAI w Azure vs Llama via Bedrock). Klienci już z AWS infrastructure.

Co robimy: setup AWS Bedrock z VPC isolation. Anthropic Claude / Meta Llama / Mistral models w prywatnej sieci. Knowledge bases przez Amazon Kendra lub OpenSearch. Lambda functions dla orchestration. IAM roles dla RBAC.

Google Vertex AI (rzadko)

Najlepsze dla firm już z Google Workspace + GCP. Use cases multimodalne (image + text + video) — Gemini 2.5 Pro jest najlepsze. Big data analytics z BigQuery + Vertex AI.

Cena — od czego zależy

30–50k PLN — Cloud AI starter: 1 chmura, 1 use case (np. internal chatbot nad SharePoint), 1-2 weeks discovery + 6-8 weeks build. Pierwszy klient którego stać na to to firma 100-150 osób.

60–90k PLN — Cloud AI standard: 1 chmura, 2-3 use cases (chatbot + RAG + automation), 8-12 weeks. Firma 200-300 osób, kilka działów.

100–150k PLN — Cloud AI advanced: Multi-cloud lub Azure z high security tier, compliance audit (ISO27001, SOC2 alignment), 12-16 weeks. Firma 300+ osób w regulowanej branży.

Dodatkowe koszty (płaci klient bezpośrednio dostawcy):

  • Azure / AWS / GCP subscription — typowo $500–5000/mo zależnie od ruchu
  • LLM API calls — $200–3000/mo zależnie od ilości zapytań
  • Storage (vector DB) — $50–500/mo

Te koszty są zewnętrzne — my robimy stand-up i optimization, ale faktura od cloud providera idzie bezpośrednio do Was.

Co dostajecie

  1. Architektura — diagramy w Mermaid, dokumentacja w polskim Notion, runbook na wypadek incident
  2. Infrastruktura — provisioned przez Terraform / Pulumi, version-controlled w Waszym Git
  3. Pipelines — CI/CD dla model deployment, embedding refresh, prompt updates
  4. Monitoring — dashboardy: koszty (per use case, per dzień), accuracy, latency, error rates
  5. Compliance docs — DPA z dostawcami LLM, RODO assessment, AI Act risk assessment dla high-risk use cases
  6. Szkolenie — 4-godzinne onboarding Waszego IT teamu, jak utrzymywać i rozwijać

ROI typowo

To nie jest usługa o „szybkim ROI” jak n8n workflow. To jest infrastructure inwestycja na 3-5 lat.

Internal chatbot dla 200-osobowej firmy:

  • Pre: pracownicy tracą 2 godziny tygodniowo szukając informacji w SharePointie
  • Post: agent odpowiada w 5 sekund, pracownicy zgłaszają 90% mniej „nie mogę znaleźć”
  • Oszczędność: 200 osób × 2h/tydz × 80 PLN/h = 32 000 PLN/tydzień = 1.6M PLN/rok
  • W praktyce realny pickup 30% (nie wszyscy używają od razu) → 480k PLN/rok
  • Koszt: 80k wdrożenie + 20k retainer/rok + 30k cloud bills/rok = 130k Y1
  • ROI: ~3-4 miesiące

Plan buildu (8–16 tygodni)

Faza 1 — Discovery & architecture (tydzień 1–2)

Workshop z IT, security, compliance teams. Audyt istniejącej infrastruktury i wymagań. Decyzja chmura (Azure / AWS / GCP). Architektura high-level w Miro/Mermaid. Compliance check (RODO, AI Act, ewentualnie ISO/SOC2).

Faza 2 — Foundation (tydzień 3–6)

Setup chmury, accounts, IAM, security baseline. Network — VPCs, private endpoints, encryption. Identity — SSO integration z Waszym IdP. Cost management + alerting.

Faza 3 — Core build (tydzień 7–12)

LLM service deployment (Azure OpenAI / AWS Bedrock). Knowledge base ingestion + embedding. RAG pipeline + retrieval tuning. Frontend integration (Copilot Studio / custom React / Teams app). Logging, monitoring, observability.

Faza 4 — UAT + production (tydzień 13–16)

Internal beta z 10-30 osobami. Tuning na podstawie real usage. Stopniowy rollout 10% → 50% → 100%. Production hand-over + documentation.

Dla kogo nie

  • Firmy poniżej 100 osób — nadmiar dla Waszej skali. Polecamy Agentów AI (gotowe platformy).
  • Firmy bez własnego IT/DevOps — będzie problem z utrzymaniem długoterminowym. Albo zatrudnijcie kogoś, albo zostańcie z managed agent platforms.
  • Firmy chcące „szybko” — to są projekty 3-4 miesięczne. Jeśli macie deadline 6 tygodni, polecamy alternatywę.

FAQ

Czy mogliście użyć on-prem zamiast cloud?

Tak, dla regulowanych klientów. Llama 3.1 / Mistral 8x7B działają na własnych serwerach z kartami GPU (NVIDIA A100/H100). Setup ~2x droższy, utrzymanie 3x trudniejsze. Polecamy tylko gdy regulacja faktycznie wymaga (np. niektóre banki).

Co z AI Act od sierpnia 2026?

EU AI Act dotyczy „high-risk” use cases (HR, credit scoring, education, medical, law enforcement). Dla większości business AI (internal chatbot, customer support) jest „limited risk” i wymaga tylko transparency (oznaczenie że to AI). Pełen compliance audit robimy w fazie 1, dokumentacja w deliverables.

Czy mogę zacząć tylko od proof-of-concept?

Tak — robimy 4-6 tygodniowe POC za 25-35k PLN. Pełen architektura na małym scope (np. chatbot dla 1 działu HR z 100 dokumentami knowledge base). Jeśli się sprawdza — przechodzimy do pełnego buildu.

Co konkretnie dostajecie

  • Stand-up infrastruktury AI w Azure / AWS / GCP
  • Architektura zgodna z wymaganiami compliance (RODO, AI Act)
  • RAG (Retrieval-Augmented Generation) nad Waszą wiedzą firmową
  • Internal chatbot pod SharePointem / Google Drive / własną bazą
  • Monitoring i observability (kosztów, jakości, latency)
  • Pełna dokumentacja architektury + runbook
  • 60-dniowy hypercare i optymalizacja kosztów

▲ Następny krok

Zacznijmy w piątek.

Konsultacja 30-minutowa, bez zobowiązań. Wybierzemy 1-2 najszybsze use case'y AI dla Waszej firmy.