
Kurumsal Yapay Zekâ Platformu Karşılaştırması: Vertex AI, Bedrock ve Azure AI Foundry (2026)
2026'da bir kurumsal yapay zekâ platformu seçmek, bir model seçmekten daha büyük bir karardır. Üç hyperscaler platformu — Google'ın Vertex AI'sı, AWS Bedrock ve Microsoft'un Azure AI Foundry'si — en iyi ticari ve açık ağırlıklı modellerin hepsine ev sahipliği yapar, ince ayarı destekler, ajansal ilkelere sahiptir ve hepsi kendi bulutlarının kimlik, depolama ve gözlemlenebilirliğiyle entegre olur. Farklar operasyonel kenarlarda: ince ayarın nasıl fiyatlandığı, hangi modellerin ilk gün geldiği, çok-ajanlı orkestrasyonun nasıl yapılandırıldığı, verinin VPC'nizden nasıl çıktığı (ya da çıkmadığı) ve mevcut sözleşme yenilemenizde tedarik konuşmasının neye benzediği.
Bu rehber bu operasyonel kenarları yan yana koyuyor. Seçimi gerçekten yapan ekipler için yazıldı — on iki aylık bir platform kararı üzerinde bir mühendislik başkan yardımcısıyla birlikte çalışan bir CTO ve bir veri başkanı — platformları beyaz tahtada değerlendiren biri için değil.
2026'da bir "kurumsal yapay zekâ platformu"nun gerçekte yapması gerekenler
Platformları karşılaştırmadan önce, kategori üzerinde anlaşmak yardımcı olur. 2026'da bir kurumsal yapay zekâ platformunun beş katman sağlaması gerekir:
Model erişimi — en az mevcut nesildeki GPT, Claude, Gemini, Llama, Gemma ve Mistral ailelerini içeren ve aralarında tutarlı API anlam bilimine sahip bir temel modeller kataloğu. Kurumsal ekipler kendilerini tek bir model satıcısına kilitleyemez; daha ucuz-ya-daha-iyi bir model çıktığında yeniden-platformlama maliyeti, tek-satıcı stratejilerine karşı baskın tartışmadır.
İnce ayar ve uyarlama — denetimli ince ayar, LoRA adaptörleri ve geri alıp üretme (RAG) ilkelleri, uyumluluk ekibinizin onaylayacağı özel veri sınırlarıyla. Hyperscaler'lar burada keskin biçimde farklılaşır.
Ajansal orkestrasyon — araç kullanımı, işlev çağrısı, bellek ve insan-döngüde kontrol noktalarıyla çok adımlı ajanlar oluşturmanın bir yolu. Orkestrasyon yığını hızla hareket ediyor; platform seçiminizin burada "ortaklarımız halleder" değil, net bir yanıtı olmalı.
Veri ve yönetişim — RBAC, denetim izleri, çıktı filtreleme, istem-ve-yanıt loglama, PII tespiti, modele özgü korumalar. Platformun aslında dağıtılabilir olup olmadığını belirleyen sıkıcı katman.
Maliyet ve faturalama netliği — model katmanı bazında token başına fiyatlandırma, ince ayar maliyeti şeffaflığı, sunucusuz-e karşı sağlanan endpoint ekonomisi ve kaçınılmaz sürpriz maliyet kategorileri (embedding üretimi, vektör deposu, güvenlik filtreleri). Kurumsal tedarik netlik ister; beşinci aya kadar maliyetleri gizleyen platform, sonraki yapay zekâ programını öldüren platformdur.
Vertex AI — kazandığı ve kaybettiği yerler
Google Cloud Vertex AI üçünün en model-agnostik olanıdır. Vertex'in birinci taraf model kataloğu doğrudan Gemini ve Gemma'yı kapsar (şaşırtıcı değil), ancak Model Garden yüzeyi Claude, Llama, Mistral ve düzinelerce açık ağırlıklı seçeneği birleşik API anlam bilimiyle tam yönetilen endpointler olarak sunar.
Vertex'in iyi yaptığı. Model Garden genişliği 2026'da gerçekten sınıfının en iyisidir. Birleşik ML Platform yüzeyleri (Notebooks, Pipelines, Feature Store, Model Registry, Endpoints, Vertex AI Experiments) geleneksel ML'i temel modellerle karıştırmak isteyen ekipler için tam MLOps yaşam döngüsünü kapsar. Gemini agresif biçimde fiyatlandırılmıştır ve Gemma 4'ün Nisan 2026 sürümü, 26B MoE varyantında milyon token başına 0,13 USD ile üretim düzeyinde açık ağırlıklı bir seçenek sundu — pazardaki en ucuz yönetilen üretim LLM'i. Agent Builder ve Vertex AI Agent Engine 2026 boyunca hızla olgunlaşıyor; Q2'de yayınlanan Agent Development Kit (ADK), Nisan 2026 itibarıyla herhangi bir hyperscaler'daki en temiz ajansal ilkel yüzeyi.
Uyumluluk duruşu sağlamdır: VPC Service Controls, düzenlenen dikeyler için Assured Workloads, müşteri yönetimli şifreleme anahtarları, tüm büyük bölgelerde veri ikameti.
Vertex'in kaybettiği yerler. Dokümantasyon kalitesi yüzeyler arasında tutarsızdır; aynı kavram (örn. batch prediction) Vertex AI dokümanlarında, Gemini dokümanlarında ve Google Cloud genel dokümanlarında farklı şekilde açıklanmıştır. Diğer bulutlardan gelen ekipler ilk altı haftalarını yapım sorunlarından çok keşfedilebilirlik sorunlarıyla geçirmektedir. Faturalandırma birleşmesi Google Cloud mülkünüzün geri kalanıyla — zaten GCP'deyseniz özellik, değilseniz sürtünme noktasıdır çünkü raporlama için yapay zekâ harcamasını genel bulut harcamasından ayıracak temiz bir yol yoktur.
Vertex en iyi seçimdir: zaten Google Cloud'da iseniz, model genişliği önemliyse, Gemma 4 ekonomisi çekici ise (ki çoğu ekip için öyle olmalı) ve MLOps yığınınız gerçekten birleşik yüzeylerden yararlanıyorsa. Tipik tavan şikâyeti: "Vertex aynı şeyi yapmanın çok fazla yoluna sahip." Tipik zemin şikâyeti: "onboarding altı hafta sürdü."
AWS Bedrock — kazandığı ve kaybettiği yerler
Bedrock, AWS'nin yönetilen model erişim katmanıdır; daha geniş AWS yapay zekâ yığınının üzerine katmanlanmıştır (eğitim ve MLOps için SageMaker, uygulamalar için Amazon Q, orkestrasyon için Bedrock Agents, RAG için Bedrock Knowledge Bases).
Bedrock'un iyi yaptığı. AWS tedarik ve uyumluluğu, AWS'ye derinden gömülü kuruluşlar için üçünün en kolay yoludur — aynı IAM politikalarını, aynı VPC tasarımını, aynı HIPAA BAA'yı, aynı ana hizmet sözleşmesini kullanıyorsunuz. AWS'de düzenlenen bir sektör kuruluşu için, Bedrock genellikle yalnızca tedarik maliyeti gerekçesiyle doğru seçim olur. 2026'da model kataloğu Claude'u (Anthropic ve AWS'nin derin bir ortaklığı var), Titan'ı (AWS birinci taraf), Llama'yı, Mistral'ı, Cohere'yi, Meta'nın çok modlu modellerini ve DeepSeek'in 2026 serisini kapsar. Claude'un Anthropic'in doğrudan API'siyle paritesi neredeyse mükemmeldir — aynı model ID'leri, aynı bağlam uzunlukları, aynı araç kullanım anlam bilimleri.
Bedrock Guardrails üç platformun en güçlü içerik filtreleme katmanıdır; PII tespiti, toksisite filtreleri, reddedilen konu kontrolleri, prompt-injection azaltma hepsi özel uygulama çalışması olarak değil, yapılandırılabilir politikalar olarak gelir.
Bedrock Agents ve Bedrock Agent Core yüzeyleri teknik olarak yetenekli, ama geliştirici deneyimi Vertex'in ADK'sinden daha ağır.
Bedrock'un kaybettiği yerler. Anthropic/Titan/Llama çekirdeğinin dışındaki model genişliği Vertex'in Model Garden'ından daha dardır. Gemini erişimi yerel değildir (Google'a çapraz-bulut yaparsınız). Bedrock'un sağlanan verim modelinde ince ayar ekonomisi agresiftir; ekipler dokümantasyonun aralıklı iş yükleri için sunucusuzun ne kadar daha ucuz olduğunu yeterince vurgulamaması nedeniyle taahhüt-e karşı sunucusuz dengesiyle düzenli olarak şaşırırlar.
Gözlemlenebilirlik parçalıdır. Bedrock için CloudWatch metrikleri artı Bedrock Prompt Flows artı Bedrock Evaluations, kağıt üzerinde bir gibi hissettiren ama pratikte üç olan üç yüzeydir.
Bedrock en iyi seçimdir: AWS'ye derinden gömülüyseniz, Anthropic'in Claude ailesi mimarinizde merkeziyse, uyumluluk öykünüz AWS'nin mevcut sertifikalarına dayanıyorsa ve kutudan çıktığı gibi içerik filtreleme korumalarına değer veriyorsanız. Tipik tavan şikâyeti: "Bedrock'un dışından daha yavaş gönderiyoruz." Tipik zemin şikâyeti: "Model kataloğu beklediğimizden daha dar."
Azure AI Foundry — kazandığı ve kaybettiği yerler
Azure AI Foundry, Microsoft'un 2024'te Azure AI Studio'nun yerine yeniden adlandırılan halefidir. 2026'da Microsoft 365 / Copilot / kurumsal ekosistemle en sıkı entegrasyondur.
Foundry'nin iyi yaptığı. OpenAI model erişimi, düzenlenen sektörlerde çoğu GPT ailesi dağıtımı için özeldir — Azure-OpenAI ortaklığı, hukukun OpenAI doğrudan yerine Azure-OpenAI'yi onayladığı Fortune 500 dağıtımlarında Azure'a hâlâ kopyalanması zor bir avantaj verir. GPT-5, O-serisi akıl yürütme modelleri ve 2026 çok-modlu nesilleri lansman günü veya haftalar içinde Foundry'e gelir.
Foundry'nin model kataloğu OpenAI'nin ötesine uzanır: Llama, Mistral, DeepSeek, Cohere, Phi (Microsoft birinci taraf), görsel üretim için Stability modelleri ve 2025 ortaklık genişletmesiyle Anthropic. Genişlik, Bedrock'tan çok Vertex'e yakındır.
Öldürücü entegrasyon Microsoft 365'tir. Kurumsal kiracılar, doğrudan Exchange, Teams, SharePoint ve Microsoft Graph'a takılan Copilot Studio, Copilot Agents ve Azure AI Foundry Agents alır. İş akışları zaten Microsoft 365 üzerinden geçen bir kuruluş için, bir ajansal iş akışında değer-süresi ay değil, gün olarak ölçülür.
Foundry'de uyumluluk duruşu, düzenlenen dikeyler için sektörün en geniş sertifika yığını olan Azure'un sertifika yığınını devralır. Özel endpointler, müşteri yönetimli anahtarlar, veri ikameti — hepsi standart.
Foundry'nin kaybettiği yerler. Dokümantasyon ve yüzey adlandırması akış halinde — Studio'dan Foundry'e yeniden adlandırma, Copilot Studio ve Azure AI Foundry Agent ayrımı ve süregelen Semantic Kernel ve AutoGen konumlandırma, ekiplerin yanlış yüzeyi yanlış nedenle seçip göç üzerinde haftalar yakması anlamına gelir. Saf API-önce inşa ekipleri için DX, Bedrock veya Vertex'ten daha kötüdür; Microsoft'un yüzeyleri Microsoft müşterisi için tasarlanmıştır, bulut-agnostik geliştirici için değil.
Azure AI Foundry'nin sağlanan verim birimleri (PTU'lar) için fiyatlandırması, ani iş yükleri için Bedrock veya Vertex'teki sunucusuza göre pahalıdır. Sürdürülen yüksek verimli trafik olmayan ekipler PTU'larda fazla öder.
Foundry en iyi seçimdir: Microsoft 365 veya Dynamics dükkânıysanız, OpenAI'nin GPT ailesi mimarinizde merkeziyse, Azure'da düzenlenen sektör uyumluluğu zorunluysa ve var olan Microsoft iş akışlarına bağlanmanın değer-süresi en düşük token başına maliyetten daha önemliyse. Tipik tavan şikâyeti: "yüzey yayılması." Tipik zemin şikâyeti: "Üretim trafiğimiz olana kadar maliyet yapısı opaktır."
Önemli boyutlarda yan yana
2026'da model genişliği. Vertex, Model Garden aracılığıyla Gemini, Gemma 4, Claude, Llama, Mistral ve elli artı diğerini kapsar. Bedrock, Claude, Titan, Llama, Mistral, Cohere, DeepSeek ve büyüyen bir kadroyu kapsar. Foundry, OpenAI GPT, Llama, Mistral, DeepSeek, Cohere, Phi ve Anthropic'i kapsar. Tek bir spesifik model pazarlıksızsa, yanıt genellikle açıktır (Gemini → Vertex, GPT → Foundry veya Bedrock'un Anthropic ortaklığı); genişlik önemliyse Vertex ve Foundry yakındır, Bedrock arkadadır.
Token başına ekonomi. Her platformun fiyatlandırması, altta yatan model sağlayıcısının doğrudan API'sini 0-10% bandında takip eder. Vertex, milyon token başına 0,13 USD ile Gemma 4 26B MoE'de kazanır; Bedrock, Anthropic Claude Haiku maliyetinde kazanır; Foundry, GPT-4o-mini'de kazanır. Sürdürülen yüksek-verim iş yüklerinde açık ağırlıklı modellerde üçü de self-hosted vLLM'ye kaybeder; bu nedenle hibrit mimariler (ani trafik için yönetilen, sürdürülen için self-hosted) giderek yaygınlaşıyor — Gemma 4 dağıtım rehberimiz self-host ekonomisini derinlemesine ele alıyor.
İnce ayar. Vertex ince ayarı en esnek olanıdır (tam ince ayar, LoRA, adaptör ayarı). Bedrock ince ayar fiyatlandırması agresiftir ama UX üçünün en ağırıdır. Foundry özellikle OpenAI modellerinde güçlü ince ayara sahiptir, diğerlerinde daha az tamdır.
Ajansal orkestrasyon. Vertex ADK en temiz ilkel yüzeyidir. Bedrock Agents + Agent Core teknik olarak yetenekli ama daha yavaş geliyor. Foundry, Microsoft ekosistemi iş akışları için Copilot Studio Agents ve daha API-önce yapımlar için Azure AI Foundry Agents'a sahiptir; ayrım kafa karıştırıcıdır ama her biri bireysel olarak çalışır.
Uyumluluk. Üçü de SOC 2, ISO 27001, HIPAA BAA kullanılabilirliği, GDPR ve bölgeye özgü sertifikalar gönderir. Farklar niş düzenlenen dikeylerde ortaya çıkar: Bedrock FedRAMP'ta öncüdür, Foundry FFIEC ve sağlığa özgü kombinasyonlarda öncüdür, Vertex Avrupa düzenleyici duruşunda öncüdür.
On iki ayda toplam sahip olma maliyeti. Çevresindeki bulut servisleri, dağıtımı sürdürmek için DevOps zamanı, ince ayar döngüleri ve gözlemlenebilirlik araçları hesaba katıldığında, token başına en düşük maliyete sahip platform nadiren en düşük TCO'ya sahip platformdur. Çoğu kuruluş platformlar arasında on iki ayda birbirlerinin %15'i içinde öder; gerçek TCO farkı tarife kartında değil, mühendislik zamanındadır.
Müşterilerle gerçekten kullandığımız bir karar ağacı
Kurumsal müşterilerin üç platform arasında seçim yapmasına yardım ederken — ve bağlama bağlı olarak üçü için de savunma yaparız — uyguladığımız karar ağacı dört dalıdır.
Dal bir: zaten hangi bulut üzerindesiniz? Kuruluşunuz tek bir bulutun %80+'ındaysa, oradan başlayın. Özellikle yapay zekâ için ikinci bir bulut eklemek ağ, gözlemlenebilirlik ve uyumluluk yükünüzü üç katına çıkarır. Spesifik bir model veya özellik boşluğu yoksa, mevcut bulutunuzun yapay zekâ platformunda kalın.
Dal iki: hangi model ailesi pazarlıksız? Gemini merkezi ise (çok-modlu iş, uzun bağlam veya maliyet), Vertex kazanır. Azure-onaylı uyumluluk ile GPT-5 merkezi ise, Foundry kazanır. AWS uyumluluğu ile Claude merkezi ise, Bedrock kazanır. Spesifik bir model pazarlıksız değilse, üçüncü dala atlayın.
Dal üç: gözlemlenebilirlik ve MLOps yığınınız neye benziyor? Mevcut MLOps araçları olan ekipler (MLflow, Weights & Biases, LangSmith, Datadog) üçüyle eşit iyi entegre olur. Mevcut MLOps araçları olmayan ekipler Vertex'in birleşik yüzeyinden en fazla yararlanır; Bedrock'un üç yüzeyi veya Foundry'nin birden fazla ürünü arasında tutarlı bir gözlemlenebilirlik öyküsü inşa etmek daha zordur.
Dal dört: uyumluluk çıtası nedir? Azure-onaylı-yalnız tedarik listeleri olan düzenlenen dikeyler, diğer yanıtlardan bağımsız olarak Foundry'e gider. AWS-onaylı-yalnız Bedrock'a gider. Vertex'in düzenlenen sektör öyküsü Avrupa kamu sektörü ve Avrupa finansal hizmetlerinde en güçlüdür.
Kimsenin sevmediği yanıt: üçü arasında hibrit
2026'daki kurumsal müşterilerimizin büyüyen bir kısmı, model erişimi, maliyet optimizasyonu ve satıcı konsantrasyonu riskine dayanan nedenlerle en az iki hyperscaler arasında hibrit mimariler çalıştırıyor. Desen tipik olarak şu şekildedir:
Birincil platform (kuruluşun mevcut bulutu), tüm düzenlenen veri akışları dahil yapay zekâ iş yüklerinin %80+'ını yönetir.
İkincil platform, birincil tarafından iyi desteklenmeyen spesifik bir model ailesi gerektiren iş yüklerini yönetir (örn. Google-Cloud-birincil bir kuruluş, düzenlenmeyen bir iş akışı üzerindeki spesifik bir GPT-5 ince ayarı için Foundry kullanıyor).
Self-hosted vLLM, yönetilen token başına ekonominin GPU-saat ekonomisine kaybettiği sürdürülen yüksek-verim açık ağırlıklı iş yüklerini yönetir.
Bu ekledği karmaşıklık gerçektir; ücretsiz bir mimari seçim değildir. Çoğu kuruluş birinci yılında çoklu-hyperscaler yapay zekâya ihtiyaç duymaz. Ancak ikinci yıla kadar çoğu kurumsal yapay zekâ programının, ikincil platformu tartışan en az bir iş yükü vardır ve soru, bunu resmi olarak ikincil platformda mı yoksa gölge-BT yolları üzerinden mi çalıştıracağımız haline gelir. Resmi olmasına güçlü bir önyargımız vardır.
On iki haftada karar vermek
Bir kurumsal yapay zekâ platformu seçmek için somut on iki haftalık bir süreç:
Haftalar 1-2: gereksinimleri netleştirin. Model ailelerini, ince ayarı, ajansalı, veri ikametini, uyumluluk çıtasını ve bütçe zarfını kapsayan tek sayfalı bir gereksinimler belgesi üretmek için ürün ve uyumlulukla çalışın.
Haftalar 3-6: iki platformda paralel bir prototip kurun. Bir platformu değerlendirmeyin; aynı kullanım durumuna karşı iki platformu değerlendirin. Bu dört haftada topladığınız karşılaştırmalı veri kararın temelidir. Tipik maliyet: birkaç bin dolar platform kullanımı.
Haftalar 7-8: maliyet modeli. Prototip verisini alın ve birinci yıl üretim trafiğine ekstrapole edin. Gizli maliyetleri dahil edin (embedding üretimi, vektör depoları, güvenlik filtreleri, gözlemlenebilirlik). Çoğu ekip burada şaşırır.
Haftalar 9-10: uyumluluk ve tedarik doğrulaması. En iyi adayı spesifik sözleşme diliyle hukuk ve tedarikten geçirin. Burada sürprizler kararı sıfırlar.
Haftalar 11-12: pilot üretim dağıtımı. Seçilen platformda sınırlı bir üretim iş yükü, net başarı kriterleri ve on altıncı haftada açık bir "git/gitme" kararıyla.
Platform seçimindeki yapay zekâ entegrasyonu danışmanlığı işlerimiz tipik olarak bu deseni takip eder ve mühendislik, ürün, uyumluluk ve finans tarafından imzalanan net on iki ila yirmi dört aylık bir yol haritasıyla sonuçlanır. Amaç "en iyi" platformu seçmek değildir; amaç on sekizinci ayda pişman olmayacağınız platformu seçmektir.
Ne yapmamalı
Düzenli olarak gördüğümüz üç anti-desen:
Demo üzerinden seçmek. Satıcı demoları cilalıdır. Demo ortamında verinizin hiçbiri, uyumluluk kısıtlarınızın hiçbiri ve ölçeğinizin hiçbiri yoktur. Demoyu kazanan platform, otomatik olarak üretimi kazanan platform değildir.
Sadece token başına maliyete karar vermek. Token başına maliyet TCO'nun %30'udur. Mühendislik zamanı, gözlemlenebilirlik, uyumluluk sürtünmesi ve bulut-hizmet entegrasyonu diğer %70'idir.
İlk üretim dağıtımından önce çok yıllı taahhüt kilitlemek. Hyperscaler'lar çok yıllı kurumsal indirim programlarına (EDP'lere) bayılırlar. EDP'ler değerlidir, ama üç ay boyunca gerçek bir iş yükü çalıştırmadan önce değildir. Demo sahibi olduğunuzda değil, veri sahibi olduğunuzda taahhüt edin.
Nereden başlamalı
Bir kurumsal yapay zekâ platformu değerlendirmesine başlıyorsanız, üç somut sonraki adım:
- Ürün, mühendislik ve uyumluluk imzası olan tek-sayfa gereksinim belgesini yazın. Herhangi bir satıcıyla konuşmadan önce bunu yapın.
- Paralel olarak prototip yapacak iki platformu belirleyin. İkisini bulut-uyumu ve model-ailesi gereksinimlerine göre seçmek genellikle doğru başlangıç buluşu sayısıdır.
- Pilot zaman çizelgesini koruyun. Altı ayın ötesine kayan platform kararları neredeyse her zaman sonda aceleye getirilir. Önceden sabit bir karar tarihi belirleyin.
Internative'in yapay zekâ entegrasyonu danışmanlığı ekibi Vertex, Bedrock ve Foundry üzerinde bu değerlendirmeleri yürütür. Bir platform kararının ortasındaysanız ve üçünde de canlı üretim deneyimi olan bir ortak istiyorsanız, konuşmaya başlayın, bir kapsam çağrısı ayırtalım.