1. Anasayfa
  2. VMware VSAN

VMware vSAN Ağ Yapılandırması ve Performans için Teaming Kullanımı


VMware’in vSphere platformu uzun yıllardır birden fazla fiziksel ağ arabirim kartını (NIC) birleştirerek hem yüksek performans hem de yedeklilik sağlamanın çeşitli yollarını sunmuştur. Ancak vSAN (Virtual SAN) gibi kritik altyapı çözümlerinde ağ topolojisinin doğru tasarlanması performans, kararlılık ve veri sürekliliği açısından hayati öneme sahiptir.

Bu makalemde VMware vSAN için en iyi teaming seçeneklerini ve bunların Clos tarzı spine-leaf topolojiler, yüksek bant genişlikli bağlantılar, ağ tasarımı ve modern veri merkezi gereksinimleri bağlamında nasıl ele alınması gerektiğini adım adım açıklayacağım.

NIC Teaming Nedir? Temel Kavramlar ve Amaçlar

NIC teaming (bağlantı gruplama) bir sunucunun birden fazla fiziksel NIC portunu birleştirerek tek bir sanal ağ bağlantısı gibi kullanmasını sağlar.

Temel amaçları:
– Yedeklilik (Redundancy) : NIC veya switch arızası durumunda trafik diğer bağlantılar üzerinden devam eder.
Performans Artışı (Load Balancing) : Trafiğin birden fazla fiziksel bağlantıya dağıtılması sayesinde toplam ağ bant genişliği artırılır.

Ancak vSAN için bu durum daha karmaşık. Çünkü vSAN:

  • Depolama trafiği üretir (yüksek bant genişliği ve düşük gecikme gerektirir),
  • Tutarlı ve tahmin edilebilir yollar tercih eder,
  • Veri kaybı ve gecikmeye karşı hassastır.

vSAN için Yaygın Teaming Seçeneklerinin Derin Analizi

Active/Standby (Önerilen Yöntem)

  • Nasıl Çalışır?
    Her vSAN hostunda tek bir VMkernel portu bulunur. Bu port bir uplink’i aktif (primary) diğer uplink(leri) yedek (standby) olarak kullanır.
  • Avantajları:
    Tahmin edilebilir trafik yolu: Özellikle spine-leaf topolojilerde depolama trafiği sabit ve öngörülebilir bir yoldan iletilir.
    Basit yapılandırma: vSAN için en kolay ve kararlı yöntem.
    Yedeklilik sağlanır: Ana bağlantı arızalanırsa trafik otomatik olarak yedek bağlantıya geçer.
    Kaynak verimliliği: vMotion veya diğer VMkernel portları, standby uplink’i aktif olarak kullanabilir.
  • Dezavantajları:
    Yalnızca tek bir uplink kullanıldığı için toplam bant genişliği artışı sağlanmaz.

Load Based Teaming (LBT) – Aktif/Aktif Yük Dengeleme

  • Nasıl Çalışır?
    VMkernel portu iki uplink’i de aktif kullanır ve yükü fiziksel NIC yüküne göre dengeler.
  • Avantajları:
    VM port grupları için iyi: Birden fazla VM farklı uplink’lerden trafik gönderebilir.
  • Dezavantajları:
    vSAN için önerilmez. Depolama trafiği için kararlı yollar sağlanamaz gecikme ve performans düşüşü yaşanabilir.
    Spine-trafik yoğunluğu yaratabilir: Spine-leaf topolojilerde interconnect (ör. MLAG) yoksa trafik omurga üzerinden geçer, bu da gecikmeyi artırır.
    Varsayılan olabilir (VCF’de): Ancak vSAN için Active/Standby yapılandırmasına geçiş önerilir.

LACP (Link Aggregation Control Protocol) – Gelişmiş Toplama

  • Nasıl Çalışır?
    İki veya daha fazla uplink hem anahtar hem host tarafında LACP yapılandırması ile birleştirilir. Hash algoritmaları ile bağlantılar arasında trafik dağıtılır.
  • Avantajları:
    Teorik olarak toplam bant genişliği artırılabilir.
    Çok akışlı trafiklerde (ör. büyük VM kümeleri) etkili olabilir.
  • Dezavantajları:
    vSAN için karmaşık ve önerilmez: Ek konfigürasyonlar gerektirir, destek sınırlıdır.
    Spine-leaf topolojilerde interconnect varsayımı: Interconnect olmadan LACP başarısız olabilir veya spine trafiğini artırabilir.
    STP gibi protokoller performansı düşürebilir.

Spine-Leaf Topolojilerde Teaming Seçiminin Etkileri

Clos tarzı spine-leaf ağlar yüksek performanslı veri merkezlerinde yaygındır. Bu topolojide:

  • Sunucuların uplink’leri farklı ToR switch’lere bağlanır.
  • Interconnect yoksa spine switch’ler üzerinden trafik geçer.
  • Active/Active veya LACP kullanıldığında trafiğin yarısı spine’a taşınır bu da vSAN için ek gecikme ve performans sorunları yaratır.
  • MLAG veya VLTi gibi interconnect çözümleri varsa bile STP gibi protokoller nedeniyle ağ kararlılığı risk altına girebilir.

En iyi çözüm: Active/Standby kullanarak her sunucu için tek uplink yolunu tercih etmek ve spine trafiğini azaltmak.

Link Aggregation ile Yüksek Bant Genişlikli Native Uplink Karşılaştırması

Modern veri merkezlerinde 25GbE ve 100GbE uplink hızları, eski 10GbE bağlantılardan çok daha etkilidir.

  • Neden aggregation yerine yüksek hız?
    Daha düşük port tüketimi: Aggregation ek port gerektirir, switch kapasitesini kısıtlar.
    Daha yüksek verimlilik: 25/100GbE switch’ler daha yüksek toplam kapasite sunar ve Gbps başına maliyet daha düşüktür.
    Modern donanım uyumu: Yeni sunucular yüksek çekirdek ve bellek kapasitesine sahiptir bu potansiyeli kullanabilmek için daha yüksek bant genişliği gerekir.
    Daha az sunucu, daha az maliyet: Yüksek bant genişliğiyle daha az sunucu ve daha az ağ ekipmanı kullanılır.

Her Host için Kaç NIC ve Uplink?

  • İş yükü yoğunluğu: Yüksek trafikli ortamlarda daha fazla uplink gerekir.
  • Depolama ve vMotion ayrımı: Genelde vSAN için 2 uplink diğer hizmetler için ayrı uplink önerilir.
  • Switch kapasitesi (ör. 32/48 port ToR): Port sayısı rack başına host başına kullanılabilir uplink sayısını belirler.
  • Güvenlik ve izolasyon: Bazı ortamlar uplink’leri farklı VLAN veya tenant’lar için ayırır.
    Tavsiye: Minimum 2 NIC (her biri 4 uplink portu) ile yapılandırılmış vSAN ReadyNode kullanın. Bu yapılandırma esnek, yüksek performanslı ve ölçeklenebilir bir altyapı sağlar.

✅ vSAN için en iyi teaming: Active/Standby (tek yol, tahmin edilebilir performans).
✅ Uplink hızı: 25GbE veya 100GbE tercih edin, 10GbE artık yetersiz.
✅ LACP veya LBT: Sadece belirli senaryolarda, vSAN için önerilmez.
✅ Ağ tasarımında spine-leaf topolojisini göz önüne alın: Spine trafiğini azaltın, kararlı yollar oluşturun.
✅ Sunucu ve switch yatırımlarınızı güncel teknolojiye göre planlayın: Hem performans hem de maliyet avantajı sağlar.