Yapay zeka, yeni veri merkezleri kurma yarışı - Dünyadan Güncel Teknoloji Haberleri

Yapay zeka, yeni veri merkezleri kurma yarışı - Dünyadan Güncel Teknoloji Haberleri
Synergy Araştırma Grubu tahminlerine göre, en iyi 20 bulut ve bağlantı hizmet sağlayıcısının sahip olduğu dünya çapında faaliyet gösteren mevcut 926 büyük merkeze, önümüzdeki altı yıl içinde ortalama kapasiteye sahip 427 yeni tesis (GPU birimleri ve daha fazlası) eklenecek sıvı soğutma (sıvı soğutma) 2027 yılına kadar uygulamalarının çok hızlı artması bekleniyor



genel-18

Büyükleri sorguya çekecek küresel bir olgu hiper ölçekleyici Kuzey Amerikalıların yanı sıra, İtalya için bir milyar avroluk bir yatırım planını resmileştiren Fransız Data4 gibi “ikinci kademe” operatörler de Milano’nun eteklerindeki dijital kampüsünü barındıran alanı ikiye katlıyor Vikipedi’nin metin içeriği Nedeni? Üretken yapay zeka modellerini sürekli eğitmek ve geliştirmek için gereken ekstra hesaplama kaynaklarına yönelik talebe yeterince yanıt verin

Bu devasa veri yığınını (e-postalar ve fotoğraflar, akışta tüketilen videolar ve çevrimiçi olarak alınıp verilen kripto para birimleri, kripto para üretimi ve sosyal medyada yayınlanan gönderiler) işleyen, dağıtan ve saklayan büyük veri merkezleri yetersiz kalma riskiyle karşı karşıya mı? Peki enerji tüketimleri sürdürülebilir olacak mı? Özellikle dijital toplumun veri merkezlerine bağımlılığı artarken, yapay zekaya dayalı uygulamaların patlamasıyla körüklenen meşru sorular, cevaplanması elbette kolay değil Örneğin OpenAi’nin CEO’su Sam Altman, Gpt-4’ün (ChatGpt’in temelini oluşturan teknolojinin en son evrimi) eğitimini tamamlamak için yüz milyon dolardan fazla paraya ihtiyaç duyulduğunu tahmin etti

Yapay zekanın yoğun kullanımı bu nedenle yenilerinin açılmasına yol açacak sunucu çiftlikleri ve birçok durumda, dokuz rakamlı yatırımlarla ve bunların çalışması için gereken enerji miktarının şu anda kullanılandan kesinlikle daha yüksek olmasıyla mevcut altyapıların güçlendirilmesi


Rakamlar genellikle bir fenomen hakkında iyi bir fikir verir veya en azından onu daha anlaşılır hale getirir: 2022’de dijital formatta neredeyse 100 trilyon (milyarlarca milyar) gigabayt veri oluşturuldu ve tüketildi; bu, tüm verinin 4,5 milyon katına eşit şu anda faaliyette olanlarla karşılaştırıldığında iki kattan fazla Peki önümüzdeki birkaç yıl içinde ne olacak? Makine odalarının fiziksel altyapısına, tüm verileri işlemek için daha fazla güç yoğunluğu ve önemli ölçüde daha yüksek bağlantı hızları sağlamak üzere müdahale etmek ne kadar sürer? Kısmen soğutma sistemlerine müdahale edeceğiz ve bu anlamda cihazlar harika uygulama alanları bulacak Bu rakamın 2025 yılına kadar ikiye katlanması bekleniyor

Yeni yapılara şantiyeler açılıyor

Talebi karşılamak için daha güçlü altyapılara ve dolayısıyla faaliyette olan veri merkezlerinin sayısına ihtiyaç var

Soğutma sistemleri’de çalışıyor

Dell’Oro Group tarafından yakın zamanda yapılan bir analiz, veri merkezi dünyasındaki büyük teknoloji ve uzmanların karşı karşıya kaldığı zorluğu çok iyi özetlemektedir: yeni çağı desteklemek için gereken fazla maliyet nedeniyle bunalmamak için performans ve tüketim arasındaki denge noktasını bulmak yapay zeka Kısacası, büyük teknoloji için, “geleneksel” BT faaliyetleriyle (bulut hizmetleri, barındırma, barındırma) bağlantılı (yine büyüyen) iş yüklerini artıracak olan, yönetilecek, “temizlenecek” ve depolanacak verilerde yeni bir patlamayla başa çıkmanın zamanı geldi Amerikan araştırma şirketi (International Data Group) bunu söylüyor ve Financial Times, gözden kaçırılmaması gereken bir konuyu yeniden gündeme getirerek bu rakamları hatırlattı Şu anda faaliyette olan veri merkezlerinin bağlantısı)