OpenAI Tarih Yazdı: Tek Turda 122 Milyar Dolar
Yapay zeka yatırımları, bellek devrimi ve kuantum atılımı: haftanın 5 kritik gelişmesi
OpenAI 122 Milyar Dolarlık Dev Turu Kapattı
Ne oldu: OpenAI, 31 Mart 2026’da Silicon Valley tarihinin en büyük özel finansman turunu kapattığını duyurdu. Şirket, Amazon (50 milyar dolar), Nvidia (30 milyar dolar) ve SoftBank’ın (30 milyar dolar) liderliğinde toplamda 122 milyar dolar taahhüt aldı; şirketin yatırım sonrası değerlemesi 852 milyar dolara ulaştı. Aynı turda bireysel yatırımcılar banka kanalları üzerinden ilk kez 3 milyar dolarlık katılım sağladı. Şirketin açıklamasına göre OpenAI, şu an aylık 2 milyar dolar gelir üretiyor ve 900 milyonun üzerinde haftalık aktif kullanıcıya sahip.
Neden önemli: Bu tur, yapay zekanın artık girişim finansmanı değil; telekomünikasyon, enerji veya bulut altyapısı gibi bir devlet ölçeğinde finanse edildiğinin somut kanıtı. Amazon, Nvidia ve SoftBank gibi stratejik oyuncuların bu ölçekte tek bir şirkete yatırım yapması, yapay zekanın uzun vadeli altyapı yarışında kimin galip çıkacağı konusundaki net beklentileri yansıtıyor. Veriler gösteriyor ki OpenAI’nın 2026 sonu itibarıyla halka arz hedeflediği ve Anthropic ile başlayabilecek bir yarışın işaretleri şimdiden görünüyor.
Dikkat edilmesi gereken: Şirket hâlâ kârlı değil ve 852 milyar dolarlık değerlemeyi destekleyecek gelir büyümesinin devamlılığı, özellikle rakiplerin açık ağırlıklı modeller sunduğu ortamda soru işareti olmayı sürdürüyor.
Google TurboQuant: LLM Belleğinde Altı Kat Tasarruf
Ne oldu: Google Research, 25 Mart 2026’da TurboQuant adlı bir sıkıştırma algoritmasını yayımladı; makale ICLR 2026’da kabul gördü. Algoritma, büyük dil modellerindeki (LLM) KV önbelleğini —yani modelin bağlam boyunca tuttuğu “çalışma belleğini”— herhangi bir yeniden eğitim gerektirmeksizin 32 bitten 3 bite indiriyor. Tom’s Hardware’in aktardığı testlere göre NVIDIA H100 GPU’larında dikkat hesaplama adımında sekiz kat hızlanma, KV önbellek belleğinde ise en az altı kat küçülme elde ediliyor; doğruluk kaybı ölçülemiyor. Algoritma iki aşamadan oluşuyor: PolarQuant (vektörleri kutupsal koordinatlara dönüştürerek blok bazlı normalleştirme yükünü ortadan kaldırıyor) ve QJL (nicemleme hatasını tek bir işaret bitine indirgeyerek iç çarpım hesaplamalarındaki yanlılığı gideriyor).
Neden önemli: Günümüzde LLM çıkarımının baş bellek darboğazı model ağırlıkları değil, bağlam uzadıkça büyüyen KV önbelleğidir. 70 milyar parametreli bir model 512 eş zamanlı kullanıcıya hizmet verirken yalnızca bu önbellek yaklaşık 512 GB bellek tüketebiliyor. TurboQuant bu sınırı altıya bölüyor; yani aynı donanımda altı kat daha fazla eş zamanlı kullanıcı ya da altı kat daha uzun bağlam penceresi anlamına geliyor. VentureBeat’in tahminlerine göre uzun bağlam iş yükleri için bulut çıkarım maliyetlerinin yüzde ellinin üzerinde düşmesi mümkün.
Dikkat edilmesi gereken: Google’ın resmi üretim uygulaması 2026 ikinci çeyreğinde bekleniyor; topluluk testleri tam hat hızlanmasının şimdilik 1,2 kat civarında kaldığını gösteriyor çünkü değer önbelleğinin sıkıştırılması henüz tamamlanmamış durumda.
CISA Kapatmada: Siber Olay Raporlama Yönetmeliği Askıya Alındı
Ne oldu: ABD’nin siber güvenlik ajansı CISA, 14 Şubat 2026’da DHS bütçe açığından kaynaklanan kısmi hükümet kapatmasıyla birlikte çalışanlarının yaklaşık yüzde altmışını —2.341 kişiden 1.453’ünü— geçici ücretsiz izne göndermek zorunda kaldı. SecurityWeek’in aktardığı verilere göre ajans yüzde otuz sekiz kapasiteyle çalışıyor; savunma değerlendirmeleri, tehdit istihbarat paylaşımı ve eğitimler durduruldu. Öte yandan CIRCIA çerçevesinde hazırlanan siber olay raporlama yönetmeliği —kritik altyapı işletmecilerini 72 saat içinde bildirim yapmakla yükümlü kılacak kural— Mayıs 2026 için planlanan son hali daha yayımlanamadan gecikiyor. Bloomberg Law’un aktardığına göre Mart ve Nisan ayları için düzenlenen yedi sektör dinleme toplantısı iptal edildi.
Neden önemli: CISA’nın kapatma sürecinde aktif saldırılara karşı proaktif taramalar yapamaması, özellikle bölgesel gerilimler tırmandığında kritik altyapıyı savunmasız bırakıyor. S&P Global’in aktardığı analize göre enerji sektörü bu güvenlik açığından en çok etkilenen kesim. Aynı dönemde ajans, 2025 yılı boyunca süren verimlilik programları nedeniyle zaten yaklaşık üçte bir oranında personel kaybetmişti.
Dikkat edilmesi gereken: CIRCIA’nın yasal olarak Ekim 2025’te yürürlüğe girmesi gerekiyordu; Mayıs 2026 hedefinin de tutturulup tutturulamayacağı şimdilik belirsiz.
Majorana Kubitleri: Okunmaz Sandığımız Kuantum Bilgisi Artık Okunuyor
Ne oldu: QuTech (Delft Teknik Üniversitesi) ve İspanya Ulusal Araştırma Konseyi (CSIC) ortaklığıyla yürütülen bir araştırma ekibi, 11 Şubat 2026’da Nature dergisinde Majorana kubitlerinde ilk kez anlık (single-shot) ve gerçek zamanlı okuma yapıldığını açıkladı. ScienceDaily’nin aktardığına göre çalışma, iki yarıiletken kuantum noktasını süperiletkenle birleştiren minimal bir Kitaev zinciri üzerinde gerçekleştirildi. Araştırmacılar, küresel kuantum kapasitans ölçümü yöntemiyle qubitin çift ya da tek parite durumunu (0 ya da 1) tek bir ölçümde belirleyebildi. En kritik bulgu: ölçülen parity tutarlılık süresi 1 milisaniyeyi aştı.
Neden önemli: Majorana kubitlerinin teorik üstünlüğü —bilgiyi gürültüye karşı topolojik koruma altında saklama— uzun yıllar boyunca ölçüm engeliyle hayata geçirilemiyordu: bilgiyi topolojik olarak koruyan yapı, onu okumayı da güçleştiriyordu. Bu çalışma söz konusu paradoksu kırıyor. Quantum Computing Report’a göre bu keşif, Microsoft’un 2025’te duyurduğu Majorana 1 işlemcisinin üzerine inşa edilebileceği doğrulanmış deneysel bir temel sunuyor; hata toleranslı kuantum bilişime giden yolu somutlaştırıyor.
Dikkat edilmesi gereken: Çalışma minimal iki noktalı bir yapıda gerçekleştirildi; X tabanındaki parity tutarlılığı hâlâ Z tabanına göre yaklaşık üç kat daha kısa. Daha uzun Kitaev zincirleri ve çok kubitli mimarilere ölçeklenmesi önümüzdeki sürecin temel zorluğunu oluşturuyor.
Google Gemma 4: Açık Kaynak Yapay Zeka Daha Erişilebilir Hale Geliyor
Ne oldu: Google, 2 Nisan 2026’da Gemma 4 model ailesini Apache 2.0 lisansıyla yayımladı — bu, Gemma serisinin ilk kez tam anlamıyla açık kaynak (OSI onaylı) bir lisansla sunulması anlamına geliyor. 9to5Google’ın aktardığına göre dört model boyutu var: E2B (telefon, Raspberry Pi, IoT), E4B, 26B Mixture-of-Experts (MoE) ve 31B Dense. 31B Dense modeli Arena AI sıralamasında açık modeller arasında üçüncü sıraya yerleşirken 26B MoE altıncı. Modeller Gemini 3 araştırmasından türetildi; 140’tan fazla dili destekliyor, 256K’ya kadar bağlam penceresi, yerel video-ses işleme ve ajansal iş akışları için fonksiyon çağırma özelliği sunuyor. Açıklamaya göre Gemma serisi bugüne dek 400 milyonun üzerinde indirme aldı ve topluluk tarafından 100.000’den fazla türev model oluşturuldu.
Neden önemli: Apache 2.0 lisansı, önceki Gemma koşullarının ticari ve kurumsal dağıtım için yarattığı hukuki engeli kaldırıyor. Hugging Face kurucu ortağı Clément Delangue bu değişikliği “büyük bir dönüm noktası” olarak tanımladı. Veriler gösteriyor ki bu hamle, Llama ve Qwen gibi lisans kısıtısız modellerin doğrudan rakibi olan Gemma’yı üretim ortamlarına taşıyor ve Google’ın bulut altyapısı için organik bir gelir motoru yaratıyor. The Next Web’in aktardığına göre kenar modeller önceki Gemma sürümüne göre dört kat daha hızlı çalışıyor ve yüzde altmış daha az pil tüketiyor.
Dikkat edilmesi gereken: Topluluk testleri 31B Dense modelinin aynı donanımda Alibaba’nın Qwen 3.5’ine kıyasla yaklaşık beşte bir hızda çalıştığını ortaya koydu; hız performansının iyileştirilmesi gerekiyor.
Bu içerik yalnızca bilgilendirme amaçlıdır. Yatırım tavsiyesi değildir.



