1505 entry daha
  • yapay zeka algoritmalarında kullanılan ağın ilk olarak doğru veri seti ile eğitilmesi gerekmektedir. eğitim için verinin yeterliliği ve doğruluğu çok önemlidir.
    eskiden veri analistleri doğru verileri bulmak ve bu verilerden doğru öznitelik vektörünü veya matrislerini oluşturmak için sinyali ön işleme tabi tutarlardı. bunun için sıklıkla klasik sinyal işleme metotları kullanılırdı. veri kümesi büyük olmadığı için bir insanın bunu yapması mümkündü.
    deep learning ile büyük verileri işlemeyi mümkün kılan yapay zeka algoritmaları gelişmeye başlayınca, rüzgar farklı yöne esmeye başladı. artık ham (raw) veri, ön işleme tabi olmadan doğrudan sisteme verilebiliyordu. ön işlem de, doğru verilerin seçimi de, verinin sınıflandırıldığı ağlar da aynı anda eğitilerek birbiri ile uyumlu, en iyi sonucu veren modeller oluşturulabiliyordu. insanın baş edemeyeceği büyüklükteki veriyi, artık yapay zeka işleyip ayıklayabiliyordu. büyük veri ile yapay zeka öyle bir noktaya ulaştı ki, bırakın outer'ların (veri setinin dışında kalan istenmeyen veri)sisteme dahil edilmesini, artık büyük bir veri kümesinden en iyi sonucu verecek ve her koşulda (farklı veri küme kombinasyonları) tutarlı olacak verilerin kullanılabilir olduğu duruma ulaşıldı.
    buraya kadar yapay zekanın gelişimi ve insan hatasının minimize edilmesinden bahsettik.
    yapay zeka bize göre nasıl özelleşiyor peki? bizim verilerimizi kayıt altına alıp kümeleme işlemi yaparak. binlerce şarkıdan oluşan bir veri kümesi düşünün. her şarkının ham veri olduğunu kabul edelim. şarkının içerdiği frekanslardan, içerisinde yer alan enstrüman türlerine, şarkının ritminden, geçişlerin sıklığına, hangi saniyelerde hangi frekansların yer aldığına kadar belki yüzbinlerce, şarkıya ait özniteliğin elde edilmesi artık mümkün. bu verilerin en doğru ve tutarlılarını da elde etmek mümkün. binlerce şarkıdan yüzbinlerce veri elde edilip büyük bir veri havuzu yaratılması ile kümeleme işlemi yapılarak, bir şarkıda nelerin olmasını istediğinizi anlamak artık çok kolay. yeni bir şarkı dinlediniz diyelim, bu şarkının verileri havuza eklendi. milyonlarca verinin içerisinde bu verinin etki değeri ne olabilir? ağırlıklı olarak yaylıların olduğu bir müzik zevkiniz var ve araya klarnet sıkıştırmışsınız. klarnet içeren müziklerin size önerilmesi ne kadar anlamlı?
    evet anlamlı durmuyor. bu kadar gelişmiş bir sistem ve bu kadar çok verinin olduğu bir ortamda, üstelik veri setini bozan outerların dışarıda bırakıldığını da kabul edersek, bu durum anlamlı olmayacaktır. fakat büyük veri işleyen ve sınıflayan yapay zeka modelleri büyük kaynak tüketmektedir. bu sebeple skor düşürme pahasına modeller daha basit yapılara evrilir. kişilerin verileri de kaynaklar sonsuzcasına tutulmaz. en önemli veriler kayıt altına alınırken diğerleri saklanmaz. modelin basitleşmesi ile düşen doğruluk, verinin azalması ile daha da düşer. sonunda her 10 öneriden belki 6-7'sini tutturabilen yapay zeka modelleri çalışır. tabi bu doğruluk oranları, ilk paragrafta yazdığım gibi iyi bir veri kümesi ile mümkün. tutarlı bir veri kümesi, yani gerçekten tutarlı bir müzik zevkine sahip bir kişinin verileri, modelin doğruluk yüzdesini maksimum seviyede kullanabilir ve aldığı sonuçlar görece tutarlıdır denilebilir. veri kümesi dışındaki bir veri ise tutarlılığı bozmaya genelde yetmez. ancak tutarsız veya çok tutarlı olmayan veri kümeleri, hali hazırda basitleştirilmiş modellerde daha çok sapmaya sebebiyet verir. böylelikle model hızlı değişimler gösterir.
    özetle mevcut yapay zeka modelleri hala gelişmekte olsa da, siz tutarlı olduğunuz ölçüde tutarlıdır. hata yapabilir, ancak tek bir şarkı ile aynı hatayı tekrarlayacak şekilde modellenmesi pek ihtimal dahilinde değildir.

    edit: anlam düşüklüğü giderildi.
  • başlıkta güzel bilgiler paylaşılmış ama enerji kullanımına dair birkaç şeyi düzeltmekte fayda var. tek tek her modeli eğitmek* için ne kadar enerji harcanmış olabileceği, her bir modelin çalışırken* ne kadar enerji harcadığı, hangi cihazlarda kullanıldığı, ne kadar kullanıcının hangi sıklıkta/ölçekte bu modelleri kullandığı, vs. diye sayarken birileri "tomofil de alacağız değil mi" diye sorabilir, kafamızı karıştırabilir.

    peki ne yapabiliriz? tomofiller toplamda ne kadar yakıt harcıyor sorusunu cevaplarken sokaktaki bütün arabaları marka, model, yakıt tüketimi, kullanım sıklığı, ve daha birçok bilinmeyeni düşünerek tek tek tahmin edip hesaplamaktansa, benzinliklerden satılan toplam yakıt miktarını tahmin etmek daha kolay olabilir. yapay zekanın yakıtlarını sağlayan (şimdilik) üç büyük benzinliğimiz var: nvidia (gpu), amd (gpu), broadcom (google tpu):

    - nvidia h100: sene sonuna kadar toplamda 1.5-2 milyon ünite satılmış olacağı tahmin ediliyor. her bir gpu tam kapasitede çalışırsa 700 watt enerji tüketiyor.
    - nvidia a100: 500 bin - 1 milyon üniteye yakın satılmış, tam kapasitede 300 watt enerji tüketiyor.
    - amd mi300x: sene sonuna kadar toplamda 300-400 bin ünite satılmış olacağı tahmin ediliyor, tam kapasitede 600 watt enerji tüketiyor.
    - google tpuv5e: google kaç üniteye sahip olduğunu açıklamıyor ama 300 bin diye tahmin edelim (meta'nın sene sonunda sahip olacağı nvidia h100 sayısı). tpu'lar asic, yani gpu'lara göre enerji kullanımları çok daha düşük*. tam kapasitede nvidia h100'ın yarısı kadar enerji tüketiyor diyelim, 350 watt.

    biraz gerçekçi olalım, bu cihazlar sürekli tam kapasitede çalışmayacak. sonuçta gpu'lar hafızadan veri okurken ya da hesaplamalarını bitirip cpu'ya döndüğünde kahvesini içiyor. son kullanıcıların "bu niye yavaşladı şimdi" dememesi için de tam kapasitede çalıştırmamakta da fayda var*. bir kısmı da zaten bozulacak ya da kullanıma hazır olana kadar süre geçecek. normalde 30-40% gibi senelik toplam kullanımı tahmin ederdim, fakat 10% diyelim hesaplaması kolay olsun. bu arada 10% kullanım gerçekten çok komik bir sayı, capex'i bu kadar yüksek bir yatırımı (h100'lerin tanesi ~$30bin) böyle bir yüzdede kullanırsanız, cfo'nuz hem dünyada hem ahirette peşinizi bırakmaz.

    o zaman matematiğimizi yapıyoruz:
    = (1.5 milyon x 700 watt + 500 bin x 300 watt + 300 bin x 600 watt + 300 bin x 350 watt) * 10%
    = senelik bilmem kaç terawatt-saat*

    enerji tüketimi korkunç mu, sevimli mi, yakışıklı değil ama sempatik mi ona siz karar verin*. ama ben halı, kilim, ve time travel sektöründe çalışan biri olarak şu tepkiyi veriyorum. bakın daha harıl harıl çalışan gpu'ların terini silip hararetini almak ve onları soğutmak için harcayacağımız enerjiye girmiyorum bile. yani yukarıdaki sayı aslında şu an için alt sınırımız.

    bu basit tahmin private equity'lerin son iki senede neden enerji ve veri merkezi şirketlerini satın almak için milyarlarca dolar harcadığı, teknoloji şirketlerinin acaba nükleer reaktör mü kursak diye düşündüğü bir dönemi açıklamaya yetmiştir diye umuyorum. tabii bu enerji tüketiminin aksi yönünde de inovasyon yapılıyor (yeni chip mimarileri, model mimarileri, batching, vs.), orası ise çok daha uzun bir yazının konusu.
  • geldiği yer mükemmeldir.
    grafik tasarımcıyım, ai sayesinde 20bin görsel ürettim ve stock sitelerinde satıyorum, getirisi de gayet güzel.
    hobi olarak müzik ile ilgileniyorum. sadece söz yazıp beste yapmak artık mümkün. 2-3 yıla ben bu şarkılara klip de yaparım gibi geliyor. fena bir yere doğru gidiyoruz.

    yapay zeka besteler
25 entry daha
hesabın var mı? giriş yap