• yıllar önce şu giriyi yazmışım:
    yapay zeka/@koraks

    devir değişti, tabii çelik de değişti, yapay zeka uygulamaları patladı gitti. yakın gelecekte, neler olabileceği ile ilgili naçizane görüşümü güncellemek istedim.

    yapay zeka uygulamaları için yakın zamanda, yapayla gerçeği ayırt edecek yazılımlar çıkacağını düşünüyorum. metin, video (sora vb.), müzik (suno ai vb.), ses-fotoğraf manipülasyonu vs. hepsi için. ama yine de yapay olan artacak ve biz onları da seveceğiz bence, yapay filmler, animasyonlar gelecek; yapay konserler, sanal şarkıcılar olacak. burada asıl sorun telif sorunu olacakmış gibi görünüyor, telif sahipleri gerçek insan veya şirketler olacak zira.

    yakın gelecekte insanlık yapay olana daha da alışacak ve sevecek de. yani tüfenk icat oldu mertlik bozuldu ama savaş sanatının seyri de değişti. neticede yapay zeka uygulamaları ile ilgili yaşadıklarımız da önemli bir kırılma noktası. biz çocukken gelecekte robotlar olacak dendiğinde, jetgiller’deki robotlardan ötesi gözümüzde canlanmıyordu pek, ama gerçekte robotlar bunlar işte. beste yapacaklar, film çekecekler, bankada finansal riskini hesaplayıp kredibıl olup olmadığınıza karar verecekler, telefon tarifenizi belirleyecekler, evi süpürecekler, aracınızın yol çizgisinden çıkmasını, kaza yapmasını falan önleyecekler, vs.

    kolları-bacakları olmak zorunda değil neticede. sorun bu robotlar/yapay zeka olmayacak, bunları elinde bulunduran insanlar olacak. onlar ellerindeki big data ile, güçle tanrılaşacak. sorun keşke doğal-yapay konusu olsa.

    yakın gelecekteki sorunumuz matrix’teki, terminatör’deki gibi robotla savaş değil, bu robotlara ve dünyalara (+mars) hükmedecek çok güçlü üst-insanlar ve şirketler olacak.

    jetgiller’le ilgili güzel bir yazı okumuştum. jetgiller hep “yukarıda” yaşıyordu, sadece bir bölümde zemini görebildik, onda da sefil insanlar yukarıyı çekiştiriyordu. buna benzer bir hayata başladık aslında.

    yakın gelecekte gelir adaletsizliği öyle artacak ki, bu çok zengin ve tanrısal azınlık doğal beslenebilen, gerektiğinde organ/doku nakli yaptırabilen, kendi organ kopyalarını yetiştirten, sağlıklı fit ve çok uzun ömürlü insanlar olacak. biz aşağıdakiler gdo’lu beslenen, obez, en fazla 100-120 yıl ömürlü ve hayatına ilişkin bütün datası o azınlığın elinde olan insancıklar olacağız.

    insanoğlunu, yani homo sapiens sapiensi diğer türler arasında sivrilten şey zekası değildir aslında. diğer bir sürü akıllı türü (neandertaller, erektuslar, denisovalar vs) bitirmiştir bizim türümüz.

    harari'nin de dikkat çektiği gibi, bunu iki şekilde başarmıştır:
    1. organizasyon yeteneği. gruplar halinde organize olup müthiş şekilde tehlikeli hale gelebilir, insan-hayvan fark etmeksizin.
    2. yeni şartlara adaptasyon yeteneği. diğer insan türleri yok olurken bizim türümüzü hayatta tutan, soyunun devamını sağlayan bu adaptasyon yeteneği işte. yani yapay zeka ortamına da anında adapte olacaktır.

    birinci maddeden hareketle, öngörülemez şekilde devrimler de yapar insanoğlu. uyum sağlayabileceği gibi bazen başkaldırır, yıkıp geçer de. dolayısıyla bütün o anlattığım şöyle olacak böyle olacak şeklindeki gelecek projeksiyonunu alt üst de edebilir, böyle bir öngörülemeyen doğası vardır insanoğlunun.*
  • çok çok yakında dünyanın %85'ini işsiz bırakacak yararlı dijital teknoloji devrimi
  • "artificial ıntelligence’ yani aı nedir? bu terimin ‘yapay zeka’ çevirisinde öne çıkan anlam, kendi doğası itibariyle zeki olmadığı halde zeki olduğuna fiilen insanları inandırabilen bir bilgisayar programı olmasıdır. ‘yapay zeka’ deyince kempelen’in türk-matik otomatı gibi ‘şaşırtıcı bir gösteri’ anlaşılır ..."
    aı = suni muhaberat ve nümerik esintiler — ışık barış fidaner
  • karbon ayak izi en fazla olan görüntü üretimi modelleriymiş.**
    ' ai model to generate an image requires the same amount of energy as charging a smartphone.'
  • (bkz: suni muhaberat)

    bu ne olm? :d şam'da restoran ismi mi?
  • internette sanatçılara para ödememek için yapay zekayla üretilen görselleri görmekten gına geldi. adam basmış midjourney'den promptu detaylarında abukluklar olan resmi koymuş instasına ben sanatçıyım diye geziniyor amk.
  • yol acacagi tehlikelerin boyutlarini anlamamiza en fazla 20 yil kalmistir.
  • yapay zeka algoritmalarında kullanılan ağın ilk olarak doğru veri seti ile eğitilmesi gerekmektedir. eğitim için verinin yeterliliği ve doğruluğu çok önemlidir.
    eskiden veri analistleri doğru verileri bulmak ve bu verilerden doğru öznitelik vektörünü veya matrislerini oluşturmak için sinyali ön işleme tabi tutarlardı. bunun için sıklıkla klasik sinyal işleme metotları kullanılırdı. veri kümesi büyük olmadığı için bir insanın bunu yapması mümkündü.
    deep learning ile büyük verileri işlemeyi mümkün kılan yapay zeka algoritmaları gelişmeye başlayınca, rüzgar farklı yöne esmeye başladı. artık ham (raw) veri, ön işleme tabi olmadan doğrudan sisteme verilebiliyordu. ön işlem de, doğru verilerin seçimi de, verinin sınıflandırıldığı ağlar da aynı anda eğitilerek birbiri ile uyumlu, en iyi sonucu veren modeller oluşturulabiliyordu. insanın baş edemeyeceği büyüklükteki veriyi, artık yapay zeka işleyip ayıklayabiliyordu. büyük veri ile yapay zeka öyle bir noktaya ulaştı ki, bırakın outer'ların (veri setinin dışında kalan istenmeyen veri)sisteme dahil edilmesini, artık büyük bir veri kümesinden en iyi sonucu verecek ve her koşulda (farklı veri küme kombinasyonları) tutarlı olacak verilerin kullanılabilir olduğu duruma ulaşıldı.
    buraya kadar yapay zekanın gelişimi ve insan hatasının minimize edilmesinden bahsettik.
    yapay zeka bize göre nasıl özelleşiyor peki? bizim verilerimizi kayıt altına alıp kümeleme işlemi yaparak. binlerce şarkıdan oluşan bir veri kümesi düşünün. her şarkının ham veri olduğunu kabul edelim. şarkının içerdiği frekanslardan, içerisinde yer alan enstrüman türlerine, şarkının ritminden, geçişlerin sıklığına, hangi saniyelerde hangi frekansların yer aldığına kadar belki yüzbinlerce, şarkıya ait özniteliğin elde edilmesi artık mümkün. bu verilerin en doğru ve tutarlılarını da elde etmek mümkün. binlerce şarkıdan yüzbinlerce veri elde edilip büyük bir veri havuzu yaratılması ile kümeleme işlemi yapılarak, bir şarkıda nelerin olmasını istediğinizi anlamak artık çok kolay. yeni bir şarkı dinlediniz diyelim, bu şarkının verileri havuza eklendi. milyonlarca verinin içerisinde bu verinin etki değeri ne olabilir? ağırlıklı olarak yaylıların olduğu bir müzik zevkiniz var ve araya klarnet sıkıştırmışsınız. klarnet içeren müziklerin size önerilmesi ne kadar anlamlı?
    evet anlamlı durmuyor. bu kadar gelişmiş bir sistem ve bu kadar çok verinin olduğu bir ortamda, üstelik veri setini bozan outerların dışarıda bırakıldığını da kabul edersek, bu durum anlamlı olmayacaktır. fakat büyük veri işleyen ve sınıflayan yapay zeka modelleri büyük kaynak tüketmektedir. bu sebeple skor düşürme pahasına modeller daha basit yapılara evrilir. kişilerin verileri de kaynaklar sonsuzcasına tutulmaz. en önemli veriler kayıt altına alınırken diğerleri saklanmaz. modelin basitleşmesi ile düşen doğruluk, verinin azalması ile daha da düşer. sonunda her 10 öneriden belki 6-7'sini tutturabilen yapay zeka modelleri çalışır. tabi bu doğruluk oranları, ilk paragrafta yazdığım gibi iyi bir veri kümesi ile mümkün. tutarlı bir veri kümesi, yani gerçekten tutarlı bir müzik zevkine sahip bir kişinin verileri, modelin doğruluk yüzdesini maksimum seviyede kullanabilir ve aldığı sonuçlar görece tutarlıdır denilebilir. veri kümesi dışındaki bir veri ise tutarlılığı bozmaya genelde yetmez. ancak tutarsız veya çok tutarlı olmayan veri kümeleri, hali hazırda basitleştirilmiş modellerde daha çok sapmaya sebebiyet verir. böylelikle model hızlı değişimler gösterir.
    özetle mevcut yapay zeka modelleri hala gelişmekte olsa da, siz tutarlı olduğunuz ölçüde tutarlıdır. hata yapabilir, ancak tek bir şarkı ile aynı hatayı tekrarlayacak şekilde modellenmesi pek ihtimal dahilinde değildir.

    edit: anlam düşüklüğü giderildi.
  • başlıkta güzel bilgiler paylaşılmış ama enerji kullanımına dair birkaç şeyi düzeltmekte fayda var. tek tek her modeli eğitmek* için ne kadar enerji harcanmış olabileceği, her bir modelin çalışırken* ne kadar enerji harcadığı, hangi cihazlarda kullanıldığı, ne kadar kullanıcının hangi sıklıkta/ölçekte bu modelleri kullandığı, vs. diye sayarken birileri "tomofil de alacağız değil mi" diye sorabilir, kafamızı karıştırabilir.

    peki ne yapabiliriz? tomofiller toplamda ne kadar yakıt harcıyor sorusunu cevaplarken sokaktaki bütün arabaları marka, model, yakıt tüketimi, kullanım sıklığı, ve daha birçok bilinmeyeni düşünerek tek tek tahmin edip hesaplamaktansa, benzinliklerden satılan toplam yakıt miktarını tahmin etmek daha kolay olabilir. yapay zekanın yakıtlarını sağlayan (şimdilik) üç büyük benzinliğimiz var: nvidia (gpu), amd (gpu), broadcom (google tpu):

    - nvidia h100: sene sonuna kadar toplamda 1.5-2 milyon ünite satılmış olacağı tahmin ediliyor. her bir gpu tam kapasitede çalışırsa 700 watt enerji tüketiyor.
    - nvidia a100: 500 bin - 1 milyon üniteye yakın satılmış, tam kapasitede 300 watt enerji tüketiyor.
    - amd mi300x: sene sonuna kadar toplamda 300-400 bin ünite satılmış olacağı tahmin ediliyor, tam kapasitede 600 watt enerji tüketiyor.
    - google tpuv5e: google kaç üniteye sahip olduğunu açıklamıyor ama 300 bin diye tahmin edelim (meta'nın sene sonunda sahip olacağı nvidia h100 sayısı). tpu'lar asic, yani gpu'lara göre enerji kullanımları çok daha düşük*. tam kapasitede nvidia h100'ın yarısı kadar enerji tüketiyor diyelim, 350 watt.

    biraz gerçekçi olalım, bu cihazlar sürekli tam kapasitede çalışmayacak. sonuçta gpu'lar hafızadan veri okurken ya da hesaplamalarını bitirip cpu'ya döndüğünde kahvesini içiyor. son kullanıcıların "bu niye yavaşladı şimdi" dememesi için de tam kapasitede çalıştırmamakta da fayda var*. bir kısmı da zaten bozulacak ya da kullanıma hazır olana kadar süre geçecek. normalde 30-40% gibi senelik toplam kullanımı tahmin ederdim, fakat 10% diyelim hesaplaması kolay olsun. bu arada 10% kullanım gerçekten çok komik bir sayı, capex'i bu kadar yüksek bir yatırımı (h100'lerin tanesi ~$30bin) böyle bir yüzdede kullanırsanız, cfo'nuz hem dünyada hem ahirette peşinizi bırakmaz.

    o zaman matematiğimizi yapıyoruz:
    = (1.5 milyon x 700 watt + 500 bin x 300 watt + 300 bin x 600 watt + 300 bin x 350 watt) * 10%
    = senelik bilmem kaç terawatt-saat*

    enerji tüketimi korkunç mu, sevimli mi, yakışıklı değil ama sempatik mi ona siz karar verin*. ama ben halı, kilim, ve time travel sektöründe çalışan biri olarak şu tepkiyi veriyorum. bakın daha harıl harıl çalışan gpu'ların terini silip hararetini almak ve onları soğutmak için harcayacağımız enerjiye girmiyorum bile. yani yukarıdaki sayı aslında şu an için alt sınırımız.

    bu basit tahmin private equity'lerin son iki senede neden enerji ve veri merkezi şirketlerini satın almak için milyarlarca dolar harcadığı, teknoloji şirketlerinin acaba nükleer reaktör mü kursak diye düşündüğü bir dönemi açıklamaya yetmiştir diye umuyorum. tabii bu enerji tüketiminin aksi yönünde de inovasyon yapılıyor (yeni chip mimarileri, model mimarileri, batching, vs.), orası ise çok daha uzun bir yazının konusu.
  • geldiği yer mükemmeldir.
    grafik tasarımcıyım, ai sayesinde 20bin görsel ürettim ve stock sitelerinde satıyorum, getirisi de gayet güzel.
    hobi olarak müzik ile ilgileniyorum. sadece söz yazıp beste yapmak artık mümkün. 2-3 yıla ben bu şarkılara klip de yaparım gibi geliyor. fena bir yere doğru gidiyoruz.

    yapay zeka besteler
hesabın var mı? giriş yap