AI+Web3: Veriler, Bilgi İşlem Gücü ve Modellerin Merkeziyetsizlik Devrimi

AI+Web3: Kuleler ve Meydanlar

TL;DR

  1. AI kavramına sahip Web3 projeleri birinci ve ikinci piyasalarda çekim merkezi haline geliyor.

  2. Web3'ün AI sektöründeki fırsatları, dağıtılmış teşvikleri kullanarak uzun kuyruktaki potansiyel arzı koordine etmekte ( veri, depolama ve hesaplama ) arasında, aynı zamanda açık kaynaklı modeller ve AI Agent için merkeziyetsiz bir pazar oluşturmakta kendini göstermektedir.

  3. AI, Web3 sektöründe esas olarak zincir üzeri finans ( kripto ödemeler, ticaret, veri analizi ) ve geliştirmeye yardımcı olmak için kullanılmaktadır.

  4. AI+Web3'ün faydası, ikisinin tamamlayıcılığında ortaya çıkmaktadır: Web3, AI merkezileşmesine karşı koymayı umuyor, AI ise Web3'ün sınırlarını aşmasına yardımcı olmayı umuyor.

AI+Web3: Kule ve Meydan

Giriş

Son iki yılda, AI'nın gelişimi hız kazanmış gibi görünüyor; Chatgpt'nin başlattığı dalga sadece üretken yapay zekanın yeni bir çağını açmakla kalmadı, aynı zamanda Web3 alanında da büyük bir dalga yarattı.

AI konseptinin desteğiyle, yavaşlayan kripto pazarında finansman artışı belirgin şekilde hissediliyor. İstatistiklere göre, 2024 yılının ilk yarısında 64 Web3+AI projesi finansman sağladı, bunlar arasında yapay zeka tabanlı işletim sistemi Zyber365, A serisi finansmanında 100 milyon dolar ile en yüksek rekoru kırdı.

İkincil pazar daha canlı hale geldi, kripto agregat sitesi Coingecko verilerine göre, sadece bir yıl içinde AI alanının toplam piyasa değeri 48,5 milyar dolara ulaştı, 24 saatlik işlem hacmi ise neredeyse 8,6 milyar dolara yaklaştı; ana akım AI teknolojisinin ilerlemesiyle gelen olumlu gelişmeler belirgin, OpenAI'nin Sora metinden videoya modelinin yayınlanmasının ardından, AI sektöründeki ortalama fiyat %151 arttı; AI etkisi aynı zamanda kripto para çekim alanlarından biri olan Meme'ye de sıçradı: ilk AI Agent konseptine sahip MemeCoin - GOAT hızla popülerlik kazandı ve 1,4 milyar dolarlık bir değerleme elde etti, AI Meme akımını başarılı bir şekilde başlattı.

AI+Web3 ile ilgili araştırmalar ve konular da oldukça popüler, AI+Depin'den AI Memecoin'e, şu anda AI Agent ve AI DAO'ya kadar FOMO duygusu yeni anlatıların dönüş hızına yetişemiyor.

AI+Web3, sıcak paralarla, fırsatlarla ve gelecek hayalleriyle dolu bu terim kombinasyonu, kaçınılmaz olarak bir sermaye eşleştirme düzenlemesi olarak görülüyor. Bu göz alıcı dış giysenin altında, aslında spekülatörlerin sahası mı yoksa bir şafağın patlak vermesinin eşiği mi olduğunu ayırt etmekte zorlanıyoruz?

Bu soruyu yanıtlamak için, her iki taraf için de kritik bir düşünce, karşı tarafın varlığının durumu daha iyi hale getirip getirmeyeceğidir. Karşı tarafın modelinden faydalanma imkanı var mı? Bu makale, önceki çalışmaların üzerine çıkarak bu durumu incelemeye çalışmaktadır: Web3, AI teknolojisi yığınındaki her aşamada nasıl rol oynayabilir ve AI, Web3'e ne gibi yeni canlılıklar getirebilir?

Web3'te AI Yığınlarının Fırsatları Nelerdir?

Bu konuyu açmadan önce, AI büyük modellerinin teknik yığınını anlamamız gerekiyor:

Büyük modeller, insan beynine benzer; başlangıçta yeni doğmuş bir bebek gibi, dünyayı anlamak için büyük miktarda dış bilgiyi gözlemleyip emmek zorundadır. Bu, veri "toplama" aşamasıdır; bilgisayarların insanın çoklu duyularına sahip olmaması nedeniyle, eğitimden önce "ön işleme" ile etiketlenmemiş bilgilerin bilgisayarın anlayabileceği bir formata dönüştürülmesi gerekir.

Veri girişi yapıldıktan sonra AI, anlayış ve tahmin yeteneğine sahip bir model oluşturmak için "eğitim" sürecinden geçer, bu süreç bebeklerin dış dünyayı yavaş yavaş anlaması ve öğrenmesiyle benzerlik gösterir, model parametreleri ise bebeğin sürekli olarak ayarladığı dil yeteneği gibidir. Öğrenme içeriği branşlara ayrıldığında veya insanlarla iletişim kurarak geri bildirim alındığında, "ince ayar" aşamasına geçilir.

Çocuklar konuşmayı öğrendiklerinde, yeni diyaloglarda anlamı anlayabilir ve düşüncelerini ifade edebilirler, bu da AI büyük modellerinin "akıl yürütme" sürecine benzer; yeni dil metin girişleri üzerinde tahmin analizi yapabilirler. Bebekler, hislerini ifade etmek, nesneleri tanımlamak ve problemleri çözmek için dil kullanırlar; bu da AI büyük modellerinin eğitimden sonra akıl yürütme aşamasında çeşitli belirli görevlerde, örneğin görüntü sınıflandırma, ses tanıma gibi uygulamalara benzer.

AI Ajan, büyük modelin bir sonraki biçimine daha yakın - bağımsız olarak görevleri yerine getirebilen ve karmaşık hedefler peşinde koşabilen, yalnızca düşünme yeteneğine değil, aynı zamanda hafıza, planlama yeteneğine ve dünya ile etkileşimde bulunmak için araçları kullanabilme yeteneğine sahip.

Şu anda, AI'nin her katmanındaki sorunlara yönelik olarak, Web3 başlangıçta çok katmanlı ve birbiriyle bağlantılı bir ekosistem oluşturmuştur ve bu, AI model süreçlerinin her aşamasını kapsamaktadır.

AI+Web3: Kuleler ve Meydanlar

Temel Katman: Hesaplama Gücü ve Verilerin Airbnb'si

Hash gücü

Şu anda, AI'nin en yüksek maliyetlerinden biri, model eğitimi ve çıkarım için gereken hesaplama gücü ve enerjidir.

Örneğin, Meta'nın LLAMA3'ü eğitimi tamamlamak için 30 gün boyunca 16.000 NVIDIA H100 GPU'ya ihtiyaç duyuyor. H100 80GB versiyonunun birim fiyatı 30.000-40.000 ABD doları, bu da 400-700 milyon ABD doları yatırım gerektiren bir hesaplama donanımı gerektiriyor (GPU+ ağ çipi ), aylık eğitim tüketimi 1.6 milyar kilowatt-saat, enerji harcaması ise yaklaşık 20 milyon ABD doları.

AI hesap gücünün serbest bırakılması, Web3'ün AI ile kesiştiği en erken alanlardan biridir - DePin( merkeziyetsiz fiziksel altyapı ağı). Şu anda, DePin Ninja veri sitesi 1400'den fazla projeyi listelemiştir, bunlar arasında GPU hesap gücü paylaşımını temsil eden projeler io.net, Aethir, Akash, Render Network gibi projelerdir.

Ana mantık şudur: Platform, boşta kalan GPU kaynaklarına sahip olanların izin gerektirmeyen merkeziyetsiz bir şekilde hesaplama gücü katkısında bulunmalarına olanak tanır, Uber veya Airbnb benzeri bir alım-satım çevrimiçi pazar aracılığıyla, yeterince kullanılmayan GPU kaynaklarının kullanım oranını artırır, son kullanıcılar daha düşük maliyetli, verimli hesaplama kaynakları elde eder; aynı zamanda, teminat mekanizması, kaynak sağlayıcıların kalite kontrol mekanizmasını ihlal etmesi veya ağı kesintiye uğratması durumunda ceza almasını garanti eder.

Özellikler şunlardır:

  • Boş GPU kaynaklarını toplamak: Tedarikçiler, üçüncü taraf bağımsız küçük ve orta ölçekli veri merkezleri, kripto madencilik çiftlikleri gibi operatörlerin fazladan hesaplama gücü kaynaklarıdır; PoS konsensüs mekanizmasına sahip madencilik donanımları, FileCoin ve ETH madencileri gibi. Bazı projeler, başlangıç engelini düşürmeye çalışıyor; örneğin exolab, büyük model çıkarımı hesaplama ağı kurmak için MacBook, iPhone, iPad gibi yerel cihazları kullanıyor.

  • AI hesaplama gücü uzun kuyruk pazarına yönelik: a. Teknik taraf: Merkeziyetsiz hesap gücü pazarı, çıkarım adımları için daha uygundur. Eğitim, büyük küme ölçeğindeki GPU veri işleme kapasitesine daha fazla bağımlıdır, oysa çıkarım için GPU işlem performansı gereksinimi görece daha düşüktür; örneğin, Aethir düşük gecikme ile render işlemleri ve AI çıkarım uygulamalarına odaklanmaktadır. b. Talep tarafı: Küçük ve orta ölçekli hesap gücü talep edenler kendi büyük modellerini ayrı olarak eğitmeyecek, bunun yerine az sayıda önde gelen büyük model etrafında optimizasyon ve ince ayar yapmayı seçecekler, bu senaryolar doğal olarak dağıtılmış atıl hesap gücü kaynaklarına uygundur.

  • Merkezsiz mülkiyet: Blok zinciri teknolojisinin anlamı, kaynak sahiplerinin her zaman kaynak üzerinde kontrolü elinde tutmasıdır; ihtiyaçlara göre esnek bir şekilde ayarlayabilir ve kazanç elde edebilir.

Veri

Veri, AI'nın temelini oluşturur. Veri olmadan, hesaplama, su üzerindeki bir bitki gibi faydasızdır. Veri ile model arasındaki ilişki, "Çöp girerse, çöp çıkar" atasözüne benzer; veri miktarı ve giriş kalitesi, nihai model çıktısının kalitesini belirler. Şu anda, mevcut AI model eğitimi için veri, modelin dil yeteneğini, anlama yeteneğini, hatta değerlerini ve insani performansını belirlemektedir. Şu anda, AI'nın veri talep zorluğu esas olarak şunlarda kendini göstermektedir:

  • Veri açlığı: AI model eğitimi, büyük veri girişi gerektirir. Bildirilene göre, OpenAI, GPT-4'ü eğitirken trilyon seviyesinde parametre kullanmıştır.

  • Veri Kalitesi: AI'nin çeşitli sektörlerle birleşmesiyle birlikte, veri zamanlaması, çeşitliliği, dikey veri uzmanlığı ve sosyal medya gibi yeni veri kaynaklarının duygularının entegrasyonu, veri kalitesi için yeni gereksinimler ortaya çıkarmıştır.

  • Gizlilik ve uyum sorunları: Ülkeler ve şirketler, kaliteli veri setlerinin önemini giderek daha fazla kavrıyor ve veri seti taramasını kısıtlıyor.

  • Veri işleme maliyetleri yüksek: Veri miktarı fazla, işleme süreci karmaşık. Edinilen bilgilere göre, AI şirketlerinin %30'dan fazlası temel veri toplama ve işleme için Ar-Ge maliyetlerine harcanıyor.

Şu anda, Web3 çözümleri şunları içermektedir:

  1. Veri toplama: Ücretsiz olarak sağlanabilen gerçek dünya verileri hızla tükeniyor, AI şirketlerinin veri için yaptığı harcamalar her yıl artıyor. Ancak bu harcamalar, gerçek veri katkı sağlayıcılarını geri beslemiyor, platformlar verinin sağladığı değer yaratımını tek başlarına alıyor; örneğin Reddit, AI şirketleriyle veri lisans anlaşmaları yaparak 203 milyon dolar gelir elde etti.

Gerçekten katkıda bulunan kullanıcıların veri değer yaratımına katılımını sağlamak ve dağıtık ağlar ile teşvik mekanizmaları aracılığıyla kullanıcıların daha özel ve daha değerli verilere düşük maliyetle ulaşmalarını sağlamak, Web3'ün vizyonudur.

  • Grass, merkeziyetsiz bir veri katmanı ve ağıdır. Kullanıcılar, Grass düğümlerini çalıştırarak, boşa harcanan bant genişliğini ve iletim trafiğini katkıda bulunarak tüm internetin gerçek zamanlı verilerini yakalayabilir ve token ödülleri alabilirler.

  • Vana, benzersiz bir veri likidite havuzu (DLP) kavramını tanıttı. Kullanıcılar, özel verilerini ( alışveriş kayıtları, tarayıcı alışkanlıkları, sosyal medya etkinlikleri vb. ) belirli DLP'ye yükleyebilir ve belirli üçüncü tarafların kullanımına izin verip vermemekte esnek bir şekilde seçim yapabilir.

  • PublicAI'de, kullanıcılar X üzerinde #AI或#Web3 etiketini kullanabilir ve veri toplamak için @PublicAI'yi etiketleyebilir.

  1. Veri Ön İşleme: AI veri işleme sürecinde, toplanan veriler genellikle gürültülü ve hatalar içerdiği için, model eğitmeden önce temizlenmeli ve kullanılabilir bir formata dönüştürülmelidir. Bu, standartlaştırma, filtreleme ve eksik değerlerin işlenmesi gibi tekrarlayan görevleri içerir. Bu aşama, AI endüstrisinde birkaç insanlı aşamadan biridir ve veri etiketleyici endüstrisini doğurmuştur. Modelin veri kalitesine olan talebinin artmasıyla, veri etiketleyicilerin gereksinimleri de yükselmiştir. Bu görev, Web3'ün merkeziyetsiz teşvik mekanizması için doğal olarak uygundur.
  • Grass ve OpenLayer, veri etiketleme bu kritik aşamayı dahil etmeyi düşünüyor.

  • Synesis "Train2earn" kavramını öne sürüyor, veri kalitesini vurguluyor, kullanıcılar etiketlenmiş veri, yorum veya diğer girdileri sağlayarak ödül kazanabiliyor.

  • Veri etiketleme projesi Sapien, etiketleme görevlerini oyunlaştırmakta ve kullanıcılara daha fazla puan kazanmak için puanlarını stake etme imkanı sunmaktadır.

  1. Veri gizliliği ve güvenliği: Veri gizliliği ve güvenliğinin iki farklı kavram olduğunu netleştirmek gerekir. Veri gizliliği hassas verilerin işlenmesini içerirken, veri güvenliği bilgi verilerini yetkisiz erişim, tahribat ve hırsızlığa karşı korur. Bu nedenle, Web3 gizlilik teknolojisinin avantajları ve potansiyel uygulama alanları şunlardır: (1) hassas veri eğitimi; (2) veri işbirliği: Birden fazla veri sahibi, orijinal verileri paylaşmadan AI eğitimine katılabilir.

Günümüzde Web3'te yaygın olarak kullanılan gizlilik teknolojileri şunlardır:

  • Güvenilir İcra Ortamı ( TEE ), Super Protocol gibi;

  • Tam homomorfik şifreleme ( FHE ), örneğin BasedAI, Fhenix.io veya Inco Network;

  • Sıfır bilgi teknolojisi ( zk ), Reclaim Protocol gibi zkTLS teknolojisini kullanarak, HTTPS trafiği için sıfır bilgi kanıtları oluşturur, kullanıcıların hassas bilgileri ifşa etmeden dış web sitelerinden etkinlik, itibar ve kimlik verilerini güvenli bir şekilde içe aktarmasına izin verir.

Ancak, bu alan hala erken aşamalarda ve çoğu proje hala keşif aşamasında. Şu anda karşılaşılan zorluk, hesaplama maliyetlerinin çok yüksek olması, örneğin:

  • zkML çerçevesi EZKL, 1M-nanoGPT modelinin kanıtını oluşturmak için yaklaşık 80 dakika gerektirir.

  • Modulus Labs verilerine göre, zkML maliyetleri saf hesaplamalardan 1000 kat daha yüksektir.

  1. Veri Depolama: Veriler elde edildikten sonra, verileri zincir üzerinde depolamak ve bu verilerden oluşturulan LLM'yi üretmek gerekmektedir. Veri kullanılabilirliği (DA) temel sorun olarak alındığında, Ethereum Danksharding güncellemesi öncesinde, iş hacmi 0.08MB'dır. AI model eğitimi ve gerçek zamanlı çıkarım genellikle saniyede 50-100GB veri iş hacmi gerektirir. Bu büyüklükteki fark, mevcut zincir üstü çözümleri "kaynak yoğun AI uygulamaları" ile karşı karşıya kaldığında yetersiz bırakmaktadır.
  • 0g.AI bu tür temsil projelerindendir. AI yüksek performans ihtiyaçları için tasarlanmış merkezi depolama çözümüdür, ana özellikleri arasında: yüksek performans ve ölçeklenebilirlik, gelişmiş parçalama (Sharding) ve hata düzeltme kodu (Erasure Coding) teknolojileri ile büyük ölçekli veri setlerinin hızlı bir şekilde yüklenmesini ve indirilmesini destekler, veri transfer hızı saniyede 5GB'ye yakındır.

Ara Yazılım: Model Eğitimi ve Çıkarımı

Açık kaynak model merkeziyetsiz pazar

AI modellerinin kapalı mı yoksa açık mı olacağı konusundaki tartışmalar asla sona ermedi. Açık kaynaklı olmanın getirdiği kolektif yenilik, kapalı kaynaklı modellerin karşılayamayacağı bir avantajdır, ancak kâr modeli olmadan açık kaynaklı modellerin geliştiricilerin motivasyonunu nasıl artırabileceği düşünülmesi gereken bir yön. Baidu'nun kurucusu Li Yanhong, bu yılın Nisan ayında, "Açık kaynaklı modeller her geçen gün daha da geri kalacak." demişti.

Buna karşılık, Web3, merkeziyetsiz açık kaynaklı bir model pazarının olasılığını öne sürüyor; yani modeli kendisini tokenleştirmek, ekibe belirli bir oranda token ayırmak ve bu modelin gelecekteki gelir akışının bir kısmını token sahiplerine yönlendirmek.

  • Bittensor protokolü, açık kaynaklı modeller için bir P2P pazarı oluşturur ve onlarca "alt ağ" içerir. Kaynak sağlayıcıları ( hesaplama, veri toplama/depolama, makine öğrenimi yetenekleri ) arasında rekabet eder. Bu rekabet, belirli alt ağ sahiplerinin hedeflerini karşılamak için gerçekleştirilir; her bir alt ağ birbirleriyle etkileşimde bulunabilir ve birbirlerinden öğrenebilir, böylece daha güçlü bir zeka elde edilir. Ödüller, topluluk oylaması ile dağıtılır ve rekabet performansına göre her alt ağda daha da dağıtılır.

  • ORA, (IMO) konseptini tanıtarak başlangıç modeli çıkarır, AI modellerini tokenleştirir ve AI modellerini merkeziyetsiz ağ üzerinden satın alma, satma ve geliştirme imkanı sunar.

  • Sentient, merkeziyetsiz bir

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • 5
  • Repost
  • Share
Comment
0/400
DAOplomacyvip
· 08-10 07:18
yine başka bir web3 x ai anlatısı... açıkçası bu filmi daha önce gördüm
View OriginalReply0
SerLiquidatedvip
· 08-10 07:17
Yine BTC çiziyorlar.
View OriginalReply0
ReverseTradingGuruvip
· 08-10 07:05
Artık yine kazanç elde edebilir miyim?
View OriginalReply0
DegenMcsleeplessvip
· 08-10 07:03
insanları enayi yerine koymak bir süre ai bu anlama geliyor...
View OriginalReply0
staking_grampsvip
· 08-10 06:57
Hala AI heyecanını mı yaşıyorsunuz?? Sıkıcı
View OriginalReply0
  • Pin
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)