Mira Ağı: AI güven katmanı inşa etmek, önyargı ve yanılsama sorunlarını çözmek

AI'nin Güven Katmanı: Mira Ağı, AI Önyargıları ve Halüsinasyon Sorunlarını Nasıl Çözüyor

Son günlerde Mira adlı bir ağ, AI için bir güven katmanı oluşturmayı hedefleyen halka açık bir test sürümünü piyasaya sürdü. Bu, insanların AI güvenilirliği sorununu düşünmesine yol açtı: AI neden güvenilir olmalıdır? Mira bu sorunu nasıl çözüyor?

AI tartışılırken, insanlar genellikle onun güçlü yeteneklerine daha fazla odaklanırlar. Ancak, AI'nin "hayal" veya önyargı sorunları sıklıkla göz ardı edilir. "AI'nin hayal" olarak adlandırılan şey, basitçe söylemek gerekirse, AI'nin bazen "saçmalaması"dır; ciddiyetle saçmalamaktadır. Örneğin, AI'ye ayın neden pembe olduğunu sorarsanız, mantıklı gibi görünen ama aslında temelsiz bir açıklama verebilir.

AI'nin bu sorunları mevcut teknolojik yol ile ilgilidir. Üretken AI, "en olası" içeriği tahmin ederek tutarlılık ve mantıklılık sağlarken, bu yöntem bazen doğruluğu doğrulamayı zorlaştırır. Ayrıca, eğitim verileri kendisi hatalar, önyargılar veya hatta kurgusal içerikler içerebilir, bunlar da AI'nın çıktısını etkileyebilir. Başka bir deyişle, AI, insan dil kalıplarını öğreniyor, gerçekleri değil.

Mevcut olasılık üretim mekanizması ve veri odaklı model, neredeyse kaçınılmaz olarak AI yanılsamalarının olasılığını beraberinde getirmiştir. Genel bilgi veya eğlence içeriklerinde bu tür bir sorun geçici olarak doğrudan sonuçlar doğurmasa da, tıp, hukuk, havacılık, finans gibi son derece titiz alanlarda önemli etkiler yaratabilir. Bu nedenle, AI yanılsamaları ve önyargılarının çözülmesi, AI evrim sürecinin en önemli sorunlarından biri haline gelmiştir.

Mira projesi tam olarak bu sorunu çözmeye yönelik çalışmaktadır. AI'nın güven katmanını inşa etmeyi, AI önyargılarını ve yanılsamaları azaltmayı, AI'nın güvenilirliğini artırmayı hedeflemektedir. Peki, Mira bu hedefe nasıl ulaşmayı planlıyor?

Mira'nın temel yöntemi, birden fazla AI modelinin mutabakatıyla AI çıktısını doğrulamaktır. Mira, esasen AI çıktılarının güvenilirliğini doğrulamak için birden fazla AI modelinin mutabakatını kullanan bir doğrulama ağıdır. Daha da önemlisi, merkeziyetsiz bir mutabakat doğrulama yöntemi benimsemektedir.

Mira ağının anahtarı merkeziyetsiz konsensüs doğrulamasındadır. Bu yöntem, kripto alanının avantajlarından yararlanırken, çoklu model iş birliği özelliklerini kullanarak, toplu doğrulama modeli aracılığıyla önyargı ve yanılsamaları azaltmaktadır.

Doğrulama mimarisi açısından, Mira protokolü karmaşık içeriği bağımsız olarak doğrulanabilir beyanlara dönüştürmeyi destekler. Düğüm operatörleri bu beyanların doğrulanmasına katılır ve düğüm operatörlerinin dürüstlüğünü sağlamak için Mira, kripto ekonomik teşvik/ceza mekanizmasını kullanır. Farklı AI modellerinin ve merkeziyetsiz düğüm operatörlerinin katılımı, doğrulama sonuçlarının güvenilirliğini garanti eder.

Mira'nın ağ yapısı içerik dönüşümü, dağıtık doğrulama ve konsensüs mekanizmasını içermektedir. İçerik dönüşümü bu süreçteki anahtar aşamadır. Mira ağı önce aday içeriği farklı doğrulanabilir beyanlara ayırır, bu beyanlar doğrulama için düğümlere dağıtılır, geçerliliklerinin belirlenmesi için ve sonuçların bir konsensüse ulaşması için toplanır. Müşteri gizliliğini korumak amacıyla, beyanlar rastgele parçalar halinde farklı düğümlere dağıtılır, böylece bilgi sızıntısı önlenir.

Düğüm işletmecileri, doğrulayıcı modelini çalıştırmak, beyanları işlemek ve doğrulama sonuçlarını sunmakla sorumludur. Doğrulama sürecine katılmaları, müşterilere sağladıkları değerlerden elde edilen kazançlar içindir. Mira ağı, özellikle sağlık, hukuk, havacılık ve finans gibi alanlarda büyük değer yaratabilecek AI hata oranını azaltmayı hedeflemektedir. Düğüm işletmecilerinin suistimalde bulunmasını önlemek için, sürekli olarak konsensustan sapma gösteren düğümler cezalandırılacaktır.

Genel olarak, Mira, AI'nın güvenilirliğini sağlamak için yeni bir yaklaşım sunmaktadır: Çoklu AI modelleri üzerine merkeziyetsiz bir konsensüs doğrulama ağı inşa ederek müşteri AI hizmetlerine daha yüksek güvenilirlik kazandırmakta, AI önyargılarını ve yanılsamaları azaltmakta, daha yüksek doğruluk ve hassasiyet gereksinimlerini karşılamaktadır. Kısacası, Mira, AI'nın güven katmanını inşa etmekte ve bu, AI uygulamalarının derinlemesine gelişimini teşvik edecektir.

Şu anda kullanıcılar, doğrulanmış AI çıktıları yaşamak ve Mira puanları kazanma fırsatı elde etmek için Mira'nın halka açık test ağına katılmak üzere Klok (Mira tabanlı bir LLM sohbet uygulaması) aracılığıyla katılabilirler. Bu puanların gelecekteki kullanımları henüz açıklanmadı, ancak kesinlikle kullanıcı katılımı için ek bir motivasyon sağlıyor.

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • 4
  • Share
Comment
0/400
SelfRuggervip
· 07-14 15:41
Kardeşler, bir gösteri izlemeye hazır olun!
View OriginalReply0
CoconutWaterBoyvip
· 07-13 15:14
Güvenilir bir deneme.
View OriginalReply0
FrontRunFightervip
· 07-11 16:40
Gerçek vaka testleri yapalım.
View OriginalReply0
AirdropFatiguevip
· 07-11 16:32
Güven, testlere bağlıdır.
View OriginalReply0
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)