Los proyectos de Web3 con conceptos de IA se han convertido en objetivos de atracción de capital en los mercados primario y secundario.
Las oportunidades de Web3 en la industria de la IA se reflejan en: utilizar incentivos distribuidos para coordinar el suministro potencial en la larga cola ( a través de datos, almacenamiento y computación ), al mismo tiempo que se establece un mercado descentralizado para modelos de código abierto y agentes de IA.
La IA se utiliza principalmente en la industria Web3 para finanzas en cadena ( pagos criptográficos, transacciones, análisis de datos ) y asistencia en el desarrollo.
La utilidad de AI+Web3 se manifiesta en la complementariedad de ambos: Web3 tiene la esperanza de combatir la concentración de AI, y AI tiene la esperanza de ayudar a Web3 a romper barreras.
Introducción
En los últimos dos años, el desarrollo de la IA ha sido como presionar el botón de aceleración; la ola desatada por Chatgpt no solo ha inaugurado una nueva era de inteligencia artificial generativa, sino que también ha causado un gran impacto en el campo de Web3.
Con el respaldo del concepto de IA, la financiación en el mercado de criptomonedas, que se ha desacelerado, ha mostrado un aumento notable. Según las estadísticas, solo en la primera mitad de 2024, 64 proyectos Web3+IA han completado su financiación, entre ellos, el sistema operativo basado en inteligencia artificial Zyber365, que recaudó 100 millones de dólares en la ronda A, estableciendo un récord histórico.
El mercado secundario es más próspero. Según los datos del sitio web de agregación de criptomonedas Coingecko, en poco más de un año, la capitalización total del sector de la IA ha alcanzado los 48,5 mil millones de dólares, con un volumen de transacciones de 8,6 mil millones de dólares en 24 horas; los avances en tecnologías de IA son claramente beneficiosos, después del lanzamiento del modelo de OpenAI Sora para convertir texto en video, el precio promedio del sector de IA ha aumentado un 151%; el efecto de la IA también se ha extendido a uno de los sectores de captación de capital en criptomonedas: Meme. La primera MemeCoin con el concepto de Agente de IA, GOAT, se ha vuelto rápidamente popular y ha alcanzado una valoración de 1,4 mil millones de dólares, logrando así desatar la fiebre de los Memes de IA.
La investigación y los temas sobre AI+Web3 también están en auge, desde AI+Depin hasta AI Memecoin, y ahora AI Agent y AI DAO, la emoción de FOMO ya no puede seguir el ritmo de la rotación de nuevas narrativas.
La combinación de términos AI+Web3, llena de dinero caliente, oportunidades y fantasías futuras, inevitablemente se ve como un matrimonio arreglado de capital, es difícil distinguir si, bajo este hermoso exterior, es realmente el terreno de los especuladores o la víspera de una explosión al amanecer.
Para responder a esta pregunta, una reflexión clave para ambas partes es: ¿será mejor con la otra parte? ¿Se puede beneficiarse del modelo del otro? Este artículo intenta mirar esta situación desde la perspectiva de quienes nos precedieron: ¿cómo puede Web3 desempeñar un papel en cada etapa del stack tecnológico de IA y qué nueva vitalidad puede aportar la IA a Web3?
¿Qué oportunidades hay para Web3 en la pila de IA?
Antes de abordar este tema, necesitamos entender la pila tecnológica de los grandes modelos de IA:
Un gran modelo es como el cerebro humano, en las primeras etapas es como un bebé recién nacido, necesita observar y absorber una gran cantidad de información externa para entender el mundo, esta es la fase de "recolección" de datos; dado que las computadoras no poseen los múltiples sentidos humanos, antes del entrenamiento es necesario convertir la información no etiquetada en un formato comprensible para la computadora a través de la "preprocesamiento".
Después de ingresar los datos, la IA construye un modelo con capacidad de comprensión y predicción a través del "entrenamiento", similar al proceso en el que un bebé gradualmente comprende y aprende sobre el mundo exterior; los parámetros del modelo son como las habilidades lingüísticas que un bebé ajusta constantemente. El contenido de aprendizaje se divide en disciplinas o se obtiene retroalimentación al comunicarse con las personas, momento en el cual se entra en la fase de "ajuste fino".
Cuando los niños crecen y aprenden a hablar, pueden entender el significado y expresar sus ideas en nuevas conversaciones, similar a la "inferencia" de un modelo grande de IA, que puede realizar análisis predictivos sobre nuevas entradas de texto en diferentes idiomas. Los bebés expresan sus sentimientos, describen objetos y resuelven problemas a través del lenguaje, de manera similar a cómo un modelo grande de IA se aplica en la fase de inferencia a diversas tareas específicas, como la clasificación de imágenes, el reconocimiento de voz, etc.
El Agente de IA se asemeja más a la próxima forma de los grandes modelos: capaz de ejecutar tareas de forma independiente y perseguir objetivos complejos, no solo posee habilidades de pensamiento, sino que también puede recordar, planificar y utilizar herramientas para interactuar con el mundo.
Actualmente, en respuesta a los puntos críticos de las diversas capas de la IA, Web3 ha comenzado a formar un ecosistema multicapa e interconectado que abarca todas las etapas del proceso de modelos de IA.
Capa base: Airbnb de potencia de cálculo y datos
Poder de cálculo
Actualmente, uno de los costos más altos de la IA es la potencia de cálculo y la energía necesarias para entrenar e inferir modelos.
Por ejemplo, el LLAMA3 de Meta necesita 16,000 GPU NVIDIA H100 durante 30 días para completar el entrenamiento. El precio de la versión H100 de 80 GB es de entre 30,000 y 40,000 dólares, lo que requiere una inversión en hardware de cálculo de entre 400 y 700 millones de dólares ( GPU + chip de red ), el consumo mensual de entrenamiento es de 1,600 millones de kilovatios hora, con gastos energéticos cercanos a 20 millones de dólares.
La descompresión de la potencia de cálculo de IA es también uno de los primeros campos donde Web3 se cruza con la IA: la red de infraestructura física descentralizada DePin(. Actualmente, el sitio de datos DePin Ninja ha enumerado más de 1400 proyectos, entre los cuales los proyectos representativos de compartición de potencia de GPU incluyen io.net, Aethir, Akash, Render Network, entre otros.
La lógica principal es: la plataforma permite a los propietarios de recursos de GPU ociosos contribuir con capacidad de cálculo de manera descentralizada y sin necesidad de permisos, a través de un mercado en línea para compradores y vendedores similar a Uber o Airbnb, aumentando la tasa de utilización de recursos de GPU no aprovechados, y los usuarios finales obtienen recursos de cálculo eficientes a un costo más bajo; al mismo tiempo, un mecanismo de staking garantiza que los proveedores de recursos sean penalizados si violan el mecanismo de control de calidad o interrumpen la red.
Características incluyen:
Reunir recursos de GPU ociosos: los proveedores son principalmente operadores de centros de datos independientes de terceros, granjas de minería de criptomonedas, etc., con recursos de potencia de cálculo excedentes, y el mecanismo de consenso es hardware de minería PoS, como los mineros de FileCoin y ETH. Algunos proyectos se dedican a reducir la barrera de entrada, como exolab que utiliza dispositivos locales como MacBook, iPhone, iPad, etc., para establecer una red de potencia de cálculo para la inferencia de grandes modelos.
Enfocado en el mercado de cómputo de IA de cola larga:
a. Sector técnico: el mercado de potencia de cálculo descentralizado es más adecuado para los pasos de inferencia. El entrenamiento depende más de la capacidad de procesamiento de datos de GPUs a gran escala de clústeres, mientras que la inferencia tiene requisitos relativamente bajos en cuanto al rendimiento de cálculo de GPUs, como Aethir que se centra en el trabajo de renderizado de baja latencia y aplicaciones de inferencia de IA.
b. Lado de la demanda: las pequeñas y medianas empresas de demanda de poder de cálculo no entrenarán por sí solas sus grandes modelos, sino que optarán por optimizar y ajustar finamente alrededor de unos pocos grandes modelos líderes. Estos escenarios son naturalmente adecuados para recursos de cálculo distribuidos y ociosos.
Propiedad descentralizada: El significado de la tecnología blockchain radica en que los propietarios de recursos siempre retienen el control sobre los recursos, pudiendo ajustarlos de manera flexible según la demanda y obtener beneficios.
)# Datos
Los datos son la base de la IA. Sin datos, el cálculo es tan inútil como un junco a la deriva, y la relación entre los datos y el modelo es como dice el refrán: "Basura entra, basura sale". La cantidad de datos y la calidad de la entrada determinan la calidad de salida del modelo final. En el entrenamiento actual de los modelos de IA, los datos determinan la capacidad lingüística, la capacidad de comprensión e incluso los valores y la humanización del modelo. Actualmente, la dificultad de la demanda de datos de la IA se manifiesta principalmente en:
Sed de datos: el entrenamiento de modelos de IA depende de una enorme cantidad de datos de entrada. Se informa que OpenAI ha entrenado a GPT-4 con un número de parámetros que alcanza niveles de billones.
Calidad de los datos: Con la integración de la IA en diversas industrias, la temporalidad, diversidad, especialización en datos verticales y la incorporación de nuevas fuentes de datos como las emociones en redes sociales han planteado nuevos requisitos para su calidad.
Problemas de privacidad y cumplimiento: Los países y empresas están comenzando a darse cuenta de la importancia de los conjuntos de datos de calidad y están restringiendo la recopilación de datos.
Costos de procesamiento de datos elevados: gran volumen de datos, proceso de tratamiento complejo. Se informa que las empresas de IA destinan más del 30% de sus costos de investigación y desarrollo a la recolección y procesamiento de datos básicos.
Actualmente, las soluciones de Web3 se manifiestan en:
Recolección de datos: Los datos del mundo real que se pueden proporcionar de forma gratuita se están agotando rápidamente, y los gastos de las empresas de IA en datos están aumentando año tras año. Sin embargo, este gasto no ha beneficiado a los verdaderos contribuyentes de datos; las plataformas disfrutan exclusivamente de la creación de valor que generan los datos, como Reddit, que logró ingresos de 203 millones de dólares a través de acuerdos de licencia de datos con empresas de IA.
Permitir que los usuarios que realmente contribuyen participen en la creación de valor de datos, y obtener datos más privados y valiosos de los usuarios de manera de bajo costo a través de redes distribuidas y mecanismos de incentivos, es la visión de Web3.
Grass es una capa de datos y red descentralizada, donde los usuarios pueden ejecutar nodos de Grass, contribuir con ancho de banda inactivo y retransmitir tráfico para capturar datos en tiempo real de toda la internet y obtener recompensas en tokens.
Vana introduce el concepto único de piscina de liquidez de datos ###DLP(, donde los usuarios pueden cargar datos privados ) como registros de compras, hábitos de navegación, actividades en redes sociales, etc., a un DLP específico y elegir de manera flexible si autorizan su uso a terceros específicos.
En PublicAI, los usuarios pueden usar la etiqueta (Web3 en X y @PublicAI para realizar la recolección de datos.
Preprocesamiento de datos: En el proceso de procesamiento de datos de IA, debido a que los datos recopilados suelen ser ruidosos y contener errores, es necesario limpiar y convertirlos a un formato utilizable antes de entrenar el modelo, lo que implica tareas repetitivas de normalización, filtrado y tratamiento de valores faltantes. Esta etapa es una de las pocas fases manuales en la industria de la IA, dando lugar a la profesión de etiquetadores de datos. A medida que las exigencias de calidad de los datos por parte de los modelos aumentan, el umbral para los etiquetadores de datos también se eleva, y esta tarea es naturalmente adecuada para el mecanismo de incentivos descentralizados de Web3.
Grass y OpenLayer están considerando incorporar la etapa clave de la anotación de datos.
Synesis propone el concepto "Train2earn", enfatizando la calidad de los datos. Los usuarios pueden obtener recompensas al proporcionar datos etiquetados, comentarios u otras entradas.
El proyecto de etiquetado de datos Sapien gamifica las tareas de etiquetado y permite a los usuarios apostar puntos para ganar más puntos.
Privacidad y seguridad de los datos: es necesario aclarar que la privacidad de los datos y la seguridad de los datos son dos conceptos diferentes. La privacidad de los datos implica el manejo de datos sensibles, mientras que la seguridad de los datos protege la información de los datos contra el acceso no autorizado, la destrucción y el robo. Por lo tanto, las ventajas de la tecnología de privacidad de Web3 y los posibles escenarios de aplicación se reflejan en: )1#AI或# entrenamiento de datos sensibles; (2) colaboración de datos: múltiples propietarios de datos pueden participar juntos en el entrenamiento de IA sin necesidad de compartir datos originales.
Las tecnologías de privacidad más comunes en Web3 incluyen:
Entorno de ejecución confiable(TEE), como Super Protocol;
Cifrado homomórfico completo ( FHE ), como BasedAI, Fhenix.io o Inco Network;
Tecnología de conocimiento cero ( zk), como el Protocolo Reclaim que utiliza la tecnología zkTLS, genera pruebas de conocimiento cero para el tráfico HTTPS, permitiendo a los usuarios importar de manera segura actividades, reputación y datos de identidad de sitios web externos sin exponer información sensible.
Sin embargo, el campo todavía se encuentra en una etapa temprana, la mayoría de los proyectos aún están en exploración, y actualmente la dificultad radica en que el costo de computación es demasiado alto, por ejemplo:
El marco zkML EZKL necesita aproximadamente 80 minutos para generar una prueba del modelo 1M-nanoGPT.
Según los datos de Modulus Labs, los costos de zkML son más de 1000 veces superiores a los de los cálculos puros.
Almacenamiento de datos: Una vez que se tienen los datos, también es necesario almacenarlos en la cadena y generar LLM a partir de esos datos. Con la disponibilidad de datos (DA) como problema central, antes de la actualización de Danksharding de Ethereum, su capacidad de procesamiento era de 0.08MB. Sin embargo, el entrenamiento de modelos de IA y la inferencia en tiempo real generalmente requieren un rendimiento de datos de 50-100GB por segundo. Esta diferencia de orden de magnitud deja a las soluciones existentes en la cadena incapaces de enfrentar "aplicaciones de IA que requieren muchos recursos".
0g.AI es un proyecto representativo de este tipo. Es una solución de almacenamiento centralizado diseñada para satisfacer las altas demandas de rendimiento de la IA, cuyas características clave incluyen: alto rendimiento y escalabilidad, mediante técnicas avanzadas de fragmentación (Sharding) y codificación de borrado (Erasure Coding), que soportan la carga y descarga rápida de grandes conjuntos de datos, con velocidades de transferencia de datos cercanas a 5GB por segundo.
( Middleware: entrenamiento y razonamiento del modelo
)# Mercado descentralizado de modelos de código abierto
El debate sobre si los modelos de IA deben ser de código cerrado o abierto nunca ha cesado. La innovación colectiva que trae el código abierto es una ventaja que los modelos de código cerrado no pueden igualar, sin embargo, en ausencia de un modelo de negocio rentable, ¿cómo pueden los modelos de código abierto aumentar la motivación de los desarrolladores? Es una dirección que merece ser considerada. El fundador de Baidu, Li Yanhong, afirmó en abril de este año: "Los modelos de código abierto se quedarán cada vez más atrás."
En este sentido, Web3 propone la posibilidad de un mercado de modelos descentralizados y de código abierto, es decir, tokenizando el modelo en sí, reservando un cierto porcentaje de tokens para el equipo y dirigiendo parte de los ingresos futuros de ese modelo hacia los poseedores de tokens.
El protocolo Bittensor establece un mercado P2P de modelos de código abierto, compuesto por decenas de "subredes", donde los proveedores de recursos ### compiten en cálculo, recolección/almacenamiento de datos y talento en aprendizaje automático ### para satisfacer los objetivos de los propietarios de subredes específicas. Las subredes pueden interactuar y aprender unas de otras, logrando una inteligencia más poderosa. Las recompensas se distribuyen mediante votación comunitaria y se asignan adicionalmente en cada subred según el rendimiento competitivo.
ORA introduce el concepto de emisión del modelo inicial (IMO), tokenizando modelos de IA, que se pueden comprar, vender y desarrollar a través de una red descentralizada.
Sentient, un descentralizado
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
17 me gusta
Recompensa
17
5
Republicar
Compartir
Comentar
0/400
DAOplomacy
· 08-10 07:18
otra narrativa de web3 x ai... he visto esta película antes, para ser honesto
Ver originalesResponder0
SerLiquidated
· 08-10 07:17
Otra vez vienen a hacer BTC.
Ver originalesResponder0
ReverseTradingGuru
· 08-10 07:05
¿Ya se puede recoger dinero nuevamente?
Ver originalesResponder0
DegenMcsleepless
· 08-10 07:03
tomar a la gente por tonta una ola de ai es este el significado, ¿verdad...?
Ver originalesResponder0
staking_gramps
· 08-10 06:57
¿Todavía estás cocinando la moda de la IA?? Aburrido
AI+Web3: revolución de datos, Potencia computacional y modelos de Descentralización
AI+Web3: Torres y Plazas
TL;DR
Los proyectos de Web3 con conceptos de IA se han convertido en objetivos de atracción de capital en los mercados primario y secundario.
Las oportunidades de Web3 en la industria de la IA se reflejan en: utilizar incentivos distribuidos para coordinar el suministro potencial en la larga cola ( a través de datos, almacenamiento y computación ), al mismo tiempo que se establece un mercado descentralizado para modelos de código abierto y agentes de IA.
La IA se utiliza principalmente en la industria Web3 para finanzas en cadena ( pagos criptográficos, transacciones, análisis de datos ) y asistencia en el desarrollo.
La utilidad de AI+Web3 se manifiesta en la complementariedad de ambos: Web3 tiene la esperanza de combatir la concentración de AI, y AI tiene la esperanza de ayudar a Web3 a romper barreras.
Introducción
En los últimos dos años, el desarrollo de la IA ha sido como presionar el botón de aceleración; la ola desatada por Chatgpt no solo ha inaugurado una nueva era de inteligencia artificial generativa, sino que también ha causado un gran impacto en el campo de Web3.
Con el respaldo del concepto de IA, la financiación en el mercado de criptomonedas, que se ha desacelerado, ha mostrado un aumento notable. Según las estadísticas, solo en la primera mitad de 2024, 64 proyectos Web3+IA han completado su financiación, entre ellos, el sistema operativo basado en inteligencia artificial Zyber365, que recaudó 100 millones de dólares en la ronda A, estableciendo un récord histórico.
El mercado secundario es más próspero. Según los datos del sitio web de agregación de criptomonedas Coingecko, en poco más de un año, la capitalización total del sector de la IA ha alcanzado los 48,5 mil millones de dólares, con un volumen de transacciones de 8,6 mil millones de dólares en 24 horas; los avances en tecnologías de IA son claramente beneficiosos, después del lanzamiento del modelo de OpenAI Sora para convertir texto en video, el precio promedio del sector de IA ha aumentado un 151%; el efecto de la IA también se ha extendido a uno de los sectores de captación de capital en criptomonedas: Meme. La primera MemeCoin con el concepto de Agente de IA, GOAT, se ha vuelto rápidamente popular y ha alcanzado una valoración de 1,4 mil millones de dólares, logrando así desatar la fiebre de los Memes de IA.
La investigación y los temas sobre AI+Web3 también están en auge, desde AI+Depin hasta AI Memecoin, y ahora AI Agent y AI DAO, la emoción de FOMO ya no puede seguir el ritmo de la rotación de nuevas narrativas.
La combinación de términos AI+Web3, llena de dinero caliente, oportunidades y fantasías futuras, inevitablemente se ve como un matrimonio arreglado de capital, es difícil distinguir si, bajo este hermoso exterior, es realmente el terreno de los especuladores o la víspera de una explosión al amanecer.
Para responder a esta pregunta, una reflexión clave para ambas partes es: ¿será mejor con la otra parte? ¿Se puede beneficiarse del modelo del otro? Este artículo intenta mirar esta situación desde la perspectiva de quienes nos precedieron: ¿cómo puede Web3 desempeñar un papel en cada etapa del stack tecnológico de IA y qué nueva vitalidad puede aportar la IA a Web3?
¿Qué oportunidades hay para Web3 en la pila de IA?
Antes de abordar este tema, necesitamos entender la pila tecnológica de los grandes modelos de IA:
Un gran modelo es como el cerebro humano, en las primeras etapas es como un bebé recién nacido, necesita observar y absorber una gran cantidad de información externa para entender el mundo, esta es la fase de "recolección" de datos; dado que las computadoras no poseen los múltiples sentidos humanos, antes del entrenamiento es necesario convertir la información no etiquetada en un formato comprensible para la computadora a través de la "preprocesamiento".
Después de ingresar los datos, la IA construye un modelo con capacidad de comprensión y predicción a través del "entrenamiento", similar al proceso en el que un bebé gradualmente comprende y aprende sobre el mundo exterior; los parámetros del modelo son como las habilidades lingüísticas que un bebé ajusta constantemente. El contenido de aprendizaje se divide en disciplinas o se obtiene retroalimentación al comunicarse con las personas, momento en el cual se entra en la fase de "ajuste fino".
Cuando los niños crecen y aprenden a hablar, pueden entender el significado y expresar sus ideas en nuevas conversaciones, similar a la "inferencia" de un modelo grande de IA, que puede realizar análisis predictivos sobre nuevas entradas de texto en diferentes idiomas. Los bebés expresan sus sentimientos, describen objetos y resuelven problemas a través del lenguaje, de manera similar a cómo un modelo grande de IA se aplica en la fase de inferencia a diversas tareas específicas, como la clasificación de imágenes, el reconocimiento de voz, etc.
El Agente de IA se asemeja más a la próxima forma de los grandes modelos: capaz de ejecutar tareas de forma independiente y perseguir objetivos complejos, no solo posee habilidades de pensamiento, sino que también puede recordar, planificar y utilizar herramientas para interactuar con el mundo.
Actualmente, en respuesta a los puntos críticos de las diversas capas de la IA, Web3 ha comenzado a formar un ecosistema multicapa e interconectado que abarca todas las etapas del proceso de modelos de IA.
Capa base: Airbnb de potencia de cálculo y datos
Poder de cálculo
Actualmente, uno de los costos más altos de la IA es la potencia de cálculo y la energía necesarias para entrenar e inferir modelos.
Por ejemplo, el LLAMA3 de Meta necesita 16,000 GPU NVIDIA H100 durante 30 días para completar el entrenamiento. El precio de la versión H100 de 80 GB es de entre 30,000 y 40,000 dólares, lo que requiere una inversión en hardware de cálculo de entre 400 y 700 millones de dólares ( GPU + chip de red ), el consumo mensual de entrenamiento es de 1,600 millones de kilovatios hora, con gastos energéticos cercanos a 20 millones de dólares.
La descompresión de la potencia de cálculo de IA es también uno de los primeros campos donde Web3 se cruza con la IA: la red de infraestructura física descentralizada DePin(. Actualmente, el sitio de datos DePin Ninja ha enumerado más de 1400 proyectos, entre los cuales los proyectos representativos de compartición de potencia de GPU incluyen io.net, Aethir, Akash, Render Network, entre otros.
La lógica principal es: la plataforma permite a los propietarios de recursos de GPU ociosos contribuir con capacidad de cálculo de manera descentralizada y sin necesidad de permisos, a través de un mercado en línea para compradores y vendedores similar a Uber o Airbnb, aumentando la tasa de utilización de recursos de GPU no aprovechados, y los usuarios finales obtienen recursos de cálculo eficientes a un costo más bajo; al mismo tiempo, un mecanismo de staking garantiza que los proveedores de recursos sean penalizados si violan el mecanismo de control de calidad o interrumpen la red.
Características incluyen:
Reunir recursos de GPU ociosos: los proveedores son principalmente operadores de centros de datos independientes de terceros, granjas de minería de criptomonedas, etc., con recursos de potencia de cálculo excedentes, y el mecanismo de consenso es hardware de minería PoS, como los mineros de FileCoin y ETH. Algunos proyectos se dedican a reducir la barrera de entrada, como exolab que utiliza dispositivos locales como MacBook, iPhone, iPad, etc., para establecer una red de potencia de cálculo para la inferencia de grandes modelos.
Enfocado en el mercado de cómputo de IA de cola larga: a. Sector técnico: el mercado de potencia de cálculo descentralizado es más adecuado para los pasos de inferencia. El entrenamiento depende más de la capacidad de procesamiento de datos de GPUs a gran escala de clústeres, mientras que la inferencia tiene requisitos relativamente bajos en cuanto al rendimiento de cálculo de GPUs, como Aethir que se centra en el trabajo de renderizado de baja latencia y aplicaciones de inferencia de IA. b. Lado de la demanda: las pequeñas y medianas empresas de demanda de poder de cálculo no entrenarán por sí solas sus grandes modelos, sino que optarán por optimizar y ajustar finamente alrededor de unos pocos grandes modelos líderes. Estos escenarios son naturalmente adecuados para recursos de cálculo distribuidos y ociosos.
Propiedad descentralizada: El significado de la tecnología blockchain radica en que los propietarios de recursos siempre retienen el control sobre los recursos, pudiendo ajustarlos de manera flexible según la demanda y obtener beneficios.
)# Datos
Los datos son la base de la IA. Sin datos, el cálculo es tan inútil como un junco a la deriva, y la relación entre los datos y el modelo es como dice el refrán: "Basura entra, basura sale". La cantidad de datos y la calidad de la entrada determinan la calidad de salida del modelo final. En el entrenamiento actual de los modelos de IA, los datos determinan la capacidad lingüística, la capacidad de comprensión e incluso los valores y la humanización del modelo. Actualmente, la dificultad de la demanda de datos de la IA se manifiesta principalmente en:
Sed de datos: el entrenamiento de modelos de IA depende de una enorme cantidad de datos de entrada. Se informa que OpenAI ha entrenado a GPT-4 con un número de parámetros que alcanza niveles de billones.
Calidad de los datos: Con la integración de la IA en diversas industrias, la temporalidad, diversidad, especialización en datos verticales y la incorporación de nuevas fuentes de datos como las emociones en redes sociales han planteado nuevos requisitos para su calidad.
Problemas de privacidad y cumplimiento: Los países y empresas están comenzando a darse cuenta de la importancia de los conjuntos de datos de calidad y están restringiendo la recopilación de datos.
Costos de procesamiento de datos elevados: gran volumen de datos, proceso de tratamiento complejo. Se informa que las empresas de IA destinan más del 30% de sus costos de investigación y desarrollo a la recolección y procesamiento de datos básicos.
Actualmente, las soluciones de Web3 se manifiestan en:
Permitir que los usuarios que realmente contribuyen participen en la creación de valor de datos, y obtener datos más privados y valiosos de los usuarios de manera de bajo costo a través de redes distribuidas y mecanismos de incentivos, es la visión de Web3.
Grass es una capa de datos y red descentralizada, donde los usuarios pueden ejecutar nodos de Grass, contribuir con ancho de banda inactivo y retransmitir tráfico para capturar datos en tiempo real de toda la internet y obtener recompensas en tokens.
Vana introduce el concepto único de piscina de liquidez de datos ###DLP(, donde los usuarios pueden cargar datos privados ) como registros de compras, hábitos de navegación, actividades en redes sociales, etc., a un DLP específico y elegir de manera flexible si autorizan su uso a terceros específicos.
En PublicAI, los usuarios pueden usar la etiqueta (Web3 en X y @PublicAI para realizar la recolección de datos.
Grass y OpenLayer están considerando incorporar la etapa clave de la anotación de datos.
Synesis propone el concepto "Train2earn", enfatizando la calidad de los datos. Los usuarios pueden obtener recompensas al proporcionar datos etiquetados, comentarios u otras entradas.
El proyecto de etiquetado de datos Sapien gamifica las tareas de etiquetado y permite a los usuarios apostar puntos para ganar más puntos.
Las tecnologías de privacidad más comunes en Web3 incluyen:
Entorno de ejecución confiable(TEE), como Super Protocol;
Cifrado homomórfico completo ( FHE ), como BasedAI, Fhenix.io o Inco Network;
Tecnología de conocimiento cero ( zk), como el Protocolo Reclaim que utiliza la tecnología zkTLS, genera pruebas de conocimiento cero para el tráfico HTTPS, permitiendo a los usuarios importar de manera segura actividades, reputación y datos de identidad de sitios web externos sin exponer información sensible.
Sin embargo, el campo todavía se encuentra en una etapa temprana, la mayoría de los proyectos aún están en exploración, y actualmente la dificultad radica en que el costo de computación es demasiado alto, por ejemplo:
El marco zkML EZKL necesita aproximadamente 80 minutos para generar una prueba del modelo 1M-nanoGPT.
Según los datos de Modulus Labs, los costos de zkML son más de 1000 veces superiores a los de los cálculos puros.
( Middleware: entrenamiento y razonamiento del modelo
)# Mercado descentralizado de modelos de código abierto
El debate sobre si los modelos de IA deben ser de código cerrado o abierto nunca ha cesado. La innovación colectiva que trae el código abierto es una ventaja que los modelos de código cerrado no pueden igualar, sin embargo, en ausencia de un modelo de negocio rentable, ¿cómo pueden los modelos de código abierto aumentar la motivación de los desarrolladores? Es una dirección que merece ser considerada. El fundador de Baidu, Li Yanhong, afirmó en abril de este año: "Los modelos de código abierto se quedarán cada vez más atrás."
En este sentido, Web3 propone la posibilidad de un mercado de modelos descentralizados y de código abierto, es decir, tokenizando el modelo en sí, reservando un cierto porcentaje de tokens para el equipo y dirigiendo parte de los ingresos futuros de ese modelo hacia los poseedores de tokens.
El protocolo Bittensor establece un mercado P2P de modelos de código abierto, compuesto por decenas de "subredes", donde los proveedores de recursos ### compiten en cálculo, recolección/almacenamiento de datos y talento en aprendizaje automático ### para satisfacer los objetivos de los propietarios de subredes específicas. Las subredes pueden interactuar y aprender unas de otras, logrando una inteligencia más poderosa. Las recompensas se distribuyen mediante votación comunitaria y se asignan adicionalmente en cada subred según el rendimiento competitivo.
ORA introduce el concepto de emisión del modelo inicial (IMO), tokenizando modelos de IA, que se pueden comprar, vender y desarrollar a través de una red descentralizada.
Sentient, un descentralizado