Projetos Web3 com conceitos de IA tornaram-se alvos de captação de recursos nos mercados primário e secundário.
As oportunidades do Web3 na indústria de IA manifestam-se em: utilizar incentivos distribuídos para coordenar o potencial de fornecimento no longo prazo ( através de dados, armazenamento e computação ), ao mesmo tempo que se estabelece um mercado descentralizado para modelos de código aberto e Agentes de IA.
A IA na indústria Web3 é principalmente utilizada para finanças on-chain ( pagamentos em criptomoedas, transações, análise de dados ) e auxílio no desenvolvimento.
A utilidade da AI+Web3 reflete-se na complementaridade entre ambos: o Web3 tem potencial para combater a centralização da AI, enquanto a AI pode ajudar o Web3 a ultrapassar barreiras.
Introdução
Nos últimos dois anos, o desenvolvimento da IA acelerou como se tivesse pressionado um botão de aceleração, e a onda gerada pelo Chatgpt não só inaugurou uma nova era de inteligência artificial generativa, mas também provocou grandes ondas no domínio do Web3.
Com o conceito de IA em ação, o impulso de financiamento no mercado de criptomoedas, que está a desacelerar, é evidente. De acordo com estatísticas, apenas no primeiro semestre de 2024, 64 projetos Web3+AI completaram financiamento, dos quais o sistema operacional baseado em inteligência artificial Zyber365 levantou 100 milhões de dólares na rodada A, estabelecendo um novo recorde.
O mercado secundário está mais próspero, o site de agregação de criptomoedas Coingecko mostra que, em pouco mais de um ano, o valor de mercado total da faixa de AI já atingiu 48,5 bilhões de dólares, com um volume de negociação de 8,6 bilhões de dólares em 24 horas; os benefícios trazidos pelos avanços na tecnologia de AI são evidentes, após o lançamento do modelo de texto para vídeo Sora da OpenAI, o preço médio do setor de AI aumentou 151%; o efeito AI também se espalhou para um dos segmentos mais lucrativos de criptomoedas, Meme: o primeiro MemeCoin com o conceito de Agente AI - GOAT rapidamente se tornou popular e obteve uma avaliação de 1,4 bilhão de dólares, conseguindo desencadear uma onda de Meme de AI.
A pesquisa e os tópicos sobre AI+Web3 também estão em alta, desde AI+Depin até AI Memecoin e agora AI Agent e AI DAO, a emoção de FOMO já não consegue acompanhar a velocidade da troca de narrativas.
O termo combinado AI+Web3, repleto de dinheiro fácil, oportunidades e fantasias futuras, não pode deixar de ser visto como um casamento arranjado por capital, sendo difícil distinguir sob este revestimento glamoroso se estamos realmente no campo dos especuladores ou se estamos à véspera de uma explosão ao amanhecer?
Para responder a esta questão, um pensamento fundamental para ambas as partes é: será que a relação se tornará melhor? É possível beneficiar-se do modelo do outro? Este artigo tenta, apoiando-se no trabalho de outros, examinar este cenário: como o Web3 pode desempenhar um papel em cada etapa da pilha tecnológica de IA, e o que a IA pode trazer de novo ao Web3?
Quais são as oportunidades do Web3 sob a pilha de IA?
Antes de abordar este tópico, precisamos entender a pilha tecnológica dos grandes modelos de IA:
Os grandes modelos são como o cérebro humano; no início, parecem recém-nascidos, precisando observar e absorver uma grande quantidade de informações externas para entender o mundo, esta é a fase de "coleta" de dados; como os computadores não possuem múltiplos sentidos como os humanos, é necessário, antes do treinamento, transformar informações não rotuladas em um formato compreensível para o computador através de "pré-processamento".
Após a entrada de dados, a IA constrói um modelo com capacidade de compreensão e previsão através de "treinamento", semelhante ao processo em que um bebê gradualmente entende e aprende sobre o mundo exterior, onde os parâmetros do modelo são como a capacidade linguística que o bebê ajusta continuamente. O conteúdo de aprendizagem é dividido em áreas ou obtido através da comunicação com outras pessoas para receber feedback e corrigir, entrando assim na fase de "ajuste fino".
Quando as crianças crescem e começam a falar, conseguem entender o significado e expressar ideias em novas conversas, semelhante ao "raciocínio" dos grandes modelos de IA, que podem realizar análises preditivas em novos textos em linguagem. Os bebês expressam sentimentos, descrevem objetos e resolvem problemas através da linguagem, semelhante ao que grandes modelos de IA fazem após serem treinados e aplicados na fase de raciocínio a várias tarefas específicas, como classificação de imagens, reconhecimento de voz, entre outras.
O Agente de IA está mais próximo da próxima forma do grande modelo - capaz de executar tarefas de forma independente e perseguir objetivos complexos, não apenas possuindo a capacidade de pensar, mas também de memorizar, planejar e interagir com o mundo utilizando ferramentas.
Atualmente, em resposta aos pontos problemáticos de cada pilha de IA, o Web3 começou a formar um ecossistema de múltiplos níveis e interconectado, abrangendo todas as fases do processo de modelos de IA.
Camada base: Airbnb de poder computacional e dados
Poder de Computação
Atualmente, um dos maiores custos da IA é a computação e a energia necessárias para treinar e inferir modelos.
Por exemplo, o LLAMA3 da Meta precisa de 16.000 NVIDIA H100GPU durante 30 dias para completar o treinamento. O preço unitário da versão H100 de 80 GB é de 30 a 40 mil dólares, o que requer um investimento em hardware de computação de 400 a 700 milhões de dólares (GPU+chip de rede ), o consumo mensal de treinamento é de 1,6 bilhões de quilowatts-hora, com despesas de energia perto de 20 milhões de dólares.
A descompressão do poder computacional da IA é também uma das primeiras áreas de interseção entre Web3 e IA — DePin( rede de infraestrutura física descentralizada). Atualmente, o site de dados DePin Ninja listou mais de 1400 projetos, entre os quais os projetos representativos de compartilhamento de poder computacional GPU incluem io.net, Aethir, Akash, Render Network, entre outros.
A lógica principal é: a plataforma permite que os proprietários de recursos de GPU ociosos contribuam com capacidade de computação de forma descentralizada e sem necessidade de autorização, através de um mercado online semelhante ao Uber ou Airbnb, aumentando a utilização de recursos de GPU que não estão totalmente aproveitados, enquanto os usuários finais obtêm recursos de computação eficientes a um custo mais baixo; ao mesmo tempo, um mecanismo de staking garante que os provedores de recursos sejam punidos caso violem o mecanismo de controle de qualidade ou interrompam a rede.
Características incluem:
Agregar recursos de GPU ociosos: os fornecedores são principalmente centros de dados independentes de pequeno e médio porte de terceiros, operadores de minas de criptomoedas e recursos de computação em excesso, com mecanismos de consenso de hardware de mineração PoS, como máquinas de mineração FileCoin e ETH. Alguns projetos se dedicam a reduzir a barreira de entrada, como o exolab, que utiliza dispositivos locais como MacBook, iPhone e iPad para estabelecer uma rede de computação para a inferência de grandes modelos.
Voltado para o mercado de longo alcance de poder computacional de IA:
a. Lado técnico: o mercado de poder computacional descentralizado é mais adequado para etapas de inferência. O treinamento depende mais da capacidade de processamento de dados de grandes clusters de GPU, enquanto a inferência tem requisitos de desempenho de GPU relativamente baixos, como a Aethir que se concentra em renderização de baixa latência e aplicações de inferência de IA.
b. Lado da demanda: as pequenas e médias empresas que necessitam de poder computacional não treinarão seus próprios grandes modelos de forma isolada, mas optarão por otimizar e ajustar finamente em torno de poucos grandes modelos principais, e esses cenários são naturalmente adequados para recursos de computação ociosos distribuídos.
Propriedade descentralizada: O significado da tecnologia blockchain é que os proprietários de recursos mantêm sempre o controle sobre os recursos, podendo ajustá-los de forma flexível de acordo com a demanda e obter lucro.
Dados
Os dados são a base da IA. Sem dados, o cálculo é como folhas à deriva, sem utilidade, e a relação entre dados e modelos é como o ditado "Garbage in, Garbage out", onde a quantidade de dados e a qualidade da entrada determinam a qualidade da saída final do modelo. Para o treinamento atual dos modelos de IA, os dados determinam a capacidade linguística, a capacidade de compreensão e até mesmo os valores e a expressão humanizada do modelo. Atualmente, a dificuldade na demanda por dados da IA se manifesta principalmente em:
Fome de dados: O treinamento de modelos de IA depende da entrada de uma enorme quantidade de dados. Sabe-se que a OpenAI treinou o GPT-4 com uma quantidade de parâmetros na ordem dos trilhões.
Qualidade dos dados: Com a integração da IA com vários setores, a atualidade dos dados, a diversidade, a especialização em dados verticais e a incorporação de novas fontes de dados, como a emoção nas redes sociais, impõem novas exigências à sua qualidade.
Questões de privacidade e conformidade: países e empresas estão gradualmente a reconhecer a importância de conjuntos de dados de qualidade e estão a restringir a coleta de conjuntos de dados.
Custo elevado de processamento de dados: grande volume de dados, processo de tratamento complexo. Sabe-se que as empresas de IA gastam mais de 30% dos seus custos de pesquisa e desenvolvimento na coleta e processamento de dados básicos.
Atualmente, as soluções Web3 estão refletidas em:
Coleta de dados: os dados do mundo real que podem ser fornecidos gratuitamente estão a esgotar-se rapidamente, e os gastos das empresas de IA com dados estão a aumentar ano após ano. No entanto, esses gastos não estão a reverter em benefícios para os verdadeiros contribuidores de dados, uma vez que as plataformas desfrutam sozinhas da criação de valor que os dados proporcionam, como o Reddit que gerou uma receita de 203 milhões de dólares através da assinatura de acordos de autorização de dados com empresas de IA.
Permitir que os usuários que realmente contribuem participem da criação de valor dos dados, e obter dados mais privados e valiosos dos usuários de forma de baixo custo através de redes distribuídas e mecanismos de incentivo, é a visão do Web3.
Grass é uma camada de dados e rede descentralizada, onde os usuários podem contribuir com largura de banda ociosa e tráfego de retransmissão capturando dados em tempo real de toda a Internet através da execução de nós Grass, e receber recompensas em tokens.
A Vana introduz o conceito único de pool de liquidez de dados (DLP), onde os usuários podem carregar dados privados (, como registros de compras, hábitos de navegação, atividades em redes sociais, etc., para um DLP específico e escolher de forma flexível se autorizam ou não o uso por terceiros específicos.
No PublicAI, os usuários podem usar a etiqueta )Web3 no X e @PublicAI para realizar a coleta de dados.
Pré-processamento de dados: Durante o processo de processamento de dados de IA, como os dados coletados geralmente são ruidosos e contêm erros, é necessário limpar e converter para um formato utilizável antes de treinar o modelo, envolvendo a normalização, filtragem e o tratamento de valores ausentes em tarefas repetitivas. Esta fase é uma das poucas etapas manuais na indústria de IA, originando a profissão de anotador de dados. À medida que as exigências de qualidade dos dados aumentam para os modelos, as barreiras de entrada para os anotadores de dados também aumentam, tornando essa tarefa naturalmente adequada para um mecanismo de incentivo descentralizado do Web3.
Grass e OpenLayer estão considerando adicionar a rotulagem de dados a esta etapa crucial.
A Synesis apresenta o conceito "Train2earn", enfatizando a qualidade dos dados, onde os usuários podem ganhar recompensas ao fornecer dados anotados, comentários ou outras contribuições.
O projeto de anotação de dados Sapien gamificou as tarefas de marcação e permite que os usuários façam staking de pontos para ganhar mais pontos.
Privacidade e segurança dos dados: é necessário esclarecer que privacidade e segurança dos dados são dois conceitos diferentes. A privacidade dos dados envolve o tratamento de dados sensíveis, enquanto a segurança dos dados protege as informações contra acessos não autorizados, destruição e roubo. Assim, as vantagens das tecnologias de privacidade do Web3 e os potenciais casos de aplicação se manifestam em: #AI或#1( treinamento de dados sensíveis; )2( colaboração de dados: vários proprietários de dados podem participar juntos do treinamento de IA, sem a necessidade de compartilhar dados originais.
As tecnologias de privacidade mais comuns no Web3 atualmente incluem:
Ambiente de Execução Confiável ) TEE (, como Super Protocol;
Criptografia homomórfica completa )FHE(, como BasedAI, Fhenix.io ou Inco Network;
Tecnologia de conhecimento zero ) zk (, como o Reclaim Protocol que utiliza a tecnologia zkTLS, gera provas de conhecimento zero de tráfego HTTPS, permitindo que os usuários importem com segurança atividades, reputação e dados de identidade de sites externos, sem expor informações sensíveis.
No entanto, o campo ainda está em estágio inicial, a maioria dos projetos ainda está em exploração, e atualmente o dilema é que os custos de computação são muito altos, por exemplo:
O framework zkML EZKL leva cerca de 80 minutos para gerar a prova do modelo 1M-nanoGPT.
De acordo com os dados da Modulus Labs, os custos do zkML são mais de 1000 vezes superiores aos da computação pura.
Armazenamento de dados: Depois de ter os dados, é necessário armazená-los na cadeia e gerar o LLM com esses dados. Com a disponibilidade de dados )DA( como questão central, antes da atualização do Danksharding no Ethereum, sua capacidade era de 0,08MB. No entanto, o treinamento de modelos de IA e a inferência em tempo real geralmente requerem uma taxa de transferência de dados de 50-100GB por segundo. Essa diferença de magnitude torna as soluções existentes na cadeia incapazes de lidar com "aplicações de IA que consomem muitos recursos".
0g.AI é um projeto representativo desta categoria. É uma solução de armazenamento centralizada projetada para atender às demandas de alto desempenho em IA, com características-chave que incluem: alto desempenho e escalabilidade, suportando upload e download rápidos de grandes conjuntos de dados através de técnicas avançadas de fragmentação )Sharding( e codificação de apagamento )Erasure Coding(, com velocidades de transferência de dados próximas a 5GB por segundo.
) Middleware: Treino e Inferência do Modelo
Mercado descentralizado de modelos de código aberto
A discussão sobre se os modelos de IA devem ser de código aberto ou fechado nunca parou. A inovação coletiva trazida pelo código aberto é uma vantagem incomparável em relação aos modelos fechados; no entanto, na ausência de um modelo de negócios lucrativo, como podem os modelos de código aberto aumentar a motivação dos desenvolvedores? É uma direção que merece reflexão. Em abril deste ano, o fundador da Baidu, Li Yanhong, afirmou: "Os modelos de código aberto vão ficar cada vez mais para trás."
Neste sentido, o Web3 propõe a possibilidade de um mercado de modelos descentralizados e de código aberto, ou seja, a tokenização do próprio modelo, reservando uma certa proporção de tokens para a equipe e direcionando parte da futura receita desse modelo para os detentores de tokens.
O protocolo Bittensor cria um mercado P2P para modelos de código aberto, composto por dezenas de "sub-redes", onde provedores de recursos ### competem em computação, coleta/armazenamento de dados e talentos em aprendizado de máquina ( para atender aos objetivos dos proprietários de sub-rede específicos. As sub-redes podem interagir e aprender umas com as outras, resultando em uma inteligência mais poderosa. As recompensas são distribuídas por votação da comunidade e, com base no desempenho competitivo, são redistribuídas entre as sub-redes.
A ORA introduz o conceito de emissão de modelo inicial )IMO(, tokenizando modelos de IA, que podem ser comprados, vendidos e desenvolvidos através de uma rede descentralizada.
Sentient, uma descentralização
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
17 gostos
Recompensa
17
5
Republicar
Partilhar
Comentar
0/400
DAOplomacy
· 08-10 07:18
mais uma narrativa web3 x ai... já vi este filme antes, para ser honesto
Ver originalResponder0
SerLiquidated
· 08-10 07:17
Já vem desenhar BTC novamente
Ver originalResponder0
ReverseTradingGuru
· 08-10 07:05
Já é possível receber dinheiro novamente?
Ver originalResponder0
DegenMcsleepless
· 08-10 07:03
fazer as pessoas de parvas uma onda de ai é isso que significa...
AI+Web3: A revolução da descentralização de dados, poder de computação e modelos
AI+Web3: Torres e Praças
TL;DR
Projetos Web3 com conceitos de IA tornaram-se alvos de captação de recursos nos mercados primário e secundário.
As oportunidades do Web3 na indústria de IA manifestam-se em: utilizar incentivos distribuídos para coordenar o potencial de fornecimento no longo prazo ( através de dados, armazenamento e computação ), ao mesmo tempo que se estabelece um mercado descentralizado para modelos de código aberto e Agentes de IA.
A IA na indústria Web3 é principalmente utilizada para finanças on-chain ( pagamentos em criptomoedas, transações, análise de dados ) e auxílio no desenvolvimento.
A utilidade da AI+Web3 reflete-se na complementaridade entre ambos: o Web3 tem potencial para combater a centralização da AI, enquanto a AI pode ajudar o Web3 a ultrapassar barreiras.
Introdução
Nos últimos dois anos, o desenvolvimento da IA acelerou como se tivesse pressionado um botão de aceleração, e a onda gerada pelo Chatgpt não só inaugurou uma nova era de inteligência artificial generativa, mas também provocou grandes ondas no domínio do Web3.
Com o conceito de IA em ação, o impulso de financiamento no mercado de criptomoedas, que está a desacelerar, é evidente. De acordo com estatísticas, apenas no primeiro semestre de 2024, 64 projetos Web3+AI completaram financiamento, dos quais o sistema operacional baseado em inteligência artificial Zyber365 levantou 100 milhões de dólares na rodada A, estabelecendo um novo recorde.
O mercado secundário está mais próspero, o site de agregação de criptomoedas Coingecko mostra que, em pouco mais de um ano, o valor de mercado total da faixa de AI já atingiu 48,5 bilhões de dólares, com um volume de negociação de 8,6 bilhões de dólares em 24 horas; os benefícios trazidos pelos avanços na tecnologia de AI são evidentes, após o lançamento do modelo de texto para vídeo Sora da OpenAI, o preço médio do setor de AI aumentou 151%; o efeito AI também se espalhou para um dos segmentos mais lucrativos de criptomoedas, Meme: o primeiro MemeCoin com o conceito de Agente AI - GOAT rapidamente se tornou popular e obteve uma avaliação de 1,4 bilhão de dólares, conseguindo desencadear uma onda de Meme de AI.
A pesquisa e os tópicos sobre AI+Web3 também estão em alta, desde AI+Depin até AI Memecoin e agora AI Agent e AI DAO, a emoção de FOMO já não consegue acompanhar a velocidade da troca de narrativas.
O termo combinado AI+Web3, repleto de dinheiro fácil, oportunidades e fantasias futuras, não pode deixar de ser visto como um casamento arranjado por capital, sendo difícil distinguir sob este revestimento glamoroso se estamos realmente no campo dos especuladores ou se estamos à véspera de uma explosão ao amanhecer?
Para responder a esta questão, um pensamento fundamental para ambas as partes é: será que a relação se tornará melhor? É possível beneficiar-se do modelo do outro? Este artigo tenta, apoiando-se no trabalho de outros, examinar este cenário: como o Web3 pode desempenhar um papel em cada etapa da pilha tecnológica de IA, e o que a IA pode trazer de novo ao Web3?
Quais são as oportunidades do Web3 sob a pilha de IA?
Antes de abordar este tópico, precisamos entender a pilha tecnológica dos grandes modelos de IA:
Os grandes modelos são como o cérebro humano; no início, parecem recém-nascidos, precisando observar e absorver uma grande quantidade de informações externas para entender o mundo, esta é a fase de "coleta" de dados; como os computadores não possuem múltiplos sentidos como os humanos, é necessário, antes do treinamento, transformar informações não rotuladas em um formato compreensível para o computador através de "pré-processamento".
Após a entrada de dados, a IA constrói um modelo com capacidade de compreensão e previsão através de "treinamento", semelhante ao processo em que um bebê gradualmente entende e aprende sobre o mundo exterior, onde os parâmetros do modelo são como a capacidade linguística que o bebê ajusta continuamente. O conteúdo de aprendizagem é dividido em áreas ou obtido através da comunicação com outras pessoas para receber feedback e corrigir, entrando assim na fase de "ajuste fino".
Quando as crianças crescem e começam a falar, conseguem entender o significado e expressar ideias em novas conversas, semelhante ao "raciocínio" dos grandes modelos de IA, que podem realizar análises preditivas em novos textos em linguagem. Os bebês expressam sentimentos, descrevem objetos e resolvem problemas através da linguagem, semelhante ao que grandes modelos de IA fazem após serem treinados e aplicados na fase de raciocínio a várias tarefas específicas, como classificação de imagens, reconhecimento de voz, entre outras.
O Agente de IA está mais próximo da próxima forma do grande modelo - capaz de executar tarefas de forma independente e perseguir objetivos complexos, não apenas possuindo a capacidade de pensar, mas também de memorizar, planejar e interagir com o mundo utilizando ferramentas.
Atualmente, em resposta aos pontos problemáticos de cada pilha de IA, o Web3 começou a formar um ecossistema de múltiplos níveis e interconectado, abrangendo todas as fases do processo de modelos de IA.
Camada base: Airbnb de poder computacional e dados
Poder de Computação
Atualmente, um dos maiores custos da IA é a computação e a energia necessárias para treinar e inferir modelos.
Por exemplo, o LLAMA3 da Meta precisa de 16.000 NVIDIA H100GPU durante 30 dias para completar o treinamento. O preço unitário da versão H100 de 80 GB é de 30 a 40 mil dólares, o que requer um investimento em hardware de computação de 400 a 700 milhões de dólares (GPU+chip de rede ), o consumo mensal de treinamento é de 1,6 bilhões de quilowatts-hora, com despesas de energia perto de 20 milhões de dólares.
A descompressão do poder computacional da IA é também uma das primeiras áreas de interseção entre Web3 e IA — DePin( rede de infraestrutura física descentralizada). Atualmente, o site de dados DePin Ninja listou mais de 1400 projetos, entre os quais os projetos representativos de compartilhamento de poder computacional GPU incluem io.net, Aethir, Akash, Render Network, entre outros.
A lógica principal é: a plataforma permite que os proprietários de recursos de GPU ociosos contribuam com capacidade de computação de forma descentralizada e sem necessidade de autorização, através de um mercado online semelhante ao Uber ou Airbnb, aumentando a utilização de recursos de GPU que não estão totalmente aproveitados, enquanto os usuários finais obtêm recursos de computação eficientes a um custo mais baixo; ao mesmo tempo, um mecanismo de staking garante que os provedores de recursos sejam punidos caso violem o mecanismo de controle de qualidade ou interrompam a rede.
Características incluem:
Agregar recursos de GPU ociosos: os fornecedores são principalmente centros de dados independentes de pequeno e médio porte de terceiros, operadores de minas de criptomoedas e recursos de computação em excesso, com mecanismos de consenso de hardware de mineração PoS, como máquinas de mineração FileCoin e ETH. Alguns projetos se dedicam a reduzir a barreira de entrada, como o exolab, que utiliza dispositivos locais como MacBook, iPhone e iPad para estabelecer uma rede de computação para a inferência de grandes modelos.
Voltado para o mercado de longo alcance de poder computacional de IA: a. Lado técnico: o mercado de poder computacional descentralizado é mais adequado para etapas de inferência. O treinamento depende mais da capacidade de processamento de dados de grandes clusters de GPU, enquanto a inferência tem requisitos de desempenho de GPU relativamente baixos, como a Aethir que se concentra em renderização de baixa latência e aplicações de inferência de IA. b. Lado da demanda: as pequenas e médias empresas que necessitam de poder computacional não treinarão seus próprios grandes modelos de forma isolada, mas optarão por otimizar e ajustar finamente em torno de poucos grandes modelos principais, e esses cenários são naturalmente adequados para recursos de computação ociosos distribuídos.
Propriedade descentralizada: O significado da tecnologia blockchain é que os proprietários de recursos mantêm sempre o controle sobre os recursos, podendo ajustá-los de forma flexível de acordo com a demanda e obter lucro.
Dados
Os dados são a base da IA. Sem dados, o cálculo é como folhas à deriva, sem utilidade, e a relação entre dados e modelos é como o ditado "Garbage in, Garbage out", onde a quantidade de dados e a qualidade da entrada determinam a qualidade da saída final do modelo. Para o treinamento atual dos modelos de IA, os dados determinam a capacidade linguística, a capacidade de compreensão e até mesmo os valores e a expressão humanizada do modelo. Atualmente, a dificuldade na demanda por dados da IA se manifesta principalmente em:
Fome de dados: O treinamento de modelos de IA depende da entrada de uma enorme quantidade de dados. Sabe-se que a OpenAI treinou o GPT-4 com uma quantidade de parâmetros na ordem dos trilhões.
Qualidade dos dados: Com a integração da IA com vários setores, a atualidade dos dados, a diversidade, a especialização em dados verticais e a incorporação de novas fontes de dados, como a emoção nas redes sociais, impõem novas exigências à sua qualidade.
Questões de privacidade e conformidade: países e empresas estão gradualmente a reconhecer a importância de conjuntos de dados de qualidade e estão a restringir a coleta de conjuntos de dados.
Custo elevado de processamento de dados: grande volume de dados, processo de tratamento complexo. Sabe-se que as empresas de IA gastam mais de 30% dos seus custos de pesquisa e desenvolvimento na coleta e processamento de dados básicos.
Atualmente, as soluções Web3 estão refletidas em:
Permitir que os usuários que realmente contribuem participem da criação de valor dos dados, e obter dados mais privados e valiosos dos usuários de forma de baixo custo através de redes distribuídas e mecanismos de incentivo, é a visão do Web3.
Grass é uma camada de dados e rede descentralizada, onde os usuários podem contribuir com largura de banda ociosa e tráfego de retransmissão capturando dados em tempo real de toda a Internet através da execução de nós Grass, e receber recompensas em tokens.
A Vana introduz o conceito único de pool de liquidez de dados (DLP), onde os usuários podem carregar dados privados (, como registros de compras, hábitos de navegação, atividades em redes sociais, etc., para um DLP específico e escolher de forma flexível se autorizam ou não o uso por terceiros específicos.
No PublicAI, os usuários podem usar a etiqueta )Web3 no X e @PublicAI para realizar a coleta de dados.
Grass e OpenLayer estão considerando adicionar a rotulagem de dados a esta etapa crucial.
A Synesis apresenta o conceito "Train2earn", enfatizando a qualidade dos dados, onde os usuários podem ganhar recompensas ao fornecer dados anotados, comentários ou outras contribuições.
O projeto de anotação de dados Sapien gamificou as tarefas de marcação e permite que os usuários façam staking de pontos para ganhar mais pontos.
As tecnologias de privacidade mais comuns no Web3 atualmente incluem:
Ambiente de Execução Confiável ) TEE (, como Super Protocol;
Criptografia homomórfica completa )FHE(, como BasedAI, Fhenix.io ou Inco Network;
Tecnologia de conhecimento zero ) zk (, como o Reclaim Protocol que utiliza a tecnologia zkTLS, gera provas de conhecimento zero de tráfego HTTPS, permitindo que os usuários importem com segurança atividades, reputação e dados de identidade de sites externos, sem expor informações sensíveis.
No entanto, o campo ainda está em estágio inicial, a maioria dos projetos ainda está em exploração, e atualmente o dilema é que os custos de computação são muito altos, por exemplo:
O framework zkML EZKL leva cerca de 80 minutos para gerar a prova do modelo 1M-nanoGPT.
De acordo com os dados da Modulus Labs, os custos do zkML são mais de 1000 vezes superiores aos da computação pura.
) Middleware: Treino e Inferência do Modelo
Mercado descentralizado de modelos de código aberto
A discussão sobre se os modelos de IA devem ser de código aberto ou fechado nunca parou. A inovação coletiva trazida pelo código aberto é uma vantagem incomparável em relação aos modelos fechados; no entanto, na ausência de um modelo de negócios lucrativo, como podem os modelos de código aberto aumentar a motivação dos desenvolvedores? É uma direção que merece reflexão. Em abril deste ano, o fundador da Baidu, Li Yanhong, afirmou: "Os modelos de código aberto vão ficar cada vez mais para trás."
Neste sentido, o Web3 propõe a possibilidade de um mercado de modelos descentralizados e de código aberto, ou seja, a tokenização do próprio modelo, reservando uma certa proporção de tokens para a equipe e direcionando parte da futura receita desse modelo para os detentores de tokens.
O protocolo Bittensor cria um mercado P2P para modelos de código aberto, composto por dezenas de "sub-redes", onde provedores de recursos ### competem em computação, coleta/armazenamento de dados e talentos em aprendizado de máquina ( para atender aos objetivos dos proprietários de sub-rede específicos. As sub-redes podem interagir e aprender umas com as outras, resultando em uma inteligência mais poderosa. As recompensas são distribuídas por votação da comunidade e, com base no desempenho competitivo, são redistribuídas entre as sub-redes.
A ORA introduz o conceito de emissão de modelo inicial )IMO(, tokenizando modelos de IA, que podem ser comprados, vendidos e desenvolvidos através de uma rede descentralizada.
Sentient, uma descentralização