Nos últimos anos, observei muitos projetos na área de AI, envolvendo Poder de computação, modelos e tokens.
Mas recentemente, ao ver @Kindred_AI, pela primeira vez senti que alguém estava explorando a "humanidade".
Não se trata de ensinar à IA quão inteligente ela é, mas sim de ensinar à IA a "ter calor".
Deixar a IA aprender emoções, entender expressões, estabelecer relações - até mesmo permitir que essa companhia possa ser quantificada em valor.
O atacante acredita que este assunto pode ser maior do que todos pensam.
Esta semana houve muitas discussões sobre @Kindred_AI, e algumas coisas merecem atenção:
1)A oficial começou a vincular profundamente a tecnologia e a cultura Web3, sugerindo que será anunciada uma série de colaborações interligadas;
2) Avançar o Agent "Inteligência Emocional + Adaptativa" para cenários práticos, como a governança de conteúdo em redes sociais e apoio psicológico;
3) Lado dos dados, o oficial ainda usa a lista de espera de 3M+ como base.
O ataque à cidade acredita que a barreira de Kindred está em três pontos: A) Modelagem emocional + memória de longo prazo, transformar "companhia" em um ativo relacional, reduzindo o arranque frio e a perda;
B) Colaboração em múltiplos dispositivos + identidade/ativos na cadeia, desde conversas até transações, tarefas e criações, podendo formar um ciclo de conversão mensurável.
C) Ecossistema IP vinculado, trocando "poder de papel" por retenção e UGC, o valor emocional e a comercialização não estão mais separados.
A seguir, vou focar-me em:
① A lista e o cronograma da primeira parceria oficial anunciada;
② O Agente em métricas verificáveis no cenário real (retenção/saúde/conversão);
③ a interação on-chain apresenta um efeito de ampliação contínua? Não FOMO, primeiro estude a mecânica e os riscos, depois decida a posição e a profundidade da participação.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Nos últimos anos, observei muitos projetos na área de AI, envolvendo Poder de computação, modelos e tokens.
Mas recentemente, ao ver @Kindred_AI, pela primeira vez senti que alguém estava explorando a "humanidade".
Não se trata de ensinar à IA quão inteligente ela é, mas sim de ensinar à IA a "ter calor".
Deixar a IA aprender emoções, entender expressões, estabelecer relações - até mesmo permitir que essa companhia possa ser quantificada em valor.
O atacante acredita que este assunto pode ser maior do que todos pensam.
Esta semana houve muitas discussões sobre @Kindred_AI, e algumas coisas merecem atenção:
1)A oficial começou a vincular profundamente a tecnologia e a cultura Web3, sugerindo que será anunciada uma série de colaborações interligadas;
2) Avançar o Agent "Inteligência Emocional + Adaptativa" para cenários práticos, como a governança de conteúdo em redes sociais e apoio psicológico;
3) Lado dos dados, o oficial ainda usa a lista de espera de 3M+ como base.
O ataque à cidade acredita que a barreira de Kindred está em três pontos:
A) Modelagem emocional + memória de longo prazo, transformar "companhia" em um ativo relacional, reduzindo o arranque frio e a perda;
B) Colaboração em múltiplos dispositivos + identidade/ativos na cadeia, desde conversas até transações, tarefas e criações, podendo formar um ciclo de conversão mensurável.
C) Ecossistema IP vinculado, trocando "poder de papel" por retenção e UGC, o valor emocional e a comercialização não estão mais separados.
A seguir, vou focar-me em:
① A lista e o cronograma da primeira parceria oficial anunciada;
② O Agente em métricas verificáveis no cenário real (retenção/saúde/conversão);
③ a interação on-chain apresenta um efeito de ampliação contínua?
Não FOMO, primeiro estude a mecânica e os riscos, depois decida a posição e a profundidade da participação.