Vertical AI vs Horizontal AI: por que especialização sempre ganha
TL;DR: Vertical AI domina um único domínio: só solda, só direito, só busca corporativa. Os números mostram que especialização ganha: Harvey ($11B), Glean ($7.2B), Path Robotics ($271M). O padrão é dados proprietários mais feedback loop exclusivo em um nicho. Para quem constrói produto com IA, a pergunta certa é "qual problema específico consigo resolver melhor do que qualquer um?"
Em outubro de 2024, a Path Robotics fechou uma Série D de $100 milhões, totalizando $271 milhões captados desde 2018. O produto deles é um robô que solda.
Só isso. Só solda.
Não solda e pinta. Não solda e faz inspeção de qualidade. Não é uma plataforma de robótica geral. É um sistema de soldagem autônoma com IA, treinado em dezenas de milhões de polegadas soldadas, que vai ficando melhor a cada solda que faz.
Esse tipo de bet é o que define Vertical AI: você pega um domínio específico e vai mais fundo do que qualquer modelo geral consegue ir.
O que separa Vertical AI de Horizontal AI?
Horizontal AI é IA de propósito geral: ChatGPT, Claude, Gemini servem a qualquer tarefa. Vertical AI é IA de propósito específico, treinada em dados exclusivos de um domínio, com feedback loops que só existem naquele domínio. A diferença não é só técnica. É a vantagem competitiva que um modelo geral não consegue replicar sem os mesmos dados.
A amplitude é o produto do horizontal. A profundidade é o produto do vertical.
Modelos especializados consistentemente superam modelos gerais em tarefas de domínio porque são treinados em dados curados para aquele contexto, incluindo terminologia, regulações e edge cases que um modelo geral tende a errar.
Na prática: um LLM geral consegue escrever um contrato. Harvey consegue escrever um contrato de M&A do jeito que 50 das maiores firmas de advocacia do mundo aprovam, porque foi treinado nos documentos reais dessas firmas.
Por que especialização ganha tecnicamente?
Modelos gerais são treinados em dados da internet, que cobrem tudo de forma rasa. Modelos especializados são treinados em dados curados do domínio, documentos internos, workflows reais, erros que ninguém publica. Resultado: Vertical AI captura 25 a 50% do valor de um trabalhador, contra 1 a 5% de plataformas genéricas, segundo a Menlo Ventures.
O segundo mecanismo é o feedback loop. Cada solda que o sistema da Path Robotics faz alimenta o modelo Obsidian. Cada contrato que passa pelo Harvey melhora os próximos. Cada busca corporativa no Glean ajusta o knowledge graph daquele cliente. Isso cria um fosso que vai crescendo com o tempo, e que um modelo geral não consegue comprar.
Quatro setores, quatro teses que funcionaram
Direito: Harvey
O Harvey chegou a $100 milhões em ARR em agosto de 2025, três anos depois de ser fundado. Em março de 2026, fechou uma rodada de $200 milhões à valuation de $11 bilhões, co-liderada por GIC e Sequoia.
50 das 100 maiores firmas de advocacia dos EUA usam Harvey. A vantagem não é só qualidade. É compliance: o modelo sabe o que pode e o que não pode dizer em contexto jurídico, algo que um LLM geral não aprende sem treinamento específico em documentos jurídicos reais.
Busca corporativa: Glean
O Glean resolveu um problema que qualquer empresa grande tem: você tem conhecimento espalhado em Slack, Drive, Salesforce, Confluence, e-mail, e não consegue achar nada quando precisa. A solução não é busca geral. É um knowledge graph personalizado por empresa que entende quem você é, com o que trabalha, e qual informação é relevante para você.
O resultado: $7.2 bilhões de valuation em junho de 2025 e $200 milhões de ARR. Um modelo de busca geral não consegue fazer isso porque não tem acesso aos dados internos da empresa nem ao contexto de quem está buscando.
Saúde: Nabla
O Nabla faz uma coisa: escuta consultas médicas e escreve as anotações clínicas automaticamente. O médico conversa com o paciente, e o sistema gera o prontuário em tempo real. Levantou $70 milhões em Série C em junho de 2025, com total de $120 milhões captados. Está em mais de 130 organizações de saúde e atende mais de 85 mil médicos.
Por que não usar o ChatGPT para isso? Porque terminologia clínica, regulação de prontuário e privacidade de paciente são problemas que você resolve com dados médicos reais, não com texto da internet.
Design vetorial: Quiver AI
O Quiver AI pegou geração de SVG, que modelos gerais tratam como subproduto de geração de código, e construiu um modelo inteiro em torno disso. O resultado: rodada Seed de $8.3 milhões liderada pela a16z e o Arrow 1.0 quebrando o recorde do SVG Arena com Elo de 1583, contra 1421 do Gemini 3.1 Pro.
A a16z descreveu a tese assim: "vectors should be intentionally generated through code, not approximated from pixels." Um modelo geral gera SVG como subproduto. O Arrow gera SVG como produto principal. Essa diferença de intenção de treinamento é o que cria superioridade técnica no nicho.
O padrão comum: dados proprietários + problema vertical = moat real
Olhando esses quatro casos, o padrão é sempre o mesmo.
Primeiro: um problema que tem dados exclusivos. Soldas industriais não estão na internet. Documentos de M&A das maiores firmas do mundo não estão na internet. Prontuários médicos não estão na internet.
Segundo: um feedback loop que só existe dentro daquele domínio. Cada solda alimenta o Obsidian. Cada pesquisa no Glean ajusta o knowledge graph. Cada consulta no Nabla melhora o reconhecimento de terminologia clínica.
Terceiro: um problema onde erro tem custo real. Solda errada em casco de navio é catastrófica. Contrato jurídico errado é processo. Prontuário errado é risco clínico. Quando erro tem custo alto, as empresas pagam por precisão, não por generalidade.
Esse é o tipo de moat que modelos gerais não conseguem copiar sem acesso aos mesmos dados. E esses dados muitas vezes são proprietários, regulados ou simplesmente nunca foram digitalizados.
Como Builder, olho para esses casos e vejo o mesmo princípio: você não precisa resolver 10 problemas. Você precisa resolver 1 problema melhor do que qualquer um.
Quando Horizontal AI faz sentido?
Horizontal faz sentido em plataforma, infraestrutura e tooling: camadas que servem a todos os domínios. OpenAI, Anthropic e Google constroem o modelo base que as verticais usam. LangChain, frameworks de agente e orquestradores de workflow capturam valor exatamente por não serem específicos.
Mas a camada de aplicação horizontal está ficando difícil de defender. Quando o ChatGPT faz tudo, para que você vai pagar por uma ferramenta genérica que também faz tudo?
A vertical tem um argumento que horizontal não tem: profundidade de domínio que cria switching cost real. Uma empresa que treinou o Harvey nos seus documentos internos não vai trocar por um LLM geral amanhã. O custo de perder esse histórico é alto demais.
Por que o diferencial hoje é o dado exclusivo, não o modelo
Para quem constrói produto, a pergunta errada é "onde IA serve". A pergunta certa é "qual problema específico, dentro de um domínio específico, consigo resolver com dados que só eu tenho?" Isso muda o exercício de descoberta de produto inteiro: sai de "adicionar IA" e vai para "encontrar o dado exclusivo que a minha posição me dá acesso, e qual é o problema mais caro que eu resolvo com ele?"
A especialização em vertical AI não exige construir modelo próprio. A Path Robotics usa o modelo Obsidian treinado nos seus próprios dados de soldagem, mas em cima de arquitetura de IA que não foi criada do zero. O Quiver AI treinou o Arrow para SVG, mas em cima de infraestrutura de linguagem existente.
O que você constrói é a camada de especialização: os dados, o feedback loop, o entendimento do domínio. O modelo base pode ser de terceiros.
Esse é o mesmo raciocínio de usar Claude Code para construir features sem escrever a LLM do zero. Você usa o que existe e constrói onde tem vantagem real.
Se você acompanha IA aplicada a produto, publico análises assim toda semana no LinkedIn e na newsletter. Vale seguir para não perder os próximos casos.
Perguntas Frequentes
O que é Vertical AI?
Vertical AI é inteligência artificial construída para dominar um único domínio ou indústria. Em vez de servir a qualquer problema, o modelo é treinado em dados específicos daquele setor, como documentos jurídicos, registros médicos ou dados de soldagem industrial. A especialização cria precisão maior e switching costs mais altos do que modelos gerais conseguem oferecer.
Por que Vertical AI levanta mais dinheiro que soluções gerais?
Investidores estão apostando que especialização cria moats duráveis. Harvey chegou a $11 bilhões de valuation, Glean a $7.2 bilhões. A tese é que dados proprietários de um domínio específico são difíceis de replicar, e que o feedback loop de uso real dentro de um setor melhora o modelo de forma que concorrentes não conseguem copiar sem o mesmo histórico de dados.
Vertical AI pode ser substituído por modelos gerais melhores?
É um risco real. O próprio relatório da Contrary Research sobre Harvey menciona que modelos de raciocínio de fronteira agora igualam especialistas em benchmarks jurídicos padronizados. A defesa das verticais é que benchmarks não capturam o que importa no uso real: compliance, terminologia proprietária, integração com sistemas existentes e dados históricos do cliente. Ainda assim, o risco existe e vale monitorar.
Qual o maior risco de apostar em Vertical AI?
TAM limitado. Uma empresa que resolve só soldagem industrial tem um mercado endereçável menor do que uma plataforma geral. O segundo risco é ser "wrapper": se o modelo vertical não adiciona valor além do LLM de base, a vantagem some quando o modelo base melhora. A diferença entre startups que duram e as que não duram está em ter dados proprietários e workflows integrados, não só em prompt engineering sofisticado.
Como começar a construir com lógica de Vertical AI?
Comece pelo problema com dados exclusivos: o que você tem acesso que concorrentes não têm? Depois valide se o problema tem custo real de erro, porque é aí que as empresas pagam por precisão. Terceiro, use modelos de base existentes e construa a camada de especialização em cima. Você não precisa treinar um LLM do zero. Precisa dos dados certos e do feedback loop certo.