1. DeepSeek-v4 entregou 1 milhão de tokens com licença MIT pura.
Modelos abertos · abr/2026
MoE de 1,6 trilhão de parâmetros (49 bilhões ativos por token), contexto de 1 milhão de tokens, dois mecanismos novos de atenção comprimida (CSA e HCA) que driblam o gargalo de KV cache que travava todo mundo. Versão Flash de 284 bilhões mantém inferência viável em custo. Licença MIT sem ressalvas: uso comercial liberado, sem string anexada.
→ A barreira que protegia o modelo proprietário (contexto longo viável em custo) virou commit no GitHub. O diferencial agora vive em outra camada: na ontologia que o modelo opera.
2. Kimi-K2.6 lidera benchmark open como orquestrador de agent swarms.
Agent swarms · abr/2026
MoE de 1 trilhão de parâmetros (32 bilhões ativos por token), 384 experts especializados, multimodal nativo (texto, imagem, vídeo), 256 mil tokens de contexto. Líder do Artificial Analysis Intelligence Index entre os open. Roda sessões reais de 13 horas e 1.000 tool calls otimizando código. Licença MIT modificada exige display "Kimi K2.6" só se a aplicação passar de 100 milhões de MAU ou USD 20 milhões de receita.
→ Agent swarm exige decomposição de tarefa, paralelização e gestão de dependência. Pin/Spec, write-back e Ralph-ADC entregam essa estrutura por construção. O modelo executa; a ontologia decide o que executar e em que ordem.
3. Qwen3.6-27B fez agentic local em Mac Studio.
Edge inference · abr/2026
Modelo dense de 27 bilhões de parâmetros (todos ativos por token), Apache 2.0, score 46 no Artificial Analysis Intelligence Index. Roda em hardware doméstico de gama alta (M-series). Forte em coding agêntico. Mais verboso que pares, mas suficiente para loop de desenvolvimento local sem depender de API.
→ O que dependia de cluster H100 agora cabe em uma mesa. Soberania de execução deixou de ser luxo. Quando o loop crítico não atravessa cabo, sua ontologia para de ser refém do uptime do fornecedor.
Ontologia é o único ativo defensável quando o modelo vira commodity.
A utilidade de um sistema de IA está cada vez menos no modelo que ele consome e cada vez mais na estrutura, na ontologia, no harness que envolve esse modelo. Foi isso que dissemos no framework canônico em 11 de abril.
A pergunta de hoje: se o modelo virou commodity, quanto da sua arquitetura ainda depende de qual provider você usa? Quanto sobreviveria a uma troca em uma tarde? Honesto, não tem que ser bonito.
O QUE FAZEMOS
A FSTech constrói ontologias operacionais para operadores sérios. Traduzimos conhecimento tribal em estrutura sobre a qual humanos e agentes de IA operam no mesmo substrato. Markdown, git, busca híbrida, zero lock-in.
O framework é público (CC BY 4.0). A execução é o que se contrata.
Ler o framework → · Conversar com a FSTech →