Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Volume 32 | Abril 2025

Plataformas

  • Plataformas

    Adote Experimente Avalie Evite Adote Experimente Avalie Evite
  • Novo
  • Modificado
  • Sem alteração

Plataformas

Adote ?

  • 23. GitLab CI/CD

    O GitLab CI/CD evoluiu para um sistema totalmente integrado no GitLab, abrangendo tudo, desde a integração e o teste de código até a implantação e o monitoramento. Ele oferece suporte a fluxos de trabalho complexos com recursos como pipelines de vários estágios, armazenamento em cache, execução paralela e executores de dimensionamento automático e é adequado para projetos de grande escala e necessidades complexas de pipeline. Queremos destacar suas ferramentas integradas de segurança e conformidade (como a análise SAST e DAST), que o tornam adequado para casos de uso com altos requisitos de conformidade. Ele também se integra perfeitamente ao Kubernetes, dando suporte a fluxos de trabalho nativos da nuvem, e oferece registro em tempo real, relatórios de teste e rastreabilidade para melhorar a observabilidade.

  • 24. Trino

    Trino é um mecanismo de consulta SQL distribuído e de código aberto projetado para consultas analíticas interativas sobre big data. Ele é otimizado para executar ambientes locais e na nuvem e oferece suporte à consulta de dados onde eles residem, incluindo bancos de dados relacionais e vários armazenamentos de dados proprietários por meio de conectores. Trino também pode consultar dados armazenados em formato de arquivos como Parquet e formato de tabela aberta como Apache Iceberg. Os recursos de federação de consultas integrados permitem que dados de diversas fontes sejam consultados como uma única tabela lógica, o que o torna uma ótima opção para cargas de trabalho analíticas que exigem agregação de dados de diversas fontes. Trino é uma parte fundamental de stacks populares como AWS Athena, Starburst e outras plataformas de dados proprietárias. Nossas equipes o utilizaram com sucesso em vários casos de uso, e quando se trata de consultar um conjunto de dados em diversas fontes para análise, Trino tem sido uma escolha confiável.

Experimente ?

  • 25. ABsmartly

    A ABsmartly é uma plataforma avançada de teste e experimentação A/B projetada para uma tomada de decisão rápida e confiável. Seu principal diferencial é o mecanismo de Group Sequential Testing (GST), que acelera os resultados dos testes em até 80% em comparação com as ferramentas tradicionais de teste A/B. A plataforma oferece relatórios em tempo real, segmentação aprofundada dos dados e integração completa através de uma abordagem baseada em APIs, permitindo experimentos em aplicações web, mobile, microsserviços e modelos de machine learning.

    A ABsmartly enfrenta os principais desafios da experimentação escalável orientada por dados, possibilitando iterações mais rápidas e um desenvolvimento de produtos mais ágil. Sua execução sem latência, capacidade avançada de segmentação e suporte a experimentos multiplataforma tornam a ferramenta especialmente valiosa para organizações que desejam escalar uma cultura de experimentação e priorizar a inovação baseada em dados. Ao reduzir significativamente os ciclos dos testes e automatizar a análise dos resultados, a ABsmartly nos ajudou a otimizar funcionalidades e experiências do usuário de forma mais eficiente do que com as plataformas tradicionais de testes A/B.

  • 26. Dapr

    O Dapr evoluiu consideravelmente desde que nós o apresentamos no Radar. Suas muitas novas funções incluem agendamento de jobs, atores virtuais, bem como políticas de retry mais sofisticadas e componentes de observabilidade. Sua lista de blocos de construção continua a crescer, incluindo jobs, criptografia e muito mais. Nossas equipes também destacam o foco crescente em padrões seguros, com suporte para mTLS e imagens sem estado (ou seja, sem um sistema operacional completo, incluindo apenas binários e dependências necessárias). No geral, estamos satisfeitas com o Dapr e ansiosas para futuros desenvolvimentos.

  • 27. Grafana Alloy

    Anteriormente conhecido como Grafana Agent, Grafana Alloy é um coletor do OpenTelemetry de código aberto. Alloy é projetado para ser um coletor de telemetria tudo-em-um para todos os dados de telemetria, incluindo logs, métricas e rastreamentos. Ele suporta a coleta de formatos de dados de telemetria comumente usados, como OpenTelemetry, Prometheus e Datadog. Com a recente descontinuação do Promtail, o Alloy está emergindo como uma escolha preferencial para a coleta de dados de telemetria — especialmente para logs — se você está usando o conjunto de ferramentas de observabilidade Grafana.

  • 28. Grafana Loki

    Grafana Loki é um sistema de agregação de logs multi-tenant com alta disponibilidade e escalabilidade horizontal, inspirado no Prometheus. O Loki indexa apenas metadados sobre seus logs como um conjunto de rótulos para cada fluxo de log. Os dados de log são armazenados em uma solução de armazenamento em blocos, como S3, GCS ou Azure Blob Storage. A vantagem é que o Loki promete reduzir a complexidade operacional e os custos de armazenamento em comparação com outros concorrentes. Como era de se esperar, ele se integra perfeitamente ao Grafana e ao Grafana Alloy, embora outros mecanismos de coleta também possam ser usados.

    Loki 3.0 introduziu suporte nativo a OpenTelemetry, tornando a ingestão e integração com sistemas baseados em OpenTelemetry tão simples quanto configurar um endpoint. Ele também oferece recursos avançados de multi-tenancy, como isolamento de inquilinos via “shuffle-sharding”, o que evita que inquilinos com mau comportamento (por exemplo, consultas pesadas ou indisponibilidades) afetem outros em um cluster. Se você não vem acompanhando as novidades no ecossistema Grafana, agora é um ótimo momento para dar uma olhada, pois está evoluindo rapidamente.

  • 29. Grafana Tempo

    Grafana Tempo é um backend de tracing distribuído em larga escala que suporta padrões abertos como OpenTelemetry. Projetado para ser eficiente em custo, ele utiliza armazenamento de objetos para retenção de traces a longo prazo e permite busca de traces, geração de métricas baseada em spans e correlação com logs e métricas. Por padrão, o Grafana Tempo usa um formato de blocos em colunas baseado no Apache Parquet, melhorando a performance das consultas e permitindo que outras ferramentas downstream acessem os dados de trace. As consultas são feitas via TraceQL e Tempo CLI. O Grafana Alloy também pode ser configurado para coletar e encaminhar traces para o Grafana Tempo. Nossas equipes usaram o Grafana Tempo no GKE, utilizando MinIO para armazenamento de objetos, coletores OpenTelemetry e Grafana para visualização de traces.

  • 30. Railway

    Heroku costumava ser uma excelente escolha para muitas desenvolvedoras que desejavam lançar e implantar seus aplicativos rapidamente. Nos últimos anos, também vimos o surgimento de plataformas de implantação como Vercel, que são mais modernas, leves e fáceis de usar, mas projetadas para aplicações frontend. Uma alternativa full-stack neste espaço é o Railway, uma plataforma de nuvem PaaS (em português, “plataforma como serviço”) que simplifica tudo, desde a implantação de GitHub/Docker até a observabilidade de produção.

    Railway oferece suporte à maioria dos frameworks de programação convencionais, bancos de dados, bem como implantação em contêineres. Como uma plataforma hospedada de longo prazo para um aplicativo, você pode precisar comparar cuidadosamente os custos de diferentes plataformas. Atualmente, nossa equipe tem uma boa experiência com a implantação e observabilidade do Railway. A operação é suave e pode ser bem integrada com as práticas de implantação contínua que defendemos.

  • 31. Unblocked

    Unblocked é um assistente de equipe baseado em IA pronto para uso. Uma vez integrado com repositórios de base de código, plataformas de documentação corporativa, ferramentas de gerenciamento de projetos e ferramentas de comunicação, o Unblocked ajuda a responder perguntas sobre conceitos técnicos e de negócios complexos, design arquitetural e implementação, bem como processos operacionais. Isso é particularmente útil para navegar em sistemas grandes ou legados. Ao usá-lo, observamos que as equipes valorizam mais o acesso rápido a informações contextuais do que a geração de código e histórias de usuário; para tais cenários, especialmente assistentes de programação, agentes de engenharia de software são mais adequados.

  • 32. Weights & Biases

    Weights & Biases continuou a evoluir, adicionando mais recursos focados em modelos de linguagem de grande porte desde que foi apresentado pela última vez no Radar. Eles estão expandindo Traces e introduzindo Weave, uma plataforma completa que vai além do rastreamento de sistemas de agentes baseados em modelos de linguagem de grande porte. O Weave permite que você crie avaliações de sistema, defina métricas personalizadas, use modelos de linguagem de grande porte como juízes para tarefas como sumarização e salve conjuntos de dados que capturam comportamentos diferentes para análise. Isso ajuda a otimizar os componentes do modelo de linguagem de grande porte e rastrear o desempenho em níveis local e global. A plataforma também facilita o desenvolvimento iterativo e a depuração eficaz de sistemas de agentes, onde os erros podem ser difíceis de detectar. Além disso, permite a coleta de feedback humano valioso, que pode ser usado posteriormente para ajustar modelos.

Avalie ?

  • 33. Arize Phoenix

    Com a popularidade dos modelos de linguagem de grande porte (LLMs) e dos agentes autônomos, a observabilidade de LLMs está se tornando cada vez mais importante. Anteriormente, recomendamos plataformas como o Langfuse e Weights & Biases (W&B). A Arize Phoenix é outra plataforma emergente nesse espaço, e nossa equipe teve uma experiência positiva ao utilizá-la. Ela oferece recursos padrões, como rastreamento de LLMs, avaliação e gerenciamento de prompts, com integração fluída com os principais provedores e frameworks de LLMs. Isso facilita a obtenção de insights sobre as respostas dos modelos, latência e uso de tokens com configuração mínima. Até agora, nossa experiência se limita à ferramenta de código aberto, mas a plataforma Arize mais ampla oferece recursos ainda mais abrangentes. Estamos ansiosas para explorá-la no futuro.

  • 34. Chainloop

    Chainloop é uma plataforma de segurança de cadeia de suprimentos de código aberto que ajuda equipes de segurança a impor conformidade, enquanto permite que equipes de desenvolvimento integrem a conformidade de segurança de forma tranquila nos pipelines CI/CD. Ela consiste em um plano de controle, que atua como fonte única de verdade para políticas de segurança, e uma CLI, que executa atestados nos fluxos de trabalho de CI/CD para garantir a conformidade. Os times de segurança definem contratos de fluxo de trabalho especificando quais artefatos — como os SBOMs e relatórios de vulnerabilidade — devem ser coletados, onde guardá-los e como avaliar a conformidade. A Chainloop usa as linguagens de política Rego, OPA's para validar atestados — por exemplo, garantir que um CycloneDX SBOM atenda aos requerimentos de versão. Durante a execução do fluxo de trabalho, artefatos de segurança como SBOMs são anexados a um atestado e enviados ao plano de controle para aplicação e auditoria. Essa abordagem garante que a conformidade possa ser aplicada de forma consistente e em escala, minimizando o atrito nos fluxos de trabalho de desenvolvimento. Isso resulta em uma fonte única de verdade em conformidade com o nível três do SLSA para metadados, artefatos e atestados.

  • 35. Deepseek R1

    DeepSeek-R1 é a primeira geração de modelos de raciocíno do DeepSeek. Através de uma progressão de modelos não baseados em raciocínio, as engenheiras da DeepSeek projetaram e utilizaram métodos para maximizar a utilização do hardware. Isso inclui Multi-Head Latent Attention (MLA), Mixture of Experts (MoE) gating, treinamento de pontos flutuantes de 8 bits (FP8) e programação PTX de baixo nível. Sua abordagem de co-design de computação de alto desempenho permite que o DeepSeek-R1 rivalize com modelos de última geração a um custo significativamente reduzido para treinamento e inferência.

    DeepSeek-R1-Zero é notável por outra inovação: as engenheiras conseguiram extrair capacidades de raciocínio de um modelo não baseado em raciocínio utilizando simples aprendizado por reforço, sem a necessidade de ajuste fino supervisionado. Todos os modelos DeepSeek são open-weight, o que significa que estão disponíveis gratuitamente, embora o código de treinamento e os dados permaneçam proprietários. O repositório inclui seis modelos densos destilados do DeepSeek-R1, baseados no Llama e Qwen, sendo que o DeepSeek-R1-Distill-Qwen-32B supera o OpenAI-o1-mini em vários benchmarks.

  • 36. Deno

    Criado por Ryan Dahl, o inventor do Node.js, o Deno foi desenvolvido para corrigir o que ele via como erros no Node.js. Ele possui um sistema de sandbox mais rigoroso, gerenciamento embutido de dependências e suporte nativo ao TypeScript — um grande atrativo para sua base de usuárias. Muitos de nós preferimos a utilização do Deno em projetos TypeScript por sentirmos que ele parece com um ambiente de execução e ferramenta voltada especificamente ao TypeScript, ao invés de um complemento do Node.js.

    Desde sua inclusão no Radar em 2019, o Deno fez avanços significativos. O lançamento do Deno 2 trouxe compatibilidade retroativa com o Node.js, suporte a bibliotecas npm, versões com suporte de longo prazo (LTS) e outras melhorias. Anteriormente, um dos maiores obstáculos à adoção era a necessidade de reescrever aplicações originalmente feitas em Node.js. Essas atualizações reduzem o impacto da migração e ampliam as opções de dependências para ferramentas e sistemas de apoio. Dado o enorme ecossistema do Node.js e npm, essas mudanças devem impulsionar ainda mais a adoção do Deno.

    Além disso, a biblioteca padrão do Deno tornou-se estável, ajudando a combater a proliferação de pacotes npm de pouco valor no ecossistema. Sua biblioteca padrão e ferramentas tornam o uso do TypeScript ou JavaScript mais atraente para desenvolvimento no lado do servidor. Porém, recomendamos cautela ao optar por uma única plataforma somente para evitar a programação poliglota.

  • 37. Graphiti

    Graphiti cria grafos de conhecimento dinâmicos e temporais, capturando fatos e relacionamentos em constante evolução. Nossas equipes utilizam GraphRAG para descobrir conexões entre dados, o que melhora a precisão na recuperação e nas respostas. Como os conjuntos de dados estão sempre mudando, o Graphiti mantém metadados temporais nas arestas do grafo para registrar o ciclo de vida dos relacionamentos. Ele processa dados estruturados e não estruturados como episódios distintos e suporta consultas combinando algoritmos baseados em tempo, busca textual, semântica e grafos. Para aplicações baseadas em modelos de linguagem de grande porte (LLMs) — seja RAG ou agentes autônomos — o Graphiti permite retenção de longo prazo e raciocínio baseado em estado.

  • 38. Helicone

    Semelhante ao Langfuse, Weights & Biases e ao Arize Phoenix, Helicone é uma plataforma gerenciada de LLMOps projetada para atender à crescente demanda empresarial por gerenciamento de custos de modelos de linguagem de grande porte (LLM), avaliação de ROI e mitigação de riscos. Com foco nas desenvolvedoras e de código aberto, o Helicone suporta aplicações de IA prontas para produção, oferecendo experimentação com prompts, monitoramento, depuração e otimização ao longo de todo o ciclo de vida do LLM. Ele permite a análise em tempo real de custos, utilização, desempenho e rastreamentos de pilha agentes em diversos provedores de LLM. Embora simplifique o gerenciamento de operações de LLM, a plataforma ainda está em desenvolvimento e pode exigir algum conhecimento especializado para aproveitar completamente seus recursos avançados. Nossa equipe tem utilizado a plataforma com boas experiências até agora.

  • 39. Humanloop

    Humanloop é uma plataforma emergente focada em tornar sistemas de IA mais confiáveis, adaptáveis e alinhados com as necessidades das usuárias, integrando feedback humano nos principais pontos de decisão. Ela oferece ferramentas para rotulagem humana, aprendizado ativo e ajuste fino com a estratégia “human in the loop”, bem como avaliação de um modelo de linguagem de grande porte (LLM) em relação aos requisitos de negócio. Além disso, ela ajuda a gerenciar o ciclo de vida financeiro das soluções de GenIA com maior controle e eficiência. A Humanloop suporta colaboração através de um espaço de trabalho compartilhado, gerenciamento de prompts com controle de versão e integração com CI/CD para prevenir regressões. Ela também disponibiliza funções de observabilidade como rastreamento, logging, alertas e proteções para monitorar e otimizar o desempenho da IA. Essas capacidades a tornam relevante para organizações que estão implementando IA em domínios regulados ou de alto risco em que a supervisão humana é essencial. Com seu foco em práticas de IA responsáveis, vale a pena avaliar a Humanloop para equipes que buscam construir sistemas de IA escaláveis e éticos.

  • 40. Model Context Protocol (MCP)

    Um dos maiores desafios em fazer prompts é garantir que a ferramenta de IA tenha acesso a todo o contexto relevante para a tarefa. Muitas vezes, esse contexto já existe nos sistemas que usamos todos os dias: wikis, rastreadores de problemas, bancos de dados ou sistemas de observabilidade. A integração perfeita entre as ferramentas de IA e essas fontes de informação pode melhorar significativamente a qualidade dos resultados gerados pela IA.

    O Model Context Protocol (MCP), um padrão aberto lançado pela Anthropic, fornece um framework padronizado para a integração de aplicações LLM com fontes de dados e ferramentas externas. Ele define servidores e clientes MCP, em que os servidores acessam as fontes de dados e os clientes integram e usam esses dados para aprimorar os prompts. Muitos assistentes de código já implementaram integração com o MCP, o que lhes permite atuar como clientes do MCP.

    Os servidores MCP podem ser executados de duas maneiras: localmente, como um processo Python ou Node em execução no computador das usuárias, ou remotamente, como um servidor ao qual o cliente MCP se conecta via SSE (embora não tenhamos visto ainda nenhum uso da variante de servidor remoto). Atualmente, o MCP é usado principalmente da primeira forma, com desenvolvedoras clonando implementações de servidores MCP de código aberto. Embora os servidores executados localmente ofereçam uma maneira simples de evitar dependências de terceiros, eles permanecem menos acessíveis a usuárias não técnicas e apresentam desafios como governança e gerenciamento de atualizações. Dito isso, é fácil imaginar como esse padrão poderia evoluir para um ecossistema mais maduro e amigável no futuro.

  • 41. Open WebUI

    Open WebUI é uma plataforma de IA de código aberto e auto-hospedada, com um conjunto versátil de recursos. Ele suporta APIs compatíveis com OpenAI e integra-se a provedores como OpenRouter e GroqCloud, entre outros. Pode rodar totalmente offline ao se conectar a modelos locais ou auto-hospedados via Ollama. Open WebUI inclui suporte nativo para RAG, permitindo interações com documentos locais e da web por meio de uma experiência conversacional. Ele oferece controles RBAC granulares, possibilitando definir quais modelos e recursos da plataforma estarão disponíveis para diferentes grupos de usuários. A plataforma é extensível por meio do Functions — blocos de construção em Python que personalizam e expandem suas funcionalidades. Outro recurso importante é a avaliação de modelos, que inclui um ambiente de comparação lado a lado para testar diferentes modelos de linguagem de grande porte (LLMs) em tarefas específicas. Open WebUI pode ser implantado em diferentes escalas — desde um assistente de IA pessoal até um assistente de colaboração para equipes ou uma plataforma de IA em nível empresarial.

  • 42. pg_mooncake

    pg_mooncake é uma extensão do PostgreSQL que adiciona armazenamento em colunas e execução vetorizada. Tabelas de armazenamento de colunas são armazenadas como tabelas Iceberg ou Delta Lake no sistema de arquivos local ou armazenamento em nuvem compatível com S3. pg_mooncake suporta carregamento de dados a partir de formatos de arquivo como Parquet, CSV e até mesmo os conjuntos de dados do Hugging Face. Pode ser uma boa opção para análises pesadas de dados que normalmente exigem armazenamento em colunas, pois elimina a necessidade de adicionar tecnologias dedicadas de armazenamento de colunas à sua stack.

  • 43. Modelos de raciocínio

    Um dos avanços mais significativos da IA desde o último Radar foi o surgimento e proliferação dos modelos de raciocínio. Também comercializados como modelos de pensamento, esses modelos alcançaram desempenho de alto nível humano em benchmarks como matemática avançada e programação.

    Modelos de raciocínio são geralmente treinados por meio de aprendizado por reforço ou ajuste fino supervisionado, aprimorando capacidades como pensamento passo a passo (CoT), exploração de alternativas (ToT) e autocorreção. Exemplos incluem o1/o3 da OpenAI, DeepSeek R1 e Gemini 2.0 Flash Thinking. No entanto, esses modelos devem ser vistos como uma categoria distinta de modelos de linguagem de grande porte (LLMs), em vez de simplesmente versões mais avançadas.

    Essa capacidade aumentada tem um custo. Modelos de raciocínio exigem maior tempo de resposta e maior consumo de tokens, levando-nos a chamá-los jocosamente de IA mais lenta (como se a IA atual já não fosse lenta o suficiente). Nem todas as tarefas justificam essa troca. Para tarefas mais simples, como sumarização de texto, geração de conteúdo ou chatbots de resposta rápida, LLMs de uso geral continuam sendo a melhor escolha. Aconselhamos o uso de modelos de raciocínio em áreas STEM (ciência, tecnologia, engenharia e matemática), resolução de problemas complexos e tomada de decisões — por exemplo, ao usar LLMs como juízes ou melhorar a explicabilidade por meio de saídas CoT explícitas. No momento em que escrevemos este texto, o Claude 3.7 Sonnet, um modelo de raciocínio híbrido, havia acabado de ser lançado, sugerindo uma possível fusão entre LLMs tradicionais e modelos de raciocínio.

  • 44. Restate

    Restate é uma plataforma de execução durável, similar ao Temporal, desenvolvida pelas criadoras originais do Apache Flink. Em termos de funcionalidades, oferece workflows como código, processamento de eventos com estado, o padrão saga e máquinas de estado duráveis. Escrito em Rust e implantado como um único binário, ele usa um log distribuído para registrar eventos, implementado com um algoritmo de consenso virtual baseado no Flexible Paxos; isso garante durabilidade em caso de falha de nó. Há kits de desenvolvimento de software (SDKs) disponíveis para as linguagens mais comuns: Java, Go, Rust e TypeScript. Ainda recomendamos evitar transações distribuídas em sistemas distribuídos, devido à complexidade adicional e ao inevitável aumento da sobrecarga operacional. No entanto, se você não puder evitá-las no seu ambiente, vale a pena avaliar esta plataforma.

  • 45. Supabase

    O Supabase é uma alternativa de código aberto ao Firebase para a criação de backends escaláveis e seguros. Ele oferece um conjunto de serviços integrados, incluindo um banco de dados PostgreSQL, autenticação, APIs instantâneas, Edge Functions, assinaturas em tempo real, armazenamento e embeddings vetoriais. O objetivo do Supabase é simplificar o desenvolvimento de backend, permitindo que as desenvolvedoras se concentrem na criação de experiências de frontend, aproveitando o poder e a flexibilidade das tecnologias de código aberto. Ao contrário do Firebase, o Supabase foi desenvolvido com base no PostgreSQL. Se estiver trabalhando em protótipos ou em um MVP, vale a pena considerá-lo, pois será mais fácil migrar para outra solução SQL após o estágio de prototipagem.

  • 46. Synthesized

    Um desafio comum no desenvolvimento de software é gerar dados de teste para ambientes de desenvolvimento e de teste. Idealmente, dados de teste devem se assemelhar o máximo possível aos dados de produção, garantindo, ao mesmo tempo, que nenhuma informação pessoalmente identificável ou sensível seja exposta. Embora isso possa parecer simples, a geração de dados de teste está longe de ser trivial. É por isso que estamos interessadas no Synthesized — uma plataforma capaz de mascarar e criar subconjuntos de dados de produção existentes ou gerar dados sintéticos estatisticamente relevantes. Ele se integra diretamente aos pipelines de build e oferece mascaramento de privacidade, fornecendo anonimização por atributo por meio de técnicas irreversíveis de ofuscação de dados, como hashing, randomização e binning. Além disso, o Synthesized pode gerar grandes volumes de dados sintéticos para testes de performance. Apesar de incluir os recursos obrigatórios de GenAI, sua funcionalidade principal aborda um desafio real e persistente para as equipes de desenvolvimento, o que faz da plataforma algo que vale a pena explorar.

  • 47. Tonic.ai

    Tonic.ai faz parte de uma tendência crescente de plataformas projetadas para gerar dados sintéticos realistas e desidentificados para ambientes de desenvolvimento, testes e QA. Semelhante ao Synthesized, o Tonic.ai é uma plataforma com uma ampla suíte de ferramentas que endereça diversas necessidades de síntese de dados, em contraste com a abordagem mais focada em bibliotecas do Syntethic Data Vault. O Tonic.ai gera dados estruturados e não estruturados, mantendo as propriedades estatísticas de produção de dados enquanto garante privacidade e conformidade por meio de técnicas de privacidade diferenciadas. Seus principais recursos incluem detecção, classificação e remoção automática de informações sensíveis em dados não estruturados, além do provisionamento sob demanda de banco de dados através do Tonic Ephemeral. Ela também oferece o Tonic Textual, um data lakehouse seguro que auxilia desenvolvedoras de IA a aproveitar os dados não estruturados para sistemas de geração aumentada por recuperação (RAG) e ajuste fino de modelos de linguagem de grande porte (LLMs). Equipes que querem acelerar velocidade da engenharia enquanto geram dados realistas e escaláveis — cumprindo requisitos rigorosos de privacidade de dados — deveriam avaliar o Tonic.ai.

  • 48. turbopuffer

    O turbopuffer é um mecanismo de busca multi-tenant e sem servidor que integra perfeitamente buscas de vetor e de texto em armazenamento de objetos. Nós gostamos de sua arquitetura e escolhas de design, especialmente por seu foco em durabilidade, escalabilidade e eficiência de custo. Ao usar o armazenamento de objetos como um log de escrita antecipada (write-ahead log) enquanto mantém seus nós de consulta sem estado, ele é adequado para cargas de trabalho de busca em larga escala.

    Projetado para performance e precisão, o turbopuffer entrega alto recall nativamente, até mesmo para consultas complexas baseadas em filtros. Ele armazena em cache os resultados de consultas frias em SSDs NVMe e mantém os namespaces frequentemente acessados em memória, permitindo buscas de baixa latência em bilhões de documentos. Isso o torna ideal para recuperação de documentos em grande escala, busca vetorial e geração aumentada por recuperação (RAG) em aplicações de IA. Entretanto, sua dependência por armazenamento de objetos introduz compensações na latência das consultas, fazendo com que ele seja mais eficaz para cargas de trabalho que se beneficiam de computação distribuída sem estado.

    O turbopuffer alimenta sistemas de produção de grande escala como o Cursor mas atualmente está disponível apenas por indicação ou convite.

  • 49. VectorChord

    VectorChord é uma extensão do PostgreSQL para pesquisa de similaridade vetorial, desenvolvida pelas criadoras do pgvecto.rs como sua sucessora. É de código aberto, compatível com tipos de dados do pgvector e projetada para pesquisa vetorial de alto desempenho e com eficiência de disco. Ela emprega Inverted File Index (IVF) junto com quantização RaBitQ para permitir uma busca vetorial rápida, escalável e precisa, ao mesmo tempo que reduz significativamente as demandas de computação. Como outras extensões do PostgresSQL neste espaço, ela aproveita o ecossistema do PostgreSQL, permitindo a busca de vetores junto com operações transacionais padrão. Embora ainda esteja em seus estágios iniciais, vale a pena avaliar o VectorChord para cargas de trabalho de busca de vetores.

Evite ?

  • 50. Tyk hybrid API management

    Observamos que várias equipes têm enfrentado problemas com a solução Tyk hybrid API management. Embora o conceito de um plano de controle gerenciado e planos de dados autogerenciados ofereça flexibilidade para infraestruturas complexas (como multi-cloud e híbrida), equipes relataram incidentes no plano de controle que foram descobertos internamente, e não pela Tyk, evidenciando possíveis lacunas de observabilidade no ambiente Tyk hospedado na AWS. Além disso, o suporte para incidentes parece ser lento; a comunicação via tickets e e-mails não é ideal nessas situações. As equipes também apontaram questões relacionadas à maturidade da documentação da Tyk, frequentemente considerada insuficiente para cenários e problemas mais complexos. Adicionalmente, outros produtos do ecossistema Tyk aparentam imaturidade — por exemplo, foi relatado que o portal para desenvolvedoras na versão empresarial não é retrocompatível e possui capacidades limitadas de customização. Especialmente para a configuração híbrida da Tyk, recomendamos cautela e continuaremos acompanhando sua evolução.

Não encontrou algo que você esperava achar?

 

Cada edição do Radar inclui blips que refletem nossas experiências nos seis meses anteriores. Talvez já tenhamos falado sobre o que você procura em um Radar anterior. Às vezes, deixamos coisas de fora simplesmente porque há muitas a serem abordadas. Também pode faltar um tópico específico porque o Radar reflete nossa experiência, não se baseando em uma análise abrangente do mercado.

Baixe o PDF

 

 

 

English | Español | Português | 中文

Inscreva-se para receber a newsletter do Technology Radar

 

 

Seja assinante

 

 

Visite nosso arquivo para acessar os volumes anteriores