Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Volume 32 | April 2025

Platforms

  • Platforms

    Adopt Trial Assess Hold Adopt Trial Assess Hold
  • New
  • Moved in/out
  • No change

Platforms

Adopt ?

  • 23. GitLab CI/CD

    GitLab CI/CD has evolved into a fully integrated system within GitLab, covering everything from code integration and testing to deployment and monitoring. It supports complex workflows with features like multi-stage pipelines, caching, parallel execution and auto-scaling runners and is suitable for large-scale projects and complex pipeline needs. We want to highlight its built-in security and compliance tools (such as SAST and DAST analysis) which make it well-suited for use cases with high-compliance requirements. It also integrates seamlessly with Kubernetes, supporting cloud-native workflows, and offers real-time logging, test reports and traceability for enhanced observability.

  • 24. Trino

    Trino is an open-source, distributed SQL query engine designed for interactive analytic queries over big data. It’s optimized to run both on-premise and cloud environments and supports querying data where it resides, including relational databases and various proprietary datastores via connectors. Trino can also query data stored in file formats like Parquet and open-table formats like Apache Iceberg. Its built-in query federation capabilities enable data from multiple sources to be queried as a single logical table, making it a great choice for analytic workloads that require aggregating data across diverse sources. Trino is a key part of popular stacks like AWS Athena, Starburst and other proprietary data platforms. Our teams have successfully used it in various use cases, and when it comes to querying data sets across multiple sources for analytics, Trino has been a reliable choice.

Trial ?

  • 25. ABsmartly

    ABsmartly is an advanced A/B testing and experimentation platform designed for rapid, trustworthy decision-making. Its standout feature is the Group Sequential Testing (GST) engine, which accelerates test results by up to 80% compared to traditional A/B testing tools. The platform offers real-time reporting, deep data segmentation and seamless full-stack integration through an API-first approach, supporting experiments across web, mobile, microservices and ML models.

    ABsmartly addresses key challenges in scalable, data-driven experimentation by enabling faster iteration and more agile product development. Its zero-lag execution, deep segmentation capabilities and support for multi-platform experiments make it particularly valuable for organizations looking to scale their experimentation culture and prioritize data-backed innovation. By significantly reducing test cycles and automating result analysis, ABsmartly helped us optimize features and user experiences more efficiently than traditional A/B testing platforms.

  • 26. Dapr

    Dapr has evolved considerably since we last featured it in the Radar. Its many new features include job scheduling, virtual actors as well as more sophisticated retry policies and observability components. Its list of building blocks continues to grow with jobs, cryptography and more. Our teams also note its increasing focus on secure defaults, with support for mTLS and distroless images. All in all, we've been happy with Dapr and are looking forward to future developments.

  • 27. Grafana Alloy

    Formerly known as Grafana Agent, Grafana Alloy is an open-source OpenTelemetry Collector. Alloy is designed to be an all-in-one telemetry collector for all telemetry data, including logs, metrics and traces. It supports collecting commonly used telemetry data formats such as OpenTelemetry, Prometheus and Datadog. With Promtail’s recent deprecation, Alloy is emerging as a go-to choice for telemetry data collection — especially for logs — if you’re using the Grafana observability stack.

  • 28. Grafana Loki

    Grafana Loki is a horizontally scalable and highly available multi-tenant log aggregation system inspired by Prometheus. Loki only indexes metadata about your logs as a set of labels for each log stream. Log data is stored in a block storage solution such as S3, GCS or Azure Blob Storage. The upshot is that Loki promises a reduction in operational complexity and storage costs over competitors. As you'd expect, it integrates tightly with Grafana and Grafana Alloy, although other collection mechanisms can be used.

    Loki 3.0 introduced native OpenTelemetry support, making ingestion and integration with OpenTelemetry systems as simple as configuring an endpoint. It also offers advanced multi-tenancy features, such as tenant isolation via shuffle-sharding, which prevents misbehaving tenants (e.g., heavy queries or outages) from impacting others in a cluster. If you haven't been following developments in the Grafana ecosystem, now is a great time to take a look as it is evolving rapidly.

  • 29. Grafana Tempo

    Grafana Tempo is a high-scale distributed tracing backend that supports open standards like OpenTelemetry. Designed to be cost-efficient, it relies on object storage for long-term trace retention and enables trace search, span-based metric generation and correlation with logs and metrics. By default, Tempo uses a columnar block format based on Apache Parquet, enhancing query performance and enabling downstream tools to access trace data. Queries are executed via TraceQL and the Tempo CLI. Grafana Alloy too can be configured to collect and forward traces to Tempo. Our teams self-hosted Tempo in GKE, using MinIO for object storage, OpenTelemetry collectors and Grafana for trace visualization.

  • 30. Railway

    Heroku used to be an excellent choice for many developers who wanted to release and deploy their applications quickly. In recent years, we’ve also seen the rise of deployment platforms like Vercel, which are more modern, lightweight and easy to use but designed for front-end applications. A full-stack alternative in this space is Railway, a PaaS cloud platform that streamlines everything from GitHub/Docker deployment to production observability.

    Railway supports most mainstream programming frameworks, databases as well as containerized deployment. As a long-term hosted platform for an application, you may need to compare the costs of different platforms carefully. At present, our team has had a good experience with Railway's deployment and observability. The operation is smooth and can be well integrated with the continuous deployment practices we advocate.

  • 31. Unblocked

    Unblocked is an off-the-shelf AI team assistant. Once integrated with codebase repositories, corporate documentation platforms, project management tools and communication tools, Unblocked helps answer questions about complex business and technical concepts, architectural design and implementation as well as operational processes. This is particularly useful for navigating large or legacy systems. While using Unblocked, we've observed that teams value quick access to contextual information over code and user-story generation. For scenarios requiring more extensive code generation or task automation, dedicated software engineering agents or coding assistants are more suitable.

  • 32. Weights & Biases

    Weights & Biases has continued to evolve, adding more LLM-focused features since it was last featured in the Radar. They are expanding Traces and introducing Weave, a full-fledged platform that goes beyond tracking LLM-based agentic systems. Weave enables you to create system evaluations, define custom metrics, use LLMs as judges for tasks like summarization and save data sets that capture different behaviors for analysis. This helps optimize LLM components and track performance at both local and global levels. The platform also facilitates iterative development and effective debugging of agentic systems, where errors can be difficult to detect. Additionally, it enables the collection of valuable human feedback, which can later be used for fine-tuning models.

Assess ?

  • 33. Arize Phoenix

    Com a popularidade dos modelos de linguagem de grande porte (LLMs) e dos agentes autônomos, a observabilidade de LLMs está se tornando cada vez mais importante. Anteriormente, recomendamos plataformas como o Langfuse e Weights & Biases (W&B). A Arize Phoenix é outra plataforma emergente nesse espaço, e nossa equipe teve uma experiência positiva ao utilizá-la. Ela oferece recursos padrões, como rastreamento de LLMs, avaliação e gerenciamento de prompts, com integração fluída com os principais provedores e frameworks de LLMs. Isso facilita a obtenção de insights sobre as respostas dos modelos, latência e uso de tokens com configuração mínima. Até agora, nossa experiência se limita à ferramenta de código aberto, mas a plataforma Arize mais ampla oferece recursos ainda mais abrangentes. Estamos ansiosas para explorá-la no futuro.

  • 34. Chainloop

    Chainloop é uma plataforma de segurança de cadeia de suprimentos de código aberto que ajuda equipes de segurança a impor conformidade, enquanto permite que equipes de desenvolvimento integrem a conformidade de segurança de forma tranquila nos pipelines CI/CD. Ela consiste em um plano de controle, que atua como fonte única de verdade para políticas de segurança, e uma CLI, que executa atestados nos fluxos de trabalho de CI/CD para garantir a conformidade. Os times de segurança definem contratos de fluxo de trabalho especificando quais artefatos — como os SBOMs e relatórios de vulnerabilidade — devem ser coletados, onde guardá-los e como avaliar a conformidade. A Chainloop usa as linguagens de política Rego, OPA's para validar atestados — por exemplo, garantir que um CycloneDX SBOM atenda aos requerimentos de versão. Durante a execução do fluxo de trabalho, artefatos de segurança como SBOMs são anexados a um atestado e enviados ao plano de controle para aplicação e auditoria. Essa abordagem garante que a conformidade possa ser aplicada de forma consistente e em escala, minimizando o atrito nos fluxos de trabalho de desenvolvimento. Isso resulta em uma fonte única de verdade em conformidade com o nível três do SLSA para metadados, artefatos e atestados.

  • 35. Deepseek R1

    DeepSeek-R1 é a primeira geração de modelos de raciocíno do DeepSeek. Através de uma progressão de modelos não baseados em raciocínio, as engenheiras da DeepSeek projetaram e utilizaram métodos para maximizar a utilização do hardware. Isso inclui Multi-Head Latent Attention (MLA), Mixture of Experts (MoE) gating, treinamento de pontos flutuantes de 8 bits (FP8) e programação PTX de baixo nível. Sua abordagem de co-design de computação de alto desempenho permite que o DeepSeek-R1 rivalize com modelos de última geração a um custo significativamente reduzido para treinamento e inferência.

    DeepSeek-R1-Zero é notável por outra inovação: as engenheiras conseguiram extrair capacidades de raciocínio de um modelo não baseado em raciocínio utilizando simples aprendizado por reforço, sem a necessidade de ajuste fino supervisionado. Todos os modelos DeepSeek são open-weight, o que significa que estão disponíveis gratuitamente, embora o código de treinamento e os dados permaneçam proprietários. O repositório inclui seis modelos densos destilados do DeepSeek-R1, baseados no Llama e Qwen, sendo que o DeepSeek-R1-Distill-Qwen-32B supera o OpenAI-o1-mini em vários benchmarks.

  • 36. Deno

    Criado por Ryan Dahl, o inventor do Node.js, o Deno foi desenvolvido para corrigir o que ele via como erros no Node.js. Ele possui um sistema de sandbox mais rigoroso, gerenciamento embutido de dependências e suporte nativo ao TypeScript — um grande atrativo para sua base de usuárias. Muitos de nós preferimos a utilização do Deno em projetos TypeScript por sentirmos que ele parece com um ambiente de execução e ferramenta voltada especificamente ao TypeScript, ao invés de um complemento do Node.js.

    Desde sua inclusão no Radar em 2019, o Deno fez avanços significativos. O lançamento do Deno 2 trouxe compatibilidade retroativa com o Node.js, suporte a bibliotecas npm, versões com suporte de longo prazo (LTS) e outras melhorias. Anteriormente, um dos maiores obstáculos à adoção era a necessidade de reescrever aplicações originalmente feitas em Node.js. Essas atualizações reduzem o impacto da migração e ampliam as opções de dependências para ferramentas e sistemas de apoio. Dado o enorme ecossistema do Node.js e npm, essas mudanças devem impulsionar ainda mais a adoção do Deno.

    Além disso, a biblioteca padrão do Deno tornou-se estável, ajudando a combater a proliferação de pacotes npm de pouco valor no ecossistema. Sua biblioteca padrão e ferramentas tornam o uso do TypeScript ou JavaScript mais atraente para desenvolvimento no lado do servidor. Porém, recomendamos cautela ao optar por uma única plataforma somente para evitar a programação poliglota.

  • 37. Graphiti

    Graphiti cria grafos de conhecimento dinâmicos e temporais, capturando fatos e relacionamentos em constante evolução. Nossas equipes utilizam GraphRAG para descobrir conexões entre dados, o que melhora a precisão na recuperação e nas respostas. Como os conjuntos de dados estão sempre mudando, o Graphiti mantém metadados temporais nas arestas do grafo para registrar o ciclo de vida dos relacionamentos. Ele processa dados estruturados e não estruturados como episódios distintos e suporta consultas combinando algoritmos baseados em tempo, busca textual, semântica e grafos. Para aplicações baseadas em modelos de linguagem de grande porte (LLMs) — seja RAG ou agentes autônomos — o Graphiti permite retenção de longo prazo e raciocínio baseado em estado.

  • 38. Helicone

    Semelhante ao Langfuse, Weights & Biases e ao Arize Phoenix, Helicone é uma plataforma gerenciada de LLMOps projetada para atender à crescente demanda empresarial por gerenciamento de custos de modelos de linguagem de grande porte (LLM), avaliação de ROI e mitigação de riscos. Com foco nas desenvolvedoras e de código aberto, o Helicone suporta aplicações de IA prontas para produção, oferecendo experimentação com prompts, monitoramento, depuração e otimização ao longo de todo o ciclo de vida do LLM. Ele permite a análise em tempo real de custos, utilização, desempenho e rastreamentos de pilha agentes em diversos provedores de LLM. Embora simplifique o gerenciamento de operações de LLM, a plataforma ainda está em desenvolvimento e pode exigir algum conhecimento especializado para aproveitar completamente seus recursos avançados. Nossa equipe tem utilizado a plataforma com boas experiências até agora.

  • 39. Humanloop

    Humanloop é uma plataforma emergente focada em tornar sistemas de IA mais confiáveis, adaptáveis e alinhados com as necessidades das usuárias, integrando feedback humano nos principais pontos de decisão. Ela oferece ferramentas para rotulagem humana, aprendizado ativo e ajuste fino com a estratégia “human in the loop”, bem como avaliação de um modelo de linguagem de grande porte (LLM) em relação aos requisitos de negócio. Além disso, ela ajuda a gerenciar o ciclo de vida financeiro das soluções de GenIA com maior controle e eficiência. A Humanloop suporta colaboração através de um espaço de trabalho compartilhado, gerenciamento de prompts com controle de versão e integração com CI/CD para prevenir regressões. Ela também disponibiliza funções de observabilidade como rastreamento, logging, alertas e proteções para monitorar e otimizar o desempenho da IA. Essas capacidades a tornam relevante para organizações que estão implementando IA em domínios regulados ou de alto risco em que a supervisão humana é essencial. Com seu foco em práticas de IA responsáveis, vale a pena avaliar a Humanloop para equipes que buscam construir sistemas de IA escaláveis e éticos.

  • 40. Model Context Protocol (MCP)

    Um dos maiores desafios em fazer prompts é garantir que a ferramenta de IA tenha acesso a todo o contexto relevante para a tarefa. Muitas vezes, esse contexto já existe nos sistemas que usamos todos os dias: wikis, rastreadores de problemas, bancos de dados ou sistemas de observabilidade. A integração perfeita entre as ferramentas de IA e essas fontes de informação pode melhorar significativamente a qualidade dos resultados gerados pela IA.

    O Model Context Protocol (MCP), um padrão aberto lançado pela Anthropic, fornece um framework padronizado para a integração de aplicações LLM com fontes de dados e ferramentas externas. Ele define servidores e clientes MCP, em que os servidores acessam as fontes de dados e os clientes integram e usam esses dados para aprimorar os prompts. Muitos assistentes de código já implementaram integração com o MCP, o que lhes permite atuar como clientes do MCP.

    Os servidores MCP podem ser executados de duas maneiras: localmente, como um processo Python ou Node em execução no computador das usuárias, ou remotamente, como um servidor ao qual o cliente MCP se conecta via SSE (embora não tenhamos visto ainda nenhum uso da variante de servidor remoto). Atualmente, o MCP é usado principalmente da primeira forma, com desenvolvedoras clonando implementações de servidores MCP de código aberto. Embora os servidores executados localmente ofereçam uma maneira simples de evitar dependências de terceiros, eles permanecem menos acessíveis a usuárias não técnicas e apresentam desafios como governança e gerenciamento de atualizações. Dito isso, é fácil imaginar como esse padrão poderia evoluir para um ecossistema mais maduro e amigável no futuro.

  • 41. Open WebUI

    Open WebUI é uma plataforma de IA de código aberto e auto-hospedada, com um conjunto versátil de recursos. Ele suporta APIs compatíveis com OpenAI e integra-se a provedores como OpenRouter e GroqCloud, entre outros. Pode rodar totalmente offline ao se conectar a modelos locais ou auto-hospedados via Ollama. Open WebUI inclui suporte nativo para RAG, permitindo interações com documentos locais e da web por meio de uma experiência conversacional. Ele oferece controles RBAC granulares, possibilitando definir quais modelos e recursos da plataforma estarão disponíveis para diferentes grupos de usuários. A plataforma é extensível por meio do Functions — blocos de construção em Python que personalizam e expandem suas funcionalidades. Outro recurso importante é a avaliação de modelos, que inclui um ambiente de comparação lado a lado para testar diferentes modelos de linguagem de grande porte (LLMs) em tarefas específicas. Open WebUI pode ser implantado em diferentes escalas — desde um assistente de IA pessoal até um assistente de colaboração para equipes ou uma plataforma de IA em nível empresarial.

  • 42. pg_mooncake

    pg_mooncake é uma extensão do PostgreSQL que adiciona armazenamento em colunas e execução vetorizada. Tabelas de armazenamento de colunas são armazenadas como tabelas Iceberg ou Delta Lake no sistema de arquivos local ou armazenamento em nuvem compatível com S3. pg_mooncake suporta carregamento de dados a partir de formatos de arquivo como Parquet, CSV e até mesmo os conjuntos de dados do Hugging Face. Pode ser uma boa opção para análises pesadas de dados que normalmente exigem armazenamento em colunas, pois elimina a necessidade de adicionar tecnologias dedicadas de armazenamento de colunas à sua stack.

  • 43. Modelos de raciocínio

    Um dos avanços mais significativos da IA desde o último Radar foi o surgimento e proliferação dos modelos de raciocínio. Também comercializados como modelos de pensamento, esses modelos alcançaram desempenho de alto nível humano em benchmarks como matemática avançada e programação.

    Modelos de raciocínio são geralmente treinados por meio de aprendizado por reforço ou ajuste fino supervisionado, aprimorando capacidades como pensamento passo a passo (CoT), exploração de alternativas (ToT) e autocorreção. Exemplos incluem o1/o3 da OpenAI, DeepSeek R1 e Gemini 2.0 Flash Thinking. No entanto, esses modelos devem ser vistos como uma categoria distinta de modelos de linguagem de grande porte (LLMs), em vez de simplesmente versões mais avançadas.

    Essa capacidade aumentada tem um custo. Modelos de raciocínio exigem maior tempo de resposta e maior consumo de tokens, levando-nos a chamá-los jocosamente de IA mais lenta (como se a IA atual já não fosse lenta o suficiente). Nem todas as tarefas justificam essa troca. Para tarefas mais simples, como sumarização de texto, geração de conteúdo ou chatbots de resposta rápida, LLMs de uso geral continuam sendo a melhor escolha. Aconselhamos o uso de modelos de raciocínio em áreas STEM (ciência, tecnologia, engenharia e matemática), resolução de problemas complexos e tomada de decisões — por exemplo, ao usar LLMs como juízes ou melhorar a explicabilidade por meio de saídas CoT explícitas. No momento em que escrevemos este texto, o Claude 3.7 Sonnet, um modelo de raciocínio híbrido, havia acabado de ser lançado, sugerindo uma possível fusão entre LLMs tradicionais e modelos de raciocínio.

  • 44. Restate

    Restate é uma plataforma de execução durável, similar ao Temporal, desenvolvida pelas criadoras originais do Apache Flink. Em termos de funcionalidades, oferece workflows como código, processamento de eventos com estado, o padrão saga e máquinas de estado duráveis. Escrito em Rust e implantado como um único binário, ele usa um log distribuído para registrar eventos, implementado com um algoritmo de consenso virtual baseado no Flexible Paxos; isso garante durabilidade em caso de falha de nó. Há kits de desenvolvimento de software (SDKs) disponíveis para as linguagens mais comuns: Java, Go, Rust e TypeScript. Ainda recomendamos evitar transações distribuídas em sistemas distribuídos, devido à complexidade adicional e ao inevitável aumento da sobrecarga operacional. No entanto, se você não puder evitá-las no seu ambiente, vale a pena avaliar esta plataforma.

  • 45. Supabase

    O Supabase é uma alternativa de código aberto ao Firebase para a criação de backends escaláveis e seguros. Ele oferece um conjunto de serviços integrados, incluindo um banco de dados PostgreSQL, autenticação, APIs instantâneas, Edge Functions, assinaturas em tempo real, armazenamento e embeddings vetoriais. O objetivo do Supabase é simplificar o desenvolvimento de backend, permitindo que as desenvolvedoras se concentrem na criação de experiências de frontend, aproveitando o poder e a flexibilidade das tecnologias de código aberto. Ao contrário do Firebase, o Supabase foi desenvolvido com base no PostgreSQL. Se estiver trabalhando em protótipos ou em um MVP, vale a pena considerá-lo, pois será mais fácil migrar para outra solução SQL após o estágio de prototipagem.

  • 46. Synthesized

    Um desafio comum no desenvolvimento de software é gerar dados de teste para ambientes de desenvolvimento e de teste. Idealmente, dados de teste devem se assemelhar o máximo possível aos dados de produção, garantindo, ao mesmo tempo, que nenhuma informação pessoalmente identificável ou sensível seja exposta. Embora isso possa parecer simples, a geração de dados de teste está longe de ser trivial. É por isso que estamos interessadas no Synthesized — uma plataforma capaz de mascarar e criar subconjuntos de dados de produção existentes ou gerar dados sintéticos estatisticamente relevantes. Ele se integra diretamente aos pipelines de build e oferece mascaramento de privacidade, fornecendo anonimização por atributo por meio de técnicas irreversíveis de ofuscação de dados, como hashing, randomização e binning. Além disso, o Synthesized pode gerar grandes volumes de dados sintéticos para testes de performance. Apesar de incluir os recursos obrigatórios de GenAI, sua funcionalidade principal aborda um desafio real e persistente para as equipes de desenvolvimento, o que faz da plataforma algo que vale a pena explorar.

  • 47. Tonic.ai

    Tonic.ai faz parte de uma tendência crescente de plataformas projetadas para gerar dados sintéticos realistas e desidentificados para ambientes de desenvolvimento, testes e QA. Semelhante ao Synthesized, o Tonic.ai é uma plataforma com uma ampla suíte de ferramentas que endereça diversas necessidades de síntese de dados, em contraste com a abordagem mais focada em bibliotecas do Syntethic Data Vault. O Tonic.ai gera dados estruturados e não estruturados, mantendo as propriedades estatísticas de produção de dados enquanto garante privacidade e conformidade por meio de técnicas de privacidade diferenciadas. Seus principais recursos incluem detecção, classificação e remoção automática de informações sensíveis em dados não estruturados, além do provisionamento sob demanda de banco de dados através do Tonic Ephemeral. Ela também oferece o Tonic Textual, um data lakehouse seguro que auxilia desenvolvedoras de IA a aproveitar os dados não estruturados para sistemas de geração aumentada por recuperação (RAG) e ajuste fino de modelos de linguagem de grande porte (LLMs). Equipes que querem acelerar velocidade da engenharia enquanto geram dados realistas e escaláveis — cumprindo requisitos rigorosos de privacidade de dados — deveriam avaliar o Tonic.ai.

  • 48. turbopuffer

    O turbopuffer é um mecanismo de busca multi-tenant e sem servidor que integra perfeitamente buscas de vetor e de texto em armazenamento de objetos. Nós gostamos de sua arquitetura e escolhas de design, especialmente por seu foco em durabilidade, escalabilidade e eficiência de custo. Ao usar o armazenamento de objetos como um log de escrita antecipada (write-ahead log) enquanto mantém seus nós de consulta sem estado, ele é adequado para cargas de trabalho de busca em larga escala.

    Projetado para performance e precisão, o turbopuffer entrega alto recall nativamente, até mesmo para consultas complexas baseadas em filtros. Ele armazena em cache os resultados de consultas frias em SSDs NVMe e mantém os namespaces frequentemente acessados em memória, permitindo buscas de baixa latência em bilhões de documentos. Isso o torna ideal para recuperação de documentos em grande escala, busca vetorial e geração aumentada por recuperação (RAG) em aplicações de IA. Entretanto, sua dependência por armazenamento de objetos introduz compensações na latência das consultas, fazendo com que ele seja mais eficaz para cargas de trabalho que se beneficiam de computação distribuída sem estado.

    O turbopuffer alimenta sistemas de produção de grande escala como o Cursor mas atualmente está disponível apenas por indicação ou convite.

  • 49. VectorChord

    VectorChord é uma extensão do PostgreSQL para pesquisa de similaridade vetorial, desenvolvida pelas criadoras do pgvecto.rs como sua sucessora. É de código aberto, compatível com tipos de dados do pgvector e projetada para pesquisa vetorial de alto desempenho e com eficiência de disco. Ela emprega Inverted File Index (IVF) junto com quantização RaBitQ para permitir uma busca vetorial rápida, escalável e precisa, ao mesmo tempo que reduz significativamente as demandas de computação. Como outras extensões do PostgresSQL neste espaço, ela aproveita o ecossistema do PostgreSQL, permitindo a busca de vetores junto com operações transacionais padrão. Embora ainda esteja em seus estágios iniciais, vale a pena avaliar o VectorChord para cargas de trabalho de busca de vetores.

Hold ?

  • 50. Tyk hybrid API management

    Observamos que várias equipes têm enfrentado problemas com a solução Tyk hybrid API management. Embora o conceito de um plano de controle gerenciado e planos de dados autogerenciados ofereça flexibilidade para infraestruturas complexas (como multi-cloud e híbrida), equipes relataram incidentes no plano de controle que foram descobertos internamente, e não pela Tyk, evidenciando possíveis lacunas de observabilidade no ambiente Tyk hospedado na AWS. Além disso, o suporte para incidentes parece ser lento; a comunicação via tickets e e-mails não é ideal nessas situações. As equipes também apontaram questões relacionadas à maturidade da documentação da Tyk, frequentemente considerada insuficiente para cenários e problemas mais complexos. Adicionalmente, outros produtos do ecossistema Tyk aparentam imaturidade — por exemplo, foi relatado que o portal para desenvolvedoras na versão empresarial não é retrocompatível e possui capacidades limitadas de customização. Especialmente para a configuração híbrida da Tyk, recomendamos cautela e continuaremos acompanhando sua evolução.

Unable to find something you expected to see?

 

Each edition of the Radar features blips reflecting what we came across during the previous six months. We might have covered what you are looking for on a previous Radar already. We sometimes cull things just because there are too many to talk about. A blip might also be missing because the Radar reflects our experience, it is not based on a comprehensive market analysis.

Download the PDF

 

 

 

English | Español | Português | 中文

Sign up for the Technology Radar newsletter

 

Subscribe now

Visit our archive to read previous volumes