Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Volume 32 | Abril 2025

Plataformas

  • Plataformas

    Adote Experimente Avalie Evite Adote Experimente Avalie Evite
  • Novo
  • Modificado
  • Sem alteração

Plataformas

Adote ?

  • 23. GitLab CI/CD

    O GitLab CI/CD evoluiu para um sistema totalmente integrado no GitLab, abrangendo tudo, desde a integração e o teste de código até a implantação e o monitoramento. Ele oferece suporte a fluxos de trabalho complexos com recursos como pipelines de vários estágios, armazenamento em cache, execução paralela e executores de dimensionamento automático e é adequado para projetos de grande escala e necessidades complexas de pipeline. Queremos destacar suas ferramentas integradas de segurança e conformidade (como a análise SAST e DAST), que o tornam adequado para casos de uso com altos requisitos de conformidade. Ele também se integra perfeitamente ao Kubernetes, dando suporte a fluxos de trabalho nativos da nuvem, e oferece registro em tempo real, relatórios de teste e rastreabilidade para melhorar a observabilidade.

  • 24. Trino

    Trino é um mecanismo de consulta SQL distribuído e de código aberto projetado para consultas analíticas interativas sobre big data. Ele é otimizado para executar ambientes locais e na nuvem e oferece suporte à consulta de dados onde eles residem, incluindo bancos de dados relacionais e vários armazenamentos de dados proprietários por meio de conectores. Trino também pode consultar dados armazenados em formato de arquivos como Parquet e formato de tabela aberta como Apache Iceberg. Os recursos de federação de consultas integrados permitem que dados de diversas fontes sejam consultados como uma única tabela lógica, o que o torna uma ótima opção para cargas de trabalho analíticas que exigem agregação de dados de diversas fontes. Trino é uma parte fundamental de stacks populares como AWS Athena, Starburst e outras plataformas de dados proprietárias. Nossas equipes o utilizaram com sucesso em vários casos de uso, e quando se trata de consultar um conjunto de dados em diversas fontes para análise, Trino tem sido uma escolha confiável.

Experimente ?

  • 25. ABsmartly

    A ABsmartly é uma plataforma avançada de teste e experimentação A/B projetada para uma tomada de decisão rápida e confiável. Seu principal diferencial é o mecanismo de Group Sequential Testing (GST), que acelera os resultados dos testes em até 80% em comparação com as ferramentas tradicionais de teste A/B. A plataforma oferece relatórios em tempo real, segmentação aprofundada dos dados e integração completa através de uma abordagem baseada em APIs, permitindo experimentos em aplicações web, mobile, microsserviços e modelos de machine learning.

    A ABsmartly enfrenta os principais desafios da experimentação escalável orientada por dados, possibilitando iterações mais rápidas e um desenvolvimento de produtos mais ágil. Sua execução sem latência, capacidade avançada de segmentação e suporte a experimentos multiplataforma tornam a ferramenta especialmente valiosa para organizações que desejam escalar uma cultura de experimentação e priorizar a inovação baseada em dados. Ao reduzir significativamente os ciclos dos testes e automatizar a análise dos resultados, a ABsmartly nos ajudou a otimizar funcionalidades e experiências do usuário de forma mais eficiente do que com as plataformas tradicionais de testes A/B.

  • 26. Dapr

    O Dapr evoluiu consideravelmente desde que nós o apresentamos no Radar. Suas muitas novas funções incluem agendamento de jobs, atores virtuais, bem como políticas de retry mais sofisticadas e componentes de observabilidade. Sua lista de blocos de construção continua a crescer, incluindo jobs, criptografia e muito mais. Nossas equipes também destacam o foco crescente em padrões seguros, com suporte para mTLS e imagens sem estado (ou seja, sem um sistema operacional completo, incluindo apenas binários e dependências necessárias). No geral, estamos satisfeitas com o Dapr e ansiosas para futuros desenvolvimentos.

  • 27. Grafana Alloy

    Anteriormente conhecido como Grafana Agent, Grafana Alloy é um coletor do OpenTelemetry de código aberto. Alloy é projetado para ser um coletor de telemetria tudo-em-um para todos os dados de telemetria, incluindo logs, métricas e rastreamentos. Ele suporta a coleta de formatos de dados de telemetria comumente usados, como OpenTelemetry, Prometheus e Datadog. Com a recente descontinuação do Promtail, o Alloy está emergindo como uma escolha preferencial para a coleta de dados de telemetria — especialmente para logs — se você está usando o conjunto de ferramentas de observabilidade Grafana.

  • 28. Grafana Loki

    Grafana Loki é um sistema de agregação de logs multi-tenant com alta disponibilidade e escalabilidade horizontal, inspirado no Prometheus. O Loki indexa apenas metadados sobre seus logs como um conjunto de rótulos para cada fluxo de log. Os dados de log são armazenados em uma solução de armazenamento em blocos, como S3, GCS ou Azure Blob Storage. A vantagem é que o Loki promete reduzir a complexidade operacional e os custos de armazenamento em comparação com outros concorrentes. Como era de se esperar, ele se integra perfeitamente ao Grafana e ao Grafana Alloy, embora outros mecanismos de coleta também possam ser usados.

    Loki 3.0 introduziu suporte nativo a OpenTelemetry, tornando a ingestão e integração com sistemas baseados em OpenTelemetry tão simples quanto configurar um endpoint. Ele também oferece recursos avançados de multi-tenancy, como isolamento de inquilinos via “shuffle-sharding”, o que evita que inquilinos com mau comportamento (por exemplo, consultas pesadas ou indisponibilidades) afetem outros em um cluster. Se você não vem acompanhando as novidades no ecossistema Grafana, agora é um ótimo momento para dar uma olhada, pois está evoluindo rapidamente.

  • 29. Grafana Tempo

    Grafana Tempo é um backend de tracing distribuído em larga escala que suporta padrões abertos como OpenTelemetry. Projetado para ser eficiente em custo, ele utiliza armazenamento de objetos para retenção de traces a longo prazo e permite busca de traces, geração de métricas baseada em spans e correlação com logs e métricas. Por padrão, o Grafana Tempo usa um formato de blocos em colunas baseado no Apache Parquet, melhorando a performance das consultas e permitindo que outras ferramentas downstream acessem os dados de trace. As consultas são feitas via TraceQL e Tempo CLI. O Grafana Alloy também pode ser configurado para coletar e encaminhar traces para o Grafana Tempo. Nossas equipes usaram o Grafana Tempo no GKE, utilizando MinIO para armazenamento de objetos, coletores OpenTelemetry e Grafana para visualização de traces.

  • 30. Railway

    Heroku costumava ser uma excelente escolha para muitas desenvolvedoras que desejavam lançar e implantar seus aplicativos rapidamente. Nos últimos anos, também vimos o surgimento de plataformas de implantação como Vercel, que são mais modernas, leves e fáceis de usar, mas projetadas para aplicações frontend. Uma alternativa full-stack neste espaço é o Railway, uma plataforma de nuvem PaaS (em português, “plataforma como serviço”) que simplifica tudo, desde a implantação de GitHub/Docker até a observabilidade de produção.

    Railway oferece suporte à maioria dos frameworks de programação convencionais, bancos de dados, bem como implantação em contêineres. Como uma plataforma hospedada de longo prazo para um aplicativo, você pode precisar comparar cuidadosamente os custos de diferentes plataformas. Atualmente, nossa equipe tem uma boa experiência com a implantação e observabilidade do Railway. A operação é suave e pode ser bem integrada com as práticas de implantação contínua que defendemos.

  • 31. Unblocked

    Unblocked é um assistente de equipe baseado em IA pronto para uso. Uma vez integrado com repositórios de base de código, plataformas de documentação corporativa, ferramentas de gerenciamento de projetos e ferramentas de comunicação, o Unblocked ajuda a responder perguntas sobre conceitos técnicos e de negócios complexos, design arquitetural e implementação, bem como processos operacionais. Isso é particularmente útil para navegar em sistemas grandes ou legados. Ao usá-lo, observamos que as equipes valorizam mais o acesso rápido a informações contextuais do que a geração de código e histórias de usuário; para tais cenários, especialmente assistentes de programação, agentes de engenharia de software são mais adequados.

  • 32. Weights & Biases

    Weights & Biases continuou a evoluir, adicionando mais recursos focados em modelos de linguagem de grande porte desde que foi apresentado pela última vez no Radar. Eles estão expandindo Traces e introduzindo Weave, uma plataforma completa que vai além do rastreamento de sistemas de agentes baseados em modelos de linguagem de grande porte. O Weave permite que você crie avaliações de sistema, defina métricas personalizadas, use modelos de linguagem de grande porte como juízes para tarefas como sumarização e salve conjuntos de dados que capturam comportamentos diferentes para análise. Isso ajuda a otimizar os componentes do modelo de linguagem de grande porte e rastrear o desempenho em níveis local e global. A plataforma também facilita o desenvolvimento iterativo e a depuração eficaz de sistemas de agentes, onde os erros podem ser difíceis de detectar. Além disso, permite a coleta de feedback humano valioso, que pode ser usado posteriormente para ajustar modelos.

Avalie ?

  • 33. Arize Phoenix

    Con la creciente popularidad de los modelos de lenguaje extenso (LLM) y de las aplicaciones impulsadas por agentes, la observabilidad de estos modelos cobra cada vez mayor relevancia. En el pasado, hemos recomendado plataformas como Langfuse y Weights & Biases (W&B). Arize Phoenix representa otra plataforma emergente en este ámbito, con la cual nuestro equipo ha tenido una experiencia positiva. Ofrece funciones estándar como seguimiento de modelos (LLM tracing), evaluación y gestión de prompts, además de una integración fluida con los principales proveedores y frameworks de LLM. Esto facilita la recopilación de información sobre la salida de los modelos, la latencia y el uso de tokens con una configuración mínima. Hasta el momento, nuestra experiencia se limita a la herramienta de código abierto, pero la plataforma más amplia de Arize ofrece funcionalidades más completas. Confiamos en poder explorar en mayor detalle en el futuro.

  • 34. Chainloop

    Chainloop es una plataforma para cadena de suministros de seguridad de código abierto que ayuda a los equipos de seguridad a hacer cumplir sus políticas y a la vez permite a los equipos de desarrollo su fácil integración con los pipelines de CI/CD. Consiste en un plano de control que actúa como única fuente de verdad para las políticas de seguridad, y una interfaz de comandos (CLI) que ejecuta certificaciones dentro de los flujos de trabajo de CI/CD para asegurar el cumplimiento. Los equipos de seguridad definen contratos de flujos de trabajo especificando qué artefactos — como los SBOMs o los reportes de vulnerabilidades — deben ser recogidos, dónde almacenarlos y como evaluar el cumplimiento de las políticas. Chainloop usa Rego, la política de lenguaje OPA's, para validar certificaciones — por ejemplo, asegurando un estándar CycloneDX SBOM que cumpla con los requisitos de versión. Durante la ejecución del flujo de trabajo, artefactos de seguridad como SBOMs son adjuntados a una certificación y subidos al plano de control para su aplicación y auditoría. Esta estrategia asegura el cumplimiento de las políticas y puede ser impuesta de manera consistente y a escala a la vez que minimiza la fricción en los flujos de desarrollo. El resultado es un SLSA de nivel tres de conformidad de fuente de verdad única para metadatos, artefactos y certificaciones.

  • 35. Deepseek R1

    DeepSeek-R1 es la primera generación de modelos de razonamiento de DeepSeek. A través de una progresión de modelos no basados en razonamiento, los ingenieros de DeepSeek diseñaron y utilizaron métodos para maximizar la utilización del hardware. Estos incluyen Multi-Head Latent Attention (MLA), Mixture of Experts (MoE) gating, 8-bit floating points training (FP8) y low-level PTX programming. Su enfoque de co-diseño de computación de alto rendimiento permite a DeepSeek-R1 competir con los modelos de vanguardia a un costo significativamente reducido para el entrenamiento y la inferencia. DeepSeek-R1-Zero destaca también por otra innovación: los ingenieros han podido obtener capacidades de razonamiento a partir de un modelo no basado en razonamiento utilizando un simple aprendizaje por refuerzo, sin necesidad de ajustes finos supervisados. Todos los modelos de DeepSeek son de open-weight, lo que significa que están disponibles gratuitamente, aunque el código de entrenamiento y los datos siguen siendo propietarios. El repositorio incluye seis modelos densos destilados de DeepSeek-R1, basados en Llama y Qwen, con DeepSeek-R1-Distill-Qwen-32B superando a OpenAI-o1-mini en varios puntos de referencia.

  • 36. Deno

    Creado por Ryan Dahl, el inventor de Node.js, Deno se diseñó para solucionar lo que él consideraba errores de Node.js. Cuenta con un sistema de sandboxing más estricto, gestor de dependencias integrado y compatibilidad nativa con Typescript, un aspecto clave para su base de usuarios. Preferimos Deno para proyectos de Typescript, ya que se siente un verdadero entorno de ejecución y conjunto de herramientas de Typescript, en lugar de un complemento de Node.js.

    Desde su inclusion en el Radar del 2019, Deno ha realizado significativos avances, El lanzamiento de Deno 2 introduce la retrocompatibilidad con Node.js y librerías npm, versiones de soporte a largo plazo (LTS) y otras mejoras. Antes, una de las mayores barreras para adoptar Node.js era la necesidad de reescribir las aplicaciones. Estas actualizaciones reducen la complejidad de la migración al tiempo que amplían las opciones de dependencia para herramientas y sistemas de apoyo. Dado el enorme ecosistema de Node.js y npm, estos cambios deberían impulsar una mayor aceptación.

    Además, la biblioteca estándar de Deno se ha estabilizado, ayudando a combatir la proliferación de paquetes npm de bajo valor en todo el ecosistema. Sus herramientas y su biblioteca estándar hacen que TypeScript o JavaScript resulten más atractivos para el desarrollo del lado del servidor. Sin embargo, advertimos que no se debe elegir una plataforma únicamente para evitar programación políglota.

  • 37. Graffiti

    Graphiti crea grafos de conocimiento dinámicos y con conciencia temporal que capturan hechos y relaciones en evolución. Nuestros equipos utilizan GraphRAG para descubrir relaciones en los datos, lo que mejora la precisión en la recuperación y las respuestas. Dado que los conjuntos de datos evolucionan constantemente, Graphiti mantiene metadatos temporales en los bordes del grafo para registrar los ciclos de vida de las relaciones. Almacena datos estructurados y no estructurados en forma de episodes discretos y admite consultas mediante una fusión de algoritmos temporales, de texto completo, semánticos y de grafos. Para aplicaciones basadas en LLM — ya sea RAG o agentic - Graphiti permite la recuperación a largo plazo y el razonamiento basado en estados.

  • 38. Helicone

    Similar a Langfuse, Weights & Biases y Arize Phoenix, Helicone es una plataforma administrada de LLMOps diseñada para satisfacer la creciente demanda empresarial de gestión de costos de LLM, evaluación de ROI y mitigación de riesgos. De código abierto y centrada en desarrolladores, Helicone admite aplicaciones de IA listas para producción, ofreciendo experimentación con prompts, monitorización, depuración y optimización a lo largo de todo el ciclo de vida de los LLM. Permite el análisis en tiempo real de costos, utilización, rendimiento y trazas de pila de los agentes a través de varios proveedores de LLM. Aunque simplifica la gestión de operaciones de LLM, la plataforma aún está en desarrollo y puede requerir cierta experiencia para aprovechar completamente sus funciones avanzadas. Nuestro equipo la ha estado utilizando con una buena experiencia hasta ahora.

  • 39. Humanloop

    Humanloop es una plataforma emergente que busca hacer que los sistemas de IA sean más confiables, adaptables y alineados con las necesidades de las personas usuarias, integrando retroalimentación humana en puntos clave de decisión. Ofrece herramientas para el etiquetado humano, aprendizaje activo y ajuste fino con intervención humana, así como la evaluación de modelos de lenguaje (LLM) en función de los requisitos del negocio. Además, facilita la gestión rentable del ciclo de vida de las soluciones de IA generativa con mayor control y eficiencia. Humanloop promueve la colaboración a través de un espacio de trabajo compartido, gestión de prompts con control de versiones e integración CI/CD para prevenir regresiones. También incluye funciones de observabilidad, como trazabilidad, logs, alertas y límites de seguridad para monitorear y optimizar el rendimiento de la IA. Estas capacidades hacen que Humanloop sea especialmente relevante para organizaciones que implementan IA en entornos regulados o de alto riesgo, donde la supervisión humana es clave. Con su enfoque en prácticas de IA responsable, Humanloop es una opción que vale la pena considerar para equipos que buscan construir sistemas de IA escalables y éticos.

  • 40. Model Context Protocol (MCP)

    Uno de los mayores desafíos relacionados al prompting (o interacción con IA a través de lenguaje natural) es garantizar que la herramienta de IA tenga acceso a todo el contexto relevante para la tarea. Frecuentemente este contexto existe dentro de los sistemas que utilizamos en nuestro día a día: wikis, aplicaciones de gestión de tareas, bases de datos o sistemas de observabilidad. La integración fluida entre las herramientas de IA y estas fuentes de información puede mejorar significativamente la calidad de los resultados generados por la IA. El Model Context Protocol (MCP), un estándar abierto publicado por Anthropic, proporciona un marco de trabajo estandarizado para integrar aplicaciones LLM con fuentes de datos y herramientas externas. Define clientes y servidores MCP, donde los servidores acceden a las fuentes de datos y los clientes integran y usan estos datos para mejorar las solicitudes. Muchos asistentes de código ya han implementado la integración de MCP, permitiéndoles actuar como clientes MCP. Los servidores MCP pueden ejecutarse de dos maneras: localmente, como procesos Python o Node que se ejecutan en la máquina del usuario, o de forma remota, como un servidor al que el cliente MCP se conecta vía SSE (aunque todavía no hemos visto ningún uso de la variante de servidor remoto). Actualmente, MCP se usa principalmente de la primera manera, con desarrolladores(as) clonando implementaciones open-source del servidor. Si bien los servidores locales ofrecen una forma sencilla de evitar dependencias de terceros, siguen siendo menos accesibles para usuarios no técnicos e introducen desafíos tales como la gestión de actualizaciones y la gobernanza. Dicho esto, resulta sencillo imaginar cómo este estándar podría evolucionar hacia un ecosistema más maduro y accesible para sus usuarios en el futuro.

  • 41. Open WebUI

    Open WebUI es una plataforma de IA de código abierto y auto hospedada con un versátil conjunto de características. Soporta APIs compatibles con OpenAI y se integra con proveedores como OpenRouter y GroqCloud entre otros. Puede ejecutarse completamente sin conexión conectándose a modelos locales o auto-hospedados a través de Ollama. Open WebUI incluye una capacidad integrada para RAG, lo que permite a los usuarios interactuar con documentos locales y web mediante chat. Ofrece controles RBAC granulares, habilitando diferentes modelos y capacidades de plataforma para diferentes grupos de usuarios. La plataforma es extensible a través de Funciones — bloques de construcción basados en Python que personalizan y mejoran sus capacidades. Otra característica clave es la evaluación de los modelos, que incluye un modo competitivo que permite comparar LLMs uno frente a otro en tareas específicas. Open WebUI puede ser desplegado a diversas escalas — como un asistente personal de IA, un asistente de colaboración en equipo o una plataforma de IA a nivel empresarial.

  • 42. pg_mooncake

    pg_mooncake es una extensión de PostgreSQL que añade almacenamiento orientado a columnas y ejecución vectorizada. Las tablas en formato columnar se almacenan como tablas Iceberg o Delta Lake en el sistema de archivos local o en cualquier almacenamiento en la nube compatible con S3. pg_mooncake tiene soporte para cargar datos desde formatos de archivo como Parquet, CSV o incluso conjuntos de datos de Hugging Face. Puede ser una buena opción para análisis de datos masivos que normalmente requieren almacenamiento columnar, ya que elimina la necesidad de incorporar tecnologías de almacenamiento columnar dedicadas en tu infraestructura.

  • 43. Modelos de razonamiento

    Uno de los avances más significativos en IA desde el último Radar es el descubrimiento y proliferación de los modelos de razonamiento. También comercializados comomodelos de pensamiento, estos modelos han alcanzado un rendimiento a nivel humano en benchmarks como matemáticas avanzadas y programación. Los modelos de razonamiento suelen entrenarse mediante aprendizaje por refuerzo o fine-tuning supervisado, mejorando capacidades como el raciocinio paso a paso (CoT), la exploración de alternativas (ToT) o la auto-corrección. Algunos ejemplos incluyen o1/o3 de OpenAI, DeepSeek R1 y Gemini 2.0 Flash Thinking. Sin embargo, estos modelos deben considerarse una categoría propia de LLMs en lugar de simples versiones más avanzadas. Estas prestaciones mejoradas tienen un costo. Los modelos de razonamiento requieren un tiempo de respuesta y consumo de tokens mayor, lo que ha llevado a llamarlos de manera jocosaIA más lenta, del inglés “Slower AI” (como si la IA actual no fuera ya lo suficientemente lenta). No todas las tareas justifican este sacrificio. Para tareas más simples como la sumarización de texto, generación de contenido o chatbots de respuesta rápida, los LLMs de propósito general siguen siendo la mejor opción. Recomendamos usar modelos de razonamiento en campos del STEM, y en resolución de problemas complejos y toma de decisiones como, por ejemplo, usando LLMs como jueces o para mejorar la explicabilidad mediante salidas explícitas de CoT. Al momento de escribir esto, Claude 3.7 Sonnet, un modelo híbrido de razonamiento, acaba de ser lanzado, adelantando una posible fusión entre los LLMs tradicionales y los modelos de razonamiento.

  • 44. Restate

    Restate es una plataforma de ejecución duradera, similar a Temporal, desarrollada por los creadores originales de Apache Flink. Entre sus características, ofrece flujos de trabajo como código, procesamiento de eventos con estado, el patrón saga y máquinas de estado duraderas. Escrito en Rust y desplegado como un único binario, utiliza un registro distribuido para almacenar eventos, implementado mediante un algoritmo de consenso virtual basado en Flexible Paxos, lo que garantiza durabilidad incluso en caso de fallo de un nodo. Los SDKs están disponibles para los lenguajes más comunes: Java, Go, Rust y TypeScript. ​​Seguimos sosteniendo que es mejor evitar transacciones distribuidas en sistemas distribuidos, debido tanto a la complejidad adicional como al inevitable sobrecoste operativo que implican. Sin embargo, esta plataforma merece ser evaluada si en tu entorno no puedes evitar el uso de transacciones distribuidas.

  • 45. Supabase

    Supabase es una alternativa de código abierto a Firebase para construir backends escalables y seguros. Ofrece un conjunto de servicios integrados, incluyendo una base de datos PostgreSQL, autenticación, APIs instantáneas, funciones Edge, suscripciones en tiempo real, almacenamiento y representaciones vectoriales. Supabase tiene como objetivo agilizar el desarrollo back-end, permitiendo a los desarrolladores permitiendo a los desarrolladores concentrarse en la creación de front-end mientras aprovechan el poder y la flexibilidad de tecnologías de código abierto. A diferencia de Firebase, Supabase está construido sobre PostgreSQL. Si estás trabajando en un prototipo o MVP, deberías considerar usar Supabase ya que será más sencillo migrar a otra solución en SQL después de la fase de prototipado.

  • 46. Synthesized

    Un desafío común en el desarrollo de software es la generación de datos de prueba para entornos de desarrollo y prueba. Idealmente, estos datos deberían asemejarse lo más posible a los de producción, asegurando al mismo tiempo que no se exponga información personal identificable ni datos sensibles. Aunque esto puede parecer sencillo, la generación de datos de prueba está lejos de serlo. De ahí el motivo de nuestro interés en Synthesized — una plataforma que permite enmascarar y crear subconjuntos de datos de producción existentes o generar datos sintéticos estadísticamente relevantes. Se integra directamente en los procesos de compilación y ofrece enmascaramiento de privacidad, proporcionando anonimización a nivel de atributo mediante técnicas irreversibles de ofuscación de datos como hashing, substitución aleatoria o descarte. Synthesized también puede generar grandes volúmenes de datos sintéticos para pruebas de carga. Aunque incluye las funcionalidades esperadas de GenAI, su propuesta central aborda un desafío real y persistente para los equipos de desarrollo, lo que la convierte en una opción que vale la pena explorar.

  • 47. Tonic.ai

    Tonic.ai forma parte de una tendencia creciente en plataformas diseñadas para generar datos sintéticos realistas y anonimizados para entornos de desarrollo, pruebas y control de calidad. Similar a Synthesized, Tonic.ai es una plataforma con un conjunto completo de herramientas que abordan diversas necesidades de síntesis de datos, en contraste con el enfoque basado en bibliotecas de Synthetic Data Vault. Tonic.ai genera datos tanto estructurados como no estructurados, manteniendo las propiedades estadísticas de los datos de producción al mismo tiempo que garantiza la privacidad y el cumplimiento mediante técnicas de privacidad diferencial. Las características clave incluyen la detección, clasificación y redacción automática de información sensible en datos no estructurados, junto con el aprovisionamiento de bases de datos bajo demanda a través de Tonic Ephemeral. También ofrece Tonic Textual, un lago de datos seguro que ayuda a los desarrolladores de IA a aprovechar los datos no estructurados para sistemas de generación mejorada por recuperación (RAG) y el ajuste fino de LLM. Los equipos que buscan acelerar la velocidad de ingeniería mientras generan datos escalables y realistas — todo ello cumpliendo con estrictos requisitos de privacidad de datos — deberían considerar evaluar Tonic.ai.

  • 48. turbopuffer

    turbopuffer es un motor de búsqueda serverless y multi-tenant que integra a la perfección búsquedas vectoriales y de texto sobre almacenamiento de objetos. Nos gusta su arquitectura y sus decisiones de diseño, especialmente su foco en la durabilidad, escalabilidad y eficiencia de coste. Gracias a su uso del almacenamiento de objetos como log de escritura anticipada mientras mantiene sus nodos de consulta sin estado, es adecuado para cargas de búsqueda a gran escala.

    Diseñado para el rendimiento y la precisión, turbopuffer ofrece una alta exhaustividad de forma predeterminada, incluso en búsquedas complejas basadas en filtros. Almacena en caché los resultados de consultas en SSD NVMe y mantiene en memoria los namespaces de acceso frecuente, permitiendo búsquedas de baja latencia sobre miles de millones de documentos. Esto lo hace ideal para la recuperación de documentos de gran escala, búsqueda vectorial y generación mejorada por recuperación (RAG) de aplicaciones IA. Sin embargo, su dependencia en el almacenamiento de objetos introduce algunas desventajas en la latencia de consultas, haciéndolo más efectivo para cargas de trabajo que se benefician de la computación distribuida y sin estado. turbopuffer potencia sistemas de producción de gran escala como Cursor, pero actualmente solo está disponible a través de referencia o invitación.

  • 49. VectorChord

    VectorChord es una extensión de PostgreSQL para búsquedas vectoriales por similaridad (vector similarity search), desarrollada por los creadores del pgvecto.rs como su sucesora. Es de código abierto, compatible con los tipos de datos de pgvector y diseñada para búsquedas vectoriales de alto rendimiento, eficientes en disco. Utiliza IVF (Inverted File Index - Indexado Invertido de Archivos) junto con la cuantificación de RaBitQ para permitir una búsqueda vectorial rápida, escalable y precisa mientras reduce significativamente la carga computacional. Como las demás extensiones de PostgreSQL en este ámbito, aprovecha el ecosistema PostgreSQL, permitiendo la búsqueda vectorial junto con operaciones transaccionales estándar. Aunque aún se encuentra en sus primeros pasos, vale la pena evaluar VectorChord para cargas de trabajo de búsqueda vectorial.

Evite ?

  • 50. Gestión de API híbridas con Tyk

    Hemos observado múltiples equipos han tenido problemas con el gestor de API híbridas Tyk. Si bien la idea de contar con un plano de control gestionado y planos de datos autogestionados ofrece flexibilidad para la configuración de infraestructura compleja (cómo el multi-cloud y de nube híbrida), los equipos han experimentado incidentes en el plano de control que fueron descubiertos internamente en lugar de por Tyk, demostrando posibles brechas de observabilidad en los ambientes alojados en AWS de Tyk. Es más, el nivel de soporte ante incidentes parece ser lento; la comunicación mediante tickets y correos electrónicos no es lo ideal en estas situaciones. Los equipos también han reportado problemas con la madurez de la documentación de Tyk, considerándolo a menudo inadecuado para escenarios y problemas complejos. Además, otros productos del ecosistema de Tyk que también parecen inmaduros, por ejemplo se ha reportado que el portal para desarrolladores empresariales no es compatible con versiones anteriores y tiene capacidades de personalización limitadas. Especialmente en el caso de la configuración híbrida de Tyk, recomendamos proceder con cautela y continuaremos monitoreando su madurez.

Não encontrou algo que você esperava achar?

 

Cada edição do Radar inclui blips que refletem nossas experiências nos seis meses anteriores. Talvez já tenhamos falado sobre o que você procura em um Radar anterior. Às vezes, deixamos coisas de fora simplesmente porque há muitas a serem abordadas. Também pode faltar um tópico específico porque o Radar reflete nossa experiência, não se baseando em uma análise abrangente do mercado.

Baixe o PDF

 

 

 

English | Español | Português | 中文

Inscreva-se para receber a newsletter do Technology Radar

 

 

Seja assinante

 

 

Visite nosso arquivo para acessar os volumes anteriores