Plataformas
Adoptar
-
23. GitLab CI/CD
GitLab CI/CD ha evolucionado hasta convertirse en un sistema completamente integrado en GitLab, cubriendo todo desde la integración y testeo de código hasta su despliegue y monitorización. Soporta complejos flujos de trabajo con funcionalidades como pipelines multi-etapa, caché, ejecución paralela y auto-escalado de ejecutores, adecuado para proyectos de gran escala y necesidades en pipelines complejas. Queremos destacar sus herramientas de seguridad y cumplimiento integradas (como análisis SAST y DAST), que lo hacen ideal para casos de uso con altos requisitos de cumplimiento. También se integra perfectamente con Kubernetes, dando soporte a flujos de trabajo nativos de la nube, y ofrece logging en tiempo real, reportes de tests y trazabilidad para una mejor observabilidad.
-
24. Trino
Trino es un motor de consultas SQL distribuido y de código abierto diseñado para consultas analíticas interactivas sobre big data. Está optimizado para ejecutarse tanto en entornos locales como en la nube, y permite consultar los datos donde residen, incluyendo bases de datos relacionales y diversos almacenes propietarios a través de conectores. Trino también puede consultar datos almacenados en formatos Parquet y formatos de tabla abiertos como Apache Iceberg. Sus capacidades integradas de federación de consultas permiten consultar datos de múltiples fuentes como si fueran una sola tabla lógica, lo que lo convierte en una excelente opción para cargas de trabajo analíticas que requieren agregar datos de diferentes orígenes. Trino es una parte clave de stacks populares como AWS Athena, Starburst y otras plataformas de datos protegidos. Nuestros equipos lo han utilizado con éxito en varios casos de uso, y cuando se trata de consultar conjuntos de datos de múltiples fuentes para análisis, Trino ha sido una opción confiable.
Probar
-
25. ABsmartly
ABsmartly es una plataforma avanzada de pruebas A/B, diseñada para tomar decisiones rápidas y confiables. Su característica más destacada es el motor de Pruebas Secuenciales Grupales (GST), que acelera los resultados de las pruebas hasta un 80% comparado con herramientas tradicionales de pruebas A/B. La plataforma ofrece informes en tiempo real, segmentación profunda de datos e integración completa y fluida en todo el ecosistema tecnológico mediante un enfoque API-first, lo que permite realizar experimentos en web, aplicaciones móviles, microservicios y modelos de Machine Learning (ML).
ABsmartly solventa problemas clave en experimentación escalable y basada en datos al permitir una iteración más rápida y un desarrollo de productos más ágil. Su ejecución con latencia cero, capacidad de segmentación profunda y soporte para experimentos en múltiples plataformas la convierten en una herramienta valiosa para organizaciones que buscan expandir su cultura de experimentación y priorizar la innovación basada en datos. Al reducir significativamente los ciclos de prueba y automatizar el análisis de resultados, ABsmartly nos ayudó a optimizar características y experiencias de usuario de manera más eficiente que las plataformas de pruebas A/B tradicionales.
-
26. Dapr
Dapr ha evolucionado significativamente desde la última vez que lo destacamos en nuestro Radar. Sus numerosas nuevas funcionalidades incluyen programación de tareas, actores virtuales, políticas de reintento más sofisticadas y componentes de observabilidad. Su catálogo de componentes sigue expandiéndose con nuevas capacidades como gestión de tareas, criptografía y mucho más. Nuestros equipos también destacan su creciente enfoque en configuraciones predeterminadas de seguridad, con soporte para mTLS e imágenes distroless. En general, hemos quedado satisfechos con Dapr y esperamos con interés su evolución futura.
-
27. Grafana Alloy
Anteriormente conocido como Grafana Agent, Grafana Alloy es un colector de código abierto de OpenTelemetry. Alloy está diseñado para ser un colector de telemetría todo en uno para todos los datos de telemetría, incluyendo logs, métricas y trazas. Admite la recopilación de formatos de datos de telemetría comúnmente utilizados, como OpenTelemetry, Prometheus y Datadog. Con la reciente deprecación de Promtail, Alloy está emergiendo como la opción ideal para la recopilación de datos de telemetría, especialmente para logs, al usar la stack de observabilidad de Grafana.
-
28. Grafana Loki
Grafana Loki es un sistema de agregación de logs multi-tenant, altamente disponible y escalable horizontalmente, inspirado en Prometheus. Loki solo indexa metadatos sobre tus logs como un conjunto de etiquetas para cada flujo de logs. Los datos de logs se almacenan en una solución de almacenamiento de bloques, como S3, GCS o Azure Blob Storage. El resultado que Loki promete es una reducción en la complejidad operativa y en los costos de almacenamiento en comparación con sus competidores. Como era de esperarse, se integra estrechamente con Grafana y Grafana Alloy, aunque se pueden usar otros mecanismos de recolección.
Loki 3.0 introdujo soporte nativo para OpenTelemetry, lo que hace que la ingesta y la integración con sistemas OpenTelemetry sea tan simple como configurar un endpoint. También ofrece características avanzadas de multi-tenant, como el aislamiento de tenants mediante shuffle-sharding, lo que evita que los tenants con comportamiento anómalo (por ejemplo, consultas pesadas o caídas) afecten a otros en un cluster. Si no has estado siguiendo los desarrollos en el ecosistema de Grafana, ahora es un buen momento para revisarlo, ya que está evolucionando rápidamente.
-
29. Grafana Tempo
Grafana Tempo es un backend de rastreo distribuído a gran escala, compatible con estándares abiertos como OpenTelemetry, diseñado para ser eficiente en cuanto a costes. Se basa en el almacenamiento de objetos para retener las trazas a largo plazo, lo que permite buscarlas, generar métricas span-based, la correlación con logs y métricas. Por defecto, Tempo utiliza un formato de bloque columnar basado en Apache Parquet, lo que mejora el rendimiento de las consultas y permite a otras herramientas acceder a los datos de rastreo. Las consultas se ejecutan a través de TraceQL y Tempo CLI. También se puede configurar Grafana Alloy para recopilar y enviar trazas a Tempo. Nuestros equipos alojaron internamente Tempo en GKE, utilizando MinIO para el almacenamiento de objetos, recolectores de OpenTelemetry y Grafana para la visualización de las trazas.
-
30. Railway
Heroku solía ser una excelente opción para muchos desarrolladores que querían lanzar y desplegar sus aplicaciones rápidamente. En los últimos años, también hemos visto el auge de plataformas de despliegue como Vercel, que son más modernas, ligeras y fáciles de usar, pero diseñadas para aplicaciones front-end. Una alternativa full-stack en este ámbito es Railway, una plataforma en la nube tipo PaaS que simplifica todo, desde el despliegue con GitHub/Docker hasta la monitorización en producción.
Railway es compatible con la mayoría de los frameworks de programación más utilizados, bases de datos y despliegue mediante contenedores. Como plataforma de alojamiento a largo plazo para una aplicación, es importante comparar los costes entre diferentes plataformas de forma detallada. Actualmente, nuestro equipo tiene una buena experiencia con el despliegue y la observabilidad en Railway. Su operación es fluida y se integra bien con las prácticas de despliegue continuo que promovemos.
-
31. Unblocked
Unblocked es un asistente de IA para equipos listo para usar. Una vez integrado con repositorios de código, plataformas de documentación corporativa, herramientas de gestión de proyectos y herramientas de comunicación, Unblocked ayuda a responder preguntas complejas sobre conceptos técnicos y de negocio, diseño e implementación arquitectónica, así como procesos operativos. Esto es particularmente útil para navegar sistemas heredados (legacy) o muy grandes. Durante el uso de Unblocked, hemos observado que los equipos valoran el acceso rápido a la información contextual por encima de la generación de código e historias de usuario; para tales escenarios, especialmente los asistentes de programación, asistentes de ingeniería de software están mejor preparados.
-
32. Weights & Biases
Weights & Biases ha seguido evolucionando, añadiendo más funcionalidades centradas en LLM desde su última aparición en el Radar. Están ampliando Traces e introduciendo Weave, una plataforma completa que va más allá del seguimiento de sistemas basados en agentes LLM. Weave te permite crear evaluaciones de sistemas, definir métricas personalizadas, usar los LLMs como jueces para tareas como hacer resúmenes y guardar conjuntos de datos que capturan diferentes comportamientos para su análisis. Esto ayuda a optimizar los componentes LLM y a hacer un seguimiento del rendimiento tanto a nivel local como global. La plataforma también facilita el desarrollo iterativo y la depuración efectiva de sistemas basados en agentes, donde los errores pueden ser difíciles de detectar. Además, permite la recopilación de la valiosa retroalimentación humana, que puede utilizarse posteriormente para reajustar los modelos.
Evaluar
-
33. Arize Phoenix
Con la creciente popularidad de los modelos de lenguaje extenso (LLM) y de las aplicaciones impulsadas por agentes, la observabilidad de estos modelos cobra cada vez mayor relevancia. En el pasado, hemos recomendado plataformas como Langfuse y Weights & Biases (W&B). Arize Phoenix representa otra plataforma emergente en este ámbito, con la cual nuestro equipo ha tenido una experiencia positiva. Ofrece funciones estándar como seguimiento de modelos (LLM tracing), evaluación y gestión de prompts, además de una integración fluida con los principales proveedores y frameworks de LLM. Esto facilita la recopilación de información sobre la salida de los modelos, la latencia y el uso de tokens con una configuración mínima. Hasta el momento, nuestra experiencia se limita a la herramienta de código abierto, pero la plataforma más amplia de Arize ofrece funcionalidades más completas. Confiamos en poder explorar en mayor detalle en el futuro.
-
34. Chainloop
Chainloop es una plataforma para cadena de suministros de seguridad de código abierto que ayuda a los equipos de seguridad a hacer cumplir sus políticas y a la vez permite a los equipos de desarrollo su fácil integración con los pipelines de CI/CD. Consiste en un plano de control que actúa como única fuente de verdad para las políticas de seguridad, y una interfaz de comandos (CLI) que ejecuta certificaciones dentro de los flujos de trabajo de CI/CD para asegurar el cumplimiento. Los equipos de seguridad definen contratos de flujos de trabajo especificando qué artefactos — como los SBOMs o los reportes de vulnerabilidades — deben ser recogidos, dónde almacenarlos y como evaluar el cumplimiento de las políticas. Chainloop usa Rego, la política de lenguaje OPA's, para validar certificaciones — por ejemplo, asegurando un estándar CycloneDX SBOM que cumpla con los requisitos de versión. Durante la ejecución del flujo de trabajo, artefactos de seguridad como SBOMs son adjuntados a una certificación y subidos al plano de control para su aplicación y auditoría. Esta estrategia asegura el cumplimiento de las políticas y puede ser impuesta de manera consistente y a escala a la vez que minimiza la fricción en los flujos de desarrollo. El resultado es un SLSA de nivel tres de conformidad de fuente de verdad única para metadatos, artefactos y certificaciones.
-
35. Deepseek R1
DeepSeek-R1 es la primera generación de modelos de razonamiento de DeepSeek. A través de una progresión de modelos no basados en razonamiento, los ingenieros de DeepSeek diseñaron y utilizaron métodos para maximizar la utilización del hardware. Estos incluyen Multi-Head Latent Attention (MLA), Mixture of Experts (MoE) gating, 8-bit floating points training (FP8) y low-level PTX programming. Su enfoque de co-diseño de computación de alto rendimiento permite a DeepSeek-R1 competir con los modelos de vanguardia a un costo significativamente reducido para el entrenamiento y la inferencia. DeepSeek-R1-Zero destaca también por otra innovación: los ingenieros han podido obtener capacidades de razonamiento a partir de un modelo no basado en razonamiento utilizando un simple aprendizaje por refuerzo, sin necesidad de ajustes finos supervisados. Todos los modelos de DeepSeek son de open-weight, lo que significa que están disponibles gratuitamente, aunque el código de entrenamiento y los datos siguen siendo propietarios. El repositorio incluye seis modelos densos destilados de DeepSeek-R1, basados en Llama y Qwen, con DeepSeek-R1-Distill-Qwen-32B superando a OpenAI-o1-mini en varios puntos de referencia.
-
36. Deno
Creado por Ryan Dahl, el inventor de Node.js, Deno se diseñó para solucionar lo que él consideraba errores de Node.js. Cuenta con un sistema de sandboxing más estricto, gestor de dependencias integrado y compatibilidad nativa con Typescript, un aspecto clave para su base de usuarios. Preferimos Deno para proyectos de Typescript, ya que se siente un verdadero entorno de ejecución y conjunto de herramientas de Typescript, en lugar de un complemento de Node.js.
Desde su inclusion en el Radar del 2019, Deno ha realizado significativos avances, El lanzamiento de Deno 2 introduce la retrocompatibilidad con Node.js y librerías npm, versiones de soporte a largo plazo (LTS) y otras mejoras. Antes, una de las mayores barreras para adoptar Node.js era la necesidad de reescribir las aplicaciones. Estas actualizaciones reducen la complejidad de la migración al tiempo que amplían las opciones de dependencia para herramientas y sistemas de apoyo. Dado el enorme ecosistema de Node.js y npm, estos cambios deberían impulsar una mayor aceptación.
Además, la biblioteca estándar de Deno se ha estabilizado, ayudando a combatir la proliferación de paquetes npm de bajo valor en todo el ecosistema. Sus herramientas y su biblioteca estándar hacen que TypeScript o JavaScript resulten más atractivos para el desarrollo del lado del servidor. Sin embargo, advertimos que no se debe elegir una plataforma únicamente para evitar programación políglota.
-
37. Graffiti
Graphiti crea grafos de conocimiento dinámicos y con conciencia temporal que capturan hechos y relaciones en evolución. Nuestros equipos utilizan GraphRAG para descubrir relaciones en los datos, lo que mejora la precisión en la recuperación y las respuestas. Dado que los conjuntos de datos evolucionan constantemente, Graphiti mantiene metadatos temporales en los bordes del grafo para registrar los ciclos de vida de las relaciones. Almacena datos estructurados y no estructurados en forma de episodes discretos y admite consultas mediante una fusión de algoritmos temporales, de texto completo, semánticos y de grafos. Para aplicaciones basadas en LLM — ya sea RAG o agentic - Graphiti permite la recuperación a largo plazo y el razonamiento basado en estados.
-
38. Helicone
Similar a Langfuse, Weights & Biases y Arize Phoenix, Helicone es una plataforma administrada de LLMOps diseñada para satisfacer la creciente demanda empresarial de gestión de costos de LLM, evaluación de ROI y mitigación de riesgos. De código abierto y centrada en desarrolladores, Helicone admite aplicaciones de IA listas para producción, ofreciendo experimentación con prompts, monitorización, depuración y optimización a lo largo de todo el ciclo de vida de los LLM. Permite el análisis en tiempo real de costos, utilización, rendimiento y trazas de pila de los agentes a través de varios proveedores de LLM. Aunque simplifica la gestión de operaciones de LLM, la plataforma aún está en desarrollo y puede requerir cierta experiencia para aprovechar completamente sus funciones avanzadas. Nuestro equipo la ha estado utilizando con una buena experiencia hasta ahora.
-
39. Humanloop
Humanloop es una plataforma emergente que busca hacer que los sistemas de IA sean más confiables, adaptables y alineados con las necesidades de las personas usuarias, integrando retroalimentación humana en puntos clave de decisión. Ofrece herramientas para el etiquetado humano, aprendizaje activo y ajuste fino con intervención humana, así como la evaluación de modelos de lenguaje (LLM) en función de los requisitos del negocio. Además, facilita la gestión rentable del ciclo de vida de las soluciones de IA generativa con mayor control y eficiencia. Humanloop promueve la colaboración a través de un espacio de trabajo compartido, gestión de prompts con control de versiones e integración CI/CD para prevenir regresiones. También incluye funciones de observabilidad, como trazabilidad, logs, alertas y límites de seguridad para monitorear y optimizar el rendimiento de la IA. Estas capacidades hacen que Humanloop sea especialmente relevante para organizaciones que implementan IA en entornos regulados o de alto riesgo, donde la supervisión humana es clave. Con su enfoque en prácticas de IA responsable, Humanloop es una opción que vale la pena considerar para equipos que buscan construir sistemas de IA escalables y éticos.
-
40. Model Context Protocol (MCP)
Uno de los mayores desafíos relacionados al prompting (o interacción con IA a través de lenguaje natural) es garantizar que la herramienta de IA tenga acceso a todo el contexto relevante para la tarea. Frecuentemente este contexto existe dentro de los sistemas que utilizamos en nuestro día a día: wikis, aplicaciones de gestión de tareas, bases de datos o sistemas de observabilidad. La integración fluida entre las herramientas de IA y estas fuentes de información puede mejorar significativamente la calidad de los resultados generados por la IA. El Model Context Protocol (MCP), un estándar abierto publicado por Anthropic, proporciona un marco de trabajo estandarizado para integrar aplicaciones LLM con fuentes de datos y herramientas externas. Define clientes y servidores MCP, donde los servidores acceden a las fuentes de datos y los clientes integran y usan estos datos para mejorar las solicitudes. Muchos asistentes de código ya han implementado la integración de MCP, permitiéndoles actuar como clientes MCP. Los servidores MCP pueden ejecutarse de dos maneras: localmente, como procesos Python o Node que se ejecutan en la máquina del usuario, o de forma remota, como un servidor al que el cliente MCP se conecta vía SSE (aunque todavía no hemos visto ningún uso de la variante de servidor remoto). Actualmente, MCP se usa principalmente de la primera manera, con desarrolladores(as) clonando implementaciones open-source del servidor. Si bien los servidores locales ofrecen una forma sencilla de evitar dependencias de terceros, siguen siendo menos accesibles para usuarios no técnicos e introducen desafíos tales como la gestión de actualizaciones y la gobernanza. Dicho esto, resulta sencillo imaginar cómo este estándar podría evolucionar hacia un ecosistema más maduro y accesible para sus usuarios en el futuro.
-
41. Open WebUI
Open WebUI es una plataforma de IA de código abierto y auto hospedada con un versátil conjunto de características. Soporta APIs compatibles con OpenAI y se integra con proveedores como OpenRouter y GroqCloud entre otros. Puede ejecutarse completamente sin conexión conectándose a modelos locales o auto-hospedados a través de Ollama. Open WebUI incluye una capacidad integrada para RAG, lo que permite a los usuarios interactuar con documentos locales y web mediante chat. Ofrece controles RBAC granulares, habilitando diferentes modelos y capacidades de plataforma para diferentes grupos de usuarios. La plataforma es extensible a través de Funciones — bloques de construcción basados en Python que personalizan y mejoran sus capacidades. Otra característica clave es la evaluación de los modelos, que incluye un modo competitivo que permite comparar LLMs uno frente a otro en tareas específicas. Open WebUI puede ser desplegado a diversas escalas — como un asistente personal de IA, un asistente de colaboración en equipo o una plataforma de IA a nivel empresarial.
-
42. pg_mooncake
pg_mooncake es una extensión de PostgreSQL que añade almacenamiento orientado a columnas y ejecución vectorizada. Las tablas en formato columnar se almacenan como tablas Iceberg o Delta Lake en el sistema de archivos local o en cualquier almacenamiento en la nube compatible con S3. pg_mooncake tiene soporte para cargar datos desde formatos de archivo como Parquet, CSV o incluso conjuntos de datos de Hugging Face. Puede ser una buena opción para análisis de datos masivos que normalmente requieren almacenamiento columnar, ya que elimina la necesidad de incorporar tecnologías de almacenamiento columnar dedicadas en tu infraestructura.
-
43. Modelos de razonamiento
Uno de los avances más significativos en IA desde el último Radar es el descubrimiento y proliferación de los modelos de razonamiento. También comercializados comomodelos de pensamiento, estos modelos han alcanzado un rendimiento a nivel humano en benchmarks como matemáticas avanzadas y programación. Los modelos de razonamiento suelen entrenarse mediante aprendizaje por refuerzo o fine-tuning supervisado, mejorando capacidades como el raciocinio paso a paso (CoT), la exploración de alternativas (ToT) o la auto-corrección. Algunos ejemplos incluyen o1/o3 de OpenAI, DeepSeek R1 y Gemini 2.0 Flash Thinking. Sin embargo, estos modelos deben considerarse una categoría propia de LLMs en lugar de simples versiones más avanzadas. Estas prestaciones mejoradas tienen un costo. Los modelos de razonamiento requieren un tiempo de respuesta y consumo de tokens mayor, lo que ha llevado a llamarlos de manera jocosaIA más lenta, del inglés “Slower AI” (como si la IA actual no fuera ya lo suficientemente lenta). No todas las tareas justifican este sacrificio. Para tareas más simples como la sumarización de texto, generación de contenido o chatbots de respuesta rápida, los LLMs de propósito general siguen siendo la mejor opción. Recomendamos usar modelos de razonamiento en campos del STEM, y en resolución de problemas complejos y toma de decisiones como, por ejemplo, usando LLMs como jueces o para mejorar la explicabilidad mediante salidas explícitas de CoT. Al momento de escribir esto, Claude 3.7 Sonnet, un modelo híbrido de razonamiento, acaba de ser lanzado, adelantando una posible fusión entre los LLMs tradicionales y los modelos de razonamiento.
-
44. Restate
Restate es una plataforma de ejecución duradera, similar a Temporal, desarrollada por los creadores originales de Apache Flink. Entre sus características, ofrece flujos de trabajo como código, procesamiento de eventos con estado, el patrón saga y máquinas de estado duraderas. Escrito en Rust y desplegado como un único binario, utiliza un registro distribuido para almacenar eventos, implementado mediante un algoritmo de consenso virtual basado en Flexible Paxos, lo que garantiza durabilidad incluso en caso de fallo de un nodo. Los SDKs están disponibles para los lenguajes más comunes: Java, Go, Rust y TypeScript. Seguimos sosteniendo que es mejor evitar transacciones distribuidas en sistemas distribuidos, debido tanto a la complejidad adicional como al inevitable sobrecoste operativo que implican. Sin embargo, esta plataforma merece ser evaluada si en tu entorno no puedes evitar el uso de transacciones distribuidas.
-
45. Supabase
Supabase es una alternativa de código abierto a Firebase para construir backends escalables y seguros. Ofrece un conjunto de servicios integrados, incluyendo una base de datos PostgreSQL, autenticación, APIs instantáneas, funciones Edge, suscripciones en tiempo real, almacenamiento y representaciones vectoriales. Supabase tiene como objetivo agilizar el desarrollo back-end, permitiendo a los desarrolladores permitiendo a los desarrolladores concentrarse en la creación de front-end mientras aprovechan el poder y la flexibilidad de tecnologías de código abierto. A diferencia de Firebase, Supabase está construido sobre PostgreSQL. Si estás trabajando en un prototipo o MVP, deberías considerar usar Supabase ya que será más sencillo migrar a otra solución en SQL después de la fase de prototipado.
-
46. Synthesized
Un desafío común en el desarrollo de software es la generación de datos de prueba para entornos de desarrollo y prueba. Idealmente, estos datos deberían asemejarse lo más posible a los de producción, asegurando al mismo tiempo que no se exponga información personal identificable ni datos sensibles. Aunque esto puede parecer sencillo, la generación de datos de prueba está lejos de serlo. De ahí el motivo de nuestro interés en Synthesized — una plataforma que permite enmascarar y crear subconjuntos de datos de producción existentes o generar datos sintéticos estadísticamente relevantes. Se integra directamente en los procesos de compilación y ofrece enmascaramiento de privacidad, proporcionando anonimización a nivel de atributo mediante técnicas irreversibles de ofuscación de datos como hashing, substitución aleatoria o descarte. Synthesized también puede generar grandes volúmenes de datos sintéticos para pruebas de carga. Aunque incluye las funcionalidades esperadas de GenAI, su propuesta central aborda un desafío real y persistente para los equipos de desarrollo, lo que la convierte en una opción que vale la pena explorar.
-
47. Tonic.ai
Tonic.ai forma parte de una tendencia creciente en plataformas diseñadas para generar datos sintéticos realistas y anonimizados para entornos de desarrollo, pruebas y control de calidad. Similar a Synthesized, Tonic.ai es una plataforma con un conjunto completo de herramientas que abordan diversas necesidades de síntesis de datos, en contraste con el enfoque basado en bibliotecas de Synthetic Data Vault. Tonic.ai genera datos tanto estructurados como no estructurados, manteniendo las propiedades estadísticas de los datos de producción al mismo tiempo que garantiza la privacidad y el cumplimiento mediante técnicas de privacidad diferencial. Las características clave incluyen la detección, clasificación y redacción automática de información sensible en datos no estructurados, junto con el aprovisionamiento de bases de datos bajo demanda a través de Tonic Ephemeral. También ofrece Tonic Textual, un lago de datos seguro que ayuda a los desarrolladores de IA a aprovechar los datos no estructurados para sistemas de generación mejorada por recuperación (RAG) y el ajuste fino de LLM. Los equipos que buscan acelerar la velocidad de ingeniería mientras generan datos escalables y realistas — todo ello cumpliendo con estrictos requisitos de privacidad de datos — deberían considerar evaluar Tonic.ai.
-
48. turbopuffer
turbopuffer es un motor de búsqueda serverless y multi-tenant que integra a la perfección búsquedas vectoriales y de texto sobre almacenamiento de objetos. Nos gusta su arquitectura y sus decisiones de diseño, especialmente su foco en la durabilidad, escalabilidad y eficiencia de coste. Gracias a su uso del almacenamiento de objetos como log de escritura anticipada mientras mantiene sus nodos de consulta sin estado, es adecuado para cargas de búsqueda a gran escala.
Diseñado para el rendimiento y la precisión, turbopuffer ofrece una alta exhaustividad de forma predeterminada, incluso en búsquedas complejas basadas en filtros. Almacena en caché los resultados de consultas en SSD NVMe y mantiene en memoria los namespaces de acceso frecuente, permitiendo búsquedas de baja latencia sobre miles de millones de documentos. Esto lo hace ideal para la recuperación de documentos de gran escala, búsqueda vectorial y generación mejorada por recuperación (RAG) de aplicaciones IA. Sin embargo, su dependencia en el almacenamiento de objetos introduce algunas desventajas en la latencia de consultas, haciéndolo más efectivo para cargas de trabajo que se benefician de la computación distribuida y sin estado. turbopuffer potencia sistemas de producción de gran escala como Cursor, pero actualmente solo está disponible a través de referencia o invitación.
-
49. VectorChord
VectorChord es una extensión de PostgreSQL para búsquedas vectoriales por similaridad (vector similarity search), desarrollada por los creadores del pgvecto.rs como su sucesora. Es de código abierto, compatible con los tipos de datos de pgvector y diseñada para búsquedas vectoriales de alto rendimiento, eficientes en disco. Utiliza IVF (Inverted File Index - Indexado Invertido de Archivos) junto con la cuantificación de RaBitQ para permitir una búsqueda vectorial rápida, escalable y precisa mientras reduce significativamente la carga computacional. Como las demás extensiones de PostgreSQL en este ámbito, aprovecha el ecosistema PostgreSQL, permitiendo la búsqueda vectorial junto con operaciones transaccionales estándar. Aunque aún se encuentra en sus primeros pasos, vale la pena evaluar VectorChord para cargas de trabajo de búsqueda vectorial.
Resistir
-
50. Gestión de API híbridas con Tyk
Hemos observado múltiples equipos han tenido problemas con el gestor de API híbridas Tyk. Si bien la idea de contar con un plano de control gestionado y planos de datos autogestionados ofrece flexibilidad para la configuración de infraestructura compleja (cómo el multi-cloud y de nube híbrida), los equipos han experimentado incidentes en el plano de control que fueron descubiertos internamente en lugar de por Tyk, demostrando posibles brechas de observabilidad en los ambientes alojados en AWS de Tyk. Es más, el nivel de soporte ante incidentes parece ser lento; la comunicación mediante tickets y correos electrónicos no es lo ideal en estas situaciones. Los equipos también han reportado problemas con la madurez de la documentación de Tyk, considerándolo a menudo inadecuado para escenarios y problemas complejos. Además, otros productos del ecosistema de Tyk que también parecen inmaduros, por ejemplo se ha reportado que el portal para desarrolladores empresariales no es compatible con versiones anteriores y tiene capacidades de personalización limitadas. Especialmente en el caso de la configuración híbrida de Tyk, recomendamos proceder con cautela y continuaremos monitoreando su madurez.
¿No encontraste algo que esperabas ver?
Cada edición del Radar presenta noticias que reflejan lo que hemos encontrado durante los seis meses anteriores. Es posible que ya hayamos cubierto lo que busca en un Radar anterior. A veces seleccionamos cosas simplemente porque hay demasiadas de las que hablar. También es posible que falte algún dato porque el Radar refleja nuestra experiencia, no se basa en un análisis exhaustivo del mercado.
