Platforms
Adopt
Trial
-
24. Databricks Unity Catalog
Databricks Unity Catalog is a data governance solution for assets such as files, tables or machine learning models in a lakehouse. It's a managed version of the open-source Unity Catalog that can be used to govern and query data kept in external stores or under Databricks management. In the past our teams have worked with a variety of data management solutions such as Hive metastore or Microsoft Purview. However, Unity Catalog's combined support for governance, metastore management and data discovery makes it attractive because it reduces the need to manage multiple tools. One complication our team discovered is the lack of automatic disaster recovery in the Databricks-managed Unity Catalog. They were able to configure their own backup and restore functionality but a Databricks-provided solution would have been more convenient. Note that even though these governance platforms usually implement a centralized solution to ensure consistency across workspaces and workloads, the responsibility to govern can still be federated by enabling individual teams to govern their own assets.
-
25. FastChat
FastChat is an open platform for training, serving and evaluating large language models. Our teams use its model-serving capabilities to host multiple models — Llama 3.1 (8B and 70B), Mistral 7B and Llama-SQL — for different purposes, all in a consistent OpenAI API format. FastChat operates on a controller-worker architecture, allowing multiple workers to host different models. It supports worker types such as vLLM, LiteLLM and MLX. We use vLLM model workers for their high throughput capabilities. Depending on the use case — latency or throughput — different types of FastChat model workers can be created and scaled. For example, the model used for code suggestions in developer IDEs requires low latency and can be scaled with multiple FastChat workers to handle concurrent requests efficiently. In contrast, the model used for Text-to-SQL doesn't need multiple workers due to lower demand or different performance requirements. Our teams leverage FastChat's scaling capabilities for A/B testing. We configure FastChat workers with the same model but different hyperparameter values and pose identical questions to each, identifying optimal hyperparameter values. When transitioning models in live services, we conduct A/B tests to ensure seamless migration. For example, we recently migrated from CodeLlama 70B to Llama 3.1 70B for code suggestions. By running both models concurrently and comparing outputs, we verified the new model met or exceeded the previous model's performance without disrupting the developer experience.
-
26. GCP Vertex AI Agent Builder
GCP Vertex AI Agent Builder provides a flexible platform for creating AI agents using natural language or a code-first approach. The tool seamlessly integrates with enterprise data through third-party connectors and has all the necessary tools to build, prototype and deploy AI agents. As the need for AI agents grows, many teams struggle with understanding their benefits and implementation. GCP Vertex AI Agent Builder makes it easier for developers to prototype agents quickly and handle complex data tasks with minimal setup. Our developers have found it particularly useful for building agent-based systems — such as knowledge bases or automated support systems — that efficiently manage both structured and unstructured data. That makes it a valuable tool for developing AI-driven solutions.
-
27. Langfuse
LLMs function as black boxes, making it difficult to determine their behavior. Observability is crucial for opening this black box and understanding how LLM applications operate in production. Our teams have had positive experiences with Langfuse for observing, monitoring and evaluating LLM-based applications. Its tracing, analytics and evaluation capabilities allow us to analyze completion performance and accuracy, manage costs and latency and understand production usage patterns, thus facilitating continuous, data-driven improvements. Instrumentation data provides complete traceability of the request-response flow and intermediate steps, which can be used as test data to validate the application before deploying new changes. We've utilized Langfuse with RAG (retrieval-augmented generation), among other LLM architectures, and LLM-powered autonomous agents. In a RAG-based application, for example, analyzing low-scoring conversation traces helps identify which parts of the architecture — pre-retrieval, retrieval or generation — need refinement. Another option worth considering in this space is Langsmith.
-
28. Qdrant
Qdrant is an open-source vector similarity search engine and database written in Rust. It supports a wide range of text and multimodal dense vector embedding models. Our teams have used open-source embeddings like MiniLM-v6 and BGE for multiple product knowledge bases. We use Qdrant as an enterprise vector store with multi-tenancy to store vector embeddings as separate collections, isolating each product's knowledge base in storage. User access policies are managed in the application layer.
-
29. Vespa
Vespa is an open-source search engine and big data processing platform. It's particularly well-suited for applications that require low latency and high throughput. Our teams like Vespa's ability to implement hybrid search using multiple retrieval techniques, to efficiently filter and sort many types of metadata, to implement multi-phased ranking, to index multiple vectors (e.g., for each chunk) per document without duplicating all the metadata into separately indexed documents and to retrieve data from multiple indexed fields at once.
Assess
-
30. Azure AI Search
Azure AI Search, anteriormente conocido como Cognitive Search, es un servicio de búsqueda basado en la nube diseñado para manejar datos estructurados y no estructurado como bases de conocimientos, particularmente en configuraciones de retrieval augmented generation (RAG). Soporta varios tipos de búsqueda, como búsqueda por palabras clave, vectorial e híbrida, lo que consideramos que será cada vez más importante. El servicio es capaz de ingerir automáticamente formatos de datos no estructurados de los más comunes, como PDF, DOC y PPT, lo que agiliza el proceso de creación de contenidos con capacidad de búsqueda. Además, se integra con otros servicios de Azure, como Azure OpenAI, permitiendo a los usuarios construir aplicaciones con un esfuerzo de integración manual mínimo. Desde nuestra experiencia, Azure AI Search funciona de forma fiable y es idónea para proyectos alojados en el entorno Azure. A través de sus capacidades personalizadas, los usuarios pueden adicionalmente definir pasos específicos para el procesamiento de datos. En general, si trabajas en el ecosistema Azure y necesitas una solución de búsqueda robusta para una aplicación RAG, vale la pena considerar Azure AI Search.
-
31. Databricks Delta Live Tables
Databricks Delta Live Tables es un framework declarativo diseñado para construir pipelines de procesamiento de datos que sean confiables, mantenibles y comprobables. Permite a los ingenieros de datos definir transformaciones de datos utilizando un enfoque declarativo y gestiona automáticamente la infraestructura subyacente y el flujo de datos. Una de las características más destacadas de Delta Live Tables es su robusta capacidad de monitoreo. Proporciona un Grafo Acíclico Dirigido (DAG) de todo tu pipeline de datos, representando visualmente el movimiento de datos desde la fuente hasta las tablas finales. Esta visibilidad es crucial para pipelines complejas, ayudando a los ingenieros de datos y a los científicos de datos a rastrear la procedencia y las dependencias de los datos. Delta Live Tables está profundamente integrado en el ecosistema de Databricks, lo que también presenta algunos desafíos para personalizar las interfaces. Recomendamos a los equipos evaluar cuidadosamente la compatibilidad de las interfaces de entrada y salida antes de usar Delta Live Tables.
-
32. Elastisys Compliant Kubernetes
Elastisys Compliant Kubernetes es una distribución especializada de Kubernetes que está diseñada para cumplir con requerimientos regulatorios y de cumplimiento rigurosos, particularmente para organizaciones que operan en industrias altamente reguladas tales como salud, finanzas o gobierno. Tiene procesos de seguridad automatizados, proporciona soporte a entornos de múltiples nubes (multicloud) y on-premise y está construido sobre una arquitectura de seguridad de confianza cero. El énfasis en cumplimiento incorporado para leyes tales como GDPR y HIPAA y controles como ISO27001 la convierte en una opción atractiva para las empresas que necesiten un entorno de Kubernetes seguro, conforme a regulaciones y confiable.
-
33. FoundationDB
FoundationDB es una base de datos multimodelo adquirida por Apple en 2015 y luego liberada como código abierto en abril de 2018. El núcleo de FoundationDB es un almacén distribuido de clave-valor, lo cual proporciona transacciones con serialización estricta. Desde que lo mencionamos por primera vez en el Radar, ha experimentado mejoras significativas — incluyendo distribuciones de datos inteligentes para evitar hotspots de escritura, un nuevo motor de almacenamiento, optimizaciones de rendimiento y soporte para replicación en múltiples regiones. Estamos utilizando FoundationDB en uno de nuestros proyectos en curso y estamos muy impresionados con su arquitectura modular. Esta arquitectura nos permite escalar diferentes partes del clúster de manera independiente. Por ejemplo, podemos ajustar el número de registros de transacciones, servidores de almacenamiento y proxies en función de nuestra carga de trabajo y hardware específicos . A pesar de sus extensas funcionalidades, FoundationDB sigue siendo notablemente sencillo de ejecutar y operar en grandes clústers.
-
34. Golem
La computación duradera, un movimiento reciente en computación distribuida, usa un estilo de arquitectura de máquina de estados explícita para persistir la memoria de servidores serverless para una mejor tolerancia a fallas y recuperación. Golem es uno de los promotores de este movimiento. El concepto puede funcionar en algunos escenarios, como sagas de microservicios de larga duración o flujos de trabajo de larga duración en la orquestación de agentes de IA. Hemos evaluado Temporal en radares anteriores para fines similares y Golem es otra opción. Con Golem puedes escribir componentes WebAssembly en cualquier lenguaje compatible, además de que Golem es determinista y admite tiempos de inicio rápidos. Creemos que Golem es una plataforma emocionante que vale la pena evaluar.
-
35. Iggy
Iggy, una plataforma de streaming de mensajes con persistencia escrita en Rust, es un proyecto relativamente nuevo con características interesantes. Soporta características como múltiples streams, tópicos y particiones, máximo una entrega, expiración de mensajes y soporte para TLS sobre los protocolos QUIC, TCP y HTTP. Iggy se ejecuta en un único servidor ofreciendo un alto rendimiento para operaciones de lectura y escritura. Con el próximo soporte a clusterización y a io_uring, Iggy puede ser una una alternativa potencial a Kafka.
-
36. Iroh
Iroh es un sistema de almacenamiento de archivos distribuido y entrega de contenido relativamente nuevo, diseñado como una evolución de sistemas descentralizados existentes como IPFS (InterPlanetary File System). Tanto Iroh como IPFS se pueden utilizar para crear redes descentralizadas para almacenar, compartir y acceder a contenido direccionado utilizando identificadores de contenido opacos. Sin embargo, Iroh elimina algunas de las limitaciones de las implementaciones de IPFS, como no tener un tamaño máximo de bloque y proporcionar un mecanismo de sincronización de datos a través de la reconciliación de conjuntos basada en rangos sobre documentos. El roadmap del proyecto incluye llevar la tecnología al navegador a través de WASM, lo que plantea algunas posibilidades interesantes para incorporar la descentralización en aplicaciones web. Si no se desea alojar propios nodos de Iroh, se puede utilizar su servicio en la nube, iroh.network. Ya hay varios SDKs disponibles en una variedad de lenguajes, y uno de los objetivos es ser más amigable para el usuario y más fácil de usar que los sistemas IPFS alternativos. Aunque Iroh aún está en sus primeras etapas, vale la pena seguirlo de cerca, ya que podría convertirse en un actor importante en el espacio de almacenamiento descentralizado.
-
37. Plataformas de modelos de visión de gran tamaño (LVM)
Los modelos de lenguaje de gran tamaño (LLMs, por sus siglas en inglés), han captado tanta de nuestra atención, que tendemos a pasar por alto los avances en los modelos de visión de gran tamaño (LVMs). Estos modelos pueden ser usados para segmentar, sintetizar, reconstruir y analizar videos e imágenes, a veces en combinación con modelos de difusión o redes neuronales convolucionales estándar. A pesar del potencial de las LVMs para revolucionar la manera que trabajamos con datos visuales, aún nos enfrentamos a retos significativos al adaptarlos y aplicarlos en ambientes de producción. Los datos de video, por ejemplo, presentan retos de ingeniería únicos para recolectar datos de entrenamiento, segmentar y etiquetar objetos, refinar modelos y luego desplegar los modelos resultantes y monitorearlos en producción. Así que mientras los LLMs se prestan a simples interfaces chat o APIs de texto plano, un ingeniero de visión computarizada o ingeniero de datos debe manejar, versionar, anotar y analizar grandes cantidades de datos de video; este trabajo requiere de una interfaz visual. Las plataformas LVM son una nueva categoría de herramientas y servicios - incluyendo V7, Nvidia Deepstream SDK y Roboflow — que surgen para atender estos retos. Deepstream y Roboflow son particularmente interesantes para nosotros, dado que combinan un ambiente de desarrollo con interfaz de usuario gráfica integrada para el manejo y creación de anotaciones en video con un conjunto de APIs REST, de Python o C++ para invocar los modelos desde el código de la aplicación.
-
38. OpenBCI Galea
Hay un creciente interés en el uso de interfaces cerebro-computadora (BCIs) y su potencial aplicación en tecnologías de asistencia. Las tecnologías no invasivas que utilizan electroencefalografía (EEG) y otras señales electrofísicas ofrecen una alternativa de menor riesgo a los implantes cerebrales para aquellos que se están recuperando de lesiones. Ahora están surgiendo plataformas sobre las cuales investigadores y emprendedores pueden desarrollar aplicaciones innovadoras sin tener que preocuparse por los desafíos de procesamiento e integración de señales a bajo nivel. Ejemplos de tales plataformas son Emotiv y OpenBCI, que ofrecen hardware y software de código abierto para desarrollar aplicaciones BCI. El último producto de OpenBCI, el OpenBCI Galea, combina BCI con las capacidades de un auricular de realidad virtual. Ofrece a los desarrolladores acceso a una variedad de flujos de datos fisiológicos sincronizados en el tiempo, junto con sensores de posicionamiento espacial y seguimiento ocular. Esta amplia gama de datos de sensores se puede utilizar para controlar una variedad de dispositivos físicos y digitales. El SDK es compatible con varios lenguajes y hace que los datos de los sensores estén disponibles en Unity o Unreal. Estamos entusiasmados de ver esta capacidad ofrecida en una plataforma de código abierto, brindando a los investigadores acceso a las herramientas y datos que necesitan para innovar en este campo.
-
39. PGLite
PGLite es una compilación en WASM de una base de datos PostgreSQL. A diferencia de intentos anteriores que requerían una máquina virtual Linux, PGLite construye directamente PostgreSQL en WASM, lo que permite ejecutarlo completamente en el navegador web. Se puede crear una base de datos efímera en la memoria o persistir en el disco mediante indexedDB. Desde la última vez que mencionamos local-first applications en el Radar, las herramientas han evolucionado considerablemente. Con Electric y PGlite, ahora se puede crear aplicaciones locales y reactivas en PostgreSQL.
-
40. SpinKube
SpinKube es un entorno de ejecución serverless de código abierto para WebAssembly en Kubernetes. Mientras Kubernetes ofrece capacidades de auto escalado robustas, el tiempo de arranque en frío de los contenedores aún puede requerir un aprovisionamiento previo para cargas más elevadas. Creemos que el tiempo de inicio de milisegundos de WebAssembly proporciona una solución serverless más dinámica y flexible para cargas de trabajo bajo demanda. Desde nuestra discusión anterior de Spin, el ecosistema WebAssembly ha hecho avances significativos. Nos entusiasma destacar SpinKube, una plataforma que simplifica el desarrollo y despliegue de cargas de trabajo basadas en WebAssembly en Kubernetes.
-
41. Unblocked
Unblocked ofrece descubrimientos de los ciclos de vida del desarrollo del software (SDLC) y de artefactos. Se integra con herramientas comunes de gestión del ciclo de vida de las aplicaciones (ALM) y con herramientas de colaboración para ayudar a los equipos a comprender las bases de código y los recursos relacionados. Mejora la comprensión del código al brindar un contexto relevante e inmediato sobre el código, lo que facilita la navegación y la comprensión de sistemas complejos. Los equipos de ingeniería pueden acceder de manera segura y conforme a las normas a debates, activos y documentos relacionados con su trabajo. Unblocked también captura y comparte el conocimiento local que a menudo reside en miembros experimentados del equipo, lo que hace que la información valiosa sea accesible para todos, independientemente del nivel de experiencia.
Hold
Unable to find something you expected to see?
Each edition of the Radar features blips reflecting what we came across during the previous six months. We might have covered what you are looking for on a previous Radar already. We sometimes cull things just because there are too many to talk about. A blip might also be missing because the Radar reflects our experience, it is not based on a comprehensive market analysis.
