Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Volume 31 | Outubro 2024

Plataformas

  • Plataformas

    Adote Experimente Avalie Evite Adote Experimente Avalie Evite
  • Novo
  • Modificado
  • Sem alteração

Plataformas

Adote ?

Sem blips

Experimente ?

  • 24. Databricks Unity Catalog

    Databricks Unity Catalog é uma solução de governança de dados para ativos como arquivos, tabelas ou modelos de aprendizado de máquina em um lakehouse. É uma versão gerenciada do Unity Catalog de código aberto que pode ser usada para governar e consultar dados mantidos em armazenamentos externos ou sob gerenciamento do Databricks. No passado, nossas equipes trabalharam com uma variedade de soluções de gerenciamento de dados, como Hive metastore ou Microsoft Purview. No entanto, o suporte combinado do Unity Catalog para governança, gerenciamento de metastore e descoberta de dados o torna atraente porque reduz a necessidade de gerenciar múltiplas ferramentas. Uma complicação que nossa equipe descobriu é a falta de recuperação automática de desastres no Unity Catalog gerenciado pelo Databricks. Conseguiram configurar sua própria funcionalidade de backup e restauração, mas uma solução fornecida pelo Databricks teria sido mais conveniente. Observe que, embora essas plataformas de governança geralmente implementam uma solução centralizada para garantir consistência entre espaços e cargas de trabalho, a responsabilidade de governar ainda pode ser federada, permitindo que equipes individuais governem seus próprios ativos.

  • 25. FastChat

    FastChat é uma plataforma aberta para treinamento, disponibilização e avaliação de grandes modelos de linguagem (LLMs). Nossas equipes usam seus recursos de fornecimento de modelos para hospedar vários modelos — Llama 3.1 (8B e 70B), Mistral 7B e Llama-SQL — para diferentes finalidades, tudo em um formato consistente de API OpenAI. O FastChat opera em uma arquitetura de controlador-agente, permitindo que vários agentes hospedem modelos diferentes. Ele oferece suporte a tipos de agentes, como vLLM, LiteLLM e MLX. Usamos vLLM model workers por seus recursos de alta taxa de transferência. Dependendo do caso de uso (latência ou taxa de transferência), diferentes tipos de agentes modelo do FastChat podem ser criados e dimensionados. Por exemplo, o modelo usado para sugestões de código em IDEs de desenvolvedoras exige baixa latência e pode ser dimensionado com vários agentes FastChat para lidar com solicitações simultâneas de forma eficiente. Por outro lado, o modelo usado para Text-to-SQL não precisa de vários agentes devido à menor demanda ou a diferentes requisitos de desempenho. Nossas equipes aproveitam os recursos de dimensionamento do FastChat para testes A/B. Configuramos os agentes do FastChat com o mesmo modelo, mas com valores de hiperparâmetro diferentes, e fazemos perguntas idênticas a cada um deles, identificando os valores ideais de hiperparâmetro. Ao fazer a transição de modelos em tempo real, realizamos testes A/B para garantir uma migração perfeita. Por exemplo, recentemente migramos do CodeLlama 70B para o Llama 3.1 70B para sugestões de código. Executando os dois modelos simultaneamente e comparando os resultados, verificamos que o novo modelo atendia ou excedia o desempenho do modelo anterior sem interromper a experiência da pessoa desenvolvedora.

  • 26. GCP Vertex AI Agent Builder

    GCP Vertex AI Agent Builder oferece uma plataforma flexível para a criação de agentes de IA utilizando linguagem natural ou uma abordagem baseada primariamente em código. A ferramenta se integra de forma transparente com dados empresariais por meio de conectores de terceiros e possui todas as ferramentas necessárias para construir, prototipar e implantar agentes de IA. À medida que a demanda por agentes de IA cresce, muitas equipes enfrentam dificuldades em compreender seus benefícios e sua implementação. O GCP Vertex AI Agent Builder facilita para as desenvolvedoras a prototipagem rápida de agentes e o gerenciamento de tarefas complexas com dados, exigindo apenas um simples setup. Nossas desenvolvedoras consideraram a ferramenta particularmente útil para a construção de sistemas baseados em agentes, como bases de conhecimento ou sistemas automatizados de suporte, que gerenciam de forma eficiente tanto dados estruturados quanto não estruturados. Isso a torna uma ferramenta valiosa para o desenvolvimento de soluções impulsionadas por IA.

  • 27. Langfuse

    LLMs funcionam como caixas pretas, tornando difícil determinar seu comportamento. A observabilidade é crucial para abrir essa caixa preta e entender como os aplicativos LLM operam em produção. Nossas equipes tiveram experiências positivas usando Langfuse para observar, monitorar e avaliar aplicativos baseados em LLM. Suas capacidades de rastreamento, análise e avaliação nos permitem não apenas analisar o desempenho e a precisão da conclusão, mas também gerenciar custos e latência. Além disso, também permite entender padrões de uso da produção, facilitando melhorias contínuas e orientadas a dados. Os dados de instrumentação fornecem rastreabilidade completa do fluxo de solicitação-resposta e das etapas intermediárias, que podem ser usados como dados de teste para validar o aplicativo antes de implementar novas alterações. Utilizamos o Langfuse com RAG (geração aumentada por recuperação), entre outras arquiteturas LLM, e agentes autônomos impulsionados por LLM. Em um aplicativo baseado em RAG, por exemplo, a análise de rastreamentos de conversas com baixa pontuação ajuda a identificar quais partes da arquitetura (pré-recuperação, recuperação ou geração) precisam de refinamento. Outra opção que vale a pena considerar neste espaço é Langsmith.

  • 28. Qdrant

    Qdrant é um mecanismo de busca por similaridade vetorial e banco de dados de código aberto escrito em Rust. Ele suporta uma ampla gama de texto e um multimodal denso de modelos de vetores embedding. Nossas equipes têm usado embeddings de código aberto como MiniLM-v6 e BGE para várias bases de conhecimento de produtos. Usamos o Qdrant como um armazenamento de vetores corporativo com multi-tenancy para organizar vetores embeddings como coleções separadas, isolando a base de conhecimento de cada produto no armazenamento. As políticas de acesso da usuária são gerenciadas na camada do aplicativo.

  • 29. Vespa

    Vespa é um mecanismo de busca de código aberto e uma plataforma de processamento de big data. É particularmente recomendado para aplicativos que exigem baixa latência e alto rendimento. Nossos times gostam da capacidade do Vespa de implementar pesquisa híbrida usando várias técnicas de recuperação, filtrar e classificar com eficiência muitos tipos de metadados, implementar classificação em várias fases, indexar vários vetores (por exemplo, para cada pedaço) por documento sem duplicar todos os metadados em documentos indexados separadamente e recuperar dados de vários campos indexados de uma só vez.

Avalie ?

  • 30. Pesquisa de IA do Azure

    A Pesquisa de IA do Azure, anteriormente conhecida como Pesquisa Cognitiva do Azure, é considera um serviço de busca baseado em nuvem projetado para lidar com dados estruturados e não estruturados para aplicações como bases de conhecimento, particularmente em geração aumentada por recuperação (RAG). Ela suporta vários tipos de busca, incluindo busca por palavras-chave, vetorial e híbrida, que acreditamos que se tornarão cada vez mais importantes. O serviço ingere automaticamente formatos comuns de dados não estruturados, incluindo PDF, DOC e PPT, simplificando o processo de criação de conteúdo pesquisável. Além disso, ele se integra com outros serviços do Azure, como o Azure OpenAI, permitindo que as usuárias construam aplicações com o mínimo de esforço de integração manual. Com base em nossa experiência, a Pesquisa de IA do Azure tem um desempenho confiável e é bem adequado para projetos hospedados no ambiente Azure. Através de suas habilidades personalizadas, as usuárias também podem definir etapas específicas de processamento de dados. No geral, se você está trabalhando dentro do ecossistema Azure e precisa de uma solução de busca robusta para uma aplicação RAG, vale a pena considerar a Pesquisa de IA do Azure.

  • 31. Databricks Delta Live Tables

    O Databricks Delta Live Tables é um framework declarativo projetado para a criação de pipelines de processamento de dados confiáveis, sustentáveis e testáveis. Ele permite que as pessoas engenheiras de dados definam as transformações de dados usando uma abordagem declarativa e gerencia automaticamente a infraestrutura subjacente e o fluxo de dados. Um dos recursos de destaque do Delta Live Tables é a sua robusta capacidade de monitoramento. Ele fornece um DAG (Gráfico acíclico dirigido) de todo o seu pipeline de dados, representando visualmente a movimentação de dados da fonte para as tabelas finais. Essa visibilidade é crucial para pipelines complexos, ajudando engenheiras e cientistas de dados a rastrear a linhagem e as dependências dos dados. O Delta Live Tables está profundamente integrado ao ecossistema Databricks, o que também traz alguns desafios para a customização de interfaces. Recomendamos que as equipes avaliem cuidadosamente a compatibilidade das interfaces de entrada e saída antes de usar o Delta Live Tables.

  • 32. Elastisys Compliant Kubernetes

    Elastisys Compliant Kubernetes é uma distribuição especializada do Kubernetes projetada para atender a rigorosos requisitos regulatórios e de conformidade, particularmente para organizações que operam em indústrias altamente regulamentadas, como saúde, finanças e governo. Ele possui processos de segurança automatizados, fornece suporte para múltiplas nuvens e ambientes locais, e é construído sobre uma arquitetura de segurança de confiança zero. A ênfase na conformidade integrada com leis como GDPR e HIPAA e controles como ISO27001 o torna uma opção atraente para empresas que precisam de um ambiente Kubernetes seguro, compatível e confiável.

  • 33. FoundationDB

    FoundationDB é um banco de dados multi-modelo, adquirido pela Apple em 2015 e disponibilizado como código aberto em abril de 2018. O núcleo do FoundationDB é um armazenamento chave-valor distribuído, que oferece transações com serialização rigorosa. Desde que o mencionamos pela primeira vez no Radar, ele passou por melhorias significativas, incluindo distribuições inteligentes de dados para evitar escrita em pontos críticos, um novo mecanismo de armazenamento, otimizações de desempenho e suporte à replicação multi-região. Estamos utilizando o FoundationDB em um de nossos projetos em andamento e estamos muito impressionadas pela sua arquitetura desacoplada. Essa arquitetura nos permite escalar diferentes partes do cluster de forma independente. Por exemplo, podemos ajustar o número de logs de transação, servidores de armazenamento e proxies com base em nossa carga de trabalho e hardware específicos. Apesar de seus recursos extensivos, o FoundationDB continua sendo extremamente fácil de executar e operar em grandes clusters.

  • 34. Golem

    A computação durável, um movimento recente na computação distribuída, utiliza um estilo de arquitetura de máquina de estado explícito para persistir a memória de servidores serverless para uma melhor tolerância a falhas e a recuperação. O Golem é um dos promotores desse movimento. Esse conceito pode ser aplicado em alguns cenários como em sagas de microsserviços de longa duração ou fluxos de trabalho prolongados na orquestração de agentes de IA. Já avaliamos o Temporal em outros volumes do Radar para propósitos semelhantes, e o Golem é outra opção. Com o Golem, é possível escrever componentes em WebAssembly em qualquer linguagem suportada, além do Golem ser determinístico e oferecer tempos de inicialização rápidos. Acreditamos que o Golem é uma plataforma empolgante que vale a pena ser avaliada.

  • 35. Iggy

    Iggy, uma plataforma de streaming de mensagens persistentes escrita em Rust, é um projeto relativamente novo, mas com recursos impressionantes. Ela já oferece suporte a múltiplos streams, tópicos e partições, entrega at-most-once, expiração de mensagens e suporte a TLS sobre os protocolos QUIC, TCP e HTTP. Executando como um único servidor, a Iggy atualmente alcança alta taxa de transferência para operações de leitura e escrita. Com o suporte a clustering e io_uring em desenvolvimento, Iggy pode se tornar uma alternativa potencial ao Kafka.

  • 36. Iroh

    Iroh é um sistema de armazenamento de arquivos distribuídos e entrega de conteúdo relativamente novo que foi projetado como a evolução dos sistemas descentralizados existentes como IPFS (InterPlanetary File System). Tanto o Iroh quanto o IPFS podem ser usados para criar redes descentralizadas de armazenamento, compartilhamento e acesso de conteúdo endereçado utilizando identificadores de conteúdo opacos. No entanto, Iroh removeu algumas limitações da implementação do IPFS, como não ter um tamanho máximo de bloco e fornecer um mecanismo de sincronização de dados via reconciliação de conjunto baseada em intervalo sobre documentos. O roadmap do projeto inclui trazer a tecnologia para o browser via WASM, o que levanta algumas possibilidades intrigantes para construir a descentralização em aplicativos web. Se você não quiser hospedar no Iroh, você pode utilizar seu serviço de nuvem, iroh.network. Já existem vários SDKs disponíveis em uma variedade de idiomas, e um dos objetivos é ser mais amigável e fácil de usar que sistemas IPFS alternativos. Embora o Iroh ainda esteja em seus primeiros dias, vale a pena acompanhá-lo, pois ele pode se tornar um player significativo no meio de armazenamento descentralizado.

  • 37. Plataformas de modelos de visão ampla (LVM)

    Os modelos de linguagem de grande porte (LLMs) chamam tanto a nossa atenção atualmente que tendemos a negligenciar os desenvolvimentos em curso nos modelos de visão ampla (LVMs). Esses modelos podem ser usados para segmentar, sintetizar, reconstruir e analisar fluxos de vídeo e imagens, às vezes em combinação com modelos de difusão ou redes neurais convolucionais padrão. Apesar do potencial dos LVMs para revolucionar a forma como trabalhamos com dados visuais, ainda enfrentamos desafios significativos na adaptação e aplicação deles em ambientes de produção. Os dados de vídeo, por exemplo, apresentam desafios de engenharia únicos para coletar dados de treinamento, segmentar e rotular objetos, ajustar modelos e, em seguida, implantar os modelos resultantes e monitorá-los em produção. Assim, enquanto os LLMs se prestam a interfaces de chat simples ou APIs de texto simples, uma engenheira de visão computacional ou cientista de dados deve gerenciar, versionar, anotar e analisar grandes quantidades de dados de vídeo em streaming; este trabalho requer uma interface visual. Plataformas LVM são uma nova categoria de ferramentas e serviços — incluindo V7, Nvidia Deepstream SDK e Roboflow — que estão surgindo para enfrentar esses desafios. Deepstream e Roboflow são particularmente interessantes para nós porque combinam um ambiente de desenvolvimento GUI integrado para gerenciar e anotar fluxos de vídeo com um conjunto de APIs Python, C++ ou REST para invocar os modelos a partir do código da aplicação.

  • 38. OpenBCI Galea

    Há um crescente interesse no uso de interfaces cérebro-computador (ICCs) e em seu potencial de aplicação em tecnologias assistivas. Tecnologias não invasivas, como a eletroencefalografia (EEG) e outros sinais eletrofísicos, oferecem uma alternativa de menor risco em relação a implantes cerebrais para aquelas que estão se recuperando de lesões. Estão surgindo plataformas nas quais pesquisadoras e empreendedoras podem criar aplicações inovadoras sem se preocupar com os desafios de processamento de sinais de baixo nível e integração. Alguns exemplos dessas plataformas são Emotive e OpenBCI, que oferecem hardware e software de código aberto para o desenvolvimento de aplicações ICC. O produto mais recente da OpenBCI, o OpenBCI Galea, combina ICC com as capacidades de um headset de realidade virtual (VR). Ele oferece às pessoas desenvolvedoras acesso a uma variedade de fluxos de dados fisiológicos sincronizados no tempo, juntamente com sensores de posicionamento espacial e rastreamento ocular. Essa ampla gama de dados de sensores pode ser usada para controlar uma variedade de dispositivos físicos e digitais. O SDK suporta várias linguagens de programação e disponibiliza os dados dos sensores no Unity ou Unreal. Estamos entusiasmadas em notar essa capacidade oferecida em uma plataforma de código aberto, permitindo que pesquisadoras tenham acesso às ferramentas e aos dados necessários para inovar nesse campo.

  • 39. PGLite

    PGLite é uma construção WASM do banco de dados PostgreSQL. Diferentemente de tentativas anteriores que dependiam de uma máquina virtual Linux, o PGLite constrói diretamente o PostgreSQL para WASM, permitindo que você o execute inteiramente no navegador web. Você pode criar um banco de dados temporário na memória ou persisti-lo no disco via indexedDB. Desde a última vez que mencionamos aplicações local-first no Radar, as ferramentas evoluíram consideravelmente. Com Electric e PGLite, você agora pode construir aplicações reativas local-first no PostgreSQL.

  • 40. SpinKube


    SpinKube é um runtime serverless de código aberto para WebAssembly no Kubernetes. Embora o Kubernetes ofereça capacidades robustas de autoescalonamento, o tempo de inicialização dos containers ainda pode exigir pré-provisionamento para cargas máximas. Acreditamos que o tempo de inicialização em milissegundos do WebAssembly proporciona uma solução serverless mais dinâmica e flexível para workloads sob demanda. Desde nossa discussão anterior sobre Spin, o ecossistema do WebAssembly fez avanços significativos. Estamos empolgadas em destacar o SpinKube como uma plataforma que simplifica o desenvolvimento e a implantação de workloads baseados em WebAssembly no Kubernetes.

  • 41. Unblocked

    Unblocked oferece a descoberta de ativos e artefatos no ciclo de vida de desenvolvimento de software (SDLC). Ele se integra com ferramentas comuns de gerenciamento de ciclo de vida de aplicativos (ALM) e de colaboração para ajudar os times a entenderem bases de códigos e recursos relacionados. Ele melhora a compreensão do código ao fornecer contexto imediato e relevante, facilitando a navegação e o entendimento de sistemas complexos. Os times de engenharia podem acessar com segurança e em conformidade as discussões, os ativos e os documentos relacionados ao seu trabalho. O Unblocked também captura e compartilha o conhecimento local que muitas vezes está com pessoas mais experientes do time, tornando esses insights valiosos acessíveis a todas, independentemente do nível de experiência.

Evite ?

Sem blips

Não encontrou algo que você esperava achar?

 

Cada edição do Radar inclui blips que refletem nossas experiências nos seis meses anteriores. Talvez já tenhamos falado sobre o que você procura em um Radar anterior. Às vezes, deixamos coisas de fora simplesmente porque há muitas a serem abordadas. Também pode faltar um tópico específico porque o Radar reflete nossa experiência, não se baseando em uma análise abrangente do mercado.

Baixe o PDF

 

 

 

English | Español | Português | 中文

Inscreva-se para receber o boletim informativo Technology Radar

 

 

Seja assinante

 

 

Visite nosso arquivo para acessar os volumes anteriores