[playht_player width=”100%” height=”90px” voice=”pt-BR_IsabelaV3Voice”]

A francesa Mistral AI encerrou sua rodada de série A e arrecadou 385 milhões de euros. Agora a startup é avaliada em US$ 2 bilhões. Há 6 meses ela levantou uma rodada inicial de US$ 112 milhões para criar um rival europeu para a OpenAI – e no formato de IA aberta.

Andreessen Horowitz (a16z) está liderando a rodada de financiamento com a Lightspeed Venture Partners investindo mais uma vez na empresa de IA. Além de Salesforce, BNP Paribas, CMA-CGM, General Catalyst, Elad Gil, Conviction, e mais.“Desde a criação da Mistral AI em maio, temos seguido uma trajetória clara: a de criar um campeão europeu com uma vocação global em inteligência artificial generativa, baseada numa abordagem aberta, responsável e descentralizada da tecnologia”, diz o CEO Arthur Mensch.

Em setembro, a Mistral AI lançou seu primeiro modelo chamado Mistral 7B, que não compete diretamente com GPT-4 ou Claude 2. Ele foi treinado com um “pequeno” conjunto de dados de cerca de 7 bilhões de parâmetros. Em vez de abrir o acesso ao modelo Mistral 7B via APIs, a startup disponibilizou para download gratuito para que os desenvolvedores pudessem executá-lo em seus dispositivos e servidores.

O modelo foi lançado sob a licença Apache 2.0, uma licença de código aberto que não tem restrições de uso ou reprodução além da atribuição. Embora o modelo possa ser executado por qualquer pessoa, ele foi desenvolvido a portas fechadas com um conjunto de dados proprietário e pesos não divulgados.

Mistral AI rival europeia da OpenAI recebeu investimento de 385 milhões de euros
Unsplash

Além do modelo Mistral 7B (“Mistral-tiny”), os desenvolvedores poderão acessar o novo modelo Mixtral 8x7B (“Mistral-small”). Este modelo usa “uma rede de roteadores” para processar tokens de entrada e escolher o grupo de parâmetros mais adequado para dar uma resposta.

“Essa técnica aumenta o número de parâmetros de um modelo enquanto controla o custo e a latência, já que o modelo usa apenas uma fração do conjunto total de parâmetros por token. Concretamente, o Mixtral tem um total de 45B de parâmetros, mas usa apenas 12B de parâmetros por token. Portanto, ele processa entradas e gera saídas na mesma velocidade e pelo mesmo custo que um modelo 12B”, escreveu a startup em uma postagem.

Mixtral 8x7B também foi lançado sob a licença Apache 2.0 e está disponível para download gratuito. Um terceiro modelo, Mistral-medium, está disponível na plataforma de desenvolvimento da Mistral e só está disponível por meio da plataforma API paga – sem link para download disponível… leia mais em Startupi 11/12/2023