A Microsoft apresentou o Fara-7B, um modelo de linguagem pequeno com 7 bilhões de parâmetros, desenvolvido para automação de tarefas em computadores. Utilizando uma arquitetura de decodificador multimodal, o Fara-7B processa imagens de capturas de tela e contexto textual para prever ações operacionais e cadeias de pensamento. O modelo, baseado no Qwen 2.5-VL (7B), suporta um comprimento de contexto de 128k e foi treinado em 64 GPUs H100 durante 2,5 dias. Lançado sob a licença MIT, ele pode executar tarefas como reservar restaurantes e planejar viagens interpretando entradas do navegador e prevendo ações.
O Fara-7B emprega medidas de segurança, incluindo métodos pós-treinamento e reconhecimento de pontos-chave, para evitar violações de políticas e interromper operações em pontos críticos, como ao inserir dados pessoais. O modelo está disponível para implantação via GitHub, vllm e ferramentas fara-cli, facilitando a automação de tarefas baseadas na web.
Microsoft Revela Fara-7B, um Modelo de 7 Bilhões de Parâmetros para Automação de Tarefas em Computadores
Aviso Legal: O conteúdo disponibilizado no Phemex News é apenas para fins informativos. Não garantimos a qualidade, precisão ou integridade das informações provenientes de artigos de terceiros. Este conteúdo não constitui aconselhamento financeiro ou de investimento. Recomendamos fortemente que você realize suas próprias pesquisas e consulte um consultor financeiro qualificado antes de tomar decisões de investimento.
