Meta AI anuncia Llama 3.2 com modelos que rodam até em celular

Confira as novidades do Llama 3.2, incluindo novas versões de tamanho que rodam em dispositivos mobile

A Meta AI anunciou o lançamento do Llama 3.2, uma nova versão do seu modelo de linguagem (LLM). Com tamanhos reduzidos em variantes de 1B e 3B, o Llama 3.2 pode ser executado até mesmo em dispositivos móveis, tornando-o mais acessível e versátil. A novidade foi anunciada no Meta Connect, evento anual mostrando as principais entregas da gigante. Além do Llama, a Meta anunciou funcionalidades de dublagem, chat de voz para Whatsapp, Instagram, e Facebook, e muito mais. Confira nesse post quais foram as principais mudanças no Llama 3.2.

Modelos compactos e poderosos

Uma das grandes novidades do Llama 3.2 são as versões reduzidas de 1B e 3B. Esses modelos compactos são capazes de rodar até mesmo em dispositivos móveis, tornando a tecnologia mais acessível e ampliando seu potencial de aplicação. Imagine poder utilizar um modelo de linguagem avançado diretamente no seu smartphone, sem depender de conexão com a nuvem. Isso abre um leque enorme de possibilidades para desenvolvedores criarem aplicativos inovadores com privacidade reforçada, já que os dados não precisam sair do dispositivo.

Além disso, os modelos leves de 1B e 3B se destacam em tarefas como sumarização, seguir instruções e reescrever textos. Eles são altamente capazes em geração de texto multilíngue e possuem habilidades de "tool calling". Isso significa que um aplicativo personalizado poderia, por exemplo, resumir as últimas 10 mensagens recebidas, extrair itens de ação e utilizar o "tool calling" para enviar convites de calendário para reuniões de acompanhamento.

Visão computacional aprimorada

Outra grande novidade são os modelos de visão de 11B e 90B do Llama 3.2. Eles são substitutos diretos para os modelos de texto equivalentes, mas com a vantagem de um entendimento visual aprimorado. Esses modelos se destacam em tarefas como compreensão de documentos (incluindo gráficos e tabelas), geração de legenda de imagens e tarefas de "visual grounding", onde objetos são identificados em imagens com base em descrições em linguagem natural.

Segundo a própria Meta, os modelos de visão do Llama 3.2 se mostram competitivos com outros modelos de ponta, como o Claude 3 Haiku e o GPT4o-mini, em reconhecimento de imagem e uma série de tarefas de entendimento visual.

Llama em todo lugar ao mesmo tempo

A Meta está disponibilizando os modelos do Llama 3.2 para download no site oficial llama.com e no Hugging Face. Além disso, eles já estão prontos para desenvolvimento imediato em uma ampla gama de plataformas parceiras, como AMD, AWS, Databricks, Dell, Google Cloud, Groq, IBM, Intel, Microsoft Azure, NVIDIA, Oracle Cloud, Snowflake e muitas outras.

Conclusão

O Llama 3.2 representa um grande avanço na acessibilidade e versatilidade dos modelos de linguagem. Os modelos Llama são os mais poderosos modelos open-source que temos atualmente, então ver novidades saindo para eles é muito bom. O fato dele estar disponível em uma pancada de fornecedores e parceiros vai facilitar bastante para quem quiser brincar com os modelos.

Se você é um entusiasta de IA e quer se manter atualizado sobre as últimas novidades e tendências nesse campo fascinante, não deixe de se inscrever na Newsletter do Data Hackers. A Data Hackers é a maior comunidade de dados e IA do Brasil, e sua newsletter é uma fonte inestimável de insights e informações.