Category: Llama 4

CEO da Foxconn prevê que IAs acabarão com a mão de obra barata

CEO da Foxconn prevê que IAs acabarão com a mão de obra barata

Inteligência artificial já está presente em algumas fábricas da Foxconn, mas combinada com trabalho humano (imagem: reprodução/Computex Daily)

Resumo

O CEO da Foxconn, Young Liu, afirmou que a IA substituirá a mão de obra barata e poderá reduzir pressões migratórias em países subdesenvolvidos.
A Foxconn já automatiza 80% da instalação de maquinário com IA generativa e desenvolve a FoxBrain, baseada no Llama 3 e 4.
Contudo, essa tendência pode reconfigurar cadeias produtivas, incentivando a produção nacional sem aumento proporcional de empregos.

O uso de mão de obra barata em países subdesenvolvidos pode acabar no futuro, disse Young Liu, CEO da Foxconn, durante uma palestra na Computex 2025. Na visão de Liu, as IAs serão utilizadas nas fábricas para acelerar a produção, diminuindo a dependência de humanos. A Foxconn já utiliza essa tecnologia em algumas de suas unidades ao redor do mundo — e as IAs estão indo bem.

Segundo Liu, o uso de inteligência artificial generativa também impacta questões migratórias e provoca mudanças nas políticas trabalhistas e econômicas dos países subdesenvolvidos. Em relação a esse último, Liu demonstra bastante otimismo, afirmando que, eventualmente, a exploração dos países pobres e, consequentemente, da mão de obra barata, tende a se esgotar.

Para resolver o esgotamento desses trabalhos, entram as IAs nas fábricas. Por outro lado, essa previsão de Liu pode beneficiar e também prejudicar nações ricas. O uso das IAs pode levar empresas a retomar a fabricação nacional, mas sem trazer milhares de empregos para nativos. Afinal, fábricas com IA necessitarão de mão de obra especializada nessa tecnologia — e provavelmente apenas um punhado de profissionais será capaz de lidar com essa tecnologia.

A Foxconn já usa IA generativa em suas fábricas?

Sim, a empresa passou a adotar uma IA para a instalação de maquinário nas fábricas. Cerca de 80% desse processo é feito pela inteligência artificial, mas ainda é necessário o uso de um humano para finalizar a instalação. Essa combinação acelera a montagem das linhas de produção das fábricas.

Foxconn testa uso de IA generativa para acelerar montagem (foto: Nadkachna/Wikimedia)

Na palestra, Liu também explicou que a IA auxilia na resolução de problemas na linha de montagem. Segundo o CEO, a Foxconn pensou que poderia trocar todos os humanos por IA, mas percebeu que isso não seria possível — talvez não por enquanto?

A empresa está desenvolvendo uma IA generativa, batizada de FoxBrain, com os LLMs Llama 3 e Llama 4 da Meta. O FoxBrain será uma inteligência artificial especializada nas tarefas de montagem e produção.

Outro uso de IA nas fábricas da Foxconn está no metaverso — no uso mais útil dessa tecnologia. A empresa utiliza a ferramenta Omniverse da Nvidia para criar um gêmeo digital das fábricas. Com isso, ela pode simular mudanças de layout e testar novas fábricas antes de iniciar a construção.

Por que o CEO da Foxconn vê a IA ligada ao movimento imigratório?

Hoje, parte da motivação da imigração está ligada a estrangeiros dispostos a trabalhar por salários baixíssimos — geralmente, nos empregos rejeitados por nativos. Um exemplo são os nipo-brasileiros que imigram para o Japão e vão trabalhar em fábricas, seja de forma temporária ou em imigração de longa duração. Com essa tecnologia presente nas fábricas, menos estrangeiros estariam dispostos a imigrar.

Com informações do The Register
CEO da Foxconn prevê que IAs acabarão com a mão de obra barata

CEO da Foxconn prevê que IAs acabarão com a mão de obra barata
Fonte: Tecnoblog

Meta é acusada de manipular benchmarks de IA do Llama 4

Meta é acusada de manipular benchmarks de IA do Llama 4

Resultados do Llama 4 em testes chamaram a atenção (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Meta enviou para um teste de benchmarking no LMArena uma versão do Llama 4 diferente da que foi disponibilizada ao público, segundo especialistas em IA.
A empresa confirmou o uso da versão experimental, afirmando que aplica esse método a diversas “variantes customizadas”.
O LMArena criticou a Meta pela falta de transparência e anunciou que incluirá a versão final do Llama 4 Maverick nas votações.

Especialistas em inteligência artificial observaram que a Meta enviou para um teste de benchmarking uma versão do Llama 4 diferente da que foi liberada para o público. A empresa confirma ter usado uma versão experimental, mas diz fazer o mesmo com muitas variantes customizadas.

O que a Meta fez para provocar a polêmica?

Na documentação publicada com o lançamento do Llama 4, a Meta afirma que o teste LMArena foi feito usando uma versão experimental do modelo, “otimizada para conversacionalidade”, nas palavras da própria empresa.

O resultado do Llama 4 no LMArena é muito bom: o modelo é o atual segundo colocado na pontuação Elo. Com 1.417 pontos, ele está acima do 4o da OpenAI e abaixo apenas do Gemini 2.5 Pro, do Google.

Llama 4 foi bem em “batalhas” contra outros modelos de IA (ilustração: Vitor Pádua/Tecnoblog)

O LMArena é uma ferramenta de benchmarking de código aberto e colaborativa. Nos testes, usuários fazem uma mesma pergunta para dois modelos de IA distintos e votam em qual deu a melhor resposta. Quanto maior o número de vitórias na “arena”, maior a pontuação Elo (sim, o mesmo sistema de pontuação usado no xadrez, por exemplo).

O que a Meta diz sobre isso?

Em um email enviado ao The Verge, a Meta confirma ter usado uma versão experimental do Llama 4, mas diz que faz testes “com todos os tipos de variantes customizadas”.

A Llama-4-Maverick-03-26-Experimental é uma dessas e “também teve um bom desempenho no LMArena”, nas palavras de um porta-voz da companhia. Agora, a Meta afirma estar animada para ver o que os desenvolvedores farão com o Llama 4 de código aberto, que pode ser customizado.

O que a LMArena vai fazer a respeito?

Apesar de a Meta minimizar os questionamentos, os administradores do LMArena disseram que “a interpretação da Meta de nossas políticas não corresponde ao que esperamos dos fornecedores de modelos” e que a empresa deveria ter deixado claro que o modelo usado era otimizado.

Por isso, a versão final do Llama 4 Maverick será adicionada às votações, e os resultados devem ser divulgados em breve.

Com informações do TechCrunch, Gizmodo e The Verge
Meta é acusada de manipular benchmarks de IA do Llama 4

Meta é acusada de manipular benchmarks de IA do Llama 4
Fonte: Tecnoblog

Llama 4 é anunciado pela Meta com três tipos de LLMs diferentes

Llama 4 é anunciado pela Meta com três tipos de LLMs diferentes

Meta lança novos modelos da geração Llama 4, incluindo um LLM professor de IAs (ilustração: Vitor Pádua/Tecnoblog)

A Meta anunciou na última sexta-feira (5) novos LLM do Llama 4, sua atual geração de modelo para IAs. O Llama 4 ganhou três novos modelos, cada um dedicado a uma atuação específica. Os modelos são o Maverick, Scout e Behemoth — este ainda em fase de treinamento.

Quais as especificações dos novos Llama 4?

O Llama 4 Scout tem 17 bilhões de parâmetros, janela de contexto de 10 milhões e foi treinado com 16 especialistas. Este LLM demanda menos capacidade de processamento. Como explica a Meta, ele pode ser utilizado com uma GPU Nvidia H100, aceleradora para executar tarefas de IA. O Llama 4 Scout é voltado para empresas ou profissionais que realizam tarefas menos complexas.  

Quanto maior a quantidade de parâmetros, maior a capacidade do LLM de processar prompts e dados para entregar uma resposta mais precisa. Por isso o Llama 4 Scout se encaixa como um modelo mais básico — dado o seu padrão para uso corporativo.

Gráfico da Meta mostra diferenças e especificações dos novos modelos do Llama 4 (imagem: divulgação)

O Llama 4 Maverick possui os mesmos 17 bilhões de parâmetros do Scout, mas foi treinado com 128 especialistas. Este LLM já necessita de um servidor H100 para ser utilizado, demandando mais processamento e gasto energético. O Maverick, ao contrário do Scout, atende empresas de porte médio à grande, que realizam mais atividades com processamento de dados.

Esses dois LLMs são versões reduzidas do Llama 4 Behemoth, que ainda não está disponível para testes. O Behemoth possui 288 bilhões de parâmetros e é desenvolvido para a criação de modelos derivados. Este LLM poderá ser usado por empresas para treinar ou criar seus próprios modelos.

Segundo a Meta, o Llama 4 Behemoth superou o GPT-4.5, Claude Sonnet 3.7 e o Gemini 2.0 Pro em benchmarks focados em ciências e matemática, como o Math-500 e GPQA Diamond — este é um teste em IAs respondem a questões de nível universitário em áreas de ciências.

O Llama 4 Scout e Llama 4 Maverick podem ser baixados no próprio site do LLM ou no Hugging Face. A Meta AI com o Llama 4 pode ser testada nos produtos da Meta, como WhatsApp ou Instagram Direct.

Com informações de Meta (1 e 2)
Llama 4 é anunciado pela Meta com três tipos de LLMs diferentes

Llama 4 é anunciado pela Meta com três tipos de LLMs diferentes
Fonte: Tecnoblog