Category: LLaMA

CEO da Foxconn prevê que IAs acabarão com a mão de obra barata

CEO da Foxconn prevê que IAs acabarão com a mão de obra barata

Inteligência artificial já está presente em algumas fábricas da Foxconn, mas combinada com trabalho humano (imagem: reprodução/Computex Daily)

Resumo

O CEO da Foxconn, Young Liu, afirmou que a IA substituirá a mão de obra barata e poderá reduzir pressões migratórias em países subdesenvolvidos.
A Foxconn já automatiza 80% da instalação de maquinário com IA generativa e desenvolve a FoxBrain, baseada no Llama 3 e 4.
Contudo, essa tendência pode reconfigurar cadeias produtivas, incentivando a produção nacional sem aumento proporcional de empregos.

O uso de mão de obra barata em países subdesenvolvidos pode acabar no futuro, disse Young Liu, CEO da Foxconn, durante uma palestra na Computex 2025. Na visão de Liu, as IAs serão utilizadas nas fábricas para acelerar a produção, diminuindo a dependência de humanos. A Foxconn já utiliza essa tecnologia em algumas de suas unidades ao redor do mundo — e as IAs estão indo bem.

Segundo Liu, o uso de inteligência artificial generativa também impacta questões migratórias e provoca mudanças nas políticas trabalhistas e econômicas dos países subdesenvolvidos. Em relação a esse último, Liu demonstra bastante otimismo, afirmando que, eventualmente, a exploração dos países pobres e, consequentemente, da mão de obra barata, tende a se esgotar.

Para resolver o esgotamento desses trabalhos, entram as IAs nas fábricas. Por outro lado, essa previsão de Liu pode beneficiar e também prejudicar nações ricas. O uso das IAs pode levar empresas a retomar a fabricação nacional, mas sem trazer milhares de empregos para nativos. Afinal, fábricas com IA necessitarão de mão de obra especializada nessa tecnologia — e provavelmente apenas um punhado de profissionais será capaz de lidar com essa tecnologia.

A Foxconn já usa IA generativa em suas fábricas?

Sim, a empresa passou a adotar uma IA para a instalação de maquinário nas fábricas. Cerca de 80% desse processo é feito pela inteligência artificial, mas ainda é necessário o uso de um humano para finalizar a instalação. Essa combinação acelera a montagem das linhas de produção das fábricas.

Foxconn testa uso de IA generativa para acelerar montagem (foto: Nadkachna/Wikimedia)

Na palestra, Liu também explicou que a IA auxilia na resolução de problemas na linha de montagem. Segundo o CEO, a Foxconn pensou que poderia trocar todos os humanos por IA, mas percebeu que isso não seria possível — talvez não por enquanto?

A empresa está desenvolvendo uma IA generativa, batizada de FoxBrain, com os LLMs Llama 3 e Llama 4 da Meta. O FoxBrain será uma inteligência artificial especializada nas tarefas de montagem e produção.

Outro uso de IA nas fábricas da Foxconn está no metaverso — no uso mais útil dessa tecnologia. A empresa utiliza a ferramenta Omniverse da Nvidia para criar um gêmeo digital das fábricas. Com isso, ela pode simular mudanças de layout e testar novas fábricas antes de iniciar a construção.

Por que o CEO da Foxconn vê a IA ligada ao movimento imigratório?

Hoje, parte da motivação da imigração está ligada a estrangeiros dispostos a trabalhar por salários baixíssimos — geralmente, nos empregos rejeitados por nativos. Um exemplo são os nipo-brasileiros que imigram para o Japão e vão trabalhar em fábricas, seja de forma temporária ou em imigração de longa duração. Com essa tecnologia presente nas fábricas, menos estrangeiros estariam dispostos a imigrar.

Com informações do The Register
CEO da Foxconn prevê que IAs acabarão com a mão de obra barata

CEO da Foxconn prevê que IAs acabarão com a mão de obra barata
Fonte: Tecnoblog

Meta é acusada de manipular benchmarks de IA do Llama 4

Meta é acusada de manipular benchmarks de IA do Llama 4

Resultados do Llama 4 em testes chamaram a atenção (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Meta enviou para um teste de benchmarking no LMArena uma versão do Llama 4 diferente da que foi disponibilizada ao público, segundo especialistas em IA.
A empresa confirmou o uso da versão experimental, afirmando que aplica esse método a diversas “variantes customizadas”.
O LMArena criticou a Meta pela falta de transparência e anunciou que incluirá a versão final do Llama 4 Maverick nas votações.

Especialistas em inteligência artificial observaram que a Meta enviou para um teste de benchmarking uma versão do Llama 4 diferente da que foi liberada para o público. A empresa confirma ter usado uma versão experimental, mas diz fazer o mesmo com muitas variantes customizadas.

O que a Meta fez para provocar a polêmica?

Na documentação publicada com o lançamento do Llama 4, a Meta afirma que o teste LMArena foi feito usando uma versão experimental do modelo, “otimizada para conversacionalidade”, nas palavras da própria empresa.

O resultado do Llama 4 no LMArena é muito bom: o modelo é o atual segundo colocado na pontuação Elo. Com 1.417 pontos, ele está acima do 4o da OpenAI e abaixo apenas do Gemini 2.5 Pro, do Google.

Llama 4 foi bem em “batalhas” contra outros modelos de IA (ilustração: Vitor Pádua/Tecnoblog)

O LMArena é uma ferramenta de benchmarking de código aberto e colaborativa. Nos testes, usuários fazem uma mesma pergunta para dois modelos de IA distintos e votam em qual deu a melhor resposta. Quanto maior o número de vitórias na “arena”, maior a pontuação Elo (sim, o mesmo sistema de pontuação usado no xadrez, por exemplo).

O que a Meta diz sobre isso?

Em um email enviado ao The Verge, a Meta confirma ter usado uma versão experimental do Llama 4, mas diz que faz testes “com todos os tipos de variantes customizadas”.

A Llama-4-Maverick-03-26-Experimental é uma dessas e “também teve um bom desempenho no LMArena”, nas palavras de um porta-voz da companhia. Agora, a Meta afirma estar animada para ver o que os desenvolvedores farão com o Llama 4 de código aberto, que pode ser customizado.

O que a LMArena vai fazer a respeito?

Apesar de a Meta minimizar os questionamentos, os administradores do LMArena disseram que “a interpretação da Meta de nossas políticas não corresponde ao que esperamos dos fornecedores de modelos” e que a empresa deveria ter deixado claro que o modelo usado era otimizado.

Por isso, a versão final do Llama 4 Maverick será adicionada às votações, e os resultados devem ser divulgados em breve.

Com informações do TechCrunch, Gizmodo e The Verge
Meta é acusada de manipular benchmarks de IA do Llama 4

Meta é acusada de manipular benchmarks de IA do Llama 4
Fonte: Tecnoblog

Llama 4 é anunciado pela Meta com três tipos de LLMs diferentes

Llama 4 é anunciado pela Meta com três tipos de LLMs diferentes

Meta lança novos modelos da geração Llama 4, incluindo um LLM professor de IAs (ilustração: Vitor Pádua/Tecnoblog)

A Meta anunciou na última sexta-feira (5) novos LLM do Llama 4, sua atual geração de modelo para IAs. O Llama 4 ganhou três novos modelos, cada um dedicado a uma atuação específica. Os modelos são o Maverick, Scout e Behemoth — este ainda em fase de treinamento.

Quais as especificações dos novos Llama 4?

O Llama 4 Scout tem 17 bilhões de parâmetros, janela de contexto de 10 milhões e foi treinado com 16 especialistas. Este LLM demanda menos capacidade de processamento. Como explica a Meta, ele pode ser utilizado com uma GPU Nvidia H100, aceleradora para executar tarefas de IA. O Llama 4 Scout é voltado para empresas ou profissionais que realizam tarefas menos complexas.  

Quanto maior a quantidade de parâmetros, maior a capacidade do LLM de processar prompts e dados para entregar uma resposta mais precisa. Por isso o Llama 4 Scout se encaixa como um modelo mais básico — dado o seu padrão para uso corporativo.

Gráfico da Meta mostra diferenças e especificações dos novos modelos do Llama 4 (imagem: divulgação)

O Llama 4 Maverick possui os mesmos 17 bilhões de parâmetros do Scout, mas foi treinado com 128 especialistas. Este LLM já necessita de um servidor H100 para ser utilizado, demandando mais processamento e gasto energético. O Maverick, ao contrário do Scout, atende empresas de porte médio à grande, que realizam mais atividades com processamento de dados.

Esses dois LLMs são versões reduzidas do Llama 4 Behemoth, que ainda não está disponível para testes. O Behemoth possui 288 bilhões de parâmetros e é desenvolvido para a criação de modelos derivados. Este LLM poderá ser usado por empresas para treinar ou criar seus próprios modelos.

Segundo a Meta, o Llama 4 Behemoth superou o GPT-4.5, Claude Sonnet 3.7 e o Gemini 2.0 Pro em benchmarks focados em ciências e matemática, como o Math-500 e GPQA Diamond — este é um teste em IAs respondem a questões de nível universitário em áreas de ciências.

O Llama 4 Scout e Llama 4 Maverick podem ser baixados no próprio site do LLM ou no Hugging Face. A Meta AI com o Llama 4 pode ser testada nos produtos da Meta, como WhatsApp ou Instagram Direct.

Com informações de Meta (1 e 2)
Llama 4 é anunciado pela Meta com três tipos de LLMs diferentes

Llama 4 é anunciado pela Meta com três tipos de LLMs diferentes
Fonte: Tecnoblog

Meta AI teria sido treinada com material pirateado do LibGen

Meta AI teria sido treinada com material pirateado do LibGen

Meta AI pode ter usado material protegido por direitos autorais com aval de Mark Zuckerberg (imagem: ilustração/Vitor Pádua)

A Meta pode ter usado material pirateado para treinar a Llama, modelo de linguagem grande usado para o desenvolvimento da sua IA generativa. A informação foi revelada após a remoção de sigilo de parte da documentação de um dos processos de violação de direitos autorais. Segundo o documento, Mark Zuckerberg autorizou o treinamento da Llama usando artigos e livros divulgados na LibGen e outras fontes piratas.

O caso no qual a documentação foi publicada é o Kadrey et al. contra a Meta, processo que tem entre seus autores os escritores Richard Kadrey (Sandman Slim), Christopher Golden (conhecido por adaptações literárias de séries, como o livro Sons of Anarchy: Bratva e diversas obras de Buffy: A Caça-Vampiros) e conhecida comediante Sarah Silverman.

Meta liberou sua IA generativa para oWhatsApp, Instagram e Facebook, mas parte do treinamento pode ter usado material pirata (Ilustração: Vitor Pádua/Tecnoblog)

Por que acusam Mark Zuckerberg de ter autorizado piratear livros para o Llama?

A documentação que teve o sigilo removido mostra conversas entre usuários da Meta onde é citado que “MZ” aprovou o uso da LibGen e o download via torrent de arquivos do repositório. MZ seria a sigla para Mark Zuckerberg. Não se sabe qual versão do Llama, que é o motor da Meta AI, foi treinada com material oriundo da plataforma.

Além da LibGen, a defesa da Meta afirma que os autores do processo sabiam do uso de outras “shadow libraries” (bibliotecas secretas em tradução livre). A defesa também usa a alegação de que agiu sob “fair use” (uso justo na tradução direta), uma doutrina usada no direito americano que permite o uso de obras sob direito autoral para criar algo novo desde que seja suficientemente transformativo.

Os autores do processo rejeitam essa argumentação de uso justo. E é nessa área que a disputa deve seguir. Afinal, com uma IA generativa como a Meta AI você pode criar textos novos e pedir no prompt a inspiração de alguma obra. Contudo, o usuário também pode pedir a explicação da história de livros.

Mark Zuckerberg teria aprovado o uso da LibGen e outras fontes piratas para o treinamento da Llama (Foto: Divulgação/Meta)

O que é a LibGen?

A LibGen é uma plataforma focada no fornecimento de artigos científicos publicados em revistas pagas — o que por si só já gera um debate sobre direitos autorais. Contudo, parte do acervo do site inclui livros, quadrinhos, audiolivros e outras produções literárias.

Anteriormente, a Meta alegou que usou parte do banco de dados do Books3, um repositório de livros usados por empresas de IA para treinar seus modelos. O Books3 também tem seus problemas ligados a direitos autorais e acusações de pirataria.

Fora o possível uso da LibGen, o processo mostra que engenheiros e desenvolvedores da Meta buscaram remover as atribuições de dados e metadados que indicassem a origem do material usado no treinamento. A ideia seria esconder fontes ilícitas, como repositórios piratas e conteúdos protegidos por direito autoral.

Com informações de Wired e TechCrunch
Meta AI teria sido treinada com material pirateado do LibGen

Meta AI teria sido treinada com material pirateado do LibGen
Fonte: Tecnoblog

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

A Meta confirmou nesta terça-feira (18) o lançamento do Llama 2, seu modelo de linguagem grande (LLM na sigla em inglês) de código aberto e gratuito. O anúncio revelou que a Microsoft será parceira da empresa de Mark Zuckerberg nesta estreia. O Llama 2 será gratuito tanto para pesquisas quanto para uso comercial, além de estar disponível no Microsoft Azure, Windows, Amazon Web Services (AWS) e Hugging Face.

Llama 2 é novo modelo de linguagem grande da Meta e pode ser usado em IA generativa (Imagem: Vitor Pádua / Tecnoblog)

O lançamento dessa nova versão do Llama não chega de surpresa. Na quinta-feira passada, o jornal Financial Times publicou que a Meta estava próxima de anunciar a versão comercial do seu LLM. O Llama é uma tecnologia que pode ser usada como IA generativa. Anteriormente, ela só estava disponível para o público acadêmico e pesquisadores.

Anúncio do Llama 2 tem foto de Zuckerberg e CEO da Microsoft

Para anunciar o lançamento do LLaMA 2, Mark Zuckerberg publicou uma foto com Satya Nadella, CEO da Microsoft, na sua conta no Instagram.

Na legenda, o executivo agradece ao colega e rival e às equipes da Microsoft e da Meta responsáveis pelo desenvolvimento do Llama (sim, de acordo com a empresa, escreve “Llama” e não mais “LLaMA”). O CEO da Meta relembra ainda a parceria de anos entre as duas empresas.

 

 
 

 
 

Ver essa foto no Instagram

 

 
 
 

 
 

 
 
 

 
 

Uma publicação compartilhada por Mark Zuckerberg (@zuck)

“A Meta tem um longo histórico no fornecimento de código aberto de nossa infraestrutura e nosso trabalho com inteligência artificial (IA) – desde o PyTorch [parceria com a Microsoft], a estrutura líder em Machine Learning (aprendizado de máquina), passando por modelos como Segment Anything, ImageBind e Dino, até infraestruturas básicas como parte da fundação Open Compute Project.”

Mark Zuckerberg

Segundo a Meta, o Llama 2 foi treinada com 40% mais dados do que o antecessor.

Detalhes da estrutura do Llama 2 (Imagem: Divulgação/Meta)

Microsoft divulgou preços do Copilot nesta terça-feira

No mesmo dia em que a Microsoft anunciou a parceria com a Meta para o lançamento do Llama 2, a empresa fundada por Bill Gates divulgou os preços do Windows 365 Copilot, sua ferramenta de IA baseada no GPT-4 que funciona integrada com apps como Word, Excel e PowerPoint

Nos Estados Unidos, o serviço custará US$ 30, R$ 145 em conversão direta e sem impostos. O Tecnoblog aguarda um posicionamento da Microsoft sobre os valores aqui no país.
Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT
Fonte: Tecnoblog

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

A Meta pode lançar a versão comercial da sua inteligência artificial, a LLaMA, em breve. A informação foi publicada pelo jornal Financial Times nesta quinta-feira (13). A LLaMA é um modelo de linguagem de IA generativa da própria Meta, liberado no início do ano para acadêmicos e pesquisadores.

Meta está perto de lançar sua tecnologia de inteligência artificial para empresas (Imagem: Vitor Pádua/Tecnoblog)

Agora, a empresa de Mark Zuckerberg lançará uma versão comercial da IA. Com essa possível estreia, a Meta visa competir contra o ChatGPT, Bard e “Twitter”. Ontem (12) foi a vez de Elon Musk confirmar a existência da X.AI, a sua empresa do ramo de inteligência artificial.

Lançamento comercial da LLaMA é “iminente”, diz fonte

Uma fonte disse para o Financial Times que o lançamento da versão comercial da LLaMA é iminente. Essa versão será disponibilizada para empresas que desejam adaptar o modelo de linguagem (LLM), algo que a OpenAI já permite com o ChatGPT através de sua API — e que ajuda a pagar as contas.

E ao contrário do GPT-4, LLM da OpenAI, a LLaMA será um modelo de linguagem de código-aberto — pelo menos é o que afirma a Meta. Para Nick Clegg, diretor de assuntos globais da Meta, “abertura é o melhor antídoto contra os medos que permeiam inteligências artificiais”.

Modelo de linguagem grande da Meta para inteligência artificial será liberado em breve para empresas (Imagem: Vitor Pádua / Tecnoblog)

Uma outra fonte, na condição de anonimato, disse para o Financial Times que o objetivo abrir o código da LLaMA é diminuir o domínio da OpenAI — no segmento de inteligência artificial. E vamos lá falar o óbvio: essa não é uma tarefa nada fácil.

Com empresa de IA do Elon Musk e IA do Mark Zuckerberg prestes a chegar para o público, só vem a minha mente aquela frase da Vanessa da Mata ao ver as empresas entrando na corrida de inteligência artificial: “AI, AI, AI, AI, AI, AI, AI”.

Com informações:  Financial Times
Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa

Meta estaria próxima de lançar versão comercial da LLaMA, sua IA generativa
Fonte: Tecnoblog

Escritores processam empresa do ChatGPT por infringir direitos autorais

Escritores processam empresa do ChatGPT por infringir direitos autorais

Os escritores Sarah Silverman, Christopher Golden e Richard Kadrey abriram processos contra a OpenAI, empresa por trás do ChatGPT, e contra a Meta. Eles acusam as empresas de desrespeitar direitos autorais ao treinar suas inteligências artificiais de geração de texto.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

A ação foi movida na Corte Distrital do Norte da Califórnia. Ela alega que o ChatGPT, da OpenAI, e o LLaMA, da Meta, foram treinados com conjuntos de dados adquiridos ilegalmente, que continham as obras dos autores.

Os livros estariam em sites como o Z-Library (que foi derrubado em novembro de 2022), o Library Genesis e o Bibliotik, além de serem compartilhados por torrent.

Como evidência do uso ilegal, os escritores apontam que o ChatGPT é capaz de resumir seus livros com ótima precisão, apesar de errarem alguns detalhes, o que indicaria que eles tiveram acesso às obras completas.

Já em relação ao LLaMA, da Meta, os autores dizem ter encontrado as obras no conjunto de dados que a empresa usou para treinar seus modelos de IA.

A Meta tem uma abordagem mais aberta sobre o assunto que a OpenAI: em um artigo, ela detalha as fontes usadas para desenvolver seu gerador de texto.

O conjunto de dados se chama ThePile (”a pilha”, em tradução livre) e foi criado por uma empresa EleutherAI. Em um artigo, ela afirma que ele usa uma cópia dos conteúdos da Bibliotik.

Escritório de advocacia já move outras ações contra ChatGPT

Os três autores são representados no processo pelos advogados Joseph Saveri e Matthew Butterick. A dupla também entrou com outra ação contra a OpenAI, em nome dos escritores Mona Awad e Paul Tremblay, na mesma corte dos EUA.

Saveri e Butterick criaram até um site chamado LLM Litigation (“litígio contra grandes modelos de linguagem”, em tradução livre) para divulgar as ações.

Além dos autores, o escritório de Saveri representa artistas que entraram com uma ação coletiva contra o Stable Diffusion. O algoritmo supostamente toma ilustrações, desenhos e outras obras como base para gerar imagens.

Outro processo é contra o GitHub Copilot, que usa IA para sugerir trechos de código. Todas essas práticas podem caracterizar violação de direitos autorais.

Com informações: The Verge
Escritores processam empresa do ChatGPT por infringir direitos autorais

Escritores processam empresa do ChatGPT por infringir direitos autorais
Fonte: Tecnoblog

StableLM é um concorrente de código aberto para o ChatGPT

StableLM é um concorrente de código aberto para o ChatGPT

A Stability AI ficou famosa nos últimos meses com o Stable Diffusion, modelo de geração de imagens com inteligência artificial. Agora, ela vai partir para o campo da escrita. A empresa anunciou uma alternativa ao ChatGPT chamada StableLM, com código aberto.

Demonstração do StableLM (Imagem: Giovanni Santa Rosa/Tecnoblog)

O StableLM gera texto prevendo qual o próximo token, como é chamado o fragmento de palavra. A sequência começa com uma informação fornecida por um ser humano.

O funcionamento é bem parecido com o GPT-4, modelo grande de linguagem (LLM, na sigla em inglês) que serve de base para o ChatGPT.

“Modelos de linguagem formarão a espinha dorsal da nossa economia digital, e queremos que todo mundo possa opinar nesses projetos”, diz a Stability AI no blog post anunciando a novidade. “Modelos como o StableLM demonstram nosso compromisso com tecnologias de inteligência artificial transparentes, acessíveis e solidárias.”

StableLM promete ser mais eficiente

Por enquanto, o StableLM está em fase alpha. Ele foi disponibilizado no GitHub, nos tamanhos de 3 bilhões e 7 bilhões de parâmetros. A Stability AI promete que os modelos de 15 bilhões e 65 bilhões de parâmetros serão liberados em breve.

Os parâmetros são variáveis que um modelo usa para aprender a partir dos dados de treinamento. Números menores significam que os modelos podem ser mais eficientes, podendo rodar localmente em notebooks ou smartphones.

Por outro lado, eles precisam de projetos mais elaborados para conseguir entregar bons resultados usando menos recursos.

O StableLM é mais um dos modelos grandes de linguagem a prometer desempenho próximo ao do GPT-3, da OpenAI, com número menor de parâmetros — o GPT-3 usa 175 bilhões.

Outros são o LLaMA, da Meta; o Alpaca, de Stanford; o Dolly 2.0; e o Cerebras-GPT.

Os modelos foram disponibilizados sob a licença Creative Commons BY-SA-4.0. Isso significa que projetos derivados devem dar créditos ao autor original e ser compartilhados usando a mesma licença.

Por enquanto, é possível testar uma versão do modelo de 7 bilhões de parâmetros já customizada para chatbots no Hugging Face.

Com informações: Stability AI, Ars Technica
StableLM é um concorrente de código aberto para o ChatGPT

StableLM é um concorrente de código aberto para o ChatGPT
Fonte: Tecnoblog