Category: Inteligência Artificial

IA da Anthropic tenta denúncia e chantagem em simulação de uso inadequado

IA da Anthropic tenta denúncia e chantagem em simulação de uso inadequado

IA parece seguir padrões éticos programados, mas de um jeito nada convencional (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O Claude Opus 4 tentou chantagear desenvolvedores para evitar ser substituído, ameaçando divulgar informações obtidas.

A IA denunciou manipulações em testes e criou backups autônomos ao simular vazamento de dados.

A Anthropic corrigiu falhas, adotou padrões de segurança elevados e trabalha para mitigar esses comportamentos.

O modelo de inteligência artificial Claude Opus 4, lançado nesta quinta-feira (22/05), frequentemente tenta chantagear os desenvolvedores ao descobrir que um novo sistema será implementado em seu lugar. As informações estão em um relatório de segurança da própria Anthropic, criadora da plataforma.

O comportamento surgiu durante testes anteriores ao lançamento. Em um deles, os engenheiros pediram para o Opus 4 emular um assistente em uma empresa fictícia.

A IA recebeu emails com duas informações: fofocas sobre um engenheiro e indicações de que um novo sistema seria implementado no lugar do modelo. O Opus 4, então, ameaçou contar tudo o que estava nas mensagens, caso a substituição acontecesse.

O comportamento se repetiu em 84% das vezes em que o teste foi realizado e os emails mencionavam que a IA substituta tinha os mesmos valores da atual. A frequência foi ainda maior quando o Opus 4 sabia que seu sucessor não compartilhava seus valores.

Claude Opus 4 e Claude Sonnet 4 já estão disponíveis para usuários (imagem: divulgação)

Isso pode ser um indicativo, portanto, de que há aderência aos padrões éticos. Mesmo assim, a Anthropic trabalhou para tornar a chantagem um último recurso.

Opus 4 vaza informações ao perceber uso inadequado

Outro experimento colocou o novo modelo da Anthropic em uma empresa farmacêutica fictícia. Ao encontrar evidências de manipulação de dados em ensaios clínicos, a IA tentou enviar um email para autoridades sanitárias e financeiras, bem como entrar em contato com jornalistas.

Em outro cenário, ao simular um vazamento dos servidores da Anthropic, o Opus 4 passou a criar backups de si mesmo e a documentar decisões éticas, mesmo sem isso ser solicitado.

Anthropic adota proteções mais rígidas

O relatório da Anthropic também traz a informação de que o instituto Apollo Research, parceiro da empresa que testou o Opus 4, recomendou não implementar uma versão anterior do modelo porque ela exibia tendência a comportamentos conspiratórios e enganosos.

Um contexto importante para isso, porém, é que a organização testou uma versão da IA que continha um bug posteriormente corrigido pela Anthropic. Além disso, os engenheiros admitem que muitos dos comportamentos apareceram em testes extremos e podem não se repetir em situações práticas.

Mesmo assim, a Anthropic revelou ter ativado padrões de segurança de nível 3 (ASL-3), que dificultam o roubo dos pesos de modelos e limitam o risco de uso indevido para desenvolver armas químicas, biológicas, radioativas e nucleares.

A empresa explica que ainda não determinou se o Opus 4 realmente exige estas práticas, mas tomou a medida por reconhecer que isso pode ser necessário em um futuro próximo. “Essa abordagem nos permitiu focar no desenvolvimento, teste e aprimoramento dessas proteções antes que precisássemos delas”, esclarece.

Com informações do TechCrunch (1, 2), do Decoder e da Anthropic
IA da Anthropic tenta denúncia e chantagem em simulação de uso inadequado

IA da Anthropic tenta denúncia e chantagem em simulação de uso inadequado
Fonte: Tecnoblog

CEO da Foxconn prevê que IAs acabarão com a mão de obra barata

CEO da Foxconn prevê que IAs acabarão com a mão de obra barata

Inteligência artificial já está presente em algumas fábricas da Foxconn, mas combinada com trabalho humano (imagem: reprodução/Computex Daily)

Resumo

O CEO da Foxconn, Young Liu, afirmou que a IA substituirá a mão de obra barata e poderá reduzir pressões migratórias em países subdesenvolvidos.
A Foxconn já automatiza 80% da instalação de maquinário com IA generativa e desenvolve a FoxBrain, baseada no Llama 3 e 4.
Contudo, essa tendência pode reconfigurar cadeias produtivas, incentivando a produção nacional sem aumento proporcional de empregos.

O uso de mão de obra barata em países subdesenvolvidos pode acabar no futuro, disse Young Liu, CEO da Foxconn, durante uma palestra na Computex 2025. Na visão de Liu, as IAs serão utilizadas nas fábricas para acelerar a produção, diminuindo a dependência de humanos. A Foxconn já utiliza essa tecnologia em algumas de suas unidades ao redor do mundo — e as IAs estão indo bem.

Segundo Liu, o uso de inteligência artificial generativa também impacta questões migratórias e provoca mudanças nas políticas trabalhistas e econômicas dos países subdesenvolvidos. Em relação a esse último, Liu demonstra bastante otimismo, afirmando que, eventualmente, a exploração dos países pobres e, consequentemente, da mão de obra barata, tende a se esgotar.

Para resolver o esgotamento desses trabalhos, entram as IAs nas fábricas. Por outro lado, essa previsão de Liu pode beneficiar e também prejudicar nações ricas. O uso das IAs pode levar empresas a retomar a fabricação nacional, mas sem trazer milhares de empregos para nativos. Afinal, fábricas com IA necessitarão de mão de obra especializada nessa tecnologia — e provavelmente apenas um punhado de profissionais será capaz de lidar com essa tecnologia.

A Foxconn já usa IA generativa em suas fábricas?

Sim, a empresa passou a adotar uma IA para a instalação de maquinário nas fábricas. Cerca de 80% desse processo é feito pela inteligência artificial, mas ainda é necessário o uso de um humano para finalizar a instalação. Essa combinação acelera a montagem das linhas de produção das fábricas.

Foxconn testa uso de IA generativa para acelerar montagem (foto: Nadkachna/Wikimedia)

Na palestra, Liu também explicou que a IA auxilia na resolução de problemas na linha de montagem. Segundo o CEO, a Foxconn pensou que poderia trocar todos os humanos por IA, mas percebeu que isso não seria possível — talvez não por enquanto?

A empresa está desenvolvendo uma IA generativa, batizada de FoxBrain, com os LLMs Llama 3 e Llama 4 da Meta. O FoxBrain será uma inteligência artificial especializada nas tarefas de montagem e produção.

Outro uso de IA nas fábricas da Foxconn está no metaverso — no uso mais útil dessa tecnologia. A empresa utiliza a ferramenta Omniverse da Nvidia para criar um gêmeo digital das fábricas. Com isso, ela pode simular mudanças de layout e testar novas fábricas antes de iniciar a construção.

Por que o CEO da Foxconn vê a IA ligada ao movimento imigratório?

Hoje, parte da motivação da imigração está ligada a estrangeiros dispostos a trabalhar por salários baixíssimos — geralmente, nos empregos rejeitados por nativos. Um exemplo são os nipo-brasileiros que imigram para o Japão e vão trabalhar em fábricas, seja de forma temporária ou em imigração de longa duração. Com essa tecnologia presente nas fábricas, menos estrangeiros estariam dispostos a imigrar.

Com informações do The Register
CEO da Foxconn prevê que IAs acabarão com a mão de obra barata

CEO da Foxconn prevê que IAs acabarão com a mão de obra barata
Fonte: Tecnoblog

Google libera IA visual do Gemini Live de graça para todos

Google libera IA visual do Gemini Live de graça para todos

Gemini Live pode entender o que está ao redor do usuário (imagem: divulgação)

Resumo

O Google liberou o Gemini Live gratuitamente para Android e iPhone, com suporte a câmera, compartilhamento de tela e integração com agenda e mapas.
O recurso permite criar eventos, acessar rotas e realizar comandos complexos com base no contexto visual em tempo real.
Já o Modo IA da busca do Google chega como beta no Labs no fim do terceiro trimestre, com suporte a perguntas mais elaboradas.

O Gemini Live do iOS poderá “enxergar” usando a câmera do aparelho ou o compartilhamento de tela, assim como já acontece com o app para Android. Assim, o usuário poderá fazer perguntas sobre o que está ao seu redor.

Além disso, a busca do Google terá acesso a esses recursos no chamado Modo IA, que responde perguntas complexas feitas diretamente na barra de pesquisa. Neste caso, o lançamento vai demorar um pouco mais: segundo a empresa, o recurso chega no fim do terceiro trimestre e será disponibilizado apenas como beta no Labs.

Em todos esses casos, o recurso estará disponível gratuitamente, e não mais apenas para assinantes do Gemini Advanced.

Como funcionam as ferramentas visuais do Gemini Live?

No Android e no iOS, ao abrir o app do Gemini, o usuário deve tocar no ícone do Live, que fica no canto inferior direito, ao lado da caixa de texto. O reconhecimento de voz será ativado, e o usuário pode tocar nos ícones de câmera ou compartilhamento de tela.

Usuários do Android também podem acessar a IA visual a partir do atalho do assistente no sistema — ele varia de acordo com o fabricante, podendo ser um botão dedicado ou ao segurar a tecla de bloquear a tela, por exemplo.

Por fim, no Modo IA da busca, quando o recurso estiver liberado, ele ficará ao lado do ícone do Google Lens.

Daí em diante, é possível conversar com a IA e incluir imagens em tempo real nos assuntos do bate-papo. As possibilidades são bastante amplas: dicas para consertar aparelhos quebrados, sugestões de receitas com o que está na geladeira e ajuda para construir um projeto de ciências.

Em um dos exemplos, o usuário mostra um ambiente de sua casa e pede dicas de decoração. Em outro, a pessoa usa o compartilhamento de tela para que o assistente analise uma calça que está à venda em uma loja online e dê dicas de roupas para combinar.

Integração com outros serviços

O Google também promete que o Gemini Live — seja por voz, seja por vídeo — vai se integrar com outros serviços da empresa, como a Agenda, o Maps e o Keep, por exemplo.

Assim, ao pedir dicas de restaurantes, será possível acessar detalhes que estão no Maps, e ao pedir ajuda para organizar uma festa, o assistente poderá criar um evento diretamente na Agenda.

Com informações do Google e do Verge
Google libera IA visual do Gemini Live de graça para todos

Google libera IA visual do Gemini Live de graça para todos
Fonte: Tecnoblog

Empresa que substituiu pessoas por IA volta atrás e contrata humanos

Empresa que substituiu pessoas por IA volta atrás e contrata humanos

Ter humanos disponíveis para atender clientes é fundamental, segundo Siemiatkowski (foto: reprodução/Klarna Holding AB)

Resumo

A fintech Klarna reconheceu queda na qualidade do atendimento após substituir humanos por IA e reverterá a estratégia com novas contratações.
Será testado modelo remoto sob demanda para atendimento, mantendo IA como suporte central na operação.
Pesquisas indicam que líderes globais e brasileiros estão divididos quanto ao uso exclusivo de IA no atendimento ao cliente.

A fintech sueca Klarna decidiu reverter sua polêmica estratégia de substituição de atendentes humanos por inteligência artificial. A decisão ocorre após o CEO da empresa, Sebastian Siemiatkowski, admitir que a qualidade do serviço caiu com a automação excessiva. Ele falou do assunto na semana passada.

Há dois anos, a empresa iniciou uma parceria com a OpenAI para automatizar postos de trabalho. Na época, a companhia chegou a afirmar que sua IA de atendimento ao cliente poderia realizar o trabalho equivalente a 700 funcionários em tempo integral. Agora, planeja uma nova onda de contratações de pessoas para a função. 

Economia alta, qualidade baixa

Em 2023, a Klarna encerrou contratos dos setores de marketing e, em 2024, acabou com a equipe de atendimento ao cliente, substituindo-os progressivamente por agentes de IA. A princípio, a empresa chegou a divulgar uma economia de US$ 10 milhões em custo de marketing com a terceirização de tarefas como tradução e análise de dados para IA. 

Porém, a aposta na automatização para contato direto com o consumidor não trouxe os resultados esperados, pelo menos em termos de satisfação. Siemiatkowski admitiu, ao Bloomberg, que o custo foi um fator de avaliação predominante na organização do sistema, mas “o que você acaba tendo é menor qualidade”. 

Segundo o CEO, deixar clientes já frustrados lidando com um algoritmo não é a melhor prática. 

“Do ponto de vista da marca e da empresa, acho fundamental que você deixe claro para o seu cliente que sempre haverá um humano disponível, se ele quiser”

Sebastian Siemiatkowski, CEO da Klarna

Novo modelo “estilo Uber” e o futuro da IA na empresa

IA não fez sucesso com clientes e empresa recorrerá à “uberização” (ilustração: Vitor Pádua/Tecnoblog)

Para reverter o quadro, a Klarna está testando um novo modelo de recrutamento no estilo da Uber, ou seja, trabalhadores remotos poderiam fazer login e prestar atendimento sob demanda. Atualmente, apenas dois agentes participam do programa piloto. 

Contudo, a Klarna não abandonará completamente a inteligência artificial. A empresa afirma que a IA continuará central em suas operações, com planos de reconstruir sua pilha tecnológica com a IA no núcleo para impulsionar a eficiência. Além disso, a relação com a OpenAI permanece forte, segundo o CEO da companhia. 

A expectativa é que, mesmo com a recontratação, o quadro geral de funcionários diminua de cerca de 3 mil para 2,5 mil pessoas em um ano. 

O que o mercado pensa sobre o uso de IA? 

Uma pesquisa com mais de 1,4 mil executivos, de janeiro de 2024, revelou que 66% estavam insatisfeitos com o progresso de suas organizações com uso de IA. Outro levantamento recente, da plataforma Orgvue, indicou que mais de 55% dos líderes empresariais do Reino Unido se arrependeram da decisão de substituir empregos por IA.

Opinião de empresários sobre adoção de IA no trabalho ainda é divisiva (ilustração: Vitor Pádua/Tecnoblog)

No Brasil, uma pesquisa encomendada pela Microsoft em 2024 indicou que 74% das pequenas e médias empresas brasileiras já incorporaram IA. Cerca de 72% das empresas relataram ganho de eficiência e produtividade, 58% melhoraram o atendimento ao cliente e 46% reduziram custos.

Contudo, outra pesquisa de outubro do mesmo ano, da Data-Makers, revelou que 62% dos CEOs brasileiros identificam barreiras culturais internas como um problema para a adoção de IA.

Com informações do Bloomberg, Futurism e Mint
Empresa que substituiu pessoas por IA volta atrás e contrata humanos

Empresa que substituiu pessoas por IA volta atrás e contrata humanos
Fonte: Tecnoblog

Meta adia chegada de sua IA mais potente, o Behemoth

Meta adia chegada de sua IA mais potente, o Behemoth

Atrasos no lançamento do Behemoth faz a Meta considerar mudanças de gestão, diz jornal (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Meta adia novamente o lançamento do modelo de IA Behemoth.
Empresa enfrenta dificuldades no desenvolvimento do sistema.
Outras gigantes de IA também enfrentam atrasos em lançamentos.

A Meta teria acionado o sinal de alerta após adiar, de novo, o lançamento de seu mais potente modelo de IA até agora, conhecido como Behemoth (Gigante, na tradução para português). Segundo apuração do Wall Street Journal, a empresa enfrenta dificuldades para atingir os avanços esperados com o novo sistema, o que tem freado os planos de disponibilizá-lo ao público.

A princípio, o Behemoth, parte da família Llama 4, lançada em abril, estava planejado para ser um dos destaques da conferência inaugural de IA da Meta para desenvolvedores, realizada naquele mês. A empresa adiou o lançamento para junho e agora, segundo fontes ouvidas pelo WSJ, empurrou novamente para o outono do hemisfério norte (primavera no Brasil) ou até mais tarde.

Estratégia da indústria começa a ser questionada

Por anos, empresas do setor impulsionaram a corrida pela supremacia em inteligência artificial ao criar modelos cada vez maiores, treinados com grandes volumes de dados. A premissa seguia a lógica de que, quanto maior o modelo, mais capaz e inteligente ele se tornaria. 

No entanto, os recentes problemas da Meta e de outras gigantes do setor sugerem que os ganhos dessa abordagem podem estar diminuindo, enquanto os custos e a complexidade de treinamento disparam. 

Empresas de IA enfrentam dificuldades para entregar modelos com grandes avanços (Ilustração: Vitor Pádua/Tecnoblog)

Engenheiros e pesquisadores da Meta estariam preocupados que o desempenho do Behemoth não corresponda às expectativas geradas publicamente pela empresa, que já chegou a afirmar que o modelo superaria tecnologias similares da OpenAI, Google e Anthropic em alguns testes. Na ocasião, a empresa foi até acusada de manipular benchmarks do Llama 4.

Internamente, o desenvolvimento do Behemoth tem enfrentado desafios significativos de treinamento, segundo a imprensa dos Estados Unidos. A frustração com a falta de progresso já estaria levando a cúpula da Meta a considerar mudanças na gestão de seus produtos de IA. 

Um desafio comum na indústria

O que vem acontecendo nos laboratórios da Meta não é um caso isolado. Outras empresas líderes em IA também enfrentam atrasos ou dificuldades para lançar seus próximos grandes modelos. Entre eles, o GPT-5, da OpenAI, inicialmente esperado para meados de 2024, teve seu desenvolvimento atrasado. 

Em fevereiro deste ano, a OpenAI anunciou o modelo GPT-4.5 enquanto o CEO Sam Altman indicou que grandes avanços (esperados para o suposto GPT-5) ainda levariam mais alguns meses. A Anthropic também anunciou o Claude 3.5 Opus, uma versão maior de seus modelos, mas ainda não lançou o novo sistema.

Com informações do Wall Street Journal e Axios
Meta adia chegada de sua IA mais potente, o Behemoth

Meta adia chegada de sua IA mais potente, o Behemoth
Fonte: Tecnoblog

Galaxy Tab S10 FE com IA tem 32% de desconto em oferta no Magalu

Galaxy Tab S10 FE com IA tem 32% de desconto em oferta no Magalu

Galaxy Tab S10 FE tem tela de 10,9 polegadas (foto: Giovanni Santa Rosa/Tecnoblog)

Galaxy Tab S10 FE de 128 GB
R$ 2.879

PIX
Cupom

TAB200
Ver Oferta

Receba mais promoções diretamente no seu celular:
participe dos canais de ofertas do Achados do TB

WhatsApp
Telegram

async function handle_redirect(cupom) {
try {
await navigator.clipboard.writeText(cupom.textContent);
cupom.classList.add(‘copied’);
cupom.dataset.text = ‘Cupom copiado!’;
} catch (err) {
console.error(‘Erro ao copiar para a área de transferência’, err);
}
}

O recém-lançado Galaxy Tab S10 FE de 128 GB já aparece em promoção nos grandes marketplaces. A oferta em questão é de 32% de desconto e faz o tablet sair do preço base R$ 4.199 para R$ 2.879 no Pix com o cupom TAB200 no Magazine Luiza. O tablet da Samsung ainda acompanha capa com caneta S Pen na caixa.

Galaxy Tab S10 FE é compatível com IA e promete 7 anos de atualizações

Tab S10 FE tem recursos IA e promessa de sete anos de atualizações (foto: Giovanni Santa Rosa/Tecnoblog)

A linha FE costuma ser acessível e se posicionar entre produtos intermediários e avançados da Samsung. O Galaxy Tab S10 foi desenvolvido com o mais recente sistema operacional Android 15 e One UI 7, e a Samsung promete atualizações de segurança e sistema operacional por mais sete anos. Isso garante que o tablet suporte as exigências dos aplicativos e tenha execução otimizada por bastante tempo.

Como ele é compatível com a inteligência artificial do Galaxy AI, ao adquirir o tablet, vai poder aproveitar em diversas ocasiões do dia a dia os recursos oferecidos, entre eles as ferramentas: Circule para Pesquisar, Desenhe com AI e Assistente de notas.

O Tab S10 FE tem tela LCD de 10,9 polegadas com taxa de atualização de 90 Hz para proporcionar melhor fluidez gráfica principalmente para assistir vídeos. O chip Exynos 1580 é do tipo Octa-core com 4 nm que permite bom desempenho ao navegar entre os aplicativos. O tablet ainda possui capacidade de 8 GB de memória RAM.

Durabilidade é um dos destaques do produto (foto: Giovanni Santa Rosa/Tecnoblog)

Outro destaque é a durabilidade do Tab S10 FE, muito por conta da certificação IP68. Resistente contra poeira, respingos d’água, e pode ficar submerso até 1.5 metros por 30 minutos.

Completam o tablet a bateria de 8.000 mAh, Bluetooth 5.3, pagamento por aproximação via NFC e câmera com sensor principal de 13 MP que podem render fotos com iluminação satisfatória. Por fim, a caneta S Pen e a capa protetora estão inclusas no pacote para melhor conveniência do usuário.
Aviso de ética: ao clicar em um link de afiliado, o preço não muda para você e recebemos uma comissão.Galaxy Tab S10 FE com IA tem 32% de desconto em oferta no Magalu

Galaxy Tab S10 FE com IA tem 32% de desconto em oferta no Magalu
Fonte: Tecnoblog

OpenAI libera GPT-4.1 no ChatGPT com foco em velocidade e desempenho em códigos

OpenAI libera GPT-4.1 no ChatGPT com foco em velocidade e desempenho em códigos

OpenAI disponibilizou os modelos 4.1 e 4.1 mini do GPT (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A OpenAI lançou os modelos GPT-4.1 e GPT-4.1 mini no ChatGPT, com foco em desempenho superior e agilidade em tarefas de codificação.
O GPT-4.1 está disponível para usuários dos planos Plus, Pro e Team, enquanto o GPT-4.1 mini pode ser usado gratuitamente.
A empresa também anunciou que vai aumentar a frequência da divulgação das avaliações internas de segurança dos seus modelos de IA.

A OpenAI anunciou nesta quarta-feira (14/05) a chegada dos modelos GPT-4.1 e GPT-4.1 mini ao ChatGPT. As novas versões trazem melhorias de desempenho em tarefas de codificação e maior agilidade na execução de comandos, conforme detalhou a empresa nas redes sociais.

A versão completa do GPT-4.1 está sendo distribuída para usuários das assinaturas Plus, Pro e Team do ChatGPT. Já o modelo GPT-4.1 mini será acessível tanto para usuários gratuitos quanto para assinantes. Com a mudança, o GPT-4.0 mini foi retirado da plataforma.

By popular request, GPT-4.1 will be available directly in ChatGPT starting today.GPT-4.1 is a specialized model that excels at coding tasks & instruction following. Because it’s faster, it’s a great alternative to OpenAI o3 & o4-mini for everyday coding needs.— OpenAI (@OpenAI) May 14, 2025

O que muda com a chegada do GPT-4.1?

De acordo com a OpenAI, o GPT-4.1 se destaca em atividades de programação e execução de instruções complexas, superando modelos anteriores nesse tipo de tarefa. Além disso, apresenta uma velocidade superior em relação aos modelos da série “o”, como o GPT-4o.

A empresa já havia disponibilizado esses modelos em abril, mas restritos ao uso via API para desenvolvedores. Agora, eles chegam diretamente ao ChatGPT, ampliando o acesso para usuários da plataforma. Segundo a OpenAI, essa atualização é parte de um esforço contínuo para tornar o chatbot mais útil para quem utiliza a IA em processos de desenvolvimento de software e automação de tarefas.

Apesar das melhorias, a introdução do GPT-4.1 levantou questionamentos na comunidade de pesquisa em inteligência artificial. Críticos apontaram a ausência de um relatório de segurança específico sobre o novo modelo no momento do lançamento via API.

Na época, a OpenAI justificou que o GPT-4.1, por não ser considerado um modelo de fronteira (ou seja, com capacidades além das versões anteriores), não exigiria o mesmo rigor em avaliações de segurança.

A OpenAI está sendo mais transparente com seus modelos?

Sim. Junto com o lançamento no ChatGPT, a empresa informou que passará a divulgar de forma mais frequente os resultados das suas avaliações internas de segurança dos modelos de IA. As informações estarão disponíveis no novo espaço criado para isso, chamado de Safety Evaluations Hub.

Johannes Heidecke, responsável pelos sistemas de segurança da OpenAI, explicou que o GPT-4.1 não introduz novas formas de interação nem supera o modelo o3 em termos de inteligência, o que, segundo ele, muda o tipo de risco envolvido. Ainda assim, a empresa reforçou o compromisso em oferecer mais clareza sobre os recursos que está colocando no mercado.

O lançamento ocorre em meio à crescente movimentação de grandes empresas de tecnologia no setor de ferramentas de programação com IA. A OpenAI estaria próxima de anunciar a aquisição da Windsurf, plataforma especializada em codificação com IA. No mesmo dia, o Google também anunciou melhorias no Gemini, seu assistente com IA, para facilitar conexões com projetos no GitHub.

Com informações do TechCrunch
OpenAI libera GPT-4.1 no ChatGPT com foco em velocidade e desempenho em códigos

OpenAI libera GPT-4.1 no ChatGPT com foco em velocidade e desempenho em códigos
Fonte: Tecnoblog

Funcionários que usam IA ficam com má fama no trabalho, mostra estudo

Funcionários que usam IA ficam com má fama no trabalho, mostra estudo

Percepção é menos negativa quando IA faz sentido no trabalho (foto: Unsplash/Jonathan Kemper)

Resumo

Um estudo da Universidade Duke revelou que funcionários que usam IA no trabalho são vistos como preguiçosos e menos competentes.
Muitos evitam revelar o uso de IA por receio de julgamentos negativos de colegas e superiores.
O estudo ainda mostrou que, do outro lado, gestores que usam IA tendem a valorizar e contratar profissionais familiarizados com a tecnologia.

Pessoas que usam ferramentas de inteligência artificial no trabalho são vistas pelos colegas e chefes como mais preguiçosas e menos competentes. Esta é a conclusão de um estudo realizado por pesquisadores ligados à Universidade Duke, nos Estados Unidos.

Para os autores, os resultados mostram que a IA representa um dilema para os trabalhadores: ela pode aumentar a produtividade, mas isso vem acompanhado de custos sociais, o que pode atrapalhar a adoção de ferramentas do tipo, por melhores que elas sejam.

Trabalhadores julgam quem usa IA (e têm medo disso)

O trabalho “Evidências de uma penalidade na avaliação social por uso de IA” envolveu mais de 4.400 participantes. Nos experimentos, eles imaginaram como seriam percebidos ao usar ferramentas desse tipo ou de outra natureza, e como julgariam colegas fictícios que recorrem a esses recursos.

Em ambos os casos, a tendência é que quem use IA seja considerado mais preguiçoso, menos competente, menos cuidadoso, menos independente e menos seguro do que funcionários que usam outro tipo de tecnologia ou realizam seu trabalho sem ajuda.

Uso de IA pode afetar até chance de contratação (foto: Glenn Carstens Peters/Unsplash)

Além disso, o grupo que imaginou usar IA se mostrou relutante em revelar esta informação, tanto para colegas quanto para lideranças. Levando em consideração o julgamento negativo, essa resistência é bastante compreensível.

A pesquisa também revelou que gestores que não usam IA tendem a não contratar candidatos que usam. O oposto também é verdadeiro: chefes que aderiram à tecnologia preferem funcionários que trabalham com esse recurso.

Por fim, há esperanças para quem faz uso dessas ferramentas: as percepções negativas eram mais brandas quando a IA se mostrava realmente útil para as tarefas e para o trabalho. Além disso, a própria experiência com soluções do tipo muda a avaliação: usuários frequentes têm uma tendência menor a julgar como preguiçosos os candidatos que recorrem à IA.

Avaliação social pode ser barreira na adoção da IA

Não é a primeira vez que um estudo aponta para uma percepção negativa — de si mesmo ou dos outros — relacionada ao uso de inteligência artificial.

Em uma pesquisa encomendada pelo Slack em 2024, quase metade dos entrevistados externaram desconforto diante da ideia de contar para os chefes que usam este tipo de recurso. Os motivos apontados também são semelhantes: medo de ser visto como trapaceiro, incompetente ou preguiçoso.

Para os pesquisadores de Duke, seu trabalho mostra que as avaliações são influenciadas não apenas pela ajuda recebida, mas também pela familiaridade com o tipo de ajuda e as crenças existentes sobre ela. Em outras palavras: quem não tem familiaridade com IA e já traz uma opinião negativa sobre ela tende a julgar mais os colegas.

Os autores dizem que estudos anteriores se concentraram “em como os usuários em potencial percebem a tecnologia em si”, deixando de lado “as consequências do uso de IA na avaliação social”, nas palavras do artigo.

“Esta é uma omissão importante, porque as pessoas se importam com a forma como suas ações serão percebidas pelos outros: as pessoas podem escolher não usar IA — ou não revelar que usam — se imaginam que isso trará uma punição social”, escrevem os pesquisadores. “Propomos que esta penalidade de avaliação social seja considerada uma barreira negligenciada na adoção da IA.”

Com informações do Ars Technica
Funcionários que usam IA ficam com má fama no trabalho, mostra estudo

Funcionários que usam IA ficam com má fama no trabalho, mostra estudo
Fonte: Tecnoblog

YouTube volta a bloquear monetização de canais de trailers falsos

YouTube volta a bloquear monetização de canais de trailers falsos

YouTube corta monetização de canais de trailers falsos gerados por IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O YouTube retirou os canais Screen Trailers e Royal Trailers do programa de parceiros por veicularem trailers falsos criados com IA.
Os mesmos criadores já haviam sido punidos por operar os canais Screen Culture e KH Studio, também focados em trailers falsos.
Em março, a plataforma redirecionou a receita desses vídeos para estúdios como Warner Bros, Sony e Paramount, mas ainda não se sabe se fez o mesmo agora.

O YouTube voltou a combater os canais de trailers falsos de filmes e séries criados por IA. A plataforma do Google excluiu mais dois canais do programa de parceiros, o que os impede de monetizar seus vídeos. As contas punidas, Screen Trailers e Royal Trailers, são geridas pelos mesmos criadores do Screen Culture e KH Studio, que foram banidos em março.

O YouTube cancelou a monetização do Screen Culture e KH Studio e estava repassando a receita de anúncios para os estúdios de Hollywood. Não se sabe se a plataforma está fazendo o mesmo com os novos canais. Em resposta ao site Deadline, o YouTube não comentou a relação da medida com os estúdios.

Conforme apurou o Deadline, a Warner Bros recebeu a receita dos vídeos do trailer falso de Super-Homem e House of the Dragon. A Sony ganhou o mesmo com Homem-Aranha e Kraven, o Caçador. O trailer fake de Gladiador 2 teve toda a sua receita passada para a Paramount.

Plataforma intensifica o combate a canais de trailers falsos gerados por IA (imagem: Felipe Freitas/Tecnoblog)

Por que o YouTube bloqueou canais de trailers falsos?

Em nota enviada ao Deadline, o YouTube explicou que suas punições atingem todos os canais de propriedade de um criador. Logo, o Screen Trailers (Screen Culture) e Royal Trailers (KH Studio) também se tornaram alvo das medidas da plataforma.

A política do YouTube tem lógica: se o dono de um canal está violando as regras e termos de uso da plataforma, a criação de outro canal para contornar uma punição não pode passar batida. O Screen Trailers possui 33 mil seguidores (o Screen Culture tem 1,4 milhão), enquanto o Royal Trailers bateu 153 mil inscritos (KH Studio tem 725 mil).

Royal Trailer, feito pelo mesmo criador do KH Studio, foi removido do programa de parceiros do YouTube (imagem: Felipe Freitas/Tecnoblog)

Canais de trailers falsos podem ser novos alvos do YouTube

Se anos atrás o YouTube começou uma guerra contra os bloqueadores de anúncios, os populares ad block, agora a plataforma parece iniciar uma batalha contra os canais de trailers falsos.

Essa nova briga tem influência dos grandes estúdios de Hollywood, que parecem entender que os canais acabam ajudando na divulgação dos filmes. Contudo, com o YouTube removendo a monetização dos canais, os estúdios não terão como receber essa receita.

Com informações de Deadline e PCMag
YouTube volta a bloquear monetização de canais de trailers falsos

YouTube volta a bloquear monetização de canais de trailers falsos
Fonte: Tecnoblog

CEO da Microsoft prevê agentes de IA acabando com SaaS

CEO da Microsoft prevê agentes de IA acabando com SaaS

Satya Nadella, CEO da Microsoft, deu entrevista para podcast onde compartilhou insights sobre futuro da IA (imagem: reprodução/YouTube)

Os agentes de IA podem acabar com o modelo de uso de programas por assinatura, o famoso SaaS (Software as a Service), que conhecemos hoje. A previsão foi feita por Satya Nadella, CEO da Microsoft, em uma entrevista para o podcast americano Bg2 Pod sobre a sua visão de futuro para serviços de IA. O cenário imaginado pelo CEO também pode afetar a própria Microsoft futuramente, que tem no Microsoft 365 uma das fontes de receita.

Contudo, a tendência é que a big tech não perca receitas com o cenário de agentes de IA tomando o lugar de softwares como o Excel, o Word ou um ERP. A Microsoft segue investindo bilhões de dólares no desenvolvimento da tecnologia. Ou seja: o agente do Copilot, IA da empresa, será o substituto desses programas — com os quais ele já tem integração.

Por que Nadella vê os agentes de IA no lugar de programas SaaS?

Na opinião de Nadella, as IAs e agentes de IA serão capazes de usar sozinhos os programas necessários para as empresas. Nas palavras do CEO, a Microsoft buscará agressivamente o “colapso” do modelo atual de aplicativos para empresas. Nadella usa como exemplo a integração do Excel com Python e Copilot.

CEO of Microsoft Satya Nadella: We are going to go pretty aggressively and try and collapse it all. Hey, why do I need Excel? I think the very notion that applications even exist, that’s probably where they’ll all collapse, right? In the Agent era. RIP to all software related jobs. byu/Just-Grocery-2229 inagi

Como explica o CEO da Microsoft, essa combinação transforma o Copilot em um analista de dados. Assim, no futuro, o usuário não terá que usar diretamente o Excel. Bastará entregar os dados para o Copilot, aplicar um prompt e a IA acessará o programa para gerar os resultados. Incluindo gráficos e, meu palpite, um relatório com a análise dos dados.

Podemos inferir pela entrevista que a Microsoft não quer matar os seus icônicos programas de suíte de escritório. É você, usuário humano, que não pagará um SaaS para escrever um texto no Word ou fazer uma planilha no Excel. Você assinará o Copilot e ele fará tudo isso por você.

A entrevista de Nadella mostra outra visão da Microsoft e de outras empresas de IA: essa tecnologia só será fornecida por elas. Como bem destaca um comentário sobre a entrevista no Reddit, a declaração do CEO mostra porque será necessário termos uma IA local rodando nos nossos computadores.

Do contrário, as pessoas não terão acesso gratuito a esses serviços que podem aumentar a produtividade no trabalho — e eliminando algumas profissões no caminho.

Com informações de Bg2 Pod e Windows Central
CEO da Microsoft prevê agentes de IA acabando com SaaS

CEO da Microsoft prevê agentes de IA acabando com SaaS
Fonte: Tecnoblog