Category: Inteligência Artificial

Amazon Prime Video já testa IA para dublar filmes e séries

Amazon Prime Video já testa IA para dublar filmes e séries

Amazon Prime Video já testa IA para dublar filmes e séries (imagem: divulgação/Amazon)

Resumo

A Amazon iniciou testes de um sistema assistido por IA para dublagem de filmes e séries no Prime Video.
O processo combina inteligência artificial com revisão humana para assegurar precisão e adaptação ao público local.
Por enquanto, o novo sistema realiza a dublagem de conteúdos do inglês para o espanhol da América Latina.

A Amazon anunciou o início dos testes de um sistema assistido por inteligência artificial para dublar determinados filmes e séries disponíveis no Prime Video. A companhia afirma que a intenção é expandir o acesso a produções que não foram ou não puderam ser dubladas de modo convencional.

Nesta fase inicial, o novo sistema faz dublagem apenas entre o inglês e o espanhol da América Latina. Mas nada impede que, dependendo dos resultados do teste, a iniciativa seja expandida para cobrir mais idiomas.

O período de testes envolve 12 produções licenciadas pela Amazon, a exemplo dos filmes El Cid: La Leyenda (animação), Mi Mamá Lora e Long Lost.

A Amazon quer substituir dubladores humanos?

A companhia dá a entender que não. Essa dúvida é pertinente porque a inteligência artificial é vista como uma ameaça para numerosas profissões, inclusive a de dubladores. Mas a Amazon explica que o novo sistema é direcionado apenas a títulos sem dublagem:

A dublagem auxiliada por IA está disponível apenas em títulos que não têm suporte para dublagem [convencional], e estamos ansiosos para explorar uma novo modo de tornar séries e filmes mais acessíveis e agradáveis.

Repare também que a Amazon fala em “dublagem auxiliada por IA”, não em “dublagem feita por IA”. A razão disso é que esse trabalho é complementado com esforços humanos, que ajudam a tornam a dublagem mais precisa de acordo com a localidade. Novamente, a Amazon explica:

Processos auxiliados por IA como este, que incorporam a quantidade certa de experiência humana, podem permitir a localização de títulos que de outra forma não seriam acessíveis aos clientes.

Embora a Amazon não dê detalhes sobre como esse processo funciona, é de se presumir que o sistema de IA faz a dublagem inicial e, na sequência, revisores humanos realizam ajustes ou correções.

Amazon Prime Video informa quando dublagem é feita por IA (imagem: divulgação/Amazon)

Ainda assim, o assunto tende a ser polêmico, dado o temor de que, quando esse sistema sair da fase de testes, passe a ser usado até em produções que, em circunstâncias convencionais, seriam dubladas por pessoas.

É claro que a dublagem no Prime Video não é a única iniciativa da Amazon no campo da inteligência artificial. O projeto da empresa mais chamativo nessa área consiste na recém-anunciada Alexa+, versão da assistente “turbinada” justamente com IA.
Amazon Prime Video já testa IA para dublar filmes e séries

Amazon Prime Video já testa IA para dublar filmes e séries
Fonte: Tecnoblog

Google lança AI Mode para entregar buscas em tempo real e com raciocínio

Google lança AI Mode para entregar buscas em tempo real e com raciocínio

Google liberou AI Mode em versão beta nos Estados Unidos (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O Google lançou o AI Mode, um novo sistema de busca que aprimora o AI Overview.
A ferramenta utiliza o LLM Gemini 2.0 para buscar informações em tempo real e analisar dados, oferecendo respostas mais atualizadas.
No momento, o AI Mode está disponível apenas para usuários inscritos no Google Search Labs e assinantes do Google One AI Premium nos EUA, sem previsão para outros países.

O Google anunciou nessa quarta-feira (05/03) o AI Mode, novo sistema de busca com IA da big tech. O AI Mode é uma evolução do AI Overview, aquele resumo de busca feito com inteligência artificial que aparece no topo de uma pesquisa. Contudo, a proposta do AI Mode é entregar resultados mais atualizados, buscando em tempo real por conteúdos mais novos e exibindo seu raciocínio.

O que é o AI Mode do Google?

O AI Mode é uma nova ferramenta de pesquisa com IA do Google — podemos dizer que é a versão turbinada do AI Overview. Essa nova ferramenta utiliza uma versão customizada do LLM Gemini 2.0.

Ao contrário do AI Overview, o AI Mode tem recursos de raciocínio (reasoning) e busca informações em tempo real, como fazem os modos de busca do ChatGPT, Copilot e a IA da Perplexity.

AI Mode do Google responde sobre melhor dia para um ensaio de casamento no jardim público de Boston (imagem: divulgação)

Na teoria, essas buscas em tempo real com IA são capazes de usar textos mais recentes para entregar respostas mais atualizadas aos usuários. No exemplo mostrado na página do Google, o AI Mode passa ao usuário um guia sobre o melhor dia da semana para fazer um ensaio de casamento.

A resposta diz no primeiro parágrafo que o melhor dia é quinta-feira. Em seguida, o AI Mode explica o seu raciocínio, passando a previsão do tempo para a semana, dizendo os dias mais vazios para as fotos e sugerindo o melhor horário para a iluminação.

O AI Overview, ainda que use resultados baseado na busca, está mais focado em responder questões mais lineares. Por exemplo, resumir um tutorial sobre como fazer massa de pizza — o que pode gerar problemas, como sugerir passar cola na pizza para grudar o queijo. Já o AI Mode tenta ser uma mistura de agente de IA, analista e buscador.

Como usar o AI Mode nas pesquisas do Google?

AI Mode só está liberado na versão Beta e nos Estados Unidos (imagem: divulgação)

Para acessar o AI Mode, é necessário que o usuário esteja inscrito no Google Search Labs, programa de beta da big tech que fornece o acesso antecipado a futuros recursos da busca, e ser assinante do Google One AI Premium.

No entanto, essa nova ferramenta de pesquisas do Google foi liberada apenas nos Estados Unidos. Ainda não há previsão de quando o AI Mode terá o seu beta disponibilizado para outros países.

Com informações de Search Engine Journal
Google lança AI Mode para entregar buscas em tempo real e com raciocínio

Google lança AI Mode para entregar buscas em tempo real e com raciocínio
Fonte: Tecnoblog

Alexa+ e o futuro das assistentes

Alexa+ e o futuro das assistentes

Tecnocast discute a Alexa+ e o futuro das assistentes (ilustração: Vitor Pádua/Tecnoblog)

A Amazon anunciou a nova Alexa, turbinada por inteligência artificial. Batizada de Alexa+, a assistente digital promete conversas mais naturais, memórias personalizadas e a capacidade de realizar tarefas complexas. Mas, num mundo com cada vez mais ferramentas de IA disponíveis, quais diferenciais a Alexa+ oferece? E qual será o seu apelo junto ao público?

No episódio de hoje, a gente conversa sobre as possibilidades dessa nova assistente, e em quais contextos ela se encaixaria na vida das pessoas. Dá o play e vem com a gente!

Participantes 

Thiago Mobilon

Josué de Oliveira

Thássius Veloso

Comentado no episódio

Assista: Alexa+: conheça a nova assistente com IA turbinada 

Conta PJ da Wise

Com a digitalização do trabalho, ficou mais fácil prestar serviços para clientes no exterior. Mas a hora do pagamento pode ser um pouco complicada, afinal, a instabilidade da moeda é uma realidade.É pra te ajudar nesse processo que a Wise está lançando a sua conta PJ no Brasil. Com a Wise Empresas, você vai poder gerenciar suas finanças internacionais com bem menos dor de cabeça.A Wise Empresas te permite receber pagamentos do exterior em mais de 40 moedas à sua escolha. Assim, seus ganhos ficam mais protegidos da variação cambial.Você também vai poder pagar fornecedores de fora do país em mais de 70 moedas, além de sacar dinheiro instantaneamente. Tudo na mesma conta, e com suporte em português 24/7.Se você é um empreendedor ou freelancer de olho no mercado lá de fora, use a Wise Empresas e receba dinheiro sem perder dinheiro. Acesse o site e abra agora sua conta PJ na Wise.  

Créditos

Produção: Josué de Oliveira

Edição e sonorização: Ariel Liborio

Arte da capa: Vitor Pádua

Assine o Tecnocast

YouTube

Apple Podcasts

Spotify

Pocket Casts

Android (outros apps)

Feed RSS

Buzzsprout

Alexa+ e o futuro das assistentes

Alexa+ e o futuro das assistentes
Fonte: Tecnoblog

Samsung lança Galaxy A56, Galaxy A36 e Galaxy A26

Samsung lança Galaxy A56, Galaxy A36 e Galaxy A26

Galaxy A56 é novo intermediário “semi premium” da Samsung e conta com Exynos 1580 (foto: Thássius Veloso/Tecnoblog)

A Samsung lançou oficialmente neste domingo (2) os celulares Galaxy A26, Galaxy A36 e Galaxy A56. Os três smartphones integram a linha de aparelhos de entrada e intermediários da marca. Esses modelos também saem de fábrica com recursos de IA da Samsung.

O lançamento desses celulares ocorrerá gradualmente em alguns países. No Reino Unido, por exemplo, os três smartphones serão lançados apenas no dia 19 de março. É provável que o lançamento no Brasil ocorra até o dia 28 de março, quando o último Galaxy A começará a ser vendido nos EUA.

Todos os novos celulares contam com seis anos de atualização de Android, além de sair de fábrica com a One UI 7. Ou seja, os três modelos da linha Galaxy A receberão até a One UI 13.

Conjunto de câmeras do Galaxy A56 está instalado em nova ilha de câmera (foto: Thássius Veloso/Tecnoblog)

Quais as especificações do Galaxy A56?

O Galaxy A56 é equipado com o SoC Exynos 1580 e tem duas opções de memória RAM: 8 GB e 12 GB. A versão de 12 GB de memória RAM é acompanhada de 256 GB de armazenamento, mas um Galaxy A56 com essa capacidade e 8 GB de RAM também será vendido. Há ainda a versão de 128 GB.

A câmera principal possui 50 MP e é acompanhado de mais duas lentes: ultra-angular de 12 MP e macro de 5 MP. A câmera de selfie possui 12 MP. A tela mede 6,7 polegadas e utiliza o painel Super AMOLED da Samsung. O display tem suporte para a tecnologia HDR 10+.

A bateria, já homologada na Anatel assim como o próprio Galaxy A56 e o Galaxy A26, tem 5.000 mAh (assim como os outros dois modelos anunciados) e suporta carregamento rápido de 45 W.

Quais as especificações do Galaxy A36?

O Galaxy A36 é o único dos três celulares anunciados a conta com um processador da Qualcomm, o Snapdragon 6 Gen 3. O celular, ao contrário do A56, tem três opções de memória RAM e será vendido em quatro configurações:

128 GB + 6 GB RAM

128 GB + 8 GB RAM

256 GB + 8 GB RAM

256 GB + 12 GB RAM

Galaxy A36 foi anunciado em três cores: preto, lavanda e branco (imagem: divulgação)

Relembrando: as marcas não lançam todas essas configurações nos países. Elas selecionam, de acordo com suas estratégias de mercado, apenas algumas opções para serem vendidas.

O Galaxy A36 possui um conjunto triplo de câmeras com a seguinte configuração: principal de 50 MP, ultra-angular de 8 MP e macro de 5 MP. A câmera de selfie possui 12 MP. O display do Galaxy A36 mede 6,7 polegadas e utiliza o painel Super AMOLED.

Quais as especificações do Galaxy A26?

Galaxy A26 é vendido nas cores verde (foto), preto e branco (imagem: divulgação)

O celular mais simples desse anúncio vem com um processador Exynos. Contudo, segundo o GSMArena, a América Latina receberá o celular com o SoC Exynos 1280. Já a versão global usará o Exynos 1380.

O Galaxy A26 também utiliza com um conjunto de câmeras com três lentes na traseira. A principal possui 50 MP, enquanto as outras são a ultra-angular de 8 MP e macro de 2 MP. A câmera de selfie tem 13 MP de resolução.

O Galaxy A26 tem uma tela de 6,7 polegadas e utiliza o painel Super AMOLED, mas um modelo mais simples, sem o HDR 10+ presente no Galaxy A56. Dos três novos celulares, o Galaxy A26 é o único a contar com carregamento rápido de 25 W.

Com informações de GSMArena
Samsung lança Galaxy A56, Galaxy A36 e Galaxy A26

Samsung lança Galaxy A56, Galaxy A36 e Galaxy A26
Fonte: Tecnoblog

IA que pode ser usada na Alexa está jogando Pokémon na Twitch

IA que pode ser usada na Alexa está jogando Pokémon na Twitch

Claude Plays Pokémon é projeto para fazer IA Claude aprender a jogar Pokémon Red (imagem: Felipe Freitas/Tecnoblog)

Resumo

Um desenvolvedor independente iniciou um projeto em que a IA Claude aprende a jogar Pokémon Red.
A IA analisa imagens do jogo, identifica cenários e localizações de interesse, mas enfrenta dificuldades, como reconhecer a posição de portas.
Embora esteja aprendendo a jogar “sozinha”, a IA Claude tem acesso ao RAM state, permitindo que ele saiba exatamente onde está no jogo.

Um projeto iniciado nessa terça-feira (25/02) na Twitch está fazendo a IA Claude, da Anthropic, jogar Pokémon Red. A IA está aprendendo em tempo real como jogar o primeiro game da franquia. O LLM do Claude é cotado como a tecnologia que será usada na nova geração da Alexa, que ganhará ferramentas de IA generativa.

Nesta quarta-feira (26/02), a Amazon realizará um evento no qual pode apresentar o Claude na Alexa. Ainda que a Twitch seja da Amazon e esta esteja investindo na Anthropic, o projeto não foi desenvolvido pela empresa de IA, mas aparentemente por apenas uma única pessoa. Na descrição da conta, o autor diz ser fã do Claude e de Pokémon.

Como funciona o Claude Plays Pokémon?

O projeto Claude Plays Pokémon utiliza ferramentas para que o Claude analise a imagem do jogo, identifique o cenário e encontre localizações de interesse. A IA generativa também ganhou um sistema de navegação para tentar encontrar caminhos até os pontos de interesse — mas ele não é perfeito.

O desenvolvedor do projeto instalou dois mods para melhorar a coloração do jogo. Como ele explicou na descrição do projeto, isso ajuda o Claude a enxergar melhor o que está na tela.

Claude ficou parado em frente à parede acreditando que estava na frente da porta do ginásio (imagem: Felipe Freitas/Tecnoblog)

Mesmo com essas ajudas, Claude ainda não aprendeu que existem elementos que bloqueiam o caminho ou a real localização de uma porta. Antes de entrar no ginásio de Pewter, ele ficou na frente de uma parede lateral, acreditando que estava na frente da porta. Ou seja, ele identificou uma porta no cenário, mas não conseguiu reconhecer a diferença na posição.

A stream é dividida em duas telas. Na esquerda, vemos o raciocínio do Claude, e na direita, o jogo em si. É interessante ver como a IA vai calculando estratégia de batalhas. Só que isso não vem só de aprender com jogo.

Ainda que nunca tenha jogado Pokémon antes, o Claude sabe bastante sobre Pokémon. A IA foi treinada com bilhões de conteúdos da internet, então é provável que ele tenha praticamente todo o acervo da Bulbapedia, a maior wiki de Pokémon, no seu banco de dados.

Bulbapedia é a maior wiki sobre Pokémon e reúne informações do anime, jogos e outras mídias da franquia (imagem: Felipe Freitas/Tecnoblog)

Em poucos minutos de live, alguns acontecimentos engraçados ocorreram. Ao entrar no ginásio de Pewter, o Claude identificou um NPC como Brock. Aqui, o raciocínio não mostrado deve ter sido esse: no ginásio eu enfrentarei o Brock, logo, aquele é o Brock.

Demorou um tempo até a IA entender que o NPC com quem ela estava conversando era responsável por dar dicas sobre o combate no ginásio. O Claude aprendeu que a ordem do time mostra qual pokémon será o primeiro ao iniciar uma batalha.

Claude tem acesso a recursos inacessíveis por humanos

Ainda que esteja aprendendo a jogar Pokémon sozinho, o Claude tem informações privilegiadas. Por exemplo, ele tem acesso ao RAM state, o que o ajuda a entender a localização que ele está.

Isso pode parecer um cheat, mas é importante para que a IA receba o feedback da tarefa. Assim como nós, é importante que o Claude seja “parabenizado” por realizar as tarefas.

Como o seu sistema de identificação de imagem é fraco, o acesso aos dados do jogo atua como complemento ao processo de aprendizagem.

Projeto é inspirado em Twitch Plays Pokémon

TwitchPlaysPokemon foi um dos maiores sucessos da plataforma e inspirou dezenas de projetos similares (ilustração: Vitor Pádua/Tecnoblog)

O projeto Claude Plays Pokémon é inspirado no famoso Twitch Plays Pokémon, no qual os espectadores comentavam qual movimento ou ação deveria ser realizada no Pokémon Red.

Contudo, se você gostou do Twitch Plays Pokémon, pode se incomodar com a lentidão do Claude Plays Pokémon — pelo menos por enquanto. Enquanto essa notícia é feita, temos apenas 20 horas de live e o Claude nem passou para a segunda cidade. A tendência é que ele fique mais ágil conforme aprenda mais sobre o jogo.

Com informações de The Verge
IA que pode ser usada na Alexa está jogando Pokémon na Twitch

IA que pode ser usada na Alexa está jogando Pokémon na Twitch
Fonte: Tecnoblog

Galaxy S23 Ultra tem melhor oferta desde dezembro no Mercado Livre

Galaxy S23 Ultra tem melhor oferta desde dezembro no Mercado Livre

Galaxy S23 Ultra tem câmera de 200 MP (foto: Emerson Alecrim/Tecnoblog)

Samsung Galaxy S23 Ultra 5g Dual Sim 256 Gb Preto 12 Gb Ram
R$ 4.049 à vista com cupom

PIX
Cupom

GANHE10
Ver Oferta

Oferta da Loja Oficial Samsung

Receba mais promoções diretamente no seu celular:
participe dos canais de ofertas do Achados do TB

WhatsApp
Telegram

async function handle_redirect(cupom) {
try {
await navigator.clipboard.writeText(cupom.textContent);
cupom.classList.add(‘copied’);
cupom.dataset.text = ‘Cupom copiado!’;
} catch (err) {
console.error(‘Erro ao copiar para a área de transferência’, err);
}
}

O Galaxy S23 Ultra (256 GB)está saindo por apenas R$ 4.049 à vista no Pix com o cupom GANHE10 em oferta hoje no Mercado Livre. É o menor preço do ano segundo o Buscapé, e o valor em promoção representa cerca da metade do preço cobrado pelo Galaxy S25 Ultra (512 GB) na mesma oferta, com o mesmo cupom e condição de preço (R$ 7.883).

Samsung Galaxy S25 Ultra 5G, 512GB, 12GB, Câmera Quádrupla – Titânio Cinza
R$ 7.883 à vista com cupom

PIX
Cupom

GANHE10
Ver Oferta

Em “Outras opções de compra” localize a oferta da Loja Oficial Samsung

Receba mais promoções diretamente no seu celular:
participe dos canais de ofertas do Achados do TB

WhatsApp
Telegram

async function handle_redirect(cupom) {
try {
await navigator.clipboard.writeText(cupom.textContent);
cupom.classList.add(‘copied’);
cupom.dataset.text = ‘Cupom copiado!’;
} catch (err) {
console.error(‘Erro ao copiar para a área de transferência’, err);
}
}

Ainda vale economizar comprando o Galaxy S23 Ultra?

Com os preços caindo desde seu lançamento, o Galaxy S25 Ultra tem se tornado cada vez mais acessível — ou menos inacessível —, mas ainda se trata de um celular de quase R$ 8 mil, equivalente ao que você pagaria por um iPhone 16 Pro atualmente. Já o Galaxy S23 Ultra, por ser um modelo de 2023, custa hoje o preço de um iPhone 14, e entrega uma ficha técnica que ainda pode ser considerada bem avançada.

Um exemplo claro disso é o conjunto fotográfico, que equipado com quatro sensores traseiros que filmam em 4K até 60 fps, liderados por um principal de 200 MP. Essa lente principal tem pixel binning, que agrupa vários pixels em um a fim de gerar imagens com maior qualidade que ocupam menos espaço no celular. Nos nossos testes, tanto a lente principal quando ultrawide, teleobjetivas e frontal entregaram ótimos resultados.

O Samsung Galaxy S23 Ultra suporta pixel pinning (foto: Emerson Alecrim)

Outro destaque vai para o processador Qualcomm Snapdragon 8 Gen 2, que combinado à RAM de 12 GB e a tela de AMOLED Dinâmico com taxa de atualização de 120 Hz, consegue rodar jogos como Genshin Impact e Asphalt 9 sem dificildades. Além disso, o desempenho é suficente para o Galaxy S23 Ultra suportar os novos recursos de inteligência artificial da Samsung (Galaxy AI), e continuar recebendo atualizações até o Android 17.

Além disso, muito da ficha técnica do Galaxy S25 Ultra mudou pouco desde o Galaxy S23 Ultra. As principais novidades são o novo processador Snapdragon 8 Elite, que naturalmente entrega desempenho superior ao do antecessor. A nova lente teleobjetiva de 50 MP (antes de 10 MP), a tela mais brilhante, e a promessa de atualizações por mais tempo (até o Android 22).

Porém, atualmente, as vantagens do S25 Ultra ainda custam o dobro do preço do S23 Ultra, então, a sua escolha depende muito de quando você pode investir em um celular. Caso o custo não seja um problema, as novidades do S25 Ultra fazem valer a pena comprá-lo, se não, o S23 Ultra ainda é uma ótima opção. Ademais, o Galaxy S24 Ultra esteve em promoção recentemente por R$ 5,8 mil, mas a oferta já acabou.

Veja o desempenho do Galaxy S23 Ultra nos testes do Tecnoblog

Aviso de ética: ao clicar em um link de afiliado, o preço não muda para você e recebemos uma comissão.Galaxy S23 Ultra tem melhor oferta desde dezembro no Mercado Livre

Galaxy S23 Ultra tem melhor oferta desde dezembro no Mercado Livre
Fonte: Tecnoblog

Google pode tomar uma boa decisão com o “Hey, Gemini” no Android

Google pode tomar uma boa decisão com o “Hey, Gemini” no Android

Gemini substitui o Assistente Google, mas big tech mantém as duas versões de ativação de voz (imagem: Vitor Pádua/Tecnoblog)

Resumo

O app do Google para Android poderá aceitar dois comandos de voz para ativar o Gemini Live: “Hey, Gemini” e “Hey, Google”.
A mudança facilita a transição para usuários acostumados com o comando “Hey, Google”.
O Google Assistente já foi substituído pelo Gemini como padrão de fábrica e deve ser sepultado em breve pela big tech.

O aplicativo do Google pode permitir que dois comandos de voz diferentes ativem o Gemini Live, recurso de agente de IA para celulares Android. O site 9to5Google encontrou nos códigos da versão beta do app uma string explicando que tanto o “Hey, Gemini” quanto o “Hey, Google” poderão ativar a funcionalidade.

Dado o histórico do Google em matar produtos e serviços, é uma surpresa que a empresa mantenha duas opções para ativar o Gemini Live. Pelo que é visto na string, a diferença é que o “Hey, Google” pode ativar ações mais rápidas. Por se tratar de um trecho de código em uma versão beta, o que essa diferença faz na prática ainda é desconhecida.

Por que a decisão do Google é boa?

Ao permitir que dois comandos diferentes ativem o Gemini, o Google facilita a vida do usuário que está acostumado com o “Hey, Google”. Caso acabasse de vez com esse comando, adotando apenas o “Hey, Gemini”, os usuários poderiam se confundir com a ativação da ferramenta. Enquanto isso, os usuários poderão se acostumar com a nova função do assistente inteligente.

Gemini vai se encaminhando para tomar de vez o lugar do Google Assistente, mas comando em comum ajuda na usabilidade (imagem: divulgação/Google)

O aplicativo do Gemini está aos poucos tomando o lugar do Google Assistente nos celulares Android. Ao abrir o assistente, smartphones com a versão mais recente do sistema operacional abrem uma página perguntando se o usuário deseja adotar o Gemini como assistente digital padrão.

Celulares mais novos, como o Galaxy S25 Ultra, já não fazem mais nenhuma menção ao Google Assistente. O padrão de fábrica já é o Gemini. Em breve o Assistente será sepultado no cemitério do Google.

O palpite do 9to5Google, usando como base o código do aplicativo beta, é que o “Hey, Gemini” ativará o Gemini Live, agente de IA generativa do Google. Ele permite que a câmera seja usada para a inteligência artificial identificar o ambiente, atuando como uma ferramenta que pode conversar com o usuário.

Já o “Hey, Google”, cuja ativação está ligada a recursos rápidos, pode ser usada para ativar tarefas mais simples, como pesquisa no buscador, criação de alarmes ou abertura de aplicativos.

Com informações de 9to5Google
Google pode tomar uma boa decisão com o “Hey, Gemini” no Android

Google pode tomar uma boa decisão com o “Hey, Gemini” no Android
Fonte: Tecnoblog

Google abandona promessa de não usar IA para armas e vigilância

Google abandona promessa de não usar IA para armas e vigilância

Google diz que empresas de países democráticos devem desenvolver IA com respeito à liberdade (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O Google removeu de seus princípios éticos para IA o compromisso de não utilizar a tecnologia em armas e vigilância.
Segundo a big tech, a mudança reflete a ampla disseminação da IA nos últimos anos e a crescente demanda de clientes governamentais, especialmente em questões de segurança nacional.
Apesar da alteração, o documento atualizado ainda menciona segurança, liberdade, igualdade e direitos humanos.

O Google alterou sua página de princípios éticos para inteligência artificial e removeu a promessa de não usar a tecnologia em armas ou sistemas de vigilância. A versão anterior do documento continha uma seção chamada “Aplicações que não buscaremos” — agora, esta seção não existe mais.

A alteração foi notada pela Bloomberg. Questionado pelo Washington Post especificamente sobre os trechos envolvendo armas e vigilância, o Google se recusou a responder.

Google já sofreu pressão de funcionários para encerrar contrato com Pentágono (ilustração: Vitor Pádua/Tecnoblog)

Por que o Google alterou suas políticas para IA?

O Google explica que atualizou seus princípios para IA porque, nos últimos anos, a tecnologia está muito mais disseminada e porque é necessário que empresas de países democráticos atendam clientes governamentais e envolvidos com a segurança nacional.

As informações constam em um texto publicado pela companhia em seu blog nesta terça-feira (04/02). Nele, a companhia também afirma que empresas, governos e organizações devem “trabalhar juntos para criar inteligências artificiais que protejam as pessoas, promovam crescimento global e apoiem a segurança nacional”.

O Google publicou seus princípios para inteligência artificial pela primeira vez em 2018. O documento veio logo após protestos de funcionários contra um projeto da companhia para o Departamento de Defesa dos Estados Unidos. Naquela ocasião, o movimento levou o Google a não renovar este contrato.

Documento ainda menciona segurança e direitos humanos

Mesmo sem a seção “Aplicações que não buscaremos”, a versão atualizada dos princípios do Google para desenvolver a IA ainda contém trechos que mencionam tópicos como segurança, liberdade, igualdade e direitos humanos.

Em um dos trechos, a empresa diz que usará supervisão humana e receberá feedback para garantir que as tecnologias estejam alinhadas com “princípios amplamente aceitos de direito internacional e direitos humanos”. Além disso, a companhia promete que fará testes para mitigar resultados não intencionais ou nocivos.

Com informações de Washington Post e TechCrunch
Google abandona promessa de não usar IA para armas e vigilância

Google abandona promessa de não usar IA para armas e vigilância
Fonte: Tecnoblog

IA da Adobe promete te ajudar a ler e a entender contratos

IA da Adobe promete te ajudar a ler e a entender contratos

Novo Acrobat AI Assistant ajuda na compreensão de contratos (imagem: reprodução/Adobe)

Resumo

Uma nova atualização do Acrobat AI Assistant aprimora a análise de contratos, destacando informações-chave e identificando diferenças entre acordos.
Segundo a Adobe, a ferramenta pode identificar e resumir contratos automaticamente, utilizando uma linguagem clara e acessível.
O recurso custa US$ 4,99 (R$ 29) por mês e, por enquanto, está disponível apenas em inglês, com previsão de suporte para outros idiomas, mas sem data definida.

Lidar com contratos é uma tarefa complicada. Frequentemente, esse tipo de documento é extenso e contém termos que são de difícil compreensão. Mas, e se uma inteligência artificial te ajudar a fazer esse trabalho? É o que promete a nova versão do Acrobat AI Assistant.

De acordo com a Adobe, a atualização oferece várias funções, como ajudar o usuário a compreender termos complexos, identificar diferenças entre acordos e verificar informações específicas nos documentos.

Em linhas gerais, a ideia é permitir que o usuário tenha acesso às informações realmente importantes do contrato e, ao mesmo tempo, não gaste muito lendo-o.

A novidade promete ser útil em várias circunstâncias. A própria Adobe dá alguns exemplos:

empresários podem identificar rapidamente datas-chave em contratos de fornecedores;

equipes financeiras podem acelerar as revisões de contratos de vendas;

profissionais de marketing podem identificar mudanças em escopos de trabalho atualizados e encontrar rapidamente entregas em parcerias de marca e publicidade;

consumidores podem localizar rapidamente as políticas de ocupação em aluguéis de apartamentos.

O Acrobat AI Assistant pode ainda identificar automaticamente quando um documento é um contrato, incluindo aqueles que são digitalizados (“escaneados”), e criar uma visão geral do documento — uma espécie de resumo. Isso tudo é feito com o uso de uma linguagem clara, afirma a Adobe.

Dá para confiar no Acrobat AI Assistant para ler contratos?

É difícil saber. Mas o uso de qualquer IA generativa requer atenção do usuário. Esse tipo de ferramenta ainda dá respostas imprecisas ou equivocadas, e isso não é raro de acontecer. Por isso, eu usaria o Acrobat AI Assistant com prudência, talvez testando a ferramenta com contratos não muito importantes, inicialmente.

Para contratos que envolvem bens ou acordos de alto valor, eu até usaria a ferramenta para facilitar a minha compreensão, mas não tomaria nenhuma decisão sem antes confiar esses documentos a advogados ou profissionais habilitados a lidar com eles.

Mas nem tudo é desconfiança. Penso que o novo Acrobat AI Assistant pode ser de grande auxílio para quem lida com grandes quantidades de contratos ou documentos muito volumosos, mas sempre como ferramenta de apoio — para ajudar na organização das informações, por exemplo.

Nesse sentido, a novidade pode valer a pena. Mas há um porém: a ferramenta é paga, tendo custo de US$ 4,99 por mês (R$ 29 na cotação atual). É possível usá-la tanto no Acrobat (que lê, edita e gera documentos) quanto no Acrobat Reader (leitor gratuito de documentos).

Leve em conta também que o Acrobat AI Assistant só funciona em inglês na atual fase. A Adobe promete suporte a outros idiomas, mas não informou quando isso irá acontecer.
IA da Adobe promete te ajudar a ler e a entender contratos

IA da Adobe promete te ajudar a ler e a entender contratos
Fonte: Tecnoblog

Meta diz que pode parar desenvolvimento de IA se risco for extremo

Meta diz que pode parar desenvolvimento de IA se risco for extremo

Meta vai ouvir opiniões de especialistas de fora da empresa (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A Meta poderá interromper o desenvolvimento de um sistema de IA caso identifique um risco extremo de catástrofe associado a ele.
Segundo um documento da plataforma, os riscos são classificados em dois níveis: alto, quando o sistema facilita uma ação perigosa, e crítico, quando ele a torna possível.
A avaliação desses riscos será conduzida por pesquisadores internos e externos, enquanto as decisões ficarão a cargo de “tomadores de decisão de nível sênior”.

A Meta publicou um novo documento sobre suas políticas para inteligência artificial, em que afirma que pode parar o desenvolvimento de um sistema caso considere que existe um risco extremo de catástrofe associado a ele, e pode não lançar um produto caso exista um risco alto.

O documento, chamado “Frontier AI Framework” (ou “Estrutura para IA de vanguarda”, em tradução livre), tem 21 páginas. Ele traz informações sobre a classificação de riscos adotada pela Meta e como esta avaliação será feita.

Quais as classificações de risco das IAs da Meta?

A Meta tem duas classificações de risco em que tomará medidas para evitar problemas: risco alto e risco extremo (ou crítico, como a empresa chama). Nos dois casos, a companhia considera os riscos de que estes sistemas possam ajudar em ataques de cibersegurança, químicos ou biológicos. Contudo, há uma diferença entre eles:

Risco alto: o sistema facilita a ação, mas não chega a torná-la viável

Risco crítico: o sistema torna a ação possível e os riscos não podem ser mitigados durante a implementação

Cenário crítico não pode ser mitigado, na avaliação da Meta (ilustração: Vitor Pádua/Tecnoblog)

O que a Meta faria nestas situações?

No caso de risco alto, a Meta diz que o sistema não seria lançado, tendo seu acesso limitado a um time de pesquisadores, como forma de proteção contra vazamentos. Neste cenário, a empresa trabalharia para mitigar o risco e reduzi-lo ao nível moderado (em que a IA não poderia ajudar em um ataque).

Já no caso de risco crítico, as medidas são mais extremas. A Meta diz que, neste cenário, pausaria o desenvolvimento para avaliar se existem barreiras para impedir um cenário de catástrofe. O acesso seria limitado a um pequeno número de especialistas, com medidas para evitar invasões e vazamentos.

Como a Meta vai avaliar os riscos?

De acordo com o documento, a Meta vai considerar a opinião de pesquisadores internos e externos, com “tomadores de decisão de nível sênior” revisando estes comentários. A companhia diz que o campo científico de avaliações de risco não é, neste momento, suficientemente robusta para fornecer métricas quantitativas.

Com informações de Meta e TechCrunch
Meta diz que pode parar desenvolvimento de IA se risco for extremo

Meta diz que pode parar desenvolvimento de IA se risco for extremo
Fonte: Tecnoblog