Category: Inteligência Artificial

Alexa+ e o futuro das assistentes

Alexa+ e o futuro das assistentes

Tecnocast discute a Alexa+ e o futuro das assistentes (ilustração: Vitor Pádua/Tecnoblog)

A Amazon anunciou a nova Alexa, turbinada por inteligência artificial. Batizada de Alexa+, a assistente digital promete conversas mais naturais, memórias personalizadas e a capacidade de realizar tarefas complexas. Mas, num mundo com cada vez mais ferramentas de IA disponíveis, quais diferenciais a Alexa+ oferece? E qual será o seu apelo junto ao público?

No episódio de hoje, a gente conversa sobre as possibilidades dessa nova assistente, e em quais contextos ela se encaixaria na vida das pessoas. Dá o play e vem com a gente!

Participantes 

Thiago Mobilon

Josué de Oliveira

Thássius Veloso

Comentado no episódio

Assista: Alexa+: conheça a nova assistente com IA turbinada 

Conta PJ da Wise

Com a digitalização do trabalho, ficou mais fácil prestar serviços para clientes no exterior. Mas a hora do pagamento pode ser um pouco complicada, afinal, a instabilidade da moeda é uma realidade.É pra te ajudar nesse processo que a Wise está lançando a sua conta PJ no Brasil. Com a Wise Empresas, você vai poder gerenciar suas finanças internacionais com bem menos dor de cabeça.A Wise Empresas te permite receber pagamentos do exterior em mais de 40 moedas à sua escolha. Assim, seus ganhos ficam mais protegidos da variação cambial.Você também vai poder pagar fornecedores de fora do país em mais de 70 moedas, além de sacar dinheiro instantaneamente. Tudo na mesma conta, e com suporte em português 24/7.Se você é um empreendedor ou freelancer de olho no mercado lá de fora, use a Wise Empresas e receba dinheiro sem perder dinheiro. Acesse o site e abra agora sua conta PJ na Wise.  

Créditos

Produção: Josué de Oliveira

Edição e sonorização: Ariel Liborio

Arte da capa: Vitor Pádua

Assine o Tecnocast

YouTube

Apple Podcasts

Spotify

Pocket Casts

Android (outros apps)

Feed RSS

Buzzsprout

Alexa+ e o futuro das assistentes

Alexa+ e o futuro das assistentes
Fonte: Tecnoblog

Samsung lança Galaxy A56, Galaxy A36 e Galaxy A26

Samsung lança Galaxy A56, Galaxy A36 e Galaxy A26

Galaxy A56 é novo intermediário “semi premium” da Samsung e conta com Exynos 1580 (foto: Thássius Veloso/Tecnoblog)

A Samsung lançou oficialmente neste domingo (2) os celulares Galaxy A26, Galaxy A36 e Galaxy A56. Os três smartphones integram a linha de aparelhos de entrada e intermediários da marca. Esses modelos também saem de fábrica com recursos de IA da Samsung.

O lançamento desses celulares ocorrerá gradualmente em alguns países. No Reino Unido, por exemplo, os três smartphones serão lançados apenas no dia 19 de março. É provável que o lançamento no Brasil ocorra até o dia 28 de março, quando o último Galaxy A começará a ser vendido nos EUA.

Todos os novos celulares contam com seis anos de atualização de Android, além de sair de fábrica com a One UI 7. Ou seja, os três modelos da linha Galaxy A receberão até a One UI 13.

Conjunto de câmeras do Galaxy A56 está instalado em nova ilha de câmera (foto: Thássius Veloso/Tecnoblog)

Quais as especificações do Galaxy A56?

O Galaxy A56 é equipado com o SoC Exynos 1580 e tem duas opções de memória RAM: 8 GB e 12 GB. A versão de 12 GB de memória RAM é acompanhada de 256 GB de armazenamento, mas um Galaxy A56 com essa capacidade e 8 GB de RAM também será vendido. Há ainda a versão de 128 GB.

A câmera principal possui 50 MP e é acompanhado de mais duas lentes: ultra-angular de 12 MP e macro de 5 MP. A câmera de selfie possui 12 MP. A tela mede 6,7 polegadas e utiliza o painel Super AMOLED da Samsung. O display tem suporte para a tecnologia HDR 10+.

A bateria, já homologada na Anatel assim como o próprio Galaxy A56 e o Galaxy A26, tem 5.000 mAh (assim como os outros dois modelos anunciados) e suporta carregamento rápido de 45 W.

Quais as especificações do Galaxy A36?

O Galaxy A36 é o único dos três celulares anunciados a conta com um processador da Qualcomm, o Snapdragon 6 Gen 3. O celular, ao contrário do A56, tem três opções de memória RAM e será vendido em quatro configurações:

128 GB + 6 GB RAM

128 GB + 8 GB RAM

256 GB + 8 GB RAM

256 GB + 12 GB RAM

Galaxy A36 foi anunciado em três cores: preto, lavanda e branco (imagem: divulgação)

Relembrando: as marcas não lançam todas essas configurações nos países. Elas selecionam, de acordo com suas estratégias de mercado, apenas algumas opções para serem vendidas.

O Galaxy A36 possui um conjunto triplo de câmeras com a seguinte configuração: principal de 50 MP, ultra-angular de 8 MP e macro de 5 MP. A câmera de selfie possui 12 MP. O display do Galaxy A36 mede 6,7 polegadas e utiliza o painel Super AMOLED.

Quais as especificações do Galaxy A26?

Galaxy A26 é vendido nas cores verde (foto), preto e branco (imagem: divulgação)

O celular mais simples desse anúncio vem com um processador Exynos. Contudo, segundo o GSMArena, a América Latina receberá o celular com o SoC Exynos 1280. Já a versão global usará o Exynos 1380.

O Galaxy A26 também utiliza com um conjunto de câmeras com três lentes na traseira. A principal possui 50 MP, enquanto as outras são a ultra-angular de 8 MP e macro de 2 MP. A câmera de selfie tem 13 MP de resolução.

O Galaxy A26 tem uma tela de 6,7 polegadas e utiliza o painel Super AMOLED, mas um modelo mais simples, sem o HDR 10+ presente no Galaxy A56. Dos três novos celulares, o Galaxy A26 é o único a contar com carregamento rápido de 25 W.

Com informações de GSMArena
Samsung lança Galaxy A56, Galaxy A36 e Galaxy A26

Samsung lança Galaxy A56, Galaxy A36 e Galaxy A26
Fonte: Tecnoblog

IA que pode ser usada na Alexa está jogando Pokémon na Twitch

IA que pode ser usada na Alexa está jogando Pokémon na Twitch

Claude Plays Pokémon é projeto para fazer IA Claude aprender a jogar Pokémon Red (imagem: Felipe Freitas/Tecnoblog)

Resumo

Um desenvolvedor independente iniciou um projeto em que a IA Claude aprende a jogar Pokémon Red.
A IA analisa imagens do jogo, identifica cenários e localizações de interesse, mas enfrenta dificuldades, como reconhecer a posição de portas.
Embora esteja aprendendo a jogar “sozinha”, a IA Claude tem acesso ao RAM state, permitindo que ele saiba exatamente onde está no jogo.

Um projeto iniciado nessa terça-feira (25/02) na Twitch está fazendo a IA Claude, da Anthropic, jogar Pokémon Red. A IA está aprendendo em tempo real como jogar o primeiro game da franquia. O LLM do Claude é cotado como a tecnologia que será usada na nova geração da Alexa, que ganhará ferramentas de IA generativa.

Nesta quarta-feira (26/02), a Amazon realizará um evento no qual pode apresentar o Claude na Alexa. Ainda que a Twitch seja da Amazon e esta esteja investindo na Anthropic, o projeto não foi desenvolvido pela empresa de IA, mas aparentemente por apenas uma única pessoa. Na descrição da conta, o autor diz ser fã do Claude e de Pokémon.

Como funciona o Claude Plays Pokémon?

O projeto Claude Plays Pokémon utiliza ferramentas para que o Claude analise a imagem do jogo, identifique o cenário e encontre localizações de interesse. A IA generativa também ganhou um sistema de navegação para tentar encontrar caminhos até os pontos de interesse — mas ele não é perfeito.

O desenvolvedor do projeto instalou dois mods para melhorar a coloração do jogo. Como ele explicou na descrição do projeto, isso ajuda o Claude a enxergar melhor o que está na tela.

Claude ficou parado em frente à parede acreditando que estava na frente da porta do ginásio (imagem: Felipe Freitas/Tecnoblog)

Mesmo com essas ajudas, Claude ainda não aprendeu que existem elementos que bloqueiam o caminho ou a real localização de uma porta. Antes de entrar no ginásio de Pewter, ele ficou na frente de uma parede lateral, acreditando que estava na frente da porta. Ou seja, ele identificou uma porta no cenário, mas não conseguiu reconhecer a diferença na posição.

A stream é dividida em duas telas. Na esquerda, vemos o raciocínio do Claude, e na direita, o jogo em si. É interessante ver como a IA vai calculando estratégia de batalhas. Só que isso não vem só de aprender com jogo.

Ainda que nunca tenha jogado Pokémon antes, o Claude sabe bastante sobre Pokémon. A IA foi treinada com bilhões de conteúdos da internet, então é provável que ele tenha praticamente todo o acervo da Bulbapedia, a maior wiki de Pokémon, no seu banco de dados.

Bulbapedia é a maior wiki sobre Pokémon e reúne informações do anime, jogos e outras mídias da franquia (imagem: Felipe Freitas/Tecnoblog)

Em poucos minutos de live, alguns acontecimentos engraçados ocorreram. Ao entrar no ginásio de Pewter, o Claude identificou um NPC como Brock. Aqui, o raciocínio não mostrado deve ter sido esse: no ginásio eu enfrentarei o Brock, logo, aquele é o Brock.

Demorou um tempo até a IA entender que o NPC com quem ela estava conversando era responsável por dar dicas sobre o combate no ginásio. O Claude aprendeu que a ordem do time mostra qual pokémon será o primeiro ao iniciar uma batalha.

Claude tem acesso a recursos inacessíveis por humanos

Ainda que esteja aprendendo a jogar Pokémon sozinho, o Claude tem informações privilegiadas. Por exemplo, ele tem acesso ao RAM state, o que o ajuda a entender a localização que ele está.

Isso pode parecer um cheat, mas é importante para que a IA receba o feedback da tarefa. Assim como nós, é importante que o Claude seja “parabenizado” por realizar as tarefas.

Como o seu sistema de identificação de imagem é fraco, o acesso aos dados do jogo atua como complemento ao processo de aprendizagem.

Projeto é inspirado em Twitch Plays Pokémon

TwitchPlaysPokemon foi um dos maiores sucessos da plataforma e inspirou dezenas de projetos similares (ilustração: Vitor Pádua/Tecnoblog)

O projeto Claude Plays Pokémon é inspirado no famoso Twitch Plays Pokémon, no qual os espectadores comentavam qual movimento ou ação deveria ser realizada no Pokémon Red.

Contudo, se você gostou do Twitch Plays Pokémon, pode se incomodar com a lentidão do Claude Plays Pokémon — pelo menos por enquanto. Enquanto essa notícia é feita, temos apenas 20 horas de live e o Claude nem passou para a segunda cidade. A tendência é que ele fique mais ágil conforme aprenda mais sobre o jogo.

Com informações de The Verge
IA que pode ser usada na Alexa está jogando Pokémon na Twitch

IA que pode ser usada na Alexa está jogando Pokémon na Twitch
Fonte: Tecnoblog

Galaxy S23 Ultra tem melhor oferta desde dezembro no Mercado Livre

Galaxy S23 Ultra tem melhor oferta desde dezembro no Mercado Livre

Galaxy S23 Ultra tem câmera de 200 MP (foto: Emerson Alecrim/Tecnoblog)

Samsung Galaxy S23 Ultra 5g Dual Sim 256 Gb Preto 12 Gb Ram
R$ 4.049 à vista com cupom

PIX
Cupom

GANHE10
Ver Oferta

Oferta da Loja Oficial Samsung

Receba mais promoções diretamente no seu celular:
participe dos canais de ofertas do Achados do TB

WhatsApp
Telegram

async function handle_redirect(cupom) {
try {
await navigator.clipboard.writeText(cupom.textContent);
cupom.classList.add(‘copied’);
cupom.dataset.text = ‘Cupom copiado!’;
} catch (err) {
console.error(‘Erro ao copiar para a área de transferência’, err);
}
}

O Galaxy S23 Ultra (256 GB)está saindo por apenas R$ 4.049 à vista no Pix com o cupom GANHE10 em oferta hoje no Mercado Livre. É o menor preço do ano segundo o Buscapé, e o valor em promoção representa cerca da metade do preço cobrado pelo Galaxy S25 Ultra (512 GB) na mesma oferta, com o mesmo cupom e condição de preço (R$ 7.883).

Samsung Galaxy S25 Ultra 5G, 512GB, 12GB, Câmera Quádrupla – Titânio Cinza
R$ 7.883 à vista com cupom

PIX
Cupom

GANHE10
Ver Oferta

Em “Outras opções de compra” localize a oferta da Loja Oficial Samsung

Receba mais promoções diretamente no seu celular:
participe dos canais de ofertas do Achados do TB

WhatsApp
Telegram

async function handle_redirect(cupom) {
try {
await navigator.clipboard.writeText(cupom.textContent);
cupom.classList.add(‘copied’);
cupom.dataset.text = ‘Cupom copiado!’;
} catch (err) {
console.error(‘Erro ao copiar para a área de transferência’, err);
}
}

Ainda vale economizar comprando o Galaxy S23 Ultra?

Com os preços caindo desde seu lançamento, o Galaxy S25 Ultra tem se tornado cada vez mais acessível — ou menos inacessível —, mas ainda se trata de um celular de quase R$ 8 mil, equivalente ao que você pagaria por um iPhone 16 Pro atualmente. Já o Galaxy S23 Ultra, por ser um modelo de 2023, custa hoje o preço de um iPhone 14, e entrega uma ficha técnica que ainda pode ser considerada bem avançada.

Um exemplo claro disso é o conjunto fotográfico, que equipado com quatro sensores traseiros que filmam em 4K até 60 fps, liderados por um principal de 200 MP. Essa lente principal tem pixel binning, que agrupa vários pixels em um a fim de gerar imagens com maior qualidade que ocupam menos espaço no celular. Nos nossos testes, tanto a lente principal quando ultrawide, teleobjetivas e frontal entregaram ótimos resultados.

O Samsung Galaxy S23 Ultra suporta pixel pinning (foto: Emerson Alecrim)

Outro destaque vai para o processador Qualcomm Snapdragon 8 Gen 2, que combinado à RAM de 12 GB e a tela de AMOLED Dinâmico com taxa de atualização de 120 Hz, consegue rodar jogos como Genshin Impact e Asphalt 9 sem dificildades. Além disso, o desempenho é suficente para o Galaxy S23 Ultra suportar os novos recursos de inteligência artificial da Samsung (Galaxy AI), e continuar recebendo atualizações até o Android 17.

Além disso, muito da ficha técnica do Galaxy S25 Ultra mudou pouco desde o Galaxy S23 Ultra. As principais novidades são o novo processador Snapdragon 8 Elite, que naturalmente entrega desempenho superior ao do antecessor. A nova lente teleobjetiva de 50 MP (antes de 10 MP), a tela mais brilhante, e a promessa de atualizações por mais tempo (até o Android 22).

Porém, atualmente, as vantagens do S25 Ultra ainda custam o dobro do preço do S23 Ultra, então, a sua escolha depende muito de quando você pode investir em um celular. Caso o custo não seja um problema, as novidades do S25 Ultra fazem valer a pena comprá-lo, se não, o S23 Ultra ainda é uma ótima opção. Ademais, o Galaxy S24 Ultra esteve em promoção recentemente por R$ 5,8 mil, mas a oferta já acabou.

Veja o desempenho do Galaxy S23 Ultra nos testes do Tecnoblog

Aviso de ética: ao clicar em um link de afiliado, o preço não muda para você e recebemos uma comissão.Galaxy S23 Ultra tem melhor oferta desde dezembro no Mercado Livre

Galaxy S23 Ultra tem melhor oferta desde dezembro no Mercado Livre
Fonte: Tecnoblog

Google pode tomar uma boa decisão com o “Hey, Gemini” no Android

Google pode tomar uma boa decisão com o “Hey, Gemini” no Android

Gemini substitui o Assistente Google, mas big tech mantém as duas versões de ativação de voz (imagem: Vitor Pádua/Tecnoblog)

Resumo

O app do Google para Android poderá aceitar dois comandos de voz para ativar o Gemini Live: “Hey, Gemini” e “Hey, Google”.
A mudança facilita a transição para usuários acostumados com o comando “Hey, Google”.
O Google Assistente já foi substituído pelo Gemini como padrão de fábrica e deve ser sepultado em breve pela big tech.

O aplicativo do Google pode permitir que dois comandos de voz diferentes ativem o Gemini Live, recurso de agente de IA para celulares Android. O site 9to5Google encontrou nos códigos da versão beta do app uma string explicando que tanto o “Hey, Gemini” quanto o “Hey, Google” poderão ativar a funcionalidade.

Dado o histórico do Google em matar produtos e serviços, é uma surpresa que a empresa mantenha duas opções para ativar o Gemini Live. Pelo que é visto na string, a diferença é que o “Hey, Google” pode ativar ações mais rápidas. Por se tratar de um trecho de código em uma versão beta, o que essa diferença faz na prática ainda é desconhecida.

Por que a decisão do Google é boa?

Ao permitir que dois comandos diferentes ativem o Gemini, o Google facilita a vida do usuário que está acostumado com o “Hey, Google”. Caso acabasse de vez com esse comando, adotando apenas o “Hey, Gemini”, os usuários poderiam se confundir com a ativação da ferramenta. Enquanto isso, os usuários poderão se acostumar com a nova função do assistente inteligente.

Gemini vai se encaminhando para tomar de vez o lugar do Google Assistente, mas comando em comum ajuda na usabilidade (imagem: divulgação/Google)

O aplicativo do Gemini está aos poucos tomando o lugar do Google Assistente nos celulares Android. Ao abrir o assistente, smartphones com a versão mais recente do sistema operacional abrem uma página perguntando se o usuário deseja adotar o Gemini como assistente digital padrão.

Celulares mais novos, como o Galaxy S25 Ultra, já não fazem mais nenhuma menção ao Google Assistente. O padrão de fábrica já é o Gemini. Em breve o Assistente será sepultado no cemitério do Google.

O palpite do 9to5Google, usando como base o código do aplicativo beta, é que o “Hey, Gemini” ativará o Gemini Live, agente de IA generativa do Google. Ele permite que a câmera seja usada para a inteligência artificial identificar o ambiente, atuando como uma ferramenta que pode conversar com o usuário.

Já o “Hey, Google”, cuja ativação está ligada a recursos rápidos, pode ser usada para ativar tarefas mais simples, como pesquisa no buscador, criação de alarmes ou abertura de aplicativos.

Com informações de 9to5Google
Google pode tomar uma boa decisão com o “Hey, Gemini” no Android

Google pode tomar uma boa decisão com o “Hey, Gemini” no Android
Fonte: Tecnoblog

Google abandona promessa de não usar IA para armas e vigilância

Google abandona promessa de não usar IA para armas e vigilância

Google diz que empresas de países democráticos devem desenvolver IA com respeito à liberdade (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O Google removeu de seus princípios éticos para IA o compromisso de não utilizar a tecnologia em armas e vigilância.
Segundo a big tech, a mudança reflete a ampla disseminação da IA nos últimos anos e a crescente demanda de clientes governamentais, especialmente em questões de segurança nacional.
Apesar da alteração, o documento atualizado ainda menciona segurança, liberdade, igualdade e direitos humanos.

O Google alterou sua página de princípios éticos para inteligência artificial e removeu a promessa de não usar a tecnologia em armas ou sistemas de vigilância. A versão anterior do documento continha uma seção chamada “Aplicações que não buscaremos” — agora, esta seção não existe mais.

A alteração foi notada pela Bloomberg. Questionado pelo Washington Post especificamente sobre os trechos envolvendo armas e vigilância, o Google se recusou a responder.

Google já sofreu pressão de funcionários para encerrar contrato com Pentágono (ilustração: Vitor Pádua/Tecnoblog)

Por que o Google alterou suas políticas para IA?

O Google explica que atualizou seus princípios para IA porque, nos últimos anos, a tecnologia está muito mais disseminada e porque é necessário que empresas de países democráticos atendam clientes governamentais e envolvidos com a segurança nacional.

As informações constam em um texto publicado pela companhia em seu blog nesta terça-feira (04/02). Nele, a companhia também afirma que empresas, governos e organizações devem “trabalhar juntos para criar inteligências artificiais que protejam as pessoas, promovam crescimento global e apoiem a segurança nacional”.

O Google publicou seus princípios para inteligência artificial pela primeira vez em 2018. O documento veio logo após protestos de funcionários contra um projeto da companhia para o Departamento de Defesa dos Estados Unidos. Naquela ocasião, o movimento levou o Google a não renovar este contrato.

Documento ainda menciona segurança e direitos humanos

Mesmo sem a seção “Aplicações que não buscaremos”, a versão atualizada dos princípios do Google para desenvolver a IA ainda contém trechos que mencionam tópicos como segurança, liberdade, igualdade e direitos humanos.

Em um dos trechos, a empresa diz que usará supervisão humana e receberá feedback para garantir que as tecnologias estejam alinhadas com “princípios amplamente aceitos de direito internacional e direitos humanos”. Além disso, a companhia promete que fará testes para mitigar resultados não intencionais ou nocivos.

Com informações de Washington Post e TechCrunch
Google abandona promessa de não usar IA para armas e vigilância

Google abandona promessa de não usar IA para armas e vigilância
Fonte: Tecnoblog

IA da Adobe promete te ajudar a ler e a entender contratos

IA da Adobe promete te ajudar a ler e a entender contratos

Novo Acrobat AI Assistant ajuda na compreensão de contratos (imagem: reprodução/Adobe)

Resumo

Uma nova atualização do Acrobat AI Assistant aprimora a análise de contratos, destacando informações-chave e identificando diferenças entre acordos.
Segundo a Adobe, a ferramenta pode identificar e resumir contratos automaticamente, utilizando uma linguagem clara e acessível.
O recurso custa US$ 4,99 (R$ 29) por mês e, por enquanto, está disponível apenas em inglês, com previsão de suporte para outros idiomas, mas sem data definida.

Lidar com contratos é uma tarefa complicada. Frequentemente, esse tipo de documento é extenso e contém termos que são de difícil compreensão. Mas, e se uma inteligência artificial te ajudar a fazer esse trabalho? É o que promete a nova versão do Acrobat AI Assistant.

De acordo com a Adobe, a atualização oferece várias funções, como ajudar o usuário a compreender termos complexos, identificar diferenças entre acordos e verificar informações específicas nos documentos.

Em linhas gerais, a ideia é permitir que o usuário tenha acesso às informações realmente importantes do contrato e, ao mesmo tempo, não gaste muito lendo-o.

A novidade promete ser útil em várias circunstâncias. A própria Adobe dá alguns exemplos:

empresários podem identificar rapidamente datas-chave em contratos de fornecedores;

equipes financeiras podem acelerar as revisões de contratos de vendas;

profissionais de marketing podem identificar mudanças em escopos de trabalho atualizados e encontrar rapidamente entregas em parcerias de marca e publicidade;

consumidores podem localizar rapidamente as políticas de ocupação em aluguéis de apartamentos.

O Acrobat AI Assistant pode ainda identificar automaticamente quando um documento é um contrato, incluindo aqueles que são digitalizados (“escaneados”), e criar uma visão geral do documento — uma espécie de resumo. Isso tudo é feito com o uso de uma linguagem clara, afirma a Adobe.

Dá para confiar no Acrobat AI Assistant para ler contratos?

É difícil saber. Mas o uso de qualquer IA generativa requer atenção do usuário. Esse tipo de ferramenta ainda dá respostas imprecisas ou equivocadas, e isso não é raro de acontecer. Por isso, eu usaria o Acrobat AI Assistant com prudência, talvez testando a ferramenta com contratos não muito importantes, inicialmente.

Para contratos que envolvem bens ou acordos de alto valor, eu até usaria a ferramenta para facilitar a minha compreensão, mas não tomaria nenhuma decisão sem antes confiar esses documentos a advogados ou profissionais habilitados a lidar com eles.

Mas nem tudo é desconfiança. Penso que o novo Acrobat AI Assistant pode ser de grande auxílio para quem lida com grandes quantidades de contratos ou documentos muito volumosos, mas sempre como ferramenta de apoio — para ajudar na organização das informações, por exemplo.

Nesse sentido, a novidade pode valer a pena. Mas há um porém: a ferramenta é paga, tendo custo de US$ 4,99 por mês (R$ 29 na cotação atual). É possível usá-la tanto no Acrobat (que lê, edita e gera documentos) quanto no Acrobat Reader (leitor gratuito de documentos).

Leve em conta também que o Acrobat AI Assistant só funciona em inglês na atual fase. A Adobe promete suporte a outros idiomas, mas não informou quando isso irá acontecer.
IA da Adobe promete te ajudar a ler e a entender contratos

IA da Adobe promete te ajudar a ler e a entender contratos
Fonte: Tecnoblog

Meta diz que pode parar desenvolvimento de IA se risco for extremo

Meta diz que pode parar desenvolvimento de IA se risco for extremo

Meta vai ouvir opiniões de especialistas de fora da empresa (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A Meta poderá interromper o desenvolvimento de um sistema de IA caso identifique um risco extremo de catástrofe associado a ele.
Segundo um documento da plataforma, os riscos são classificados em dois níveis: alto, quando o sistema facilita uma ação perigosa, e crítico, quando ele a torna possível.
A avaliação desses riscos será conduzida por pesquisadores internos e externos, enquanto as decisões ficarão a cargo de “tomadores de decisão de nível sênior”.

A Meta publicou um novo documento sobre suas políticas para inteligência artificial, em que afirma que pode parar o desenvolvimento de um sistema caso considere que existe um risco extremo de catástrofe associado a ele, e pode não lançar um produto caso exista um risco alto.

O documento, chamado “Frontier AI Framework” (ou “Estrutura para IA de vanguarda”, em tradução livre), tem 21 páginas. Ele traz informações sobre a classificação de riscos adotada pela Meta e como esta avaliação será feita.

Quais as classificações de risco das IAs da Meta?

A Meta tem duas classificações de risco em que tomará medidas para evitar problemas: risco alto e risco extremo (ou crítico, como a empresa chama). Nos dois casos, a companhia considera os riscos de que estes sistemas possam ajudar em ataques de cibersegurança, químicos ou biológicos. Contudo, há uma diferença entre eles:

Risco alto: o sistema facilita a ação, mas não chega a torná-la viável

Risco crítico: o sistema torna a ação possível e os riscos não podem ser mitigados durante a implementação

Cenário crítico não pode ser mitigado, na avaliação da Meta (ilustração: Vitor Pádua/Tecnoblog)

O que a Meta faria nestas situações?

No caso de risco alto, a Meta diz que o sistema não seria lançado, tendo seu acesso limitado a um time de pesquisadores, como forma de proteção contra vazamentos. Neste cenário, a empresa trabalharia para mitigar o risco e reduzi-lo ao nível moderado (em que a IA não poderia ajudar em um ataque).

Já no caso de risco crítico, as medidas são mais extremas. A Meta diz que, neste cenário, pausaria o desenvolvimento para avaliar se existem barreiras para impedir um cenário de catástrofe. O acesso seria limitado a um pequeno número de especialistas, com medidas para evitar invasões e vazamentos.

Como a Meta vai avaliar os riscos?

De acordo com o documento, a Meta vai considerar a opinião de pesquisadores internos e externos, com “tomadores de decisão de nível sênior” revisando estes comentários. A companhia diz que o campo científico de avaliações de risco não é, neste momento, suficientemente robusta para fornecer métricas quantitativas.

Com informações de Meta e TechCrunch
Meta diz que pode parar desenvolvimento de IA se risco for extremo

Meta diz que pode parar desenvolvimento de IA se risco for extremo
Fonte: Tecnoblog

Europa anuncia OpenEuroLLM para brigar com EUA e China em IA

Europa anuncia OpenEuroLLM para brigar com EUA e China em IA

Europa anuncia OpenEuroLLM para brigar com EUA e China em IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A União Europeia anunciou a OpenEuroLLM, uma iniciativa para desenvolver modelos avançados de inteligência artificial de código aberto.
Liderada por Peter Sarlin, da Silo AI, a aliança terá início em fevereiro de 2025, com financiamento da Comissão Europeia e a participação de mais de 20 instituições e empresas.
O projeto contará com um orçamento inicial de 52 milhões de euros (cerca de R$ 311 milhões), focando em infraestruturas digitais e IA.
A iniciativa surge como resposta ao avanço dos Estados Unidos e da China no setor de inteligência artificial.

A União Europeia não quer ficar para trás dos Estados Unidos e da China quando o assunto é inteligência artificial. Por isso, o bloco anunciou uma aliança para desenvolver LLMs avançados e com código aberto: a OpenEuroLLM.

O projeto apoiará ou contará com o apoio de startups, centros de pesquisa, instituições de ensino e organizações especializadas em computação de alto desempenho que tenham sede em países da União Europeia.

De acordo com o anúncio oficial, mais de 20 instituições de pesquisa e empresas da região já fazem parte da iniciativa, que terá a missão de construir uma “família base de modelos de larga escala de alto desempenho, multilíngues e de grande porte para serviços comerciais, industriais e públicos”.

A OpenEuroLLM será comandada por Peter Sarlin, cofundador de Silo AI, empresa com sede na Finlândia especializada em inteligência artificial, mas que foi adquirida pela AMD em julho de 2024 por US$ 665 milhões (R$ 3,86 bilhões, na conversão atual).

Por que a OpenEuroLLM foi criada?

Segundo a própria entidade, o projeto foi criado com o intuito de “melhorar a competitividade e a soberania digital da Europa”.

Não é um discurso raso. De um lado, a União Europeia vê organizações americanas, com destaque para a OpenAI, dominando a cena da inteligência artificial.

Como se não bastasse, os Estados Unidos anunciaram o Stargate Project logo após a posse de Donald Trump como presidente do país. A iniciativa investirá US$ 500 bilhões para deixar os Estados Unidos na vanguarda da IA.

De outro lado, a Europa vê a DeepSeek se destacando como uma força chinesa em IA. Ainda que essa plataforma esteja sob questionamentos a respeitos dos custos reduzidos e do desempenho melhorado que afirma ter, o projeto mostra que a China não está alheia a todo esse movimento.

Bandeiras da União Europeia (foto: Thijs ter Haar/Wikimedia Commons)

Oficialmente, a OpenEuroLLM iniciou suas atividades em 1º de fevereiro de 2025 com base em um financiamento concedido pela Comissão Europeia por meio do Programa Europa Digital.

Os LLMs a serem desenvolvidos na OpenEuroLLM deverão seguir a estrutura regulatória da Europa, bem como alguns preceitos estabelecidos pela Comissão Europeia, entre eles, a “diversidade linguística e cultural”, de modo que todo o continente possa ser beneficiado pelos projetos que saírem de lá.

Ao TNW, Peter Sarlin declarou:

Isso não é sobre criar um chatbot de propósito geral, mas sobre construir a infraestrutura digital e de IA para permitir que companhias europeias inovem em IA.

Peter Sarlin, líder da OpenEuroLLM

Ainda de acordo com Sarlin, a fase inicial do projeto contará com um orçamento de 52 milhões de euros (R$ 311 milhões). Fiquemos de olho.
Europa anuncia OpenEuroLLM para brigar com EUA e China em IA

Europa anuncia OpenEuroLLM para brigar com EUA e China em IA
Fonte: Tecnoblog

OpenAI anuncia Deep Research para ser seu analista de mercado

OpenAI anuncia Deep Research para ser seu analista de mercado

Segundo a OpenAI, o novo LLM desenvolvido para a ferramenta é mais um passo na busca pela inteligência artificial geral (imagem: Vitor Pádua/Tecnoblog)

Resumo

A OpenAI lançou o Deep Research, um agente de IA para análises complexas baseado no LLM o3.
Na prática, a ferramenta atua como um analista de mercado, processando rapidamente informações que levariam horas para um humano, a partir de prompts dos usuários.
Contudo, o Deep Research ainda está em fase de testes e não é totalmente confiável, com a própria OpenAI alertando que a IA pode não diferenciar rumores e informações precisas.

A OpenAI anunciou neste domingo (02/02) o Deep Research, novo agente de IA capaz de realizar buscas na internet para tarefas complexas. Apesar da funcionalidade, o produto não é um concorrente do Google ou uma nova versão do ChatGPT Search, ferramenta de pesquisa da OpenAI. O Deep Research está disponível para assinantes do ChatGPT Pro, mas será liberado em breve para os planos Plus e Team.

Como funciona o Deep Research?

No vídeo da sua demonstração, vemos que, entre as funções do Deep Research, está a de realizar análises de determinados assuntos após receber prompts dos usuários. Segundo a OpenAI, o Deep Research realiza em minutos tarefas que demorariam horas para serem feitas por pessoas. Este recurso utiliza o LLM o3 da própria empresa.

Deep Research pode levar até 30 minutos para gerar análise, mas aponta as fontes usadas (imagem: Felipe Freitas/Tecnoblog)

Por exemplo, se você quer uma análise da evolução da logística nos últimos anos, basta pedir que o Deep Research realize essa pesquisa. A IA pesquisa fontes online, usando páginas da web, PDFs e até imagens — o usuário também pode subir arquivos para complementar a pesquisa. Basicamente, o Deep Research funciona nesse cenário como um analista de mercado.

Para chegar no Deep Research, a OpenAI desenvolveu esse novo LLM o3, focado justamente na realização dessas tarefas de análise de dados e navegação em páginas da web. De acordo com a OpenAI, este LLM é mais um passo da empresa na busca pela inteligência artificial geral (AGI).

Deep Research não é 100% confiável

OpenAI diz que o Deep Research pode sofrer com alucinações (ilustração: Vitor Pádua/Tecnoblog)

Naturalmente, como ocorre com os resultados das respostas das inteligências artificiais, a análise gerada pela Deep Research não é completamente confiável. Na própria página do anúncio da ferramenta, a OpenAI destaca que ela pode alucinar ou gerar inferências erradas sobre o tópico desejado.

O Deep Research pode ter dificuldades em diferenciar rumores de informações precisas. Sendo uma ferramenta em estágio inicial, é natural existir problemas desse tipo. Contudo, a OpenAI afirma que os casos de alucinações e inferências erradas são menores do que os modelos no ChatGPT.

Por enquanto, os usuários do ChatGPT Pro podem usar 100 prompts do Deep Research por mês. A OpenAI reforça que seguirá aprimorando o recurso continuamente nos próximos meses.
OpenAI anuncia Deep Research para ser seu analista de mercado

OpenAI anuncia Deep Research para ser seu analista de mercado
Fonte: Tecnoblog