Category: Inteligência Artificial

Prova de humanidade da World ID começa a funcionar no Brasil

Prova de humanidade da World ID começa a funcionar no Brasil

Dispositivo da World faz a captura e converte tosto da pessoa num hash único (foto: Thássius Veloso/Tecnoblog)

Resumo

A World ID, da startup Tools for Humanity, inicia a verificação de humanidade em São Paulo, a partir de 13/11, para pessoas com mais de 18 anos.
O dispositivo Orb captura imagens do rosto e da íris, convertendo-as em um certificado digital sem armazenar a fotografia original.
Potenciais usos da World ID incluem a diferenciação de humanos e bots, verificação de conta única e prevenção de perfis falsos.

A startup Tools for Humanity anuncia hoje a chegada oficial do serviço de verificação de humanidade World ID ao Brasil. As pessoas com mais de 18 anos poderão fazer a checagem totalmente gratuita a partir da quarta-feira (dia 13/11). Serão mais de dez pontos de verificação espalhados pela capital paulista.

A ideia da Fundação World, responsável pelo protocolo World, é diferenciar as interações humanas daquelas feitas por máquinas. Num momento de explosão da inteligência artificial pelo planeta, a World acredita que a verificação de humanidade será relevante diante de desafios como os deepfakes, deep nudes e fraudes de identificação, entre outros golpes.

O assunto é polêmico por causa das dúvidas sobre biometria e privacidade. A World tem entre seus fundadores Sam Altman, o CEO da OpenAI.

O CEO da OpenAI quer escanear a sua íris (Imagem: Vitor Pádua / Tecnoblog)

Como funciona o World ID?

Para verificar sua humanidade, a pessoa primeiro precisam baixar o World App e realizar um compromisso presencial num dos locais de verificação em São Paulo.

O curioso e futurístico dispositivo Orb captura uma imagem em alta resolução do rosto do usuário e outra dos olhos do usuário, para produzir a chamada textura da íris. Essa participação é totalmente voluntária e gratuita. Todo o procedimento leva cerca de 2 minutos.

A Tools for Humanity explica que a imagem da íris é convertida num certificado digital, de modo que as partes envolvidas no projeto não ficam com a fotografia original. Em vez disso, é como se um hash fosse associado ao usuário. “O World ID verifica a humanidade e a singularidade, não a identidade.”

Todo usuário que se cadastra no World ID recebe cerca de 50 tokens – inicialmente 25, e mais outros 25 com o passar do tempo.

Tools for Humanity realiza evento com jornalistas em São Paulo (foto: Thássius Veloso/Tecnoblog)

O gerente da operação no Brasil, Rodrigo Tozzi, explica que os dados criptografados são enviados da Orb para o smartphone da pessoa. Na sequência, todas as informações são imediatamente apagadas. Os esclarecimentos foram feitos num evento em São Paulo, do qual o Tecnoblog participou.

O projeto ainda envolve o protocolo World, a blockchain World Chain e a moeda Worldcoin (WLD), que é um token digital emitido a todos os participantes da rede.

Usos da World ID

Ainda de acordo com Tozzi, alguns dos potenciais usos da World ID são:

Diferenciar humanos de bots

Verificação de conta única

Recompensas e ações exclusivas em jogos

Em encontros, maximizar conexões de qualidade

Prevenção de perfis falsos

Prevenção de contas falsas e bots

Os números da World no mundo

Orbe da World vista de lado (foto: Thássius Veloso/Tecnoblog)

7 milhões de humanos verificados

16 milhões de usuários do aplicativo World App

902 Orbs

Presença no Brasil

O World ID foi apresentado no Brasil pela primeira vez em julho de 2023, quando as Orbs fizeram uma espécie de turnê global. O dispositivo de captura de imagem passou por mais de 20 países e apresentou uma prévia dessa tecnologia.
Prova de humanidade da World ID começa a funcionar no Brasil

Prova de humanidade da World ID começa a funcionar no Brasil
Fonte: Tecnoblog

PicPay lança IA no WhatsApp capaz de fazer Pix

PicPay lança IA no WhatsApp capaz de fazer Pix

Assistente PicPay usa IA para auxiliar em transferências via Pix (Imagem: Divulgação/WhatsApp e PicPay)

Resumo

O PicPay lançou o Assistente PicPay no WhatsApp, chatbot com inteligência artificial que interpreta mensagens, lê imagens, compreende áudios e faz transações por Pix.
A confirmação da transação deve ser feita no app do PicPay.
O Assistente PicPay foi desenvolvido em parceria com a Meta e utiliza a tecnologia do Microsoft Azure OpenAI Service.
O serviço será liberado gradualmente para 57 milhões de contas.

A inteligência artificial está em cada vez mais lugares, e o PicPay decidiu entrar no bonde com seu novo chatbot no WhatsApp. A ferramenta permite que os clientes da instituição financeira iniciem uma transação Pix diretamente pelo app de mensagens.

O Assistente PicPay foi desenvolvido em parceria com a Meta, empresa dona do WhatsApp. Por trás do serviço está a tecnologia do Microsoft Azure OpenAI Service, que consegue reconhecer chaves Pix em diversos contextos como conversas completas, áudios, fotos e capturas de tela.

Uma vantagem do Assistente PicPay é o cálculo de porcentagens e despesas de grupos: é possível verificar qual o valor é devido na divisão de um churrasco, por exemplo. Para isso, basta encaminhar o conteúdo bruto para o chat que a IA prossiga com a transação.

Além de fazer Pix, o Assistente também irá avisar os clientes sobre contas a vencer, cadastrar débitos automáticos via PDF e consultar documentos de veículos.

Assistente PicPay é capaz de dividir contas de formas mais complexas (Imagem: Divulgação/WhatsApp e PicPay)

O Assistente PicPay será liberado gradualmente, e breve estará disponível para todas as 57 milhões de contas. Os clientes podem conferir se já possuem acesso caso a opção Pix por WhatsApp for exibida no app do PicPay.

IA no WhatsApp não substitui app do PicPay

Uma das principais preocupações em serviços financeiros é a segurança. Sendo assim, é importante salientar que o Assistente ainda depende do app da instituição financeira: ao solicitar uma transação, o cliente deverá fazer a confirmação biometria no próprio app do PicPay.

Além disso, a Meta esclarece que o contato do Assistente PicPay é uma conta verificada no WhatsApp, com selo de verificação azul.

Outras formas de fazer Pix no WhatsApp

O Assistente PicPay não é a primeira IA financeira a chegar no WhatsApp. A Magie oferece uma conta digital 100% controlada pelo WhatsApp que também reconhece mensagens, imagens e áudios, capaz de fazer Pix ou pagar boletos. Até mesmo a senha de autenticação é feita diretamente no aplicativo de mensagens.

O Banco do Brasil também possui uma forma de usar Pix no WhatsApp. O chatbot não utiliza inteligência artificial, mas é capaz de enviar Pix. Para confirmar a transação, o cliente deve abrir um link e informar a senha.
PicPay lança IA no WhatsApp capaz de fazer Pix

PicPay lança IA no WhatsApp capaz de fazer Pix
Fonte: Tecnoblog

Amazon Prime Video estreia IA que resume episódios e temporadas de séries

Amazon Prime Video estreia IA que resume episódios e temporadas de séries

X-Ray Recaps no Amazon Prime Video (imagem: divulgação/Amazon)

A Amazon anunciou um recurso que promete nos ajudar a relembrar daquilo que já aconteceu em uma série disponível no Prime Video. Chamado de X-Ray Recaps, a novidade utiliza inteligência artificial (IA) generativa para criar resumos de episódios específicos ou até de temporadas inteiras de uma série.

Esse recurso é especialmente útil para quando você para de assistir a uma série e volta a ela tempos depois, mas não se lembra de partes importantes da história. Outra utilidade: te lembrar do que aconteceu na temporada anterior quando você começa a assistir a uma nova. Esquecer detalhes da última temporada é uma situação recorrente comigo, especialmente quando a nova demora para estrear.

Com o X-Ray Recaps, é possível pedir para o Amazon Prime Video gerar um resumo de partes de um episódio, de um episódio inteiro ou de toda a temporada. Para isso, basta acessar o recurso na página de detalhes sobre a série ou na lista de opções que aparece quando um episódio é pausado.

O X-Ray Recaps em série do Prime Video (imagem: divulgação/Amazon)

Como o X-Ray Recaps funciona?

De acordo com a Amazon, a nova funcionalidade é baseada nos recursos do X-Ray, que oferecem informações sobre elenco, trilha sonora e outros aspectos da produção quando um vídeo no Prime Video é pausado.

Para gerar os resumos, o X-Ray Recaps analisa segmentos do vídeo e combina essas informações com legendas e diálogos. Com base nisso, a ferramenta é capaz de produzir resumos em texto que incluem detalhes sobre acontecimentos, lugares, horários e conversas importantes na série.

A companhia explica ainda que o X-Ray Recaps é alimentado pela tecnologia do Amazon Bedrock, um serviço AWS que permite criar e dimensionar aplicações de IA generativa.

O X-Ray Recaps em ação (imagem: divulgação/Amazon)

Disponibilidade do X-Ray Recaps

No momento, o X-Ray Recaps está disponível em fase beta. Somente assinantes do Amazon Prime Video baseados nos Estados Unidos e que utilizam algum dispositivo Fire TV têm acesso à novidade. A Amazon afirma que mais dispositivos serão suportados até o fim do ano, mas ainda não comentou sobre a liberação da ferramenta em outros países.

Outra restrição é que, no momento o X-Ray Recaps só funciona com produções da Amazon MGM Studios, como Upload, Sr. & Sra. Smith, The Boys e A Roda do Tempo.

Amazon Prime Video estreia IA que resume episódios e temporadas de séries

Amazon Prime Video estreia IA que resume episódios e temporadas de séries
Fonte: Tecnoblog

ChatGPT ganha buscador para concorrer com Google e Bing

ChatGPT ganha buscador para concorrer com Google e Bing

ChatGPT, da OpenAI, terá ferramentas e conteúdo para encarar outros buscadores (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI começou a liberar o buscador web para o ChatGPT. Os assinantes dos planos pagos ChatGPT Plus e Team terão acesso ao recurso a partir desta quinta-feira (dia 31/10), bem como os que estavam inscritos na lista de espera do SearchGPT. Usuários dos planos gratuitos, corporativos e educacionais receberão a novidade nas próximas semanas.

O buscador funciona na web, nos apps para smartphone e para desktop. Ele vai entrar em cena automaticamente, de acordo com o que for pedido pelo usuário, caso a ferramenta julgar que é relevante trazer informações atualizadas. Mesmo assim, também dá para fazer buscas manualmente, tocando no ícone de pesquisa.

Busca será ativada automaticamente, mas usuário poderá fazer uma pesquisa manual (Imagem: Divulgação / OpenAI)

Como o ChatGPT vai fazer pesquisas?

No post sobre o anúncio, a OpenAI diz que seu buscador permite fazer perguntas de um jeito mais natural e conversacional, sem precisar de muito esforço e várias pesquisas. A desenvolvedora também diz que o ChatGPT considerará o contexto da conversa para chegar à melhor resposta.

Para trazer as melhores informações, a OpenAI fez parcerias com provedores de conteúdo. Eles aparecem quando o usuário faz perguntas sobre previsão do tempo, ações, esportes, mapas e notícias.

Neste último caso, sites como Reuters, Financial Times e Associated Press, com quem a OpenAI fechou acordos de licenciamento de conteúdo nos últimos meses, servem como fontes.

Parceiros fornecerão informações de previsão do tempo, ações e notícias (Imagem: Divulgação / OpenAI)

Apesar de trazer as respostas resumidas, o ChatGPT também mostrará de que sites foram retiradas as informações. As páginas aparecerão em uma área lateral, na interface web e de desktop.

Google já usa IA, e Meta pode ser a próxima

Sinônimo de pesquisa na web nas últimas décadas, o Google vem investindo em inteligência artificial para não perder terreno. É o caso das chamadas AI Overviews, resumos gerados por IA com as principais informações encontradas sobre a pesquisa do usuário.

Do outro lado, até quem nunca se interessou muito pode entrar nesta área. A Meta estaria preparando um buscador, de acordo com fontes ouvidas pelo site The Information, para a Meta AI, presente no Facebook, Instagram e WhatsApp.

Com informações: OpenAI, The Verge, Ars Technica
ChatGPT ganha buscador para concorrer com Google e Bing

ChatGPT ganha buscador para concorrer com Google e Bing
Fonte: Tecnoblog

Waymo quer usar o Gemini na direção autônoma de seus robotaxis

Waymo quer usar o Gemini na direção autônoma de seus robotaxis

Waymo quer desenvolver novo sistema de direção autônoma usando o LLM Gemini (Imagem: Divulgação/Waymo)

A Waymo, serviço de táxi autônomo do Google, publicou um artigo no qual revela que usará o Gemini para uma nova tecnologia de direção autônoma. O Gemini é tanto o nome da IA generativa da big tech quanto do LLM, o motor dessas tecnologias. No caso, a empresa de robotáxi usará o LLM para o desenvolvimento do seu novo sistema de direção.

Por que essa decisão da Waymo é importante?

Com este anúncio, o Waymo sugere que as IAs generativas e seus LLMs podem ganhar uma nova função. Atualmente, o uso dessa tecnologia está associado a chatbots, respostas por email, geração de imagens, vídeos e aplicações profissionais — o próprio Gemini tem integrações ao Google Drive, assim como o Copilot no Microsoft 365.

O uso de uma IA generativa pode corrigir as limitações dos modelos atuais, baseados em algoritmos predefinidos, que são mais difíceis em se adaptar e lidar com novos cenários. Já os LLMs são capazes de aprender com o tempo e podem “decorar” parâmetros.

Uso de LLM de IAs generativas pode permitir que carros autônomos sejam mais ágeis em se adaptar a novos cenários de direção (Imagem: Vitor Pádua/Tecnoblog)

Obviamente, o LLM Gemini servirá como base e será adaptado para direção autônoma. Ainda assim, o fato de o Gemini ser generalista é visto como um ponto positivo. No artigo, a Waymo destaca que o LLM tem um “rico conhecimento de mundo” (como passar cola na pizza para grudar o queijo) e que o raciocínio em cadeia de conhecimento é superior aos algoritmos, já que busca imitar o raciocínio humano.

A ideia da Waymo é usar essas vantagens para criar o Modelo Multimodal de Ponta a Ponta para Direção Autônoma (EMMA em inglês). Segundo a empresa, os primeiros testes do EMMA foram positivos, demostrando uma “excelente capacidade” (aspas da Waymo) de prever trajetórias, detectar objetos e compreender a via.

A Waymo também destaca as falhas e limitações da tecnologia no momento, como a falta de integração com imagens 3D geradas pelo LiDAR e radares do veículo. Entretanto, a empresa não cita as alucinações de IA.

Ainda há um longo caminho para testes, desenvolvimentos e aprovação de órgãos competentes, mas já podemos imaginar alguns cenários futurísticos. Por exemplo, a EMMA decorando que em determinado local do trajeto há uma via rápida com saída de veículos lentos, o que a levaria a trocar de faixa para diminuir o risco de uma freada brusca.

Com informações: The Verge e Android Headlines
Waymo quer usar o Gemini na direção autônoma de seus robotaxis

Waymo quer usar o Gemini na direção autônoma de seus robotaxis
Fonte: Tecnoblog

Google Maps ganha IA para sugestões e Waze estreia voz para alertas

Google Maps ganha IA para sugestões e Waze estreia voz para alertas

Google Maps ganha novidades com IA do Gemini (Imagem: Vitor Pádua/Tecnoblog)

O Google Maps anunciou novos recursos alimentados por IA, incluindo uma experiência de navegação mais imersiva e sugestões de lugares utilizando o Gemini. A empresa também apresentou o novo modo voz no Waze, que permite aos motoristas a utilização de comandos de voz para informar adversidades no trânsito. A maioria dos recursos ainda não está disponível no Brasil.

Gemini poderá sugerir novos lugares no Maps

Uma das principais novidades anunciadas pelo Google foi a integração do Gemini ao Maps. Mas não se empolgue tanto: esses recursos estarão inicialmente disponíveis nos Estados Unidos e não há previsão de chegada no Brasil e outros países.

A inteligência artificial poderá sugerir lugares baseados em perguntas feitas pelo usuário. Será possível, por exemplo, perguntar “o que fazer com amigos à noite em Boston”, e o aplicativo irá fornecer uma lista de sugestões com diferentes categorias.

Gemini é integrado ao Maps para sugestões e respostas aos usuários (Imagem: Reprodução/Google)

Além de sugerir lugares, o Gemini também está integrado nos estabelecimentos do Google Maps e será capaz de responder perguntas complexas, como preços cobrados ou o que é servido. A IA também cria um resumo sobre o local baseado nas avaliações de usuário.

As informações são extraídas das avaliações e comentários dos próprios usuários, bem como fontes da internet. Com isso, o Google Maps poderá dar algumas nuances diferentes, como informar sobre a atmosfera de um estabelecimento ou se é adequado para crianças, por exemplo.

De acordo com Miriam Daniel, vice-presidente do Google Maps, as sugestões de lugares do Gemini não é baseada em nenhum histórico de buscas ou localização do usuário.

Os resultados levam em conta informações contextuais, incluindo o local da pesquisa, época do ano e clima. Um dos exemplos apresentados é a sugestão de eventos relacionados ao Halloween. No verão, essa mesma pergunta poderá trazer sugestões de parques ou shows ao ar livre.

Use a voz com o Waze para informar problemas na pista

Um dos recursos mais legais apresentados pelo Google é o modo de voz no Waze. O serviço de navegação é baseado em informações alimentadas pelos próprios usuários, e nem sempre o motorista consegue informar sobre acidentes e condições adversas na pista com segurança.

Utilizando a IA do Gemini, o Waze permitirá que o motorista informe “tem um carro parado na rua” para adicionar a informação no mapa, sem a necessidade de falar um comando de voz específico. Com a maior facilidade para reportar incidentes, o Google espera melhorar a qualidade das informações de trânsito.

Waze ganha Gemini para que motoristas informem adversidades no trânsito (Imagem: Reprodução/Google)

Ainda não há uma data para o lançamento oficial da IA de voz no Waze, mas o recurso será disponibilizado a partir desta semana para testadores beta no Android e iOS.

Outra novidade relativa ao Waze é a adição de zonas escolares no mapa. Com isso, a navegação poderá orientar os motoristas a reduzir a velocidade ou dirigir com maior cuidado, para evitar acidentes. De acordo com o Google, essa funcionalidade será lançada ainda em 2024.

Melhorias na navegação no Maps

Outra novidade interessante que não tem previsão de chegada ao Brasil é o aprimoramento dos mapas no modo de navegação do Google Maps. O aplicativo melhorou a exibição de faixas, o que pode auxiliar na direção em grandes avenidas com diversas bifurcações.

Com o aprimoramento, os mapas também passam a mostrar a localização de faixas de pedestre, placas e sinais de trânsito. Vale lembrar que esse tipo de exibição já está disponível há algum tempo no Apple Maps, também nos Estados Unidos.

Novo modo de busca com a rota em curso e exibição aprimorada no mapa (Imagem: Divulgação/Google)

O Google Maps também melhorou a busca ao longo da navegação, com sugestões de pontos de interesse que estejam no caminho. Além disso, o aplicativo passará a orientar melhor sobre a chegada, incluindo locais para estacionar o veículo e direções a pé até a entrada, com possibilidade de utilizar o Street View para melhor orientação.

O Google também anunciou a expansão do recurso de Visualização Imersiva para 150 cidades do mundo, mas nenhum município brasileiro foi mencionado na apresentação. O mapa consegue trazer melhores gráficos para estádios, parques e universidades usando IA, incluindo simulações de clima e trânsito baseado no horário.
Google Maps ganha IA para sugestões e Waze estreia voz para alertas

Google Maps ganha IA para sugestões e Waze estreia voz para alertas
Fonte: Tecnoblog

Mais IA: Google pode revelar assistente virtual “Jarvis” no fim de 2024

Mais IA: Google pode revelar assistente virtual “Jarvis” no fim de 2024

Mais IA: Google pode revelar assistente virtual “Jarvis” no fim de 2024 (imagem: Vitor Pádua/Tecnoblog)

A atual onda de ferramentas e serviços com inteligência artificial (IA) gira em torno do conteúdo generativo. Mas, em um futuro próximo, o Google poderá dar um passo além: há rumores de que a companhia trabalha em uma IA que usa o navegador para automatizar determinadas tarefas para o usuário.

É o que conta o site The Information, que afirma também que a iniciativa recebeu o codinome Project Jarvis, uma óbvia referência ao assistente virtual do Homem de Ferro, no universo da Marvel.

Se os burburinhos estiverem corretos, o tal Project Jarvis poderá usar o Google Chrome (embora também possa funcionar com outros navegadores, presumivelmente) para realizar ações como reservar voos, buscar informações muito específicas na internet e fazer compras online.

Em linhas gerais, o foco dessa tecnologia é a execução de tarefas cotidianas para o usuário, algo que, guardadas as devidas proporções, espera-se que a Apple Intelligence também ofereça para usuários de iPhones, iPads e Macs, ainda que de modos distintos.

Para tanto, a tecnologia do Google terá como base o Gemini 2.0, versão esperada para dezembro de 2024. Se confirmada, a novidade chegará um anos após o surgimento da primeira versão do Google Gemini.

Ainda segundo o Information, o Project Jarvis fará capturas de telas continuamente para extrair textos e elementos gráficos presentes nelas. Áudios também poderão ser analisados.

A interpretação dessas informações será baseada no Gemini 2.0. Com isso, a tecnologia poderá preencher formulários em páginas web, pressionar botões virtuais, entre outras ações.

Project Jarvis deverá ter o Gemini 2.0 como base (imagem: Vitor Pádua/Tecnoblog)

Quando o Google apresentará o Jarvis?

Tudo ainda está no campo dos rumores, logo, ainda não há confirmação sobre o lançamento dessa tecnologia. Mas o Information vislumbra a possibilidade de uma versão preliminar do Project Jarvis ser apresentada em dezembro de 2024 como um exemplo daquilo que o Gemini 2.0 será capaz de oferecer.

Mesmo que isso ocorra até o fim do ano, o Jarvis (ou qualquer que venha a ser o seu nome) deverá ser liberado apenas para um grupo restrito de usuários, afinal, o projeto ainda está em fase inicial de desenvolvimento, supostamente. Tão inicial que, no momento atual, a tecnologia nem sempre processa informações rapidamente, ainda de acordo com os burburinhos.
Mais IA: Google pode revelar assistente virtual “Jarvis” no fim de 2024

Mais IA: Google pode revelar assistente virtual “Jarvis” no fim de 2024
Fonte: Tecnoblog

Meta fecha acordo com Reuters para usar notícias em IA do WhatsApp

Meta fecha acordo com Reuters para usar notícias em IA do WhatsApp

Meta AI funciona no WhatsApp, Messenger, Instagram e Facebook (Imagem: Vitor Pádua / Tecnoblog)

A Meta teria fechado um acordo de múltiplos anos de duração com a agência de notícias Reuters para usar seu conteúdo em respostas do chatbot Meta AI, liberado recentemente no Brasil. As informações foram obtidas pelo site Axios junto a fontes que estão a par do contrato.

Procurada pelo site The Verge, a Meta confirmou a parceria. “Embora a maioria das pessoas use a Meta AI para tarefas criativas, pesquisas profundas ou ajuda prática, esta parceria vai ajudar a garantir uma experiência mais útil para quem busca informações sobre eventos atuais”, disse a companhia em um e-mail.

Antiga sede da Reuters em Londres (Inglaterra) (Imagem: Concus Cretus / Wikimedia Commons)

O Axios diz que, a partir desta sexta-feira (dia 25/10), usuários da Meta AI nos Estados Unidos terão acesso a notícias e informações em tempo real ao conversar com o chatbot, presente em Facebook, Instagram, Messenger e WhatsApp. As respostas devem trazer links para o site da Reuters, e a agência de notícias será remunerada pelo conteúdo, segundo uma das fontes ouvidas.

A falta de informações atualizadas e confiáveis é um problema presente em muitas ferramentas de inteligência artificial generativa. A Meta AI, lançada no Brasil recentemente, fornece respostas factualmente incorretas sobre candidatos das eleições municipais de 2024.

Empresas de IA fecham acordo com publicações

Esta é a primeira vez que a Meta fecha uma parceria com uma empresa jornalística para obter conteúdo para sua inteligência artificial.

Este tipo de acordo se tornou frequente há cerca de um ano. A OpenAI, que desenvolve o ChatGPT, tem contratos com The Atlantic, The Wall Street Journal e Vox Media, entre outras publicações.

Nem sempre o relacionamento entre as big techs e as companhias de jornalismo é harmonioso, porém. O jornal The New York Times abriu um processo contra a OpenAI e a Microsoft, acusando as companhias de infringir direitos autorais ao usar reportagens para treinar os modelos de linguagem.

Com informações: Axios, The Verge
Meta fecha acordo com Reuters para usar notícias em IA do WhatsApp

Meta fecha acordo com Reuters para usar notícias em IA do WhatsApp
Fonte: Tecnoblog

Novo modelo de IA da OpenAI chega em dezembro, diz site

Novo modelo de IA da OpenAI chega em dezembro, diz site

OpenAI pode lançar um LLM mais potente em dezembro e abandonar a nomenclatura GPT nos modelos de IA (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI pode lançar um novo modelo de IA, que seria altamente mais potente que o GPT-4, em dezembro. A informação foi apurada pelo The Verge em contato com uma fonte próxima do caso. O novo LLM, que pode se chamar Orion, não estrearia diretamente no ChatGPT, mas seria liberado para empresas parceiras criarem programas com ele antes de ser liberado para o público.

Em outros momentos, um funcionário da OpenAI chegou a comentar que o sucessor do GPT-4 teria até 100 vezes mais capacidade computacional. Vale lembrar que o GPT-4o é uma atualização do GPT-4, não uma nova geração. Já o GPT o1 é um LLM voltado para a resolução de problemas matemáticos.

Quem serão os primeiros a usar o Orion?

Microsoft deve estrear o Orion no Azure já no mesmo de novembro (Imagem: Vitor Pádua / Tecnoblog)

Segundo outra fonte ouvida pelo The Verge, a OpenAI fornecerá o Orion para que empresas criem seus produtos e recursos com o LLM. E sim, a Microsoft, maior investidora da OpenAI, será uma das primeiras a estrear o Orion. A fonte afirma que a big tech já trabalha em integrar o LLM no Azure já em novembro.

O treinamento do Orion, segundo apurou o site, terminou em setembro. Neste mesmo mês, Sam Altman, CEO da OpenAI, publicou uma mensagem nada misteriosa no X. Altman escreveu um “poema” no qual diz estar empolgado para ver as constelações de inverno ascenderem aos céus.

Bem, a constelação de Orion fica mais visível durante o mês de janeiro, inverno no hemisfério norte. Ainda que a fonte afirme que o lançamento do LLM será realizado em dezembro, a chegada em janeiro não seria nada fora da curva. Ou a estreia do Orion pode acontecer em dezembro nas empresas parceiras e em janeiro no ChatGPT.

Com informações: The Verge
Novo modelo de IA da OpenAI chega em dezembro, diz site

Novo modelo de IA da OpenAI chega em dezembro, diz site
Fonte: Tecnoblog

Opera One traz tela dividida para abas e resumo de página com IA

Opera One traz tela dividida para abas e resumo de página com IA

Opera One R2 é nome da nova versão do navegador, que traz função de dividir tela do navegador com duas abas (Imagem: Divulgação/Opera)

O Opera liberou nesta quinta-feira (23) a nova versão do Opera One, navegador da empresa. Batizado de Opera One R2, a atualização traz mais recursos de IA para o browser e novas ferramentas de usabilidade, como a função de dividir uma janela com duas abas. Outra novidade ajudará quem costuma usar o navegador com mais de 30 abas abertas ao mesmo tempo — sim, isso existe e eu conheço gente assim.

O Opera One é uma versão renovada do navegador da marca, sendo lançado no ano passado e trazendo a IA Aria, que utiliza diferentes modelos de linguagem. Alguns recursos da IA do Opera já estavam liberados para os integrantes do beta do navegador, como o contexto de página. Agora eles estão disponíveis para todos.

Como funciona o recurso de tela dividida no Opera One?

No Opera One R2 o usuário poderá dividir a tela do navegador com duas abas. Para isso, basta clicar e arrastar a aba de uma das páginas para baixo, colocando-a sobre a janela onde está o conteúdo. Pelos testes feito pelo Tecnoblog, a tela dividida seleciona automaticamente a última aba selecionada para o outro espaço.

Recurso de dividir tela em duas abas no Opera ainda pode melhorar (Imagem: Reprodução/Tecnoblog)

O recurso é similar à tela dividida do Microsoft Edge, exceto que este não permite dividir a tela arrastando uma aba para baixo. Em comum, fechar a aba fecha as duas páginas abertas. O que senti falta no Opera One R2 foi um botão para abrir a tela dividida com a outra parte vazia.

Eu uso os dois navegadores no dia a dia. No Edge, é útil abrir a tela dividida pelo botão e selecionar a aba desejada entre as que já estão abertas ou digitar o endereço da página que você quer acessar.

Rastreamento de abas para dezenas de abas

Traços indicam últimas abas acessadas pelo usuário se ele tiver mais de 30 abas abertas (Imagem: Divulgação/Opera)

Outra novidade estreando no Opera é o rastreio de abas. Se o usuário tiver dezenas de abas abertas, a ferramenta indicará com um traço as cinco últimas acessadas. É como se elas deixassem um rastro no navegador. Quanto mais recente o último acesso, mais escuro o traço.

O player de música integrado pode ser destacado da barra lateral, flutuando no navegador. Essa função de flutuar também funciona com videochamadas. E falando sobre esses dois, o recurso de pausar automaticamente a música (útil para ouvir áudios ou abrir um vídeo rapidamente) funcionará durante chamadas.

Mais ferramentas de IA para a Aria e Manifest V2

Ferramenta de contexto da Aria no Opera permite resumir páginas (Imagem: Reprodução/Tecnoblog)

A Aria, IA generativa do Opera One, está com a ferramenta de contexto de página liberada para todos os usuários, assim como o recurso de geração e compreensão de imagens. O contexto de página é ativado pelo Ctrl + Shift + 7, que abre o prompt de texto da Aria.

Ao apertar o botão Tab no prompt, o usuário pode pedir que a Aria resuma a página aberta ou aponte tópicos que podem ser analisados. O contexto também explica sobre o que é o site que o usuário está acessando.

A Opera também explicou que o seu navegador seguirá suportando o sistema Manifest V2, que foi descontinuado pelo Google e é usado no bloqueador de anúncios nativo do Opera. Esse sistema tem mais opções de filtragem, deixando essas extensões mais eficientes. Recentemente, o uBlock Origin com Manifest V2 perdeu o suporte para o Chrome e foi removido do navegador do Google.
Opera One traz tela dividida para abas e resumo de página com IA

Opera One traz tela dividida para abas e resumo de página com IA
Fonte: Tecnoblog