Category: Inteligência Artificial

IA em 2024: muitos assistentes, geradores de vídeos e até plágio de voz

IA em 2024: muitos assistentes, geradores de vídeos e até plágio de voz

2024 teve novas tecnologias e novos problemas (Imagem: Vitor Pádua / Tecnoblog)

Quem acompanha o Tecnoblog sabe que a inteligência artificial é um dos assuntos mais quentes da tecnologia nos últimos anos. Não foi diferente em 2024: a IA passou a falar mais, criar vídeos e até fazer buscas na internet (mas nem sempre acertando). E para 2025, a expectativa é que a tecnologia vá além da geração de textos e imagens e passe a comandar aplicativos e aparelhos.

Por outro lado, nem tudo foi positivo: além dos já citados erros durante pesquisas na web, as empresas se viram envolvidas em questões de plágio, direitos autorais, privacidade e até mesmo “cópia” de voz.

As notícias mais importantes da IA em 2024Gemini se consolida e vira assistente no AndroidMeta AI faz sua estreia no WhatsApp e no InstagramBusca com IA nem sempre dá certoChatGPT estreia buscador próprioVoz do ChatGPT causa “climão” com atrizSora, Firefly e as IAs de vídeoInteligência precisa de conteúdoNvidia bate recordes graças à alta demandaSamsung e Apple colocam IA em seus aparelhosMicrosoft coloca IA em quase tudoAgentes de IA são o futuro?Brasil discute regulação da tecnologia

Gemini se consolida e vira assistente no Android

No comecinho de 2024, o Google mudou o nome de seu chatbot de IA: sai o Bard, entra o Gemini. Com a nova marca, veio a consolidação da ferramenta no ecossistema do Google e, principalmente, do Android.

Aos poucos, o Gemini vai substituindo o Google Assistente e ganhando recursos para controlar smartphones. A ferramenta de IA já é capaz de se conectar a outros serviços da empresa (como Keep, Tasks e YouTube Music) e a recursos do Android (como alarme, lanterna e Wi-Fi) de forma mais fluida e menos robótica que seu antecessor.

Meta AI faz sua estreia no WhatsApp e no Instagram

Função de “imaginar” na Meta AI (foto: Thássius Veloso/Tecnoblog)

O ano de 2024 também fica marcado pela entrada da Meta no campo da inteligência artificial generativa. A Meta AI está presente nos principais apps da companhia: WhatsApp, Instagram, Facebook e Messenger. Nem todo mundo gostou, mas a empresa adverte: é melhor não fazer nenhuma gambiarra.

No Brasil, a Meta AI demorou um pouco mais para fazer sua estreia. A Agência Nacional de Proteção de Dados (ANPD) suspendeu as atividades da IA generativa da empresa por preocupações de privacidade, o que acabou atrasando o lançamento.

Busca com IA nem sempre dá certo

Desde que o ChatGPT surgiu, especula-se que chatbots com IA poderão substituir os tradicionais mecanismos de busca na web. Por isso, o Google se mexeu e liberou as AI Overviews, que são resumos de informações gerados automaticamente com base nas páginas encontradas.

Só que nem sempre isso dá certo, e uma dessas respostas esquisitas viralizou. Após uma pergunta sobre como grudar melhor o queijo na pizza, o Google sugeriu passar cola. A recomendação esquisita aconteceu porque o buscador levou ao pé da letra uma piada feita no Reddit há alguns anos.

ChatGPT estreia buscador próprio

A perspectiva de usar a inteligência artificial para buscas na internet ficou mais clara não só porque o Google abraçou a tecnologia, mas também por causa dos investimentos da própria OpenAI.

Em julho, a companhia revelou os primeiros detalhes do SearchGPT, o chatbot capaz de fazer pesquisas na web para complementar sua própria base de dados. A ferramenta foi liberada de fato em novembro com a promessa de entregar textos mais coesos e informações mais corretas (ou menos alucinadas).

e em dezembro, a ferramenta foi liberada para todos os usuários do ChatGPT. Com ela, o chatbot pode fazer pesquisas na web para complementar sua própria base de dados. A promessa é entregar textos coesos com informações mais corretas.

Busca é ativada automaticamente, mas usuário pode fazer uma pesquisa manual (Imagem: Divulgação / ChatGPT)

Voz do ChatGPT causa “climão” com atriz

Um dos principais lançamentos da OpenAI em 2024 foi um modo de fala para o ChatGPT, capaz de responder de modo natural e entender quando está sendo interrompida. A ferramenta tem até mesmo diferentes opções de voz — e uma delas gerou constrangimento.

Algumas pessoas notaram que a voz Sky era parecida com a da atriz Scarlett Johannsson — curiosamente, ela fez o papel de uma assistente virtual no filme Her, de 2013. Johansson revelou ter sido procurada por Sam Altman, CEO da OpenAI, para emprestar sua voz ao app, mas recusou a oferta. A empresa removeu a opção Sky após pedido da atriz.

Sora, Firefly e as IAs de vídeo

Depois da geração de textos e imagens estáticas, chegou a vez de a IA produzir vídeos. Logo em fevereiro, a OpenAI anunciou a Sora, seu modelo capaz de criar peças de até um minuto de duração. A ferramenta demorou para chegar ao público, sendo lançada apenas em dezembro e limitada a assinantes de planos pagos do ChatGPT.

Outra empresa que lançou produtos de IA para vídeo foi a Adobe. Em outubro, ela liberou o Firefly Video Model, capaz de estender vídeos existentes e fazer pequenas alterações.

Inteligência precisa de conteúdo

No finzinho de 2023, o jornal americano The New York Times processou a OpenAI e a Microsoft por usarem seus artigos para treinar seus modelos.

Quem também se meteu em altas confusões foi a Perplexity AI. Forbes e Wired acusaram a desenvolvedora do chatbot de plagiar reportagens e não respeitar a sinalização contra o acesso de robôs.

Para evitar problemas deste tipo, as empresas se mexeram para garantir que a IA tenha conteúdo. A própria OpenAI, por exemplo, assinou contratos com a Associated Press e o Financial Times, entre outras publicações, para ter acesso legal ao conteúdo produzido.

Os contratos vão além de revistas e jornais: a OpenAI e o Google fecharam acordos com o Reddit, que se tornou o “queridinho” de muitos usuários na hora de encontrar opiniões reais e sinceras na internet.

Nvidia bate recordes graças à alta demanda

As tarefas de treinamento e execução dos modelos de IA exigem grande poder de processamento. Com milhões de pessoas usando ChatGPT, Gemini e outras ferramentas todos os dias, uma quantidade enorme de chips é necessária para dar conta de todas as demandas.

Quem gostou disso foi a Nvidia. Principal fabricante de GPUs para IA do mercado, ela chegou a ser a maior empresa do mundo em valor de mercado por alguns meses, atingindo os US$ 3,332 trilhões em junho.

Samsung e Apple colocam IA em seus aparelhos

Após um 2023 em que muitas ferramentas com IA apareceram na internet ou na forma de apps independentes, em 2024, vimos fabricantes criarem suas próprias soluções.

Em janeiro, a Samsung lançou sua linha Galaxy S24, que trouxe também a Galaxy AI. As ferramentas de IA da marca são capazes de remover objetos de fotos e fazer traduções em tempo real. Em julho, 100 milhões de aparelhos da empresa sul-coreana já tinham acesso à IA.

Já a Apple apresentou sua Apple Intelligence em junho, na WWDC, tendo a Siri “turbinada” com ChatGPT como um de seus destaques, bem como gerar imagens e resumir notificações. Os recursos, porém, estão chegando lentamente aos aparelhos da maçã. Além disso, eles só estarão disponíveis em português em 2025.

Microsoft coloca IA em quase tudo

Poucas empresas mergulharam de cabeça na inteligência artificial como fez a Microsoft. Uma das principais investidoras da OpenAI, a desenvolvedora do Windows criou ferramentas para praticamente todos os apps do sistema — até o Bloco de Notas e o Paint foram contemplados.

A empresa também criou a iniciativa Copilot+ PC, certificando computadores que atendem requisitos para rodar tarefas de inteligência artificial. O assistente Copilot, por sua vez, passou por um redesign e ganhou novos recursos, como melhorias na capacidade de raciocínio.

Ver essa foto no Instagram Uma publicação compartilhada por Tecnoblog (@tecnoblog)

Nem tudo correu como o esperado, porém: o Recall, ferramenta que prometia ajudar o usuário a lembrar de informações vistas ou tarefas realizadas no Windows, sofreu com críticas relacionadas à segurança e à privacidade. Como consequência, a Microsoft precisou adiar o lançamento diversas vezes.

Agentes de IA são o futuro?

O fim de 2024 apontou um novo caminho para a IA: diversas empresas mencionaram em seus lançamentos o termo “agentic AI”. Google e Microsoft são alguns exemplos.

Em tradução livre, isso significa algo como “IA agêntica”, mas o melhor jeito de explicar é dizer que estes novos modelos terão uma capacidade maior de realizar tarefas pelo usuário, indo além de apenas gerar textos ou imagens.

Brasil discute regulação da tecnologia

Com a IA cada vez mais presente no noticiário, nos aplicativos e nos produtos, governos em todo o mundo passaram a ter mais atenção com o assunto. No Brasil, uma regulamentação para a tecnologia era discutida no Congresso Nacional desde 2019, antes mesmo do “boom” pós-ChatGPT.

Em dezembro de 2024, o Senado Federal aprovou um marco legal para a inteligência artificial. O texto define, entre outros pontos, que as empresas deverão informar quais conteúdos protegidos por direitos autorais estão sendo usado no treinamento dos modelos. Os autores poderão vetar o uso de suas obras.

O marco também visa assegurar direitos à explicação e à revisão humana quando uma decisão tomada por IA tiver impacto jurídico relevante. Além disso, fica proibido o uso de IA para prever realização de crimes ou classificar indivíduos de acordo com seu comportamento.

O texto segue para a Câmara dos Deputados, onde será discutido e votado novamente.
IA em 2024: muitos assistentes, geradores de vídeos e até plágio de voz

IA em 2024: muitos assistentes, geradores de vídeos e até plágio de voz
Fonte: Tecnoblog

Google lança inteligência artificial que promete raciocinar melhor

Google lança inteligência artificial que promete raciocinar melhor

Gemini 2.0 Flash Thinking está disponível apenas no Google AI Studio (Ilustração: Vitor Pádua/Tecnoblog)

O Google lançou nesta sexta-feira (dia 20/12) o modelo de inteligência artificial Gemini 2.0 Flash Thinking. Ainda em fase experimental, ele é apresentado como o melhor para “compreensão multimodal, raciocínio e geração de códigos”, com capacidade para “raciocinar sobre os problemas mais complexos” de programação, matemática e física.

O Gemini 2.0 Flash Thinking demora mais que seus concorrentes especializados em linguagem na hora de responder um prompt, podendo ficar alguns segundos ou até minutos “pensando”. O modelo considera pedidos relacionados e “explica” a linha de raciocínio. Depois disso, resume o método adotado e apresenta a resposta que ele avalia como a mais precisa.

It’s still an early version, but check out how the model handles a challenging puzzle involving both visual and textual clues: (2/3) pic.twitter.com/JltHeK7Fo7— Logan Kilpatrick (@OfficialLoganK) December 19, 2024

Parece bonito na teoria, mas nem sempre isso funciona na prática. O TechCrunch perguntou pra IA quantas letras R existem na palavra “strawberry”. O Gemini 2.0 Flash Thinking pensou, explicou e… errou, dizendo que há duas letras R.

Por enquanto, o Gemini 2.0 Flash Thinking está disponível apenas no Google AI Studio, plataforma da empresa para prototipagem.

Raciocínio ainda é um desafio para IA

A pergunta de quantos R há em “strawberry” se tornou famosa há alguns meses, depois que usuários perceberam que quase nenhum chatbot de IA é capaz de acertar a resposta na primeira tentativa.

Até o momento, as soluções mais populares de IA generativa — como ChatGPT, Copilot e o próprio Gemini, do Google — têm dificuldades quando o usuário faz pedidos que exigem raciocínios um pouco mais complexos. Descrever problemas matemáticos, por exemplo, nem sempre traz a solução certa.

Isso acontece porque, por trás dessas ferramentas, estão modelos de linguagem em larga escala (LLMs, na sigla em inglês). Eles são bons para decodificar pedidos e juntar palavras para formar um texto coeso, mas não têm muita capacidade de articular números e lógica.

Ou, como resume o MIT News, os LLMs são bons para recitar respostas semelhantes às vistas nos textos em que foram treinados, mas muito limitados ao se deparar com novos cenários.

Um estudo deixa isso bem claro: o ChatGPT se saiu muito pior quando precisa resolver problemas de código que apareceram na plataforma de testes LeetCode após 2021. Uma possível explicação para isso está no treinamento do GPT-3.5, que usou dados coletados até 2021 — ele só estaria resolvendo os problemas que conhece.

Aos poucos, as empresas tentam mudar este cenário. A OpenAI apresentou, há alguns meses, o modelo o1, que promete raciocínio lógico aprimorado.

Segundo a empresa, o o1 “pensa” por mais tempo nas questões antes de respondê-las, testando estratégias e encontrando erros nas hipóteses. Com isso, ele foi capaz de acertar 83% das questões de um teste qualificatório para a Olimpíada Internacional de Matemática.

Com informações: TechCrunch, Ars Technica
Google lança inteligência artificial que promete raciocinar melhor

Google lança inteligência artificial que promete raciocinar melhor
Fonte: Tecnoblog

Você já pode utilizar o ChatGPT diretamente no WhatsApp; saiba como

Você já pode utilizar o ChatGPT diretamente no WhatsApp; saiba como

OpenAI lança ChatGPT para WhatsApp (Imagem: Vitor Pádua / Tecnoblog)

Resumo

O ChatGPT está disponível no WhatsApp através do número +1 (800) 242-8478. Basta adicionar o contato e começar a conversar.
Não é necessário ter conta no ChatGPT para usar o serviço nas plataformas mencionadas, mas há limites diários de interação.
Por enquanto não é possível fazer login com a conta salva no site chatgpt.com.

Ficou ainda mais fácil utilizar o ChatGPT. A plataforma de inteligência artificial da OpenAI anunciou hoje a chegada ao WhatsApp. Por meio do aplicativo de mensagens da Meta, é possível conversar com o chatbot e solicitar informações ou tarefas. O serviço está em fase de testes e possui algumas limitações.

Para utilizar o ChatGPT no WhatsApp, é necessário enviar uma mensagem para o número +1 (800) 242-8478 (1800CHATGPT). Nesse primeiro momento, a inteligência artificial apenas responde interações via texto — não é possível enviar arquivos ou pedir para o assistente gerar uma imagem, por exemplo.

Não é necessário ter uma conta do ChatGPT para utilizar a inteligência artificial generativa pelo WhatsApp. Existe um limite diário de interações que não foi divulgado pela OpenAI. A empresa afirma que a experiência completa do serviço continua restrita para o aplicativo ou o site do ChatGPT.

ChatGPT responde mensagens via WhatsApp (Imagem: Lucas Braga/Tecnoblog)

No WhatsApp, o ChatGPT fica mais fácil de se acionado, especialmente considerando que é possível encaminhar mensagens do aplicativo para ao assistente. Com o lançamento, a OpenAI passa a concorrer ainda mais com a Meta AI, disponível nativamente no aplicativo de mensagens desde outubro de 2024.

ChatGPT lança IA por ligações telefônicas

Além de chegar ao WhatsApp, o ChatGPT também lançou suporte para ligações telefônicas. O número é o mesmo do WhatsApp, mas aceita apenas chamadas convencionais. O funcionamento é bem similar ao modo de voz disponível no aplicativo.

Call 1-800-CHAT-GPT.It even works on flip phones and landlines. pic.twitter.com/lT7CoQa1Kn— OpenAI (@OpenAI) December 18, 2024

Através das ligações tradicionais, o ChatGPT consegue alcançar um público ainda maior, uma vez que as chamadas podem ser feitas utilizando telefones fixos ou celulares simples.

Assim como na versão do WhatsApp, existem limitações no ChatGPT via ligações. A mais significativa é o limite máximo de 15 minutos por mês para falar com a IA. Também não há como fazer login na plataforma, e o assistente não terá o seu histórico de conversas para oferecer respostas mais personalizadas.

Além disso, o serviço de ligações do ChatGPT está disponível apenas para números dos Estados Unidos — para testar, liguei de um número brasileiro e ouvi a mensagem que tinha estourado o limite máximo mensal. Ainda não há previsão de expansão para mais países.

Você já pode utilizar o ChatGPT diretamente no WhatsApp; saiba como

Você já pode utilizar o ChatGPT diretamente no WhatsApp; saiba como
Fonte: Tecnoblog

ChatGPT libera busca na web para todos os usuários; veja como usar

ChatGPT libera busca na web para todos os usuários; veja como usar

ChatGPT vai disputar espaço com Google entre os buscadores (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI liberou o ChatGPT Search para todos os usuários da inteligência artificial. Antes, o buscador da inteligência artificial estava restrito a assinantes de planos pagos, como Plus e Team. Agora, qualquer pessoa poderá usá-lo, sem pagar nada por isso — basta entrar com sua conta.

Com o ChatGPT Search, a IA identifica quais pedidos do usuário precisam de uma busca na web para obter uma resposta satisfatória. A ferramenta acessa páginas, resume informações e cria um texto, indicando as fontes utilizadas em cada parágrafo.

Segundo a OpenAI, também é possível clicar em um ícone de globo na barra do ChatGPT para “forçar” o chatbot a fazer uma busca na web, mesmo que ela não seja necessária para responder à pergunta. Para mim, no entanto, essa opção ainda não aparece.

A empresa também indica que é possível configurar o ChatGPT para que ele seja usado como mecanismo de pesquisa padrão em qualquer navegador, o que pode acirrar a disputa com o Google pelo mercado de buscas.

Busca é ativada automaticamente, mas usuário poderá fazer uma pesquisa manual (Imagem: Divulgação / ChatGPT)

Como fazer uma busca na web com o ChatGPT?

O processo de pesquisar na internet com o ChatGPT é bem simples.

Abra o aplicativo do ChatGPT ou acesse o site da ferramenta.

Faça login com sua conta na plataforma ou com um serviço de terceiros (Google, Apple ou Microsoft). Apenas usuários logados podem usar a busca — sem login, o ChatGPT usa apenas sua própria base de dados para gerar respostas.

Digite seu pedido para o ChatGPT. Se o prompt exige informações atualizadas, o bot fará a busca automaticamente e utilizará o conteúdo que encontrar nas respostas.

Como o ChatGPT se sai ao buscar informações?

Nos meus testes, a ferramenta teve desempenho bom em inglês e razoável em português. Ela foi capaz de fazer um balanço do desempenho da Seleção Brasileira em 2024, por exemplo, mencionando resultados, classificação e declarações do técnico em um texto de quatro parágrafos.

ChatGPT busca informações e resume resultados (Imagem: Reprodução/Tecnoblog)

No entanto, ao pedir a previsão do tempo em São Paulo, o ChatGPT errou as temperaturas e a possibilidade de chuva. Curiosamente, os sites apontados como fonte traziam as informações corretas. Um prompt em inglês trouxe resultados mais precisos.

A diferença entre inglês e português se repete também em outras buscas. Ao procurar como foi o último jogo do Liverpool com um prompt em português, o ChatGPT deu o resultado de uma partida de um ano atrás. Em uma segunda tentativa, ele acertou o jogo em questão, dando o resultado. Já em inglês, o bot acertou de primeira o adversário e o placar, além de fazer um comentário mais longo sobre a partida.

No anúncio da ferramenta, a OpenAI mostrou widgets de previsão do tempo, placares esportivos, preço de ações e mais. Por enquanto, eles ainda não apareceram nas minhas buscas. Outra promessa era de integrar resultados a outros aplicativos. Ao pedir recomendações de restaurantes, as informações poderiam aparecer com links do Apple Maps, por exemplo. Por aqui, isso também não funcionou.

Com informações: TechCrunch, Engadget
ChatGPT libera busca na web para todos os usuários; veja como usar

ChatGPT libera busca na web para todos os usuários; veja como usar
Fonte: Tecnoblog

Google anuncia Gemini 2.0 e agentes de IA para realizar tarefas

Google anuncia Gemini 2.0 e agentes de IA para realizar tarefas

Gemini 2.0 Flash supera 1.5 Flash e equivale ao 1.5 Pro (Ilustração: Vitor Pádua/Tecnoblog)

O Google anunciou nesta quarta-feira (dia 11/12) o Gemini 2.0, nova versão do modelo de inteligência artificial. Ele estará em vários produtos da empresa, como o assistente que leva o mesmo nome e as AI Overviews, resumos que aparecem acima dos resultados de busca.

A nova versão será lançada inicialmente em formato reduzido, mas promete desempenho comparável ao do Gemini 1.5 Pro. Ela é capaz de trabalhar com texto, imagens estáticas, vídeos e fala.

A companhia também apresentou novos modelos e aplicações. São os chamados agentes, como o Project Mariner (uma extensão que navega na internet pelo usuário), o Jules (assistente para corrigir erros de código) e a nova versão do Project Astra (que identifica objetos com imagens de câmeras).

Gemini 2.0 Flash é a primeira versão

O Google vai liberar inicialmente o Gemini 2.0 Flash. Ainda em fase experimental, ele é a versão reduzida do novo modelo de IA. O Gemini 2.0 Flash estará disponível a partir de hoje (dia 11/12) no assistente Gemini na web, tanto para desktop quanto para smartphones. Nos apps para Android e iOS, ele chegará em breve.

Nos testes do Google, o Gemini 2.0 Flash supera o Gemini 1.5 Flash em quesitos como respostas, geração de códigos de programação, capacidade de fornecer fatos corretos, resolução de problemas matemáticos, raciocínio e análise de vídeos. Há uma leve piora em compreensão de contextos complexos.

As avaliações também mostram um desempenho comparável ao do Gemini 1.5 Pro, um dos modelos mais potentes da geração passada do Google.

Desenvolvedores terão acesso ao Gemini 2.0 Flash no Google AI Studio e no Vertex AI, com possibilidade de input multimodal e output em texto. Isso significa que o modelo é capaz de processar imagens, texto e áudio, mas as respostas ainda serão apenas em texto. Para parceiros selecionados, ele terá geração de voz e imagens.

Novo modelo será usado em agentes de IA

O Google também deu destaque ao que chamou de “experiências agênticas”. Já faz algum tempo que ouvimos que a IA poderá não só dar respostas ou gerar imagens, mas também assumir o controle de aplicativos que usamos diariamente. Este seria o tal uso “agêntico” que o Google menciona.

Uma destas experiências é o Project Mariner. Ele é capaz de entender o que está na tela do seu navegador, sejam textos, códigos de programação, imagens ou formulários. Uma extensão do Chrome, então, pode completar tarefas para o usuário.

O Google ressalta que o Mariner ainda está em fase inicial, nem sempre é preciso e pode demorar para completar as tarefas. Porém, a empresa promete que ele vai evoluir rapidamente.

Outra novidade é o Jules. Ele se comporta como um assistente de programação, resolvendo problemas, desenvolvendo planos e os executando, sob supervisão de um desenvolvedor.

Por fim, o Google também aperfeiçoou o Project Astra. Apresentado no Google I/O, o agente é capaz de usar câmeras e entender imagens ao redor, auxiliando o usuário a obter informações, com a ajuda do Lens e do Maps, por exemplo. A companhia também revelou óculos experimentais que usam esta ferramenta.

Com informações: Google, Axios, TechCrunch, The Verge
Google anuncia Gemini 2.0 e agentes de IA para realizar tarefas

Google anuncia Gemini 2.0 e agentes de IA para realizar tarefas
Fonte: Tecnoblog

World ID cresce no Brasil e já atrai mais de 100 mil humanos

World ID cresce no Brasil e já atrai mais de 100 mil humanos

Orbe da World escaneia íris e rosto do ser humano (imagem: divulgação)

Resumo

Cem mil brasileiros cadastraram-se no World ID entre os 13 de novembro e 10 de dezembro, com um total de 106.694 humanos registrados no país.
O cadastro é gratuito e pode ser feito em 80 postos de atendimento na cidade de São Paulo.
O World ID visa distinguir humanos de máquinas, com usos como prevenção de perfis falsos e verificação de conta única.

Depois de pouco mais de um mês, 100 mil brasileiros já fizeram cadastro no World ID, serviço que propõe uma espécie de carteira de humanidade que diferencia as pessoas de carne osso dos robôs. A marca foi alcançada nesta terça-feira (10/12), conforme verificado com exclusividade pelo Tecnoblog.

O projeto começou a cadastrar interessados em 13 de novembro. De lá para cá, o total de humanos cadastrados passou de 2.681 para 106.694. Algumas imagens nas redes sociais expuseram as enormes filas em São Paulo de pessoas interessadas no projeto tocado pela startup Tools for Humanity.

Posto de atendimento do World ID em São Paulo registra longas filas (imagem: reprodução/internet)

O processo de inscrição conta com 16 postos de atendimento na cidade de São Paulo, a primeira do país a contar com a iniciativa. Eles ficam em locais como o Shopping Center Lapa, o Shopping Vila Olímpia, o Shopping Metrô Boulevard Tatuapé e o Mais Shopping (Santo Amaro), além de instalações nos bairros do Ipiranga, Penha, Saúde e na rua Teodoro Sampaio.

O cadastro no World ID é pago?

Não, o cadastro na rede da World ID é totalmente gratuito. Basta fazer o agendamento e comparecer no posto de atendimento escolhido pela pessoa. Numa demonstração com a presença do Tecnoblog, todo o procedimento levou menos de 5 minutos.

A Fundação World está por trás dos chamados Orbes, equipamentos com visual futurístico e que realizam a captura da íris e do rosto da pessoa. Eles geram uma chave que é transferida para o aplicativo oficial da World. De acordo com a Tools for Humanity, os dados de biometria são apagados após o procedimento.

Usos da tecnologia da World

Dispositivo da World faz a captura e converte rosto da pessoa num hash único (foto: Thássius Veloso/Tecnoblog)

O World ID serve para distinguir seres humanos de máquinas por meio da autenticação facial. Num ambiente digital com forte expansão da inteligência artificial, os criadores do projeto acreditam que, no futuro, será necessário demonstrar que você é realmente uma pessoa de carne e osso. A chave salva no app World serviria a este propósito.

Estes são alguns usos do World ID, segundo o gerente da operação no Brasil, Rodrigo Tozzi:

Diferenciar humanos de bots

Verificação de conta única

Recompensas e ações exclusivas em jogos

Em encontros, maximizar conexões de qualidade

Prevenção de perfis falsos

Prevenção de contas falsas e bots

O World ID possui mais de 8,7 milhões de humanos únicos cadastrados no mundo. O serviço está presente em mais de 160 países.

Você pensa em se cadastrar no World ID? Conte pra gente nos comentários abaixo.
World ID cresce no Brasil e já atrai mais de 100 mil humanos

World ID cresce no Brasil e já atrai mais de 100 mil humanos
Fonte: Tecnoblog

OpenAI lança a IA de vídeos Sora; saiba como funciona

OpenAI lança a IA de vídeos Sora; saiba como funciona

Sora gera vídeos e realiza pequenas edições a partir de prompts de texto (Imagem: Divulgação / OpenAI)

A OpenAI liberou a inteligência artificial Sora para usuários assinantes do ChatGPT Plus ou Pro. Ela é capaz de gerar vídeos a partir de pedidos, instruções e descrições em texto, como já acontece com modelos de imagens estáticas, como o Dall-E.

A Sora terá uma interface própria, independente de outros produtos da OpenAI. O início é com um pedido em texto, mas há opções para definir proporções da imagem, resolução, duração e variações geradas. Depois de selecionar uma das criações, é possível usar ferramentas para recortar, remixar ou até mesmo fazer alterações no prompt.

Neste primeiro momento, a Sora poderá criar vídeos de até 20 segundos em resolução 1080p. No entanto, haverá limitações, de acordo com o plano do usuário, por meio de um sistema de créditos.

Assinantes do ChatGPT Plus poderão gerar até 50 vídeos por mês na resolução 480p. Para criar peças em 720p, a duração e a quantidade de vídeos será reduzida. Já o plano Pro dará acesso a um uso dez vezes maior, com vídeos mais longos e resoluções maiores.

Segundo a OpenAI, a Sora estará disponível nos Estados Unidos e na maioria dos países em que o ChatGPT está disponível. Usuários europeus, porém, terão que esperar um pouco mais. Além de liberar o modelo, a OpenAI publicou um site dedicado à ferramenta. Por lá, os usuários poderão mostrar o que criaram e qual foi o prompt usado.

Sora ainda não está pronta e terá restrições

A Sora foi anunciada em fevereiro de 2024, mas só agora o público geral terá acesso ao modelo. Até então, apenas artistas convidados e equipes de testes de segurança puderam usar a ferramenta. Em novembro, alguns destes artistas vazaram um acesso ao gerador, como forma de protesto contra o tratamento recebido da OpenAI.

A companhia impôs algumas limitações para impedir usos nocivos da Sora, como bloqueios a conteúdos envolvendo abuso infantil e deepfakes sexuais. Além disso, os vídeos gerados contarão com uma marca d’água visível e metadados para identificação.

A empresa reconhece que a IA ainda tem limitações. Segundo o texto de lançamento, o modelo “frequentemente gera [situações com] física irrealista e tem dificuldade com ações complexas em longas durações”.

O youtuber Marques Brownlee, por exemplo, testou a Sora e considera que ela é excelente para criar paisagens e conteúdo estilizado, mas falha em pontos básicos de física, como permanência do objeto.

Com informações: OpenAI, Ars Technica, Engadget, Axios
OpenAI lança a IA de vídeos Sora; saiba como funciona

OpenAI lança a IA de vídeos Sora; saiba como funciona
Fonte: Tecnoblog

GenCast: Google apresenta nova IA de previsões meteorológicas

GenCast: Google apresenta nova IA de previsões meteorológicas

IA GenCast foi 99,8% mais precisa que o atual melhor modelo de previsão meteorológica (Imagem: Reprodução/DeepMind)

A DeepMind, divisão de IA do Google, anunciou uma nova IA para previsões meteorológicas: o GenCast. Conforme o post feito no blog Google Keyword, nesta quarta-feira (4), o modelo é considerado o maior avanço da área em quase oito décadas.

A ferramenta visa oferecer previsões meteorológicas diárias e de eventos extremos com maior precisão. Em testes iniciais, ele já superou a IA do programa meteorológico anterior utilizando menor poder de computação.

O GenCast foi treinado com dados meteorológicos de cerca de 40 anos fornecidos pelo Centro Europeu de Previsões Meteorológicas de Médio Prazo (ECMWF). A organização europeia está por trás do melhor modelo de previsão meteorológicas da atualidade, o sistema ENS.

Curiosamente, a IA da DeepMind mostrou ser muito mais preciso que o sistema ENS. Por exemplo, para previsões com 15 dias de antecedência, o GenCast acertou 97,2% mais vezes. E para previsões de até 36 horas, a diferença foi ainda maior, com 99,8% a mais de acertos.

Dessa maneira, o GenCast possibilita a criação de alertas mais precisos e antecipados para eventos climáticos extremos. Algo que irá contribuir para a segurança e o planejamento em diversas áreas, como agricultura, aviação e gestão de desastres.

Comparativo entre as previsões da IA GenCast e o Sistema ENS (Imagem: Reprodução/DeepMind)

O GenCast é um modelo de IA generativa de difusão, usado na geração de imagens, adaptada para entender a geometria esférica da Terra e suas complexidades. Com isso, a ferramenta consegue prever os cenários meteorológicos a partir dos dados atuais ou prévios.

Apesar dos resultados satisfatórios, a equipe da DeepMind afirma que a IA ainda precisa evoluir em relação a previsões de intensidade de furacões. Algo que vem sendo trabalhado intensamente para ser corrigido antes da futura integração com o Google Earth.

Maior precisão usando menos poder de computação

O GenCast é muito mais rápido e econômico para fazer previsões do tempo do que os métodos tradicionais. Um computador potente consegue gerar uma previsão de 15 dias em apenas 8 minutos usando o modelo de IA.

Vale dizer que o Google transformou o GenCast em um modelo de código aberto. Os interessados podem explorar mais detalhes da IA da DeepMind acessando a página no GitHub.

Com informações Google Keyword e Engadget.
GenCast: Google apresenta nova IA de previsões meteorológicas

GenCast: Google apresenta nova IA de previsões meteorológicas
Fonte: Tecnoblog

ChatGPT: OpenAI estuda colocar propagandas no aplicativo

ChatGPT: OpenAI estuda colocar propagandas no aplicativo

OpenAI, desenvolvedora do ChatGPT, está avaliada em US$ 150 bilhões (Imagem: Vitor Pádua / Tecnoblog)

O ChatGPT poderá ter anúncios no futuro. A OpenAI discute internamente se deve ou não fazer isso e qual seria a melhor forma. Fundada como uma organização sem fins lucrativos, a companhia de inteligência artificial está em transição para um modelo mais tradicional e busca novas formas de receita para justificar os grandes investimentos recebidos.

A informação vem de uma entrevista de Sarah Friar, chefe financeira da OpenAI, ao jornal The Financial Times. A executiva diz que a companhia quer ser cuidadosa ao decidir quando e onde implementar os anúncios.

Após a entrevista, Friar enviou uma declaração ao FT dizendo que, embora esteja estudando outras formas de faturamento, a OpenAI não tem planos ativos para buscar o mercado de publicidade.

OpenAI contratou executivos de publicidade

Apesar de dizer que não há planos ativos de publicidade, a OpenAI trouxe nomes com currículos de peso no setor.

Um deles é Kevin Weil, atual chefe de produto, que foi responsável por construir produtos para publicidade no Instagram e no X (antigo Twitter). Em maio, a companhia contratou Shivakumar Venkataraman, ex-vice-presidente da equipe de anúncios da busca do Google.

De acordo com uma fonte próxima a Sam Altman, CEO e cofundador da OpenAI, ele está entusiasmado com a ideia de colocar propaganda no ChatGPT.

Sam Altman está empolgado com publicidade, diz fonte próxima (Imagem: Vitor Pádua / Tecnoblog)

IA precisa de dinheiro

Atualmente, a OpenAI tem receitas que giram em torno de US$ 4 bilhões por ano. Grande parte deste dinheiro vem das APIs: outras empresas pagam para usar em seus produtos os modelos de inteligência artificial criados pela empresa.

No entanto, isso parece não ser suficiente. A mesma fonte próxima a Altman diz que a margem de lucro do negócio de APIs não é tão alta. Por isso, a OpenAI estaria buscando o mercado de buscadores e produtividade para o consumidor final.

Mesmo assim, os anúncios ainda não são unanimidade. Friar diz que a publicidade também tem suas desvantagens, como acompanhar o ciclo econômico, aumentando ou diminuindo gastos de acordo com o cenário geral.

A executiva também teme que a OpenAI deixe de se concentrar nas demandas dos usuários para focar nos anunciantes.

A OpenAI está avaliada em US$ 150 bilhões (cerca de US$ 910 bilhões, na cotação atual). Em outubro, ela conseguiu US$ 6,6 bilhões (R$ 40 bilhões) em investimento, o maior valor de uma rodada de venture capital na história.

Mesmo assim, desenvolver e treinar modelos de inteligência artificial custa caro, já que envolve um gasto enorme de energia e chips de alto valor. A OpenAI calcula que vai queimar mais de US$ 5 bilhões (R$ 30 bilhões) no curto prazo.

Com informações: Financial Times
ChatGPT: OpenAI estuda colocar propagandas no aplicativo

ChatGPT: OpenAI estuda colocar propagandas no aplicativo
Fonte: Tecnoblog

Galaxy Watch 6 recebe One UI Watch 6 no Brasil

Galaxy Watch 6 recebe One UI Watch 6 no Brasil

Samsung Galaxy Watch 6 começa a receber a One UI Watch 6 no Brasil (Imagem: Thássius Veloso/Tecnoblog)

A Samsung está liberando a atualização da One UI Watch 6 para o Galaxy Watch 6 no Brasil. O update foi encontrado pelo Tecnoblog no changelog de atualizações do relógio da marca. O destaque da One UI Watch 6 é trazer alguns recursos do Galaxy AI, serviço de IA da Samsung, para o Galaxy Watch 6.

Com a nova interface, os usuários do Galaxy Watch 6 poderão usar o Galaxy AI para novas medições de dados de saúde e atividades físicas. Como explica a Samsung, a IA é usada no app Samsung Health para entregar uma nova pontuação de energia, sistema de análise biométrica da empresa baseada em dados do sono, monitoramento cardíaco e atividades físicas.

Galaxy Watch 6 recebe Galaxy AI com atualização do One UI Watch 6 (Imagem: Thássius Veloso/Tecnoblog)

Com o Galaxy AI também é possível usar o relógio para detectar apneia do sono e outros elementos enquanto o usuário dorme. O uso da IA da Samsung também funciona para receber respostas geradas por IA ou criar textos para mensagens de aplicativos de comunicação.

Com a One UI Watch 6, o Galaxy Watch 6 também ganha a função de ser controlado pelo gesto de pinça. Há ainda novas maneiras de navegar nos menus do relógio, facilitando o acesso aos apps e outras ferramentas do dispositivo.

Como atualizar o meu Galaxy Watch 6?

A atualização da interface do Samsung Galaxy Watch 6 é feita através do aplicativo Samsung Wearable. Após abrir o app, siga as seguintes etapas:

Clique no botão em forma de círculo localizado no centro inferior da tela — ele possui quadrados e bolas no seu interior

Botão para selecionar dispositivo da Samsung fica na parte inferior da tela (Imagem: Reprodução/Tecnoblog)

Selecione o Galaxy Watch 6 da lista de dispositivos conectados — caso o Watch 6 seja o seu único acessório da Samsung, o app já abrirá na tela do relógio

Clique em “Configurações do relógio”

Na tela que abrir, arraste até o fim da página e clique no botão “Atualiz. de software do relógio”

Na nova tela, clique em “Baixar e instalar” para que o aplicativo verifique se há atualizações para a interface

Caso o update já esteja liberado para você, basta seguir as instruções que serão exibidas na tela

Galaxy Watch 6 recebe One UI Watch 6 no Brasil

Galaxy Watch 6 recebe One UI Watch 6 no Brasil
Fonte: Tecnoblog