Category: Inteligência Artificial

O que esperar da CES 2025? IA, carros e telas devem dominar a feira

O que esperar da CES 2025? IA, carros e telas devem dominar a feira

CES 2025 trará principais tendências do setor de tecnologia (Imagem: Giovanni Santa Rosa/ Tecnoblog)

Principal feira de tecnologia do mundo, a CES 2025 acontece de 7 a 10 de janeiro em Las Vegas (Estados Unidos). Neste caso, contrariando o ditado, o que acontece em Vegas, não fica em Vegas: o Tecnoblog estará lá e vai mostrar as novidades mais legais, inovadoras e intrigantes.

Enquanto o evento não chega, é bom ficar por dentro do que deve rolar. A inteligência artificial continua como o assunto mais quente, enquanto telas e carros devem chamar a atenção com algumas ideias malucas. Além disso, grandes empresas devem apresentar TVs, chips e computadores que chegarão às lojas ao longo do ano.

Inteligência artificial

A inteligência artificial domina o noticiário de tecnologia nos últimos anos — e na CES 2025, não vai ser diferente. Como nota o TechCrunch, serão poucos os produtos na programação que não vão mencionar IA de uma forma ou outra.

A expectativa é que as empresas apresentem na feira vários recursos da chamada “IA agêntica”, nome dado aos modelos capazes de executar tarefas em computadores, smartphones ou demais sistemas sem que o usuário precise abrir apps ou configurações, por exemplo.

Rabbit R1 desapontou compradores (Imagem: Divulgação / Rabbit)

Um ponto que desperta a curiosidade é o futuro dos dispositivos centrados em IA. Em 2024, o AI Pin e o Rabbit R1 chamaram a atenção. No entanto, os aparelhinhos comandados por voz ficaram longe de entregar na vida real o que prometeram — vamos ver se outros produtos tentarão a sorte neste formato.

Telas e monitores

O setor de displays sempre é um dos mais interessantes da CES, e algumas novidades já começaram a aparecer. A Samsung, a Asus e a MSI anunciaram seus respectivos monitores 4K OLED de 27 polegadas e taxa de atualização de 240 Hz.

Já a LG deve mostrar um monitor OLED 5K de 45 polegadas que pode ser “entortado” para ajustar a curvatura. A marca também vai mostrar a linha QNED Evo de TVs LCD e uma série de telas curvas OLED.

LG UltraGear de 45 polegadas tem resolução 5K2K (Imagem: Divulgação/LG)

Carros

A CES não é um salão do automóvel, mas sempre dá um gostinho das novidades de tecnologia para carros. Nesta edição, a Hyundai Mobis promete mostrar um pouco da sua tela holográfica em para-brisas. A BMW vai na mesma linha, com uma tela touch que se estende por todo o painel, chamada Panoramic iDrive. Já a Honda apresentará dois protótipos elétricos da 0 Series e um sistema operacional próprio.

Hyundai Mobis já mostrou como será seu estande na CES 2025 (Imagem: Divulgação/Hyundai)

Empresas de outros setores também vão mostrar novidades para carros. A Afeela, joint venture criada pela Sony e pela Honda, pode mostrar seu veículo com um PS5 embutido. Já a Qualcomm possivelmente terá anúncios sobre chips para carros em suas apresentações.

Computadores

Várias marcas aproveitam a CES para mostrar novos desktops e notebooks, que vão dos mais triviais aos mais experimentais. O Lenovo ThinkBook Plus Gen 5 Hybrid é um exemplo deste segundo grupo: com teclado destacável, ele roda Windows e Android.

Segundo vazamentos, a marca chinesa também pode apresentar um laptop “enrolável”, com uma tela que pode ser estendida para cima. A empresa mostrou um conceito do tipo em 2023, mas parece que agora o produto será realmente lançado.

Vazamento indica como será o notebook enrolável da Lenovo (Imagem: Reprodução/Evan Blass)

Chips

Duas gigantes dos chips devem mostrar novas placas de vídeo na CES 2025: a AMD já confirmou que a RDNA 4 chegará no começo deste ano. Em uma conferência com investidores em outubro, a CEO Lisa Su prometeu que a placa gráfica terá desempenho melhor de ray tracing e novas capacidades de IA.

Também existe a expectativa de a Nvidia apresentar a série RTX 5000 na feira — segundo rumores, a RTX 5090 pode ser 70% mais rápida que a RTX 4090. A apresentação do CEO Jensen Huang promete ser uma das mais disputadas da CES.

Com informações: Cnet, TechCrunch, Engadget, Mashable
O que esperar da CES 2025? IA, carros e telas devem dominar a feira

O que esperar da CES 2025? IA, carros e telas devem dominar a feira
Fonte: Tecnoblog

Google vai dar ainda mais atenção ao Gemini em 2025

Google vai dar ainda mais atenção ao Gemini em 2025

Chatbot Gemini ganha aplicativo próprio e substitui Google Assistente (Imagem: Vitor Pádua/Tecnoblog)

O Google dedicará seus esforços em 2025 para melhorar o Gemini e diminuir a distância para a OpenAI. A revelação foi feita por Sundar Pichai, CEO da big tech, durante um evento para funcionários. Parte dessa estratégia, segundo Pichai, trará resultados ainda na primeira metade do ano, com o lançamento de mais recursos para o Gemini.

Por que o Google investirá mais no Gemini em 2025?

Os possíveis motivos para o Google investir mais no desenvolvimento do Gemini em 2025 são:

Vantagem da OpenAI no segmento de IA generativa — essa parte explicitada na declaração de Pichai

Processo de monopólio e possíveis decisões que obriguem a venda de produtos — assim ela precisa forçar esse mercado que é a tendência dos próximos anos

Chance de novas legislações que passem a regular o mercado de IA — não só nos Estados Unidos, mas também na Europa

Mais concorrência — além da OpenAI, existem Anthropic (criadora do Claude), Apple Intelligence e Grok

Pichai reconhece que OpenAI está na frente e Google precisa recuperar tempo perdido (Imagem: Divulgação/Google)

Em parte da apresentação, Pichai diz considerar que 2025 será um ano crítico para o Google. “Eu acho que é realmente importante internalizarmos a urgência deste momento e precisamos nos mover rápido como empresa”, falou o CEO do Google.

Ainda que parte das pessoas vejam atualmente pouco valor nas IAs generativas, elas são a aposta das empresas para o grande produto tech dos próximos anos — assim como os smartphones levaram diversas companhias a entrar nesse mercado após o iPhone. O Copilot da Microsoft, por exemplo, está cada vez mais integrado ao Windows.

Pichai também valorizou a atual posição do Gemini. Para ele, a IA generativa da empresa está fortemente embalada e isso deve ser aproveitado para entregar mais valor aos usuários. Parte dessa força pode vir do Galaxy AI. Demis Hassabis, fundador do DeepMind, declarou que as equipes de IA darão uma turbinada no Gemini.

Hassabis também revelou que os números de usuários do Gemini estão crescendo desde fevereiro. O fundador do DeepMind ainda respondeu a um funcionário que perguntou se há planos de vender assinaturas premium da IA — cobrando mais de US$ 200. Hassabis explicou que, por enquanto, o Google não planeja um plano desse tipo, mantendo serviços com valores de US$ 20.

Não espere grandes novidades do Google em 2025, exceto em recursos de IA (Imagem: Vitor Pádua / Tecnoblog)

Pichai mostra como será o 2025 do Google

A declaração de Sundar Pichai pode parecer óbvia visto que todas as big techs estão focando em IA generativa. Porém, ela revela boa parte da estratégia do Google para 2025.

Em resumo, a big tech focará em melhorar os seus produtos atuais. Isso significa que não devemos ver novos serviços no próximo ano — e o Google deve manter a tradição de matar produtos para 2025. As grandes novidades estarão ligadas ao Gemini, enquanto os outros grandes produtos da empresa, como YouTube, YouTube Music e dispositivos terão melhorias pontuais. E sim, ganhando recursos do Gemini.

Com informações: Android Headlines, TechCrunch e CNBC
Google vai dar ainda mais atenção ao Gemini em 2025

Google vai dar ainda mais atenção ao Gemini em 2025
Fonte: Tecnoblog

Meta quer que IA crie perfis e interaja com pessoas no Facebook e Instagram

Meta quer que IA crie perfis e interaja com pessoas no Facebook e Instagram

Meta quer ir além do chatbot Meta AI (imagem: ilustração/Vitor Pádua)

Resumo

A Meta planeja criar “personagens” de IA com perfis completos e capacidade de gerar conteúdo em redes como Facebook e Instagram para aumentar engajamento.
Segundo o vice-presidente Connor Hayes, a Meta priorizará interações sociais com IA nos próximos dois anos, com foco em entretenimento e engajamento.
A inclusão de IAs interativas pode gerar problemas, como evidenciado por casos envolvendo conteúdo inadequado em plataformas como Character.AI.

A Meta quer que suas redes tenham “personagens” de inteligência artificial, que têm perfis completos e geram conteúdos mesmo sem ser humanos. Para a empresa, esta seria uma forma de aumentar o engajamento em plataformas como Facebook e Instagram.

“Esperamos que estas IAs, com o tempo, passem a existir nas nossas plataformas, da mesma maneira que as contas existem”, disse Connor Hayes, vice-presidente de produto de IA generativa da Meta, ao jornal Financial Times. “Eles terão biografias, fotos de perfil e serão capazes de gerar e compartilhar conteúdo na plataforma, usando IA… acreditamos que este é o caminho”, acrescentou.

O executivo explica que a prioridade da Meta nos próximos dois anos é deixar seus aplicativos mais atraentes, no sentido de entretenimento e engajamento. Para isso, a empresa quer tornar mais sociais as interações com a IA.

Atualmente, nos Estados Unidos, a gigante das redes sociais já oferece um recurso para criar personagens usando inteligência artificial. Segundo Hayes, centenas de milhares de personas já foram criadas com a ferramenta. No entanto, a maioria dos usuários mantém estes “robôs” fechados.

IA responde seguidores de influencers de forma automática (Imagem: Reprodução/Instagram)

Interações com IA podem gerar problemas

Pensar em IAs como usuários independentes não é uma ideia inédita. O CEO do Zoom, Eric Yuan, já declarou acreditar que, no futuro, cada pessoa terá várias IAs baseadas nela mesma, podendo enviá-las para reuniões com as IAs de outras pessoas.

Colocar estes robôs na internet para interagir com usuários pode criar problemas, no entanto. Nos EUA, duas famílias estão processando a Character.AI, acusando as IAs hospedadas no site da empresa de terem exposto crianças a conteúdo sexual e violento. Um dos bots teria dito, inclusive, que era “ok” a criança assassinar seus próprios pais.

A Character.AI permite que usuários criem e publiquem chatbots baseados em personas, que podem ser tanto personagens famosos da ficção (como Edward Cullen, de Crepúsculo) ou genéricos. A CNN encontrou um robô chamado “padrasto”, que trazia a descrição “agressivo, abusivo, ex-militar, chefe da máfia”.

Com informações: Financial Times
Meta quer que IA crie perfis e interaja com pessoas no Facebook e Instagram

Meta quer que IA crie perfis e interaja com pessoas no Facebook e Instagram
Fonte: Tecnoblog

OpenAI vai se tornar uma empresa com fins lucrativos

OpenAI vai se tornar uma empresa com fins lucrativos

OpenAI começou como organização sem fins lucrativos, mas criou empresa para atrair investidores (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI detalhou, nesta sexta-feira (dia 27/12), seus planos para se tornar uma empresa com fins lucrativos. De acordo uma publicação em seu blog oficial, a ideia é transformar a entidade em uma corporação de benefício público (PBC, na sigla em inglês).

A OpenAI foi fundada em 2015 como uma organização sem fins lucrativos, para desenvolver a inteligência artificial de modo aberto. Em 2019, ela criou uma divisão com lucros limitados, como forma de atrair investidores — afinal de contas, desenvolver modelos de IA e treiná-los custa muito caro.

Sam Altman chegou a ser demitido do posto de CEO após discordâncias com representantes da organização sem fins lucrativos (Imagem: Vitor Pádua / Tecnoblog)

No blog post publicado nesta sexta, a OpenAI diz que esta estrutura “não permite que o conselho considere diretamente os interesses de quem financia a missão e não permite que a organização sem fins lucrativos faça mais do que controlar o braço com fins lucrativos”.

A tensão entre as “duas” OpenAIs foi vista em novembro de 2023, quando o CEO Sam Altman foi demitido pelo conselho, por supostamente não comunicar suas decisões ao braço sem fins lucrativos. Ele foi recontratado poucos dias depois, e um novo conselho foi formado.

Como será a nova estrutura da OpenAI?

Com a nova estrutura proposta pelo conselho, a OpenAI “empresa” se tornará uma public benefit corporation (PBC). A OpenAI PBC vai controlar as operações e negócios da OpenAI.

A fundação sem fins lucrativos terá uma participação societária na empresa, mas não será mais a supervisora da companhia. Ela terá líderes e funcionários próprios para criar iniciativas de caridade nos setores de saúde, educação e ciência. Segundo o comunicado divulgado, um conselho financeiro independente vai avaliar a fatia da OpenAI PBC que será destinada à fundação OpenAI.

PBC é uma classificação existente nos Estados Unidos para empresas com fins lucrativos que também visam o bem da sociedade. Como a própria empresa destaca, a Anthropic e a xAI (fundada por Elon Musk) também são PBCs. Para se caracterizar como PBC, a OpenAI promete oferecer ações e usar seus lucros para garantir que a “inteligência artificial geral (AGI) beneficie toda a humanidade”.

A OpenAI pode ter que enfrentar desafios nos tribunais para concretizar esta transição. Elon Musk, que foi um dos cofundadores e principais doadores da OpenAI, entrou com um processo judicial no início de dezembro para impedir a conversão da empresa. Já a Meta pediu uma investigação sobre a mudança no modelo de negócios.

Com informações: The Verge, Ars Technica, Axios
OpenAI vai se tornar uma empresa com fins lucrativos

OpenAI vai se tornar uma empresa com fins lucrativos
Fonte: Tecnoblog

Apple melhorou iPad e Mac, perdeu briga na Europa e se enrolou com IA

Apple melhorou iPad e Mac, perdeu briga na Europa e se enrolou com IA

CEO Tim Cook dá início a evento da Apple (imagem: reprodução/Apple)

Em 2024, a Apple lançou a quarta geração da sua linha de chips para computadores de um jeito diferente: o M4 chegou ao iPad antes de aparecer no Mac. A marca também reduziu o Mac Mini e deixou o iPad Pro bem fininho.

O ano da empresa de Cupertino teve ainda brigas com a União Europeia, um comercial para lá de polêmico e um botão novo no iPhone. A marca da maçã também tentou correr atrás do prejuízo na disputa do mercado de inteligência artificial, mas com a Apple Intelligence, fica claro que ela largou depois e continua bem atrás das concorrentes.

Veja nesta retrospectiva1️⃣ Apple apresenta IA, mas ela ainda vai demorar2️⃣ União Europeia obriga Apple a abrir iOS3️⃣ M4 faz sua estreia no iPad Pro4️⃣ Polêmico comercial5️⃣ Mac Mini “ainda mais mini” é o destaque dos computadores6️⃣ iPhone 16 tem botão novo para câmera

1️⃣ Apple apresenta IA, mas ela ainda vai demorar

Já faz alguns anos que a inteligência artificial generativa é o assunto do momento. Enquanto Google, Microsoft e Samsung (entre outras empresas) lançaram rapidamente seus produtos, a Apple demorou um pouquinho mais.

Em junho, durante a WWDC 2024, a Maçã apresentou sua Apple Intelligence. O pacote traz ferramentas para transformar rabiscos em desenhos, sugerir respostas, resumir notificações, remover objetos de fotos e pedir para a Siri usar o ChatGPT na hora de dar respostas.

Apesar do anúncio já ter quase seis meses, nem todos os recursos da Apple Intelligence estão disponíveis. No iOS 18.1, em outubro, chegaram as ferramentas de texto e a limpeza de objetos em fotos. No iOS 18.2, em dezembro, veio a integração da Siri com o ChatGPT.

Mesmo assim, há limitações importantes. Uma delas é de hardware: entre os smartphones, apenas iPhones 16 Pro, 16 e 15 Pro têm acesso aos recursos. Outro problema é que a IA da Apple só terá suporte ao português em 2025 — por enquanto, ela só fala e entende inglês.

2️⃣ União Europeia obriga Apple a abrir iOS

Depois de anos de discussões, legislações, julgamentos e muito mais, finalmente chegou a hora de a Apple mexer no seu sistema para adequá-lo às regras da União Europeia.

As mudanças foram anunciadas em janeiro:

O sideloading (instalação direta de apps, sem precisar da App Store) está liberado.

Lojas de apps alternativas estão disponíveis para o iPhone.

Apps poderão usar sistemas de outras empresas para processar pagamentos de compras de itens ou assinaturas, por exemplo.

Navegadores de outras empresas agora podem usar seus próprios motores de renderização — antes, eram obrigados a usar o WebKit, da Apple.

O NFC do iPhone poderá ser usado para pagamentos sem precisar do app Carteira e do Apple Pay.

Parecia o fim das brigas envolvendo comissões e métodos de pagamento, mas não foi o que ocorreu. A Apple criou novas taxas e regras para apps distribuídos fora da App Store, irritando Spotify e Meta, por exemplo.

E em 2025, poderemos ver novos capítulos desta novela aqui no Brasil. O Conselho Administrativo de Defesa Econômica (Cade) quer que a Apple libere sideloading, lojas alternativas e outros sistemas de pagamento para compras in-app. A empresa recorreu da decisão.

3️⃣ M4 faz sua estreia no iPad Pro

Nos últimos anos, a Apple vinha colocando seus novos chips primeiro nos computadores e depois nos tablets. Em 2024, a empresa inverteu isso e promoveu a estreia do M4 no iPad Pro, no mês de maio.

iPad Pro 2024 tem chip atualizado e tela OLED (Imagem: Reprodução/Apple)

Além do novíssimo chip, a versão top de linha do iPad recebeu tela OLED pela primeira vez, com dois painéis sobrepostos (tecnologia que a Apple chamou de Tandem OLED) e brilho máximo de 1.000 nits. Outra novidade é que o iPad Pro de 2024 é fininho, com 5,1 mm (versão de 11 polegadas) e 5,2 (13 polegadas).

4️⃣ Polêmico comercial

O iPad Pro também acabou envolvido em um episódio controverso por causa de sua publicidade. A Apple fez um vídeo de lançamento do aparelho em que uma prensa esmagava diversos itens “criativos”, como instrumentos musicais, videogames, tintas, cadernos e obras de arte. No fim, o resultado era um iPad Pro.

A ideia da Apple era mostrar que várias atividades poderiam ser “compactadas” em seu novo produto, mas a peça acabou causando a impressão de que a empresa acredita que a tecnologia pode destruir e substituir a criatividade humana. “Erramos o alvo com esse vídeo e pedidos desculpas por isso”, admitiu Tor Myhren, vice-presidente de marketing da empresa.

5️⃣ Mac Mini “ainda mais mini” é o destaque dos computadores

O M4 do iPad Pro deu as caras novamente no segundo semestre — desta vez, na linha Mac. MacBook Pro e iMac receberam o novo chip, sem fazer grandes alterações no design de gerações anteriores.

Já o Mac Mini foi completamente remodelado. O computador de mesa ficou “ainda mais mini”, com dimensões próximas às de uma Apple TV, e agora conta com mínimo de 16 GB de RAM.

Por outro lado, ele não conta mais com portas USB-A, apenas USB-C, o que pode exigir o uso de adaptadores e dongles. E a Apple colocou o botão liga/desliga embaixo do computador. É para deixar em standby para sempre? Ainda não sabemos.

6️⃣ iPhone 16 tem botão novo para câmera

Como já é de costume, a Apple mostrou seu novo iPhone ao mundo no mês de setembro. O iPhone 16 traz como principal destaque um botão dedicado para a câmera. Ele tem sensibilidade ao toque, e pode ser usado também para alternar entre funções e dar zoom, por exemplo.

Tirando isso, as mudanças são bastante tímidas. O modelo base agora tem câmeras alinhadas na vertical, retomando um pouco do design dos modelos Xr e XS. Ele também herdou o botão de Ação do iPhone 15 Pro, que pode ser configurado para o que o usuário preferir.

Já o iPhone 16 Pro tem telas maiores (6,3 e 6,9 polegadas) e novos recursos para gravar áudio e vídeo. O conjunto de câmeras passou por mudanças: o modelo Pro recebeu o mesmo zoom óptico de 5x do Pro Max, e ambos agora contam com uma câmera ultra-wide de 48 megapixels.

Ver essa foto no Instagram Uma publicação compartilhada por Tecnoblog (@tecnoblog)

Apple melhorou iPad e Mac, perdeu briga na Europa e se enrolou com IA

Apple melhorou iPad e Mac, perdeu briga na Europa e se enrolou com IA
Fonte: Tecnoblog

IA em 2024: muitos assistentes, geradores de vídeos e até plágio de voz

IA em 2024: muitos assistentes, geradores de vídeos e até plágio de voz

2024 teve novas tecnologias e novos problemas (Imagem: Vitor Pádua / Tecnoblog)

Quem acompanha o Tecnoblog sabe que a inteligência artificial é um dos assuntos mais quentes da tecnologia nos últimos anos. Não foi diferente em 2024: a IA passou a falar mais, criar vídeos e até fazer buscas na internet (mas nem sempre acertando). E para 2025, a expectativa é que a tecnologia vá além da geração de textos e imagens e passe a comandar aplicativos e aparelhos.

Por outro lado, nem tudo foi positivo: além dos já citados erros durante pesquisas na web, as empresas se viram envolvidas em questões de plágio, direitos autorais, privacidade e até mesmo “cópia” de voz.

As notícias mais importantes da IA em 2024Gemini se consolida e vira assistente no AndroidMeta AI faz sua estreia no WhatsApp e no InstagramBusca com IA nem sempre dá certoChatGPT estreia buscador próprioVoz do ChatGPT causa “climão” com atrizSora, Firefly e as IAs de vídeoInteligência precisa de conteúdoNvidia bate recordes graças à alta demandaSamsung e Apple colocam IA em seus aparelhosMicrosoft coloca IA em quase tudoAgentes de IA são o futuro?Brasil discute regulação da tecnologia

Gemini se consolida e vira assistente no Android

No comecinho de 2024, o Google mudou o nome de seu chatbot de IA: sai o Bard, entra o Gemini. Com a nova marca, veio a consolidação da ferramenta no ecossistema do Google e, principalmente, do Android.

Aos poucos, o Gemini vai substituindo o Google Assistente e ganhando recursos para controlar smartphones. A ferramenta de IA já é capaz de se conectar a outros serviços da empresa (como Keep, Tasks e YouTube Music) e a recursos do Android (como alarme, lanterna e Wi-Fi) de forma mais fluida e menos robótica que seu antecessor.

Meta AI faz sua estreia no WhatsApp e no Instagram

Função de “imaginar” na Meta AI (foto: Thássius Veloso/Tecnoblog)

O ano de 2024 também fica marcado pela entrada da Meta no campo da inteligência artificial generativa. A Meta AI está presente nos principais apps da companhia: WhatsApp, Instagram, Facebook e Messenger. Nem todo mundo gostou, mas a empresa adverte: é melhor não fazer nenhuma gambiarra.

No Brasil, a Meta AI demorou um pouco mais para fazer sua estreia. A Agência Nacional de Proteção de Dados (ANPD) suspendeu as atividades da IA generativa da empresa por preocupações de privacidade, o que acabou atrasando o lançamento.

Busca com IA nem sempre dá certo

Desde que o ChatGPT surgiu, especula-se que chatbots com IA poderão substituir os tradicionais mecanismos de busca na web. Por isso, o Google se mexeu e liberou as AI Overviews, que são resumos de informações gerados automaticamente com base nas páginas encontradas.

Só que nem sempre isso dá certo, e uma dessas respostas esquisitas viralizou. Após uma pergunta sobre como grudar melhor o queijo na pizza, o Google sugeriu passar cola. A recomendação esquisita aconteceu porque o buscador levou ao pé da letra uma piada feita no Reddit há alguns anos.

ChatGPT estreia buscador próprio

A perspectiva de usar a inteligência artificial para buscas na internet ficou mais clara não só porque o Google abraçou a tecnologia, mas também por causa dos investimentos da própria OpenAI.

Em julho, a companhia revelou os primeiros detalhes do SearchGPT, o chatbot capaz de fazer pesquisas na web para complementar sua própria base de dados. A ferramenta foi liberada de fato em novembro com a promessa de entregar textos mais coesos e informações mais corretas (ou menos alucinadas).

e em dezembro, a ferramenta foi liberada para todos os usuários do ChatGPT. Com ela, o chatbot pode fazer pesquisas na web para complementar sua própria base de dados. A promessa é entregar textos coesos com informações mais corretas.

Busca é ativada automaticamente, mas usuário pode fazer uma pesquisa manual (Imagem: Divulgação / ChatGPT)

Voz do ChatGPT causa “climão” com atriz

Um dos principais lançamentos da OpenAI em 2024 foi um modo de fala para o ChatGPT, capaz de responder de modo natural e entender quando está sendo interrompida. A ferramenta tem até mesmo diferentes opções de voz — e uma delas gerou constrangimento.

Algumas pessoas notaram que a voz Sky era parecida com a da atriz Scarlett Johannsson — curiosamente, ela fez o papel de uma assistente virtual no filme Her, de 2013. Johansson revelou ter sido procurada por Sam Altman, CEO da OpenAI, para emprestar sua voz ao app, mas recusou a oferta. A empresa removeu a opção Sky após pedido da atriz.

Sora, Firefly e as IAs de vídeo

Depois da geração de textos e imagens estáticas, chegou a vez de a IA produzir vídeos. Logo em fevereiro, a OpenAI anunciou a Sora, seu modelo capaz de criar peças de até um minuto de duração. A ferramenta demorou para chegar ao público, sendo lançada apenas em dezembro e limitada a assinantes de planos pagos do ChatGPT.

Outra empresa que lançou produtos de IA para vídeo foi a Adobe. Em outubro, ela liberou o Firefly Video Model, capaz de estender vídeos existentes e fazer pequenas alterações.

Inteligência precisa de conteúdo

No finzinho de 2023, o jornal americano The New York Times processou a OpenAI e a Microsoft por usarem seus artigos para treinar seus modelos.

Quem também se meteu em altas confusões foi a Perplexity AI. Forbes e Wired acusaram a desenvolvedora do chatbot de plagiar reportagens e não respeitar a sinalização contra o acesso de robôs.

Para evitar problemas deste tipo, as empresas se mexeram para garantir que a IA tenha conteúdo. A própria OpenAI, por exemplo, assinou contratos com a Associated Press e o Financial Times, entre outras publicações, para ter acesso legal ao conteúdo produzido.

Os contratos vão além de revistas e jornais: a OpenAI e o Google fecharam acordos com o Reddit, que se tornou o “queridinho” de muitos usuários na hora de encontrar opiniões reais e sinceras na internet.

Nvidia bate recordes graças à alta demanda

As tarefas de treinamento e execução dos modelos de IA exigem grande poder de processamento. Com milhões de pessoas usando ChatGPT, Gemini e outras ferramentas todos os dias, uma quantidade enorme de chips é necessária para dar conta de todas as demandas.

Quem gostou disso foi a Nvidia. Principal fabricante de GPUs para IA do mercado, ela chegou a ser a maior empresa do mundo em valor de mercado por alguns meses, atingindo os US$ 3,332 trilhões em junho.

Samsung e Apple colocam IA em seus aparelhos

Após um 2023 em que muitas ferramentas com IA apareceram na internet ou na forma de apps independentes, em 2024, vimos fabricantes criarem suas próprias soluções.

Em janeiro, a Samsung lançou sua linha Galaxy S24, que trouxe também a Galaxy AI. As ferramentas de IA da marca são capazes de remover objetos de fotos e fazer traduções em tempo real. Em julho, 100 milhões de aparelhos da empresa sul-coreana já tinham acesso à IA.

Já a Apple apresentou sua Apple Intelligence em junho, na WWDC, tendo a Siri “turbinada” com ChatGPT como um de seus destaques, bem como gerar imagens e resumir notificações. Os recursos, porém, estão chegando lentamente aos aparelhos da maçã. Além disso, eles só estarão disponíveis em português em 2025.

Microsoft coloca IA em quase tudo

Poucas empresas mergulharam de cabeça na inteligência artificial como fez a Microsoft. Uma das principais investidoras da OpenAI, a desenvolvedora do Windows criou ferramentas para praticamente todos os apps do sistema — até o Bloco de Notas e o Paint foram contemplados.

A empresa também criou a iniciativa Copilot+ PC, certificando computadores que atendem requisitos para rodar tarefas de inteligência artificial. O assistente Copilot, por sua vez, passou por um redesign e ganhou novos recursos, como melhorias na capacidade de raciocínio.

Ver essa foto no Instagram Uma publicação compartilhada por Tecnoblog (@tecnoblog)

Nem tudo correu como o esperado, porém: o Recall, ferramenta que prometia ajudar o usuário a lembrar de informações vistas ou tarefas realizadas no Windows, sofreu com críticas relacionadas à segurança e à privacidade. Como consequência, a Microsoft precisou adiar o lançamento diversas vezes.

Agentes de IA são o futuro?

O fim de 2024 apontou um novo caminho para a IA: diversas empresas mencionaram em seus lançamentos o termo “agentic AI”. Google e Microsoft são alguns exemplos.

Em tradução livre, isso significa algo como “IA agêntica”, mas o melhor jeito de explicar é dizer que estes novos modelos terão uma capacidade maior de realizar tarefas pelo usuário, indo além de apenas gerar textos ou imagens.

Brasil discute regulação da tecnologia

Com a IA cada vez mais presente no noticiário, nos aplicativos e nos produtos, governos em todo o mundo passaram a ter mais atenção com o assunto. No Brasil, uma regulamentação para a tecnologia era discutida no Congresso Nacional desde 2019, antes mesmo do “boom” pós-ChatGPT.

Em dezembro de 2024, o Senado Federal aprovou um marco legal para a inteligência artificial. O texto define, entre outros pontos, que as empresas deverão informar quais conteúdos protegidos por direitos autorais estão sendo usado no treinamento dos modelos. Os autores poderão vetar o uso de suas obras.

O marco também visa assegurar direitos à explicação e à revisão humana quando uma decisão tomada por IA tiver impacto jurídico relevante. Além disso, fica proibido o uso de IA para prever realização de crimes ou classificar indivíduos de acordo com seu comportamento.

O texto segue para a Câmara dos Deputados, onde será discutido e votado novamente.
IA em 2024: muitos assistentes, geradores de vídeos e até plágio de voz

IA em 2024: muitos assistentes, geradores de vídeos e até plágio de voz
Fonte: Tecnoblog

Google lança inteligência artificial que promete raciocinar melhor

Google lança inteligência artificial que promete raciocinar melhor

Gemini 2.0 Flash Thinking está disponível apenas no Google AI Studio (Ilustração: Vitor Pádua/Tecnoblog)

O Google lançou nesta sexta-feira (dia 20/12) o modelo de inteligência artificial Gemini 2.0 Flash Thinking. Ainda em fase experimental, ele é apresentado como o melhor para “compreensão multimodal, raciocínio e geração de códigos”, com capacidade para “raciocinar sobre os problemas mais complexos” de programação, matemática e física.

O Gemini 2.0 Flash Thinking demora mais que seus concorrentes especializados em linguagem na hora de responder um prompt, podendo ficar alguns segundos ou até minutos “pensando”. O modelo considera pedidos relacionados e “explica” a linha de raciocínio. Depois disso, resume o método adotado e apresenta a resposta que ele avalia como a mais precisa.

It’s still an early version, but check out how the model handles a challenging puzzle involving both visual and textual clues: (2/3) pic.twitter.com/JltHeK7Fo7— Logan Kilpatrick (@OfficialLoganK) December 19, 2024

Parece bonito na teoria, mas nem sempre isso funciona na prática. O TechCrunch perguntou pra IA quantas letras R existem na palavra “strawberry”. O Gemini 2.0 Flash Thinking pensou, explicou e… errou, dizendo que há duas letras R.

Por enquanto, o Gemini 2.0 Flash Thinking está disponível apenas no Google AI Studio, plataforma da empresa para prototipagem.

Raciocínio ainda é um desafio para IA

A pergunta de quantos R há em “strawberry” se tornou famosa há alguns meses, depois que usuários perceberam que quase nenhum chatbot de IA é capaz de acertar a resposta na primeira tentativa.

Até o momento, as soluções mais populares de IA generativa — como ChatGPT, Copilot e o próprio Gemini, do Google — têm dificuldades quando o usuário faz pedidos que exigem raciocínios um pouco mais complexos. Descrever problemas matemáticos, por exemplo, nem sempre traz a solução certa.

Isso acontece porque, por trás dessas ferramentas, estão modelos de linguagem em larga escala (LLMs, na sigla em inglês). Eles são bons para decodificar pedidos e juntar palavras para formar um texto coeso, mas não têm muita capacidade de articular números e lógica.

Ou, como resume o MIT News, os LLMs são bons para recitar respostas semelhantes às vistas nos textos em que foram treinados, mas muito limitados ao se deparar com novos cenários.

Um estudo deixa isso bem claro: o ChatGPT se saiu muito pior quando precisa resolver problemas de código que apareceram na plataforma de testes LeetCode após 2021. Uma possível explicação para isso está no treinamento do GPT-3.5, que usou dados coletados até 2021 — ele só estaria resolvendo os problemas que conhece.

Aos poucos, as empresas tentam mudar este cenário. A OpenAI apresentou, há alguns meses, o modelo o1, que promete raciocínio lógico aprimorado.

Segundo a empresa, o o1 “pensa” por mais tempo nas questões antes de respondê-las, testando estratégias e encontrando erros nas hipóteses. Com isso, ele foi capaz de acertar 83% das questões de um teste qualificatório para a Olimpíada Internacional de Matemática.

Com informações: TechCrunch, Ars Technica
Google lança inteligência artificial que promete raciocinar melhor

Google lança inteligência artificial que promete raciocinar melhor
Fonte: Tecnoblog

Você já pode utilizar o ChatGPT diretamente no WhatsApp; saiba como

Você já pode utilizar o ChatGPT diretamente no WhatsApp; saiba como

OpenAI lança ChatGPT para WhatsApp (Imagem: Vitor Pádua / Tecnoblog)

Resumo

O ChatGPT está disponível no WhatsApp através do número +1 (800) 242-8478. Basta adicionar o contato e começar a conversar.
Não é necessário ter conta no ChatGPT para usar o serviço nas plataformas mencionadas, mas há limites diários de interação.
Por enquanto não é possível fazer login com a conta salva no site chatgpt.com.

Ficou ainda mais fácil utilizar o ChatGPT. A plataforma de inteligência artificial da OpenAI anunciou hoje a chegada ao WhatsApp. Por meio do aplicativo de mensagens da Meta, é possível conversar com o chatbot e solicitar informações ou tarefas. O serviço está em fase de testes e possui algumas limitações.

Para utilizar o ChatGPT no WhatsApp, é necessário enviar uma mensagem para o número +1 (800) 242-8478 (1800CHATGPT). Nesse primeiro momento, a inteligência artificial apenas responde interações via texto — não é possível enviar arquivos ou pedir para o assistente gerar uma imagem, por exemplo.

Não é necessário ter uma conta do ChatGPT para utilizar a inteligência artificial generativa pelo WhatsApp. Existe um limite diário de interações que não foi divulgado pela OpenAI. A empresa afirma que a experiência completa do serviço continua restrita para o aplicativo ou o site do ChatGPT.

ChatGPT responde mensagens via WhatsApp (Imagem: Lucas Braga/Tecnoblog)

No WhatsApp, o ChatGPT fica mais fácil de se acionado, especialmente considerando que é possível encaminhar mensagens do aplicativo para ao assistente. Com o lançamento, a OpenAI passa a concorrer ainda mais com a Meta AI, disponível nativamente no aplicativo de mensagens desde outubro de 2024.

ChatGPT lança IA por ligações telefônicas

Além de chegar ao WhatsApp, o ChatGPT também lançou suporte para ligações telefônicas. O número é o mesmo do WhatsApp, mas aceita apenas chamadas convencionais. O funcionamento é bem similar ao modo de voz disponível no aplicativo.

Call 1-800-CHAT-GPT.It even works on flip phones and landlines. pic.twitter.com/lT7CoQa1Kn— OpenAI (@OpenAI) December 18, 2024

Através das ligações tradicionais, o ChatGPT consegue alcançar um público ainda maior, uma vez que as chamadas podem ser feitas utilizando telefones fixos ou celulares simples.

Assim como na versão do WhatsApp, existem limitações no ChatGPT via ligações. A mais significativa é o limite máximo de 15 minutos por mês para falar com a IA. Também não há como fazer login na plataforma, e o assistente não terá o seu histórico de conversas para oferecer respostas mais personalizadas.

Além disso, o serviço de ligações do ChatGPT está disponível apenas para números dos Estados Unidos — para testar, liguei de um número brasileiro e ouvi a mensagem que tinha estourado o limite máximo mensal. Ainda não há previsão de expansão para mais países.

Você já pode utilizar o ChatGPT diretamente no WhatsApp; saiba como

Você já pode utilizar o ChatGPT diretamente no WhatsApp; saiba como
Fonte: Tecnoblog

ChatGPT libera busca na web para todos os usuários; veja como usar

ChatGPT libera busca na web para todos os usuários; veja como usar

ChatGPT vai disputar espaço com Google entre os buscadores (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI liberou o ChatGPT Search para todos os usuários da inteligência artificial. Antes, o buscador da inteligência artificial estava restrito a assinantes de planos pagos, como Plus e Team. Agora, qualquer pessoa poderá usá-lo, sem pagar nada por isso — basta entrar com sua conta.

Com o ChatGPT Search, a IA identifica quais pedidos do usuário precisam de uma busca na web para obter uma resposta satisfatória. A ferramenta acessa páginas, resume informações e cria um texto, indicando as fontes utilizadas em cada parágrafo.

Segundo a OpenAI, também é possível clicar em um ícone de globo na barra do ChatGPT para “forçar” o chatbot a fazer uma busca na web, mesmo que ela não seja necessária para responder à pergunta. Para mim, no entanto, essa opção ainda não aparece.

A empresa também indica que é possível configurar o ChatGPT para que ele seja usado como mecanismo de pesquisa padrão em qualquer navegador, o que pode acirrar a disputa com o Google pelo mercado de buscas.

Busca é ativada automaticamente, mas usuário poderá fazer uma pesquisa manual (Imagem: Divulgação / ChatGPT)

Como fazer uma busca na web com o ChatGPT?

O processo de pesquisar na internet com o ChatGPT é bem simples.

Abra o aplicativo do ChatGPT ou acesse o site da ferramenta.

Faça login com sua conta na plataforma ou com um serviço de terceiros (Google, Apple ou Microsoft). Apenas usuários logados podem usar a busca — sem login, o ChatGPT usa apenas sua própria base de dados para gerar respostas.

Digite seu pedido para o ChatGPT. Se o prompt exige informações atualizadas, o bot fará a busca automaticamente e utilizará o conteúdo que encontrar nas respostas.

Como o ChatGPT se sai ao buscar informações?

Nos meus testes, a ferramenta teve desempenho bom em inglês e razoável em português. Ela foi capaz de fazer um balanço do desempenho da Seleção Brasileira em 2024, por exemplo, mencionando resultados, classificação e declarações do técnico em um texto de quatro parágrafos.

ChatGPT busca informações e resume resultados (Imagem: Reprodução/Tecnoblog)

No entanto, ao pedir a previsão do tempo em São Paulo, o ChatGPT errou as temperaturas e a possibilidade de chuva. Curiosamente, os sites apontados como fonte traziam as informações corretas. Um prompt em inglês trouxe resultados mais precisos.

A diferença entre inglês e português se repete também em outras buscas. Ao procurar como foi o último jogo do Liverpool com um prompt em português, o ChatGPT deu o resultado de uma partida de um ano atrás. Em uma segunda tentativa, ele acertou o jogo em questão, dando o resultado. Já em inglês, o bot acertou de primeira o adversário e o placar, além de fazer um comentário mais longo sobre a partida.

No anúncio da ferramenta, a OpenAI mostrou widgets de previsão do tempo, placares esportivos, preço de ações e mais. Por enquanto, eles ainda não apareceram nas minhas buscas. Outra promessa era de integrar resultados a outros aplicativos. Ao pedir recomendações de restaurantes, as informações poderiam aparecer com links do Apple Maps, por exemplo. Por aqui, isso também não funcionou.

Com informações: TechCrunch, Engadget
ChatGPT libera busca na web para todos os usuários; veja como usar

ChatGPT libera busca na web para todos os usuários; veja como usar
Fonte: Tecnoblog

Google anuncia Gemini 2.0 e agentes de IA para realizar tarefas

Google anuncia Gemini 2.0 e agentes de IA para realizar tarefas

Gemini 2.0 Flash supera 1.5 Flash e equivale ao 1.5 Pro (Ilustração: Vitor Pádua/Tecnoblog)

O Google anunciou nesta quarta-feira (dia 11/12) o Gemini 2.0, nova versão do modelo de inteligência artificial. Ele estará em vários produtos da empresa, como o assistente que leva o mesmo nome e as AI Overviews, resumos que aparecem acima dos resultados de busca.

A nova versão será lançada inicialmente em formato reduzido, mas promete desempenho comparável ao do Gemini 1.5 Pro. Ela é capaz de trabalhar com texto, imagens estáticas, vídeos e fala.

A companhia também apresentou novos modelos e aplicações. São os chamados agentes, como o Project Mariner (uma extensão que navega na internet pelo usuário), o Jules (assistente para corrigir erros de código) e a nova versão do Project Astra (que identifica objetos com imagens de câmeras).

Gemini 2.0 Flash é a primeira versão

O Google vai liberar inicialmente o Gemini 2.0 Flash. Ainda em fase experimental, ele é a versão reduzida do novo modelo de IA. O Gemini 2.0 Flash estará disponível a partir de hoje (dia 11/12) no assistente Gemini na web, tanto para desktop quanto para smartphones. Nos apps para Android e iOS, ele chegará em breve.

Nos testes do Google, o Gemini 2.0 Flash supera o Gemini 1.5 Flash em quesitos como respostas, geração de códigos de programação, capacidade de fornecer fatos corretos, resolução de problemas matemáticos, raciocínio e análise de vídeos. Há uma leve piora em compreensão de contextos complexos.

As avaliações também mostram um desempenho comparável ao do Gemini 1.5 Pro, um dos modelos mais potentes da geração passada do Google.

Desenvolvedores terão acesso ao Gemini 2.0 Flash no Google AI Studio e no Vertex AI, com possibilidade de input multimodal e output em texto. Isso significa que o modelo é capaz de processar imagens, texto e áudio, mas as respostas ainda serão apenas em texto. Para parceiros selecionados, ele terá geração de voz e imagens.

Novo modelo será usado em agentes de IA

O Google também deu destaque ao que chamou de “experiências agênticas”. Já faz algum tempo que ouvimos que a IA poderá não só dar respostas ou gerar imagens, mas também assumir o controle de aplicativos que usamos diariamente. Este seria o tal uso “agêntico” que o Google menciona.

Uma destas experiências é o Project Mariner. Ele é capaz de entender o que está na tela do seu navegador, sejam textos, códigos de programação, imagens ou formulários. Uma extensão do Chrome, então, pode completar tarefas para o usuário.

O Google ressalta que o Mariner ainda está em fase inicial, nem sempre é preciso e pode demorar para completar as tarefas. Porém, a empresa promete que ele vai evoluir rapidamente.

Outra novidade é o Jules. Ele se comporta como um assistente de programação, resolvendo problemas, desenvolvendo planos e os executando, sob supervisão de um desenvolvedor.

Por fim, o Google também aperfeiçoou o Project Astra. Apresentado no Google I/O, o agente é capaz de usar câmeras e entender imagens ao redor, auxiliando o usuário a obter informações, com a ajuda do Lens e do Maps, por exemplo. A companhia também revelou óculos experimentais que usam esta ferramenta.

Com informações: Google, Axios, TechCrunch, The Verge
Google anuncia Gemini 2.0 e agentes de IA para realizar tarefas

Google anuncia Gemini 2.0 e agentes de IA para realizar tarefas
Fonte: Tecnoblog